Sie sind auf Seite 1von 640

WISSENSCHAFTS-

PHILOSOPHIE
In systematischer und historischer
Perspektive

Lutz Geldsetzer

Institut für Philosophie der HHU


Düsseldorf
2015
WISSENSCHAFTSPHILOSOPHIE
in systematischer und historischer Perspektive

von

Lutz Geldsetzer

Lehrmaterialien aus dem


Institut für Philosophie
(vormals Philosophisches Institut)
der HHU Düsseldorf

Copyright 2015 vorbehalten

Kopie für persönlichen Gebrauch und für Zitierzwecke


sowie einzelner Paragraphen für Lehrzwecke erlaubt
L. G.

Zeichnung: Florian Wies


Vorwort

Die vorliegende Schrift enthält die Erträgnisse der Studien des Verfas-
sers über die Wissenschaften von etwa drei Jahrzehnten. Gelegenhei-
ten zu Erfahrungen im Wissenschaftsbetrieb ergaben sich schon früher
während seiner nun mehr als fünfzigjährigen Lehr- und Forschungs-
tätigkeit an der Düsseldorfer Universität und bei Gastprofessuren an
Universitäten in Frankreich, Italien, in den USA und in der VR.
China.
Das Material hat sich in wiederholten Vorlesungen zum Thema
„Wissenschaftstheorie“ so angereichert, daß es einigermaßen umfang-
reich geworden ist und den Charakter eines Lehrbuches der Disziplin
angenommen hat. Es ist in vier Teile gegliedert:
Der erste Teil hat vorwiegend systematischen Charakter. Die Diszi-
plin „Wissenschaftsphilosophie“ wird in einer hier vorgeschlagenen
Architektonik des Wissenschaftssystems verortet. Dadurch werden
ihre Voraussetzungen, die sie von philosophischen Grunddisziplinen
übernimmt, und ihre Bezüge zu Bereichsdisziplinen bis hin zu den
Einzelwissenschaften sichtbar gemacht.
Anhand dieses Leitfadens wird als Zweck und Ziel aller Wissen-
schaften die Gewinnung, Bewahrung und Begründung von Wahrheit
herausgearbeitet. Die Definition der Wahrheit als kohärentes und
komprehensives Wissen erlaubt es, ein genuin wissenschaftliches
Wahrheits-Ideal von anderen kulturellen Idealen zu unterscheiden, die
sich immer wieder und heute verstärkt an seine Stelle drängen oder
damit verwechselt werden. Diese Vermischungen führen zu verschie-
denen Formen und Gestalten von falschem Wissen und zu dem, was
hier „wahr-falsches Wissen“ genannt wird.
Die Erarbeitung wahren Wissens in den Wissenschaften hängt in
erster Linie von den dazu eingesetzten Methoden ab. Es geht dabei um
die Definition der wissenschaftlichen Begriffe, deren Verknüpfung zu
wahren Urteilen und der Urteile zu schlüssigen Argumenten, die in
der Gestalt von Theorien eine Gesamtdarstellung der einzelnen Wis-
sensressourcen über die jeweiligen Forschungsgebiete erlauben.
In allen diesen methodischen Verfahren muß es, wie man sagt, lo-
gisch zugehen. Logik ist seit alters die dafür relevante philosophische
Methodendisziplin.
Von I. Kant stammt die These, die Logik habe „seit dem Aristoteles
keinen Schritt rückwärts“ getan, und „daß sie auch bis jetzt keinen
Schritt vorwärts hat tun können“. Das wird bis heute gerne wiederholt.
Geisteswissenschaftler haben die These meist so verstanden, daß die
II

Logik Zeit genug gehabt habe, sich so allgemein in allem wissen-


schaftlichen Tun zu bewähren, daß sie gewissermaßen den „gesunden
Menschenverstand“ ausmache, so daß man sie nicht eigens studieren
müsse. Naturwissenschaftler verstehen Kants These ganz im Gegenteil
dazu so, daß die Logik deshalb überholt sei und durch eine neue
„mathematische Logik“ ersetzt werden müsse. Daher sprechen sie von
der traditionellen Logik als „klassisch-aristotelischer Logik“, die zu
kennen überflüssig geworden sei.
In der Tat ist nichts falscher als diese kantische These. Denn die
Logik hat wie alle Disziplinen im Laufe der Geschichte sowohl Fort-
schritte gemacht als auch Fehler und Irrtümer in ihre Lehrgehalte auf-
genommen. Deshalb ist es eine wichtige Frage, ob und wie das, was
man jetzt mathematische Logik nennt, überhaupt Logik ist, und ob sie
die traditionelle Logik wirklich ersetzten kann.
Die hier vertretene These ist, daß die „quadriviale“ Mathematik seit
der Antike die spezielle Logik der Physik gewesen ist und sich als
solche naturgemäß mit dieser zusammen entwickelt hat. Sie ist aus der
aristotelischen Logik als ein dialektischer Seitenzweig erwachsen und
kultiviert das Denken in Widersprüchen.
Daß die Mathematik in den beiden Zweigen der Geometrie und der
Arithmetik entwickelt worden ist, deutet selbst schon auf eine Zwei-
teilung alles Mathematischen hin. Denn die Geometrie ordnet und
klärt alle Verhältnisse, die sich zwischen sinnlich wahrnehmbaren Fi-
guren und Gestalten in beliebiger Größe ergeben können. Diese Ver-
hältnisse werden als besonderer „semantischer“ Gegenstandsbereich
durchaus logisch und widerspruchslos behandelt. Und das hat die
Geometrie in allen handwerklichen, technischen und ökonomischen
Angelegenheiten zu einer widerspruchslosen Methodik gemacht. Wo
allerdings die Geometrie ohne Bezugnahme auf Anwendungen rein als
Teil der Mathematik behandelt wird, besitzt sie ebenso wie die Arith-
metik ihre für sie eigentümliche Dialektik.
Die Arithmetik erforscht und konstruiert gänzlich unanschauliche
Zahlgebilde und ihre Verhältnisse. Alles, was hier gesagt werden
konnte, wurde zwar, um überhaupt verständlich zu sein, anhand geo-
metrischer Modelle veranschaulicht, wie man bei Platon und Euklid
sieht. Aber zu einer durchgehenden Veranschaulichung reichte die
Geometrie schon in der Antike nicht mehr aus. Vor allem in den Be-
reichen, wo arithmetische Verhältnisse ins Infinite und Infinitesimale
ausgeweitet wurden. Das bedeutete, daß die arithmetischen Theorien
ihre geometrischen semantischen Beziehungen zum Teil verloren.
Zahlen und Zahlverhältnisse wurden und werden seither als arithme-
tische Konstrukte behandelt, die nur noch teilweise geometrisch ver-
anschaulicht werden können.
III

Zahlen treten durch die Operatoren ihrer Rechenarten zueinander in


Relationen, die eine spezielle Semantik unanschaulicher Objekte er-
zeugen. Sie bilden Mengen und Größen, die zugleich weder Mengen
noch „groß“ oder „klein“ sein können, weil es derartiges nur in der
sinnlichen Anschauung gibt. Sie erzeugen auch Relationen zwischen
„bekannten Unbekannten“ (Variablen). Sie definieren durch Gleichun-
gen Begriffe von arithmetischen Sinngebilden, die zugleich Behaup-
tungen wahrer Einsichten sein sollen. Und alles dies wird reflexiv
bzw. ipsoflexiv auf einander angewendet.
Dies ließ und läßt sich mit den Mitteln einer trivialen Logik, die auf
Widerspruchslosigkeit angelegt ist, nicht bewältigen. Die Logik mußte
erweitert werden. Und sie wurde dadurch erweitert, daß das in der
trivialen Logik ausgeschlossene Dritte als widersprüchliche Denkfigur
positiv aufgenommen und zu einer eigenen Technik des Umgangs mit
unanschaulichen Sinngebilden verwendet wurde.
„Quadriviale“ Mathematik als dialektische Speziallogik trat dadurch
in Konkurrenz zur „trivialen“ Logik und verdrängte diese gänzlich aus
der naturwissenschaftlichen Methodologie.
Als sich im Laufe des 19. Jahrhunderts der quadriviale Teil der Wis-
senschaften aus den Philosophischen Fakultätsstudien abspaltete und
zu eigenen Mathematisch-Naturwissenschaftlichen Fakultäten verselb-
ständigte, kam auch in diesen neuen Fakultäten das Bedürfnis auf, sich
der logischen Grundlagen ihrer Fächer erneut zu vergewissern.
Die Mathematik, die als Einzelwissenschaft bis dahin unbestritten
die Methodologie der Naturwissenschaften darstellte und ohne logi-
sche Methodologie auskam, entwickelte für sich die fachspezifische
Logik, die seither die logischen Grundlagen der Mathematik selber zu
klären begann. Das Resultat dieser Bestrebungen war in erster Linie
die Entdeckung zahlreicher logischer Widersprüche und Paradoxien in
den mathematischen Theorien.
Das führte jedoch nicht dazu, die traditionelle „triviale“ Logik selber
weiter zu entwickeln, sie eventuell von Fehlern zu reinigen und ihre
Besonderheiten bei der Anwendung auf die Mathematik und die Na-
turwissenschaften herauszustellen. Vielmehr weitete man den An-
spruch der mathematischen Logik dahingehend aus, daß sie überhaupt
die einzige Methodologie aller avancierten Wissenschaften sei.
Dieser Anspruch schien durch die gewaltigen Erfolge der mathema-
tischen Naturwissenschaften in allen technischen Anwendungen ge-
rechtfertigt zu sein, die man durchweg auf die forcierte Mathema-
tisierung der Naturwissenschaften zurückführte.
Der Anspruch ist, wenn nicht falsch, so doch weit übertrieben. Denn
technische Anwendungen der Naturwissenschaften verdanken sich in
erheblichem Ausmaß dem praktischen Know How von Handwerkern
IV

sowie von Geräte- und Maschinenbauern. Doch angesichts der Ten-


denz zur Mathematisierung möglichst aller Wissenschaften, bemühen
sich auch die wenigen übrig gebliebenen „trivialen“ Logiker der Phi-
losophischen Fakultäten inzwischen, die „klassische“ Logik in die
Formalismen der mathematischen Logik einzukleiden.
Die Kluft zwischen den traditionellen logischen Denkweisen von
Laien und Geisteswissenschaftlern und mathematisch ausgebildeten
Naturwissenschaftlern erweiterte sich beständig bis zu den heute viel-
beklagten „zwei Kulturen“, in denen sich nun beide Lager in gegen-
seitiger Verständnislosigkeit gegenüber stehen. Daß dieser Methoden-
antagonismus auf die Lage und die Probleme der Wissenschaftstheo-
rien zurückwirkt und dringend der Klärungen bedarf, dürfte auf der
Hand liegen.
Deshalb wurde in diesem systematischen Teil große Aufmerksamkeit
auf die so entstandenen Unterschiede zwischen den entsprechenden
Denkweisen und ihre Verteilungen auf gewisse wissenschaftliche und
populäre Einstellungen im Lehr- und Forschungsbetrieb gelegt. Vor
allem aber wurde ein Beitrag zur Wiederbelebung und Verbesserung
der „trivialen“ Logik in Gestalt eines kleinen Lehrbuches der „pyra-
midalen Logik“ mit einem besonderen Formalismus und den sich
daraus ergebenden Folgerungen für die Unterscheidung der traditio-
nellen und der mathematischen Logik und ihrer Besonderheiten vor-
gestellt.
Um dem Leser einen Vorgeschmack auf das zu geben, was er hier
erwarten kann, seien die wesentlichen Thesen der mathematischen Lo-
giker, auch diejenigen, die aus der klassischen Logik übernommen
worden sind, und eine Beurteilung derselben vom Standpunkt der
pyramidalen Logik einander konfrontiert.
Mathematische Logiker, manchmal auch in Übereinstimmung mit
der klassischen Logik, behaupten:
1. Daß Logik und Mathematik zwei rein „formale“ Denkmethodiken
seien, welche Wahrheit und Falschheit - und darüber hinaus Wahr-
scheinlichkeit(en) jeweils auf spezifische Weise und für ihre besonde-
ren Bereiche ohne Bezug auf inhaltliche Gegenstände darstellen, un-
terscheiden und beweisen könnten.
Es wird gezeigt, daß es nur eine einzige Logik geben kann, die für
alle Wissenschaften, also auch für die Mathematik, gilt. Sie kann
niemals inhaltlos praktiziert werden. Ihre Formalismen sind selbst ihr
inhaltlicher bzw. semantischer Gegenstand.
2. Der Unterschied zwischen traditioneller und mathematischer Lo-
gik wird darin gesehen, daß es so etwas wie rein intensionale und rein
extensionale Logiken gäbe. Wobei die „klassische“ bzw. die aus den
V

„trivialen“ Disziplinen der Philosophischen Fakultät herstammende


Logik mehr intensional, die aus den „quadrivialen“ Disziplinen her-
stammende Mathematik und ihre Logik mehr extensional ausgerichtet
seien.
Rein intensionale und rein extensionale Logiken kann es jedoch
nicht geben. Und zwar, weil ihre Grundelemente, nämlich die Begrif-
fe, ohne deutliche Definition ihrer Intensionen (Merkmale) und klare
Bestimmung ihrer Extensionen (Umfänge) keine Begriffe wären.
Ohne klare und deutliche Begriffe aber können auch die Urteile und
Schlüsse, in denen sie vorkommen, keine eindeutigen Wahrheitswerte
erhalten.
3. Große Übereinstimmung herrscht unter Mathematikern darüber,
daß die klassische Logik mittlerweile durch die mathematische Logik
überholt und überflüssig gemacht worden sei, da in letzterer alle
positiven Einsichten der ersteren erhalten und in klareren Formalis-
men dargestellt werden könnten.
Dieser Anspruch besitzt keine Grundlage. Vielmehr ist die mathe-
matische Logik selbst eine auf ihre mathematischen Objekte einge-
schränkte triviale Logik, die das sogenannte Dritte als Widerspruch
zuläßt. Das Dritte besitzt hier eine dominierende „dialektische“ Funk-
tion. D. h. die Zulassung des Dritten ist die Grundlage für die Erzeu-
gung vieler widerspruchsvoller mathematischer Sinngebilde.
4. Sowohl von klassischen wie mathematischen Logikern wird ange-
nommen, daß sich die allgemeinsten „Begriffe“ (Kategorien und axio-
matische Begriffe) sowie die individuellen Kennzeichnungen (Eigen-
namen) nicht definieren ließen.
Es wird gezeigt, daß sowohl axiomatische Grundbegriffe als auch
individuelle Eigennamen definiert werden können. Allerdings nicht
mit der aristotelischen Standarddefinition mittels Genus proximum
und spezifischer Differenz bezüglich des Allgemeinsten, und auch
nicht durch Aufzählung aller Spezifika oder durch die Annahme eines
sogenannten Taufereignisses (S. Kripke) beim Individuellen. Erst die
Definitionsmöglichkeit der allgemeinsten (axiomatischen oder katego-
rialen) wie der speziellsten Begriffe (die gelegentlich durch Eigen-
namen gekennzeichnet werden) kann überhaupt die Logik zu einer
Methodik der Wahrheitsauszeichnung machen.
5. Mathematische Logiker nehmen für die Mathematik in Anspruch,
daß mathematische Begriffe durch „vollständige“ Induktion gewonnen
und definiert werden. Dagegen sei die Induktion in der klassischen
Logik stets „unvollständig“. Man unterstellt ihr, es handele sich dabei
um einen unbefugten Schluß „von einigen auf alle Instanzen“ (Bei-
spielsmerkmale) des induzierten Begriffs.
VI

Die pyramidale Erklärung der Induktion zeigt dagegen, daß die Be-
griffsbildung durch logische Induktion immer vollständig und sicher
ist. Sie ist kein Schluß von einem Artbegriff auf die zugehörige Gat-
tung, sondern sie expliziert nur, daß die Merkmale (Intensionen) eines
induzierten Artbegriffs allen seinen Instanzen in seiner Extension zu-
kommen. Das haben schon Wilhelm von Ockham und Francis Bacon
bewiesen. Und sie zeigt überdies, daß gerade die Mathematik die un-
vollständige Induktion als Schluß „von einigen auf alle Fälle“ verwen-
det, ohne jemals „alle“ Fälle zu kennen oder jemals prüfen zu können.
6. Mathematische Logiker haben aus der klassischen Logik die Mei-
nung übernommen, daß die logischen Junktoren und mathematischen
Operatoren sinnfreie Elemente und jedenfalls keine Begriffe seien. Sie
dienten nur dazu, nicht-wahrheitswertfähige Begriffe zu wahrheits-
wertfähigen Urteilen und diese zu Schlüssen zu verknüpfen, deren
Sinn gerade in Wahrheiten, Falschheiten und Wahrscheinlichkeiten
bestünden.
Es ist jedoch die gemeinsprachliche Bedeutung der logischen Junk-
toren wie der mathematischen Operatoren für die Grundrechenarten,
deren Verständnis erst die Definition von nicht wahrheitswertfähigen
Begriffen und Ausdrücken sowie die Komposition von wahrheits-
wertfähigen Urteilen und Schlüssen erlaubt. Die gemeinsprachliche
Bedeutung der jeweiligen ausdrucks- und satzbildenden Junktoren ist
aber selbst „auf Begriffe zu bringen“. Dann zeigt sich, daß zwischen
den satzbildenden Junktoren (die den Wahrheitswert von Behaup-
tungen bestimmen) und den begriffs- und ausdrucksbildenden Junkto-
ren (ohne Wahrheitswerte) strikt unterschieden werden muß. Die ge-
meinsprachliche Bedeutung der Junktoren und Operatoren vermittelt
auch den Bezug der logischen Formalismen auf sprachliche Inhalte.
7. Mathematiker sind seit Euklids Zeiten davon überzeugt, daß Glei-
chungen eine genuin mathematische Form behauptender Urteile mit
Wahrheitswerten sei. I. Kant hat diese Meinung auch in der Logik und
bei Philosophen verbreitet, indem er eine mathematische Gleichung
als Beispiel eines „synthetischen Urteils a priori“ ausgab.
Die Gleichung stellt jedoch eine logische Äquivalenz dar. Deren
Hauptfunktion ist die Definition von Begriffen und Ausdrücken. Sie
gehört zu den ausdrucksbildenden Junktoren und kann daher keines-
wegs wahrheitswertfähige Behauptungen bzw. Urteile ausdrücken.
Die Gleichungsäquivalenz definiert identischen Sinn mittels verschie-
dener Zeichenausdrücke. Dies entspricht der gemeinsprachlichen
Funktion der Synonyme. Die Gleichung ist weder voll- noch teiliden-
tisch mit der logischen Kopula oder mit einer Implikation, die logi-
sche Behauptungen auszeichnen.
VII

8. Von der klassischen Logik haben mathematische Logiker über-


nommen, daß die logischen ebenso wie die mathematischen Wahr-
heitswertnachweise und Beweise auf den drei angeblich unbegründ-
baren Axiomen der Identität, des Widerspruchs und eines Dritten be-
ruhen. Von diesen „Prinzipien“ soll die Identität – als Tautologie und
reine Wahrheitform – angestrebt, satzmäßiger Widerspruch und Drit-
tes als falschheitsträchtig – vermieden oder gar ausgeschlossen sein.
Es wird gezeigt, daß Identität, Widerspruch und Drittes nicht die
tatsächlichen Axiome bzw. Prinzipien von klassischer und mathemati-
scher Logik sind. Sie ergeben sich erst als Deduktionen aus den
eigentlichen Axiomen Wahrheit und Falschheit und der aus beidem
komponierten Wahr-Falschheit.
9. Nicht nur die mathematische, sondern auch die klassische Logik
geht davon aus, daß der Satzwiderspruch ein formales Kennzeichen
der Falschheit sei. Deswegen mache ein Widerspruch auch jede inhalt-
liche Theorie falsch, in der er vorkommt. Diese traditionelle Meinung
setzt voraus, daß eine widerspruchsvolle Behauptung keinen semanti-
schen Bezug zur Wirklichkeit habe und deshalb nichts behaupte bzw.
„sinnlos“ sei. Dabei leugnet niemand, daß ein Satzwiderspruch aus
einer wahren und einer falschen Behauptung über einen und denselben
Sachverhalt zusammengesetzt ist. Mathematische Logiker meinen
unter Berufung auf A. Tarskis Metatheorie der Sprachstufen, die Ver-
knüpfung des wahren und des falschen Satzteiles verleihe dem Ge-
samtsatz den neuen „Meta-Sinn“ der „Falschheit“, der die Wahrheits-
werte der Basissätze neutralisiere bzw. ersetze. Ein „wahrer“ Meta-
Wahrheitswert wird dagegen dogmatisch beim alternativen Urteil
angenommen. Die Urteilsalternative gilt als wahr, wenn eine ihrer
Komponenten wahr, die andere falsch ist.
Dagegen wird anhand zahlreicher Beispiele nachgewiesen, daß
durch die Verknüpfung des wahren und des falschen Satzteils im
widersprüchlichen Urteil kein Metasinn entstehen kann. Dies ebenso
wenig wie bei nichtwidersprüchlicher Verknüpfung eines wahren und
eines falschen Satzes. Deshalb muß der Satzwiderspruch seinen Sinn
als „wahr und falsch zugleich“ sowohl formal wie auch in seinen in-
haltlichen Anwendungen behalten. Die These von der „Falschheit des
Satzwiderspruchs“ erweist sich damit als unbegründetes Dogma bzw.
als reine Konvention mit sehr schädlichen Folgen. Denn wenn der
Satzwiderspruch als falsch gilt, wird auch seine wahre Komponente
für falsch erklärt. Umgekehrt verhält es sich bei der Urteilsalternative,
der dogmatisch der Metasinn „wahr“ zugesprochen wird, obwohl sie
ersichtlich ebenfalls wahr und falsch zugleich ist. Paradoxien und
viele traditionell für widerspruchslos gehaltene widersprüchliche Be-
griffe und Ausdrücke, die in Satzwidersprüchen in Subjekts- und/oder
VIII

Prädikatsstellung verwendet werden, sind nicht nur alltagssprachliche


rhetorische, sondern auch logische Mittel, durch Lügen die Wahrheit
zu sagen, und mittels der Wahrheit zu lügen. Mit „wahren“ alternati-
ven Urteilen behält man deswegen stets Recht, weil sie nicht aus-
drücken, welche ihrer Komponenten die wahre und welche die falsche
ist.
10. Aus dem Dogma von der Falschheit des Widerspruchs ergibt sich
die in der mathematischen Logik verbreitete Meinung, daß logische
und mathematische Wahrheit auf der Widerspruchslosigkeit beruhe.
Wahrheit ist jedoch nicht aus der Widerspruchslosigkeit deduzier-
bar, sondern umgekehrt Widerspruchslosigkeit aus der Wahrheit.
Ebenso wenig ist Falschheit aus dem Widerspruch deduzierbar, son-
dern umgekehrt der Widerspruch aus der Verknüpfung von Wahrheit
und Falschheit. Wahrheit und Falschheit sind daher die tatsächlichen
logischen Prinzipien. Sie definieren sich gegenseitig durch Negation
(Wahrheit = Nicht-Falschheit; Falschheit = Nicht-Wahrheit). Beide
zusammen definieren die Wahrscheinlichkeit als Wahr-Falschheit.
Nur aus dem dialektischen Prinzip der Wahr-Falschheit läßt sich so-
wohl Wahres wie auch Falsches ableiten.
11. Mathematische Logiker glauben auch, daß Wahrscheinlichkeit
als ein in mehrwertigen Logiken „zugelassenes Drittes“ neben der
Wahrheit und der Falschheit näher bei der Wahrheit als bei der
Falschheit stehe.
Die Wahrscheinlichkeit ist jedoch aus der (dialektischen) Synthese
von Wahrheit und Falschheit als Wahr-Falschheit deduzierbar. Somit
ist auch Wahrscheinlichkeit stets wahr und falsch zugleich. Das soge-
nannte Dritte ist daher selbst eine Form des Widerspruchs und somit
als besonderes logisches Prinzip überflüssig.
Allerdings ist zwischen logischer und mathematischer Wahrschein-
lichkeit strikt zu unterscheiden. Das logisch Wahrscheinliche ist zu
gleichen Teilen wahr und falsch. Deshalb wird es (mathematisch)
auch als „50%-Wahrscheinlichkeit“ formulierbar und beim Münzwurf
anschaulich. Mathematische Wahrscheinlichkeit versucht, die wahren
und die falschen Anteile des Wahr-Falschen detailliert zu quantifizie-
ren. Das resultiert zwar in statistischen (auf Datenmengen bezogene)
Wahrscheinlichkeitsquotienten, besagt jedoch nichts für den Einzel-
fall. Das wird beim Würfeln anschaulich gemacht. Auch auf die
mathematischen Wahrscheinlichkeiten ist vorrangig die logische
Wahrscheinlichkeit anzuwenden. Denn jeder „einzelne Fall“ von meh-
reren „möglichen Fällen“ tritt ein oder nicht. Logische und mathe-
matische Wahrscheinlichkeitsurteile sind daher die Hauptformen un-
entscheidbarer Urteile.
IX

12. Logiker allgemein, daher auch die mathematischen Logiker,


gehen davon aus, daß die Dialektik – abgesehen von Platonischer
Kunst der Gesprächsführung – eine logische Methode des falschen
Denkens in Widersprüchen sei, die jede Urteils- und Theoriebildung
verfälsche.
Jedoch gerade in der Mathematik und in der mathematischen Logik
wird die Dialektik als Grundmethode des unanschaulichen bzw. über-
anschaulichen Denkens kultiviert. Paradoxien und Widersprüche als
Ergebnisse der Dialektik sind daher - als zugleich wahr und falsch –
keine Fehlanzeigen, sondern sie sind konstitutiv für die Mathematik.
Da die Dialektik jedoch auch eine logische Methode des kreativ-
phantastischen Denkens und somit eine logische Methode der Erfin-
dung und der Kreationen (Heuristik) ist, bereicherte sie seit jeher die
Mathematik mit neuen mathematischen Elementen.
13. Das zeigt wohl am besten die sogenannte Modallogik, die in der
mathematischen Logik eine besondere Konjunktur hat. Sie ist von
Aristoteles als „Logik des Zukünftigen“ konzipiert worden, wird je-
doch mittlerweile ubiquitär eingesetzt.
Modallogik ist jedoch ein dialektischer Fremdkörper in der trivialen
Logik geblieben. Das „Mögliche“ ist die ontologische Domäne wider-
sprüchlicher Begriffe. Es ist als „seiendes Nichts“ bzw. als „nicht-
seiendes Sein“ zu definieren. In der Begründung der mathematischen
Logik und in der Mathematik selber hat die Modallogik daher eine
bisher undurchschaute dialektische und kreative Funktion.
Die Relevanz der kritischen Bemerkungen zur klassischen und
mathematischen Logik und zur Mathematik selbst kann sich nur in
den sie anwendenden Wissenschaften erweisen, d. h. im Kontext der
gegenwärtigen und vergangenen Lage von Forschung und Lehre.
Deswegen wurde insbesondere auf die in der Wissenschaftstheorie seit
jeher vernachlässigten Zustände in der Lehre geachtet.
Diese haben einen weit unterschätzten Einfluß auf die Forschung
und ihre Erkenntniskapazität. Denn die Befassung allein mit der logi-
schen und mathematischen Methodologie genügt nicht den Wissens-
anforderungen, die an den Wissenschaftstheoretiker zu stellen sind.
Hinzukommen muß eine solide Kenntnis des geschichtlichen Stoffes,
der das inhaltliche Wissen von und über die Wissenschaften ausmacht.
Diesem Thema wird daher in den folgenden historischen Teilen der
vorliegenden Schrift besondere Aufmerksamkeit gewidmet.
Der geschichtliche Stoff wird hier im Sinne einer Dogmengeschich-
te abgehandelt, wie das ansonsten noch in der Jurisprudenz und in den
Theologien üblich ist. D. h. aus den Ergebnissen der philosophie- und
wissenschaftsgeschichtlichen Forschung wird vor allem dasjenige aus-
X

gewählt und interpretiert, was auf die heutige Fachlage Bezug hat und
dazu geeignet ist, diese selber durchsichtiger zu machen.
Die entsprechende Interpretationsmethodologie wird im letzten Pa-
ragraphen über die Hermeneutik in den Geisteswissenschaften beson-
ders herausgestellt. Die „dogmatische Hermeneutik“ erklärt, wie insti-
tutionell gestützte Sinngehalte durch regelgeleitete Interpretationen für
ihre Anwendung auf Glaubens-, Entscheidungs- und Lehrprobleme
aufbereitet werden. Die „zetetische Hermeneutik“ erklärt dagegen,
welche Wissensressourcen für wahre Interpretationen von Artefakten
in der geisteswissenschaftlichen Forschung aufgeboten werden müs-
sen.
Der zweite Teil der vorliegenden Schrift behandelt zunächst die neu-
zeitlichen Motive zur Ausbildung einer besonderen philosophischen
Disziplin von den Wissenschaften unter dem gräzisierenden Titel
„Technologia“, die sich bei dem Schulphilosophen Clemens Timpler
1604 ankündigt. Zu seiner Zeit fließen eine Reihe von Interessenah-
men und Beschäftigungsweisen mit Wissenschaften zusammen, näm-
lich bibliographische Bestandsaufnahmen, lexikalische Erörterungen,
politische Nutzenkalküle. Hinsichtlich der Wissenschaften ergibt sich
daraus eine Neuorientierung der Philosophie, die auf diesen Grund-
lagen Fundierungsversuche für die Einzelwissenschaften entwickelt.
Darin kündigt sich an, was erst im 20. Jahrhundert in der besonderen
Disziplin Wissenschaftsphilosophie zusammenläuft.
Der dritte Teil enthält in vier Abschnitten die für den Gegenstand
wichtigen Ideen und Beiträge der Antike, des Mittelalters, der Neuzeit
und der heute florierenden Schulen und Richtungen der Wissen-
schaftsphilosophie.
Vorweg sollte darauf hingewiesen werden, daß hier die Langzeit-
wirkung historischer Ideen in allen späteren wissenschaftlichen Ver-
lautbarungen von Autoren vermutet und gegebenenfalls zum Ver-
ständnis herangezogen wird. Das unterscheidet die hier herausgestell-
ten historischen Zusammenhänge von der sonst fachüblichen Metho-
de, Einflüsse und Übernahmen nur in den Fällen anzunehmen, wo
Autoren selbst durch Zitat und andere Hinweise auf solche Inspi-
rationen hingewiesen haben. Man unterschätzt jedoch dabei gewöhn-
lich den Anteil von Wissenstraditionen, die nicht in dokumentierter
Weise ihren Niederschlag gefunden haben, sondern als “tacid know-
ledge“ (M. Polanyi) im Lehrbetrieb und den dazu verwendeten Quel-
len lebendig waren, so daß sie selten überhaupt erwähnt werden
Der leitende Gedanke ist im übrigen, daß es für die abendländische
Wissenschaft von ihren Anfängen an auch in aller von den Philoso-
phen angestrebten „Weisheit“ stets um wissenschaftliches Wissen ge-
XI

gangen ist. Dies könnte allerdings nur auf dem hier ausgesparten
Hintergrund des Vergleichs mit anderen Kulturen deutlicher sichtbar
werden, wo das wissenschaftliche Wissen allenfalls eines neben ande-
ren, besonders soteriologischen Weisheitsformen war und teils noch
ist. Und selbst da, wo religiöse und zu Theologien ausgebaute Wis-
senskomplexe in den Vordergrund traten, sind diese stets wissen-
schaftlich unterfüttert und durch wissenschaftliche Kritik gezwungen
worden, sich in den Formen der Wissenschaften zu artikulieren.
Wo es viel Wissen gibt, das Anspruch auf Wahrheit macht, gibt es
auch viel falsches Wissen. Die übliche Einschätzung und die Erwar-
tungen gegenüber den Wissenschaften laufen jedoch darauf hinaus,
daß der Anteil des wahren Wissens in allen Wissenschaften letztlich
nur zunimmt und der falsche Anteil eliminiert oder im Problemati-
schen gehalten wird. Das ist, wie im ersten Teil deutlich gemacht
wird, selber falsch. Und wenn das so ist, ergibt sich die Aufgabe, auch
im gegenwärtigen Wissen die falschen Anteile kenntlich zu machen.
Damit halten wir für die Durchdringung des historischen Materials
einen der ältesten Gedanken der abendländischen Philosophie fest,
den Parmenides in seinem Lehrgedicht klar formuliert hat: Es gibt
„zwei Wege der Forschung“, nämlich den „Weg der Wahrheit“ und
den „Weg der Falschheit“.
Parmenides hielt das auf Einheit abzielende Seins-Denken für den
Weg der Wahrheit und die sinnliche Wahrnehmung des Vielfältigen
und Bewegten für den Weg der Falschheit. Er hat damit den Rationa-
lismus in den Wissenschaften befördert und den Empirismus nachhal-
tig beeinträchtigt. Jedoch hat er damit Recht behalten, daß es diese
beiden Wege der Forschung gibt.
Unter modernen Bedingungen sind die Ausgangspunkte für die
Wege, die zur Wahrheit und zur Falschheit führen, in den metaphy-
sischen Begründungen der wissenschaftlichen Theorien zu suchen. Sie
gehen letztlich von den zwei antagonistischen metaphysischen Grund-
einstellungen, nämlich vom Realismus und vom Idealismus aus.
Ihr Gegensatz in der abendländischen Philosophie und Wissenschaft
ging stets um den Wahrheitsanspruch, den jede von ihnen für sich
behauptete, und den er seiner Alternative absprach. Beide begründeten
ihre Falschheitskritiken an der Gegenposition mit den bei den Geg-
nern ausgespähten Widersprüchen. Die Widersprüche in ihren eigenen
Grundeinstellung übersahen sie entweder geflissentlich, oder sie stell-
ten sie als noch künftig „zu lösende“ Probleme dar.
Die Grundwidersprüche der realistischen und idealistischen Meta-
physiken, von denen jeweils weitere abhängen, werden im § 40
herausgestellt. Wenn jedoch Widersprüche keineswegs nur falsch
sind, sondern auch einen Anteil von Wahrheit enthalten, so stellt sich
XII

das gegenseitige Verhältnis von Realismus und Idealismus anders dar,


als es bisher eingeschätzt wurde. Es kommt darauf an, ihre wahren
und ihre falschen Komponenten zu unterscheiden sowie die gemein-
samen wahren Komponenten festzuhalten und die falschen zu elimi-
nieren.
Die falsche Komponente des Realismus ist schon genügend von der
idealistischen Kritik herausgestellt worden und deswegen wohlbe-
kannt. Es ist die Behauptung, daß es hinter oder neben den Bewußt-
seinserscheinungen noch unerkennbare „Dinge an sich“ als eigentliche
Realität bzw. Wirklichkeit gäbe, die gänzlich unabhängig vom Be-
wußtsein seien.
Eliminiert man diese These, so bleibt die wahre Komponente des
Realismus übrig, die völlig mit der idealistischen Grundbehauptung
übereinstimmt. Es ist die These, daß Wissen nur durch ein wahrneh-
mendes und denkendes, sich erinnerndes und manchmal auch phanta-
sierendes Bewußtsein zustande kommt, und daß es daher kein Wissen
von der Existenz und den Eigenschaften bewußteinsunabhängiger
„Dinge an sich“ geben kann. Auch I. Kant hat dies in der ersten
Auflage der „Kritik der reinen Vernunft“ betont, indem er die „Dinge
an sich“ als „Noumena“ (Denkgebilde) im Bewußtsein bezeichnete.
Die falsche These des Idealismus ist noch nicht herausgestellt und
geklärt worden. Sie besagt, daß auch das Bewußtsein ein Ding an sich
sei. Das ding-an-sichhafte Bewußtsein wird seit der Antike nach dem
Muster physikalischer Kräfte als Vermögen bezeichnet und seither in
den meisten psychologischen Theorien als selbstverständlich voraus-
gesetzt. Gleichwohl haben Naturkräfte und Bewußtseinsvermögen
stets etwas Gespenstiges an sich. Wenn sie wirken bzw. tätig sind,
wird ihre Existenz als Ursache für Effekte behandelt. Wenn sie nicht
wirken, sollen sie doch („virtuell“ oder „potentiell“) existent sein.
Gerade diese potentielle Existenz, die sich in keiner Weise mani-
festiert, macht dann ihren Ding-an-sich-Charakter aus.
Viele Idealisten postulieren für die Erforschung des Bewußtseins
eine besondere Aktart der „Reflexion“, durch die das Bewußtsein sich
selbst zum Gegenstand und damit als Ding an sich erkennbar mache.
Damit nicht zufrieden, postulieren einige sogar ein „präreflexives Be-
wußtsein“, das auch das Reflektieren erst ermögliche. Aber damit
steht es nicht besser als mit dem schon von Platon erfundenen „unbe-
wußten Grund im Bewußtein“, aus dem mittels der Anamnesis, d. h.
der bewußten Wiedererinnerung, alle Ideen ins Bewußtsein überführt
werden könnten.
Es handelt sich hier um eine ebenso falsche optische Metapher wie
in der realistischen Widerspiegelungstheorie der ding-an-sichhaften
Außen- in der bewußten Innenwelt. Nämlich so, als ob das Bewußt-
XIII

sein sich selber bespiegeln könne und obendrein auch noch die Be-
leuchtung dazu liefere.
Eliminiert man die These über das ansichhafte Bewußtsein, so bleibt
die wahre Komponente der realistische These übrig, daß es Bewußt-
seins-Erscheinungen gibt. Es entfallen alle Thesen über die solche Be-
wußtseins-Erscheinungen angeblich bewirkenden sogenannten Seelen-
vermögen.
Das Resultat der sich dadurch ergebenden Überlappung von realisti-
scher und idealistischer Erkenntnistheorie ist eine phänomenalistische
Erkenntnistheorie, wie sie erst in neuerer Zeit skizziert worden ist. Sie
enthält die gemeinsame Wahrheit des Realismus und des Idealismus
und schließt deren falsche Sätze aus.
Phänomenalismus ist jedoch nur eine Erkenntnistheorie. Damit ist
die Frage nach einer wahren metaphysischen Theorie, die neben der
Erkenntnistheorie auch die übrigen Grunddisziplinen begründet, noch
nicht beantwortet.
Hierzu ist induktiv von den Merkmalen der Axiome der Grund-
disziplinen auszugehen. Es wird danach gesucht, was in deren axio-
matischen Grundbegriffen als Gemeinsames und Identisches, mithin
als „generisches Merkmal“ neben ihren spezifischen Differenzen aus-
weisbar ist. Mit G. Berkeley definieren wir das (ontologische) Sein als
erkanntes Sein, d. h. als Idee. Und mit Fichte definieren wir Er-
kenntnis als Handlung, und umgekehrt. Darüber hinaus gilt es jedoch,
auch das Gemeinsame bzw. Identische von erkanntem Sein und getä-
tigter Erkenntnis auf den Begriff zu bringen. Der Begriff ergibt sich
aus der Einsicht, daß getätigte Erkenntnis gar nichts anderes ist als
Seinserkenntnis; und umgekehrt, daß Seinserkenntnis nichts anderes
als Bewußtseinserscheinung ist.
Um dies Gemeinsame zu bezeichnen, haben wir die traditionelle
Bezeichnung „Idee“ oder „das Ideelle“ für das idealistische Prinzip
übernommen. Es bestimmt den Idealismus als wahre Metaphysik.
Um deutlich zu machen, um was es sich dabei handelt, wurde die
Entstehung und Entwicklung des abendländischen Idealismus in den
drei philosophiegeschichtlichen „Wendungen zum Subjekt“ herausge-
stellt. „Wendungen“ deshalb, weil der Idealismus sich gegen den Rea-
lismus durchzusetzen hatte, und weil sich in der Kritik am Realismus
erst allmählich zeigte, was Idealismus überhaupt ist.
Die erste Wendung war die sophistische und sokratische Wende
zum Subjekt, die Protagoras der klassischen griechischen Philosophie
vorgab („Der Mensch ist das Maß aller Dinge: der Seienden, daß sie
sind, und der Nichtseienden, daß sie nicht sind.“). Die zweite war die
Augustinische Wende („noli foras ire, in interiori homine habitat
veritas“ / „Gehe nicht nach außen, im inneren Menschen wohnt die
XIV

Wahrheit“). Die dritte war die neuzeitliche Wende zum Subjekt des
Nikolaus von Kues („Der Mensch als kleiner, schaffender Gott“). Sie
blieben die Grundlage der Cartesischen Cogito-Philosopie, der Leib-
nizschen Monadenlehre, des Kantischen transzendentalen Idealismus,
der Systeme des deutschen und europäischen Idealismus bis hin zu
einer wohlverstandenen Phänomenologie. Deren Spuren sind bis in
die verfremdenden Gestalten des Existentialismus, Konstruktivismus
und Dekonstruktivismus sowie zahlreicher Neo-Klassiker-Ismen in
den Geisteswissenschaften bemerkbar.
Die exponentiale Zunahme des wissenschaftlichen Personals in aller
Welt, die forcierte Spezialisierung aller Ausbildungszweige und die
damit verbundene Absenkung der wissenschaftlichen Standards läßt
das Phänomen Wissenschaft heute in etwas fahlem Licht erscheinen.
Insbesondere sind Probleme der Abgrenzung von Wissenschaft gegen-
über allen anderen zivilisatorischen und kulturellen Institutionen ange-
sichts der Verwissenschaftlichung aller Lebensverhältnisse immer
schwieriger und auch dringlicher geworden.
Die Übersicht über die gegenwärtig prominenten wissenschafts-
theoretischen Richtungen bzw. Schulen, mit der die vorliegende
Schrift beschlossen wird, setzt bei deren Begründern und Meisterden-
kern an und läßt allenfalls einige Perspektiven auf die gegenwärtige
Lage zu. Die meisten Schulen gehen dabei von den Naturwissen-
schaften aus und konzentrieren sich auf diese. Die Lage der Geistes-
wissenschaften ist dem gegenüber geradezu chaotisch. Deshalb ist die
Darstellung ihrer Probleme und Methodenansätze ausführlicher gera-
ten. Hier galt es gewissermaßen noch Schneisen in unübersichtliches
Gelände zu schlagen.
Die metaphysische Grundlage der herrschenden Theorien der Gei-
steswissenschaften ist die Lebensphilosophie. Sie verdankt ihren Auf-
stieg im 19. Jahrhundert den großen Erfolgen der entwickelnden Bio-
logie, aber zum Teil auch den weiterwirkenden Anstößen der roman-
tischen Naturphilosophie, besonders der Philosophie Schellings.
Wilhelm Dilthey hat auf dieser lebensphilosophischen Grundlage
die Geisteswissenschaften auf den hermeneutischen Weg gewiesen.
Seine Maxime „die Natur erklären wir, das Seelenleben verstehen
wir“ hat hier überall gewirkt. Sein Verstehensbegriff als „Nacherleben
fremden Lebens“ steht überall noch in voller Geltung. Und doch
wurde dadurch ein Irrweg, ein zweiter Weg der Forschung im Sinne
des Parmenides, eingeschlagen.
Um diesen Irrweg zu markieren, wurden anhand der geisteswissen-
schaftlichen Leitwissenschaften, nämlich der Geschichtswissenschaft
und der Sprachwissenschaft, die lebensphilosophisch-metaphysischen
und die ontologischen und erkenntnistheoretischen Voraussetzungen
XV

der auch in den Geisteswissenschaften verbreiteten realistischen Auf-


fassungen kritisch beleuchtet und mit der idealistischen Begründung
konfrontiert. Als Ergebnis zeigt sich, daß weder die Geschichtsschrei-
bung noch die Sprachwissenschaft auf ein realistisches Wirklichkeits-
fundament bauen können, obwohl sie in immer neuen Variationen die
„Verseinung“ der historischen Objekte der Vergangenheit und des
Sinngehalts der Laut- und Schriftsprachen betreiben. An deren Stelle
tritt der Nachweis des ideellen Gegenwartscharakters der sogenannten
res gestae und der sprachlichen Sinngebilde und Bedeutungen im
aktuellen kollektiven Bewußtsein.
Wie mit Sinngebilden und Bedeutungen methodisch umzugehen ist,
sollen die dann folgenden Überlegungen zur Hermeneutik zeigen.
Angesichts der ausufernden Hermeneutikdiskussion in der Wissen-
schaftstheorie der Geisteswissenschaften wurde zunächst an gemein-
same methodische Voraussetzungen, die die Geisteswissenschaften
mit allen anderen Wissenschaften teilen, erinnert.
Diese bestehen im Beschreiben und Erklären. Ihre Permanenz seit
ihrer Begründung durch Aristoteles auch in den heutigen Faktenfixie-
rungen bzw. Datensammlungen und in den Erklärungsmethoden wird
aufgezeigt. Besonders dürfte die Permanenz des aristotelischen Vier-
Ursachen-Erklärungsschemas und seine Ausgestaltung auch in den
modernsten Theorien auffallen.
Dabei erweist sich die naturwissenschaftliche Behauptung, daß nur
die Wirkursachen Erklärungswert besäßen, als irreführend. Ganz zu
Unrecht werden von dieser Seite nur die Wirkursachen im Verhältnis
zu Wirkungen als genuine „Ursachen“ anerkannt, während die teleolo-
gischen, die formalen und die materialen Ursachen in verfremdender
Terminologie immer noch in Anspruch genommen, jedoch in ihrer
Erklärungsfunktion verkannt werden. Zugleich aber wird auch der
Vorrang der teleologischen Erklärungen unter dem Titel des herme-
neutischen Verstehens in den Geisteswissenschaften nachvollziehbar.
Aber auch diese geisteswissenschaftliche Erklärungsweise funktio-
niert nur im Zusammenhang mit den übrigen drei Ursachen, wie ge-
zeigt wird.
Auch auf die Ausgestaltungen der Hermeneutiktheorien schlagen
metaphysische Begründungen durch. Idealistische Metaphysik hat
sich seit der Antike in der Voraussetzung niedergeschlagen, daß die
platonischen Ideen den unerschöpflichen Sinngehalt aller wahrnehm-
baren Dinge, erst recht auch aller Artefakte menschlicher Produktio-
nen ausmachen. Auf dieser Grundlage haben die Theologen und
Juristen ihre vorn erwähnten „dogmatischen Hermeneutiken“ ent-
wickelt und ausgebaut. Bei ihnen kommt alles auf die zuverlässige
Gewinnung von Antworten auf Glaubens- und Rechtsfragen aus der
XVI

Hl. Schrift und den überkommenen Gesetzen als Sinnrepositorien an.


Die überschießende platonische Sinnfülle der dogmatischen Texte
wurde auf konkurrierende Sinnalternativen eingeschränkt, auf die die
dogmatischen Interpretationen verpflichtet wurden.
Diese eher eine Technik zu nennende Verwendung institutionen-
geschützter Texte wurde seit der Renaissance von den Philologen
auch auf die antike wissenschaftliche und philosophische Literatur
ausgeweitet. Auch hier wurden die autoritativen Übersetzungen,
Wörter- und Lehrbücher zu Dogmatiken, die für alle philologischen
Probleme konkurrierende Antworten und Lösungen bereitstellen.
Die Dominanz der philologischen und historischen Fächer in der
neuen von den mathematischen Naturwissenschaften getrennten Phi-
losophischen Fakultät hat im 19. Jahrhundert auch die Philosophie in
solchem Ausmaß geprägt, daß sie fast gänzlich in Philosophiege-
schichtsschreibung und Klassiker-Philologie aufging. Die philolo-
gisch-historische Orientierung wurde bis heute so selbstverständlich,
daß man ihre dogmatische hermeneutische Technik kaum noch wahr-
nimmt. Zumal ja im modernen Wissenschaftsverständnis alles „Dog-
matische“ gegenüber dem Anspruch vorurteilsfreier Forschung und
Lehre als verdächtig und überwunden gilt.
Erst auf dem Hintergrund dieser idealistischen dogmatischen Her-
meneutik entwickelt sich in der nachidealistischen Wende der Wissen-
schaften zum Realismus eine Forschunghermeneutik, die wir „zete-
tisch“ genannt haben. Dem Ideal der Gewinnung wahren Wissens
verpflichtet, versteht diese zetetische Hermeneutik das Verstehen
historisch-literarischer Dokumente als „Wahrheitsgeschehen“, in wel-
chem sich dem Interpreten eindeutiger Sinn offenbaren soll.
Unsere Kritik an diesem Prozedere, das die realistische Unterschei-
dung von ding-an-sichhaftem Sinn des Interpretandums und seiner
nacherlebenden Beschreibung in der Interpretation voraussetzt, wird
in einer ausführlichen Analyse des Verstehensbegriffs ausgeführt. Wir
gehen davon aus, daß für das zetetische Interpretieren nur das idea-
listische Wahrheitskriterium der logisch-kohärenten komprehensiven
Konstruktion von Interpretationen anwendbar ist.
Gegen die „dialogische“ Erklärung des Verstehens, gemäß dem die
Texte „sprechen“, wird auf eine Eigenschaft von Texten und Arte-
fakten hingewiesen, die sie mit optischen Spiegeln gemeinsam haben.
So wie nur das vor den Spiegel Hingestellte im Spiegel erscheint,
erscheint auch nur das in die Interpretation eingebrachte Wissen des
Interpreten vor dem Text als einheitlicher und kohärenter Sinn im
Text.
Im Schlußabschnitt wird auf eine Tendenz der neueren Geisteswis-
senschaften aufmerksam gemacht und unter den Titel der „Verkun-
XVII

stung der Geisteswissenschaften“ und zugleich der „Verwahrheitung


der Künste“ gestellt.
Diese Entwicklung dürfte die Konsequenz der Schellingschen Le-
bensphilosophie sein, wonach die Wissenschaften insgesamt erst da-
hin kommen müßten, wo die Kunst immer schon sei, und daß nur
durch Kunst die Wahrheit zu gewinnen sei. Damit wuchs ein Genie-
kult heran, der in den Künsten zum Virtuosentum und in den Geistes-
wissenschaften zur Figur des dichtenden Denkers bzw. des denkenden
Dichters führte. Die Spuren lassen sich von Kierkegaard über Nietz-
sche bis Heidegger und Gadamer aufzeigen.
Die Auszeichnung zahlreicher Geisteswissenschaftler und besonders
von Philosophen mit Nobelpreisen für Literatur und mit anderen
nationalen Literaturpreisen zeigt die Übereinstimmung dieser Tendenz
mit dem breiten internationalen Publikumsgeschmack. Sie hat mit der
68er Revolution des Hochschulwesens unter der Feyerabend-Maxime
des „Anything goes“ nochmals Verstärkung bekommen. Ihr vorläu-
figes Resultat zeigt sich u. a. auch im Bologna-Prozeß, der nach dem
Vorbild US-amerikanischer Liberal Arts-Fakultäten auf die Ver-
schmelzung von Geisteswissenschaft und Kunst an den Universitäten
und an den Kunsthochschulen zur Eingliederung aller Kunstaus-
bildung in neue „Universitäten der Künste“ führte. Hier gibt es seither
„creative art research“ als letzte Blüte des geisteswissenschaftlichen
Bildungssystems.
Auch die Philosophen haben sich dieser Tendenz angepaßt, wie an
einigen ihrer gerade deshalb als bedeutend angesehenen Repräsen-
tanten gezeigt wird. Ihre Themen sind jetzt die Mythen der Vorzeit
und die „Geschichten“, die vormals in der Literatur publikumsnah
ausgebreitet wurden und den Verständnishorizont der sogenannten
Eliten für das abstecken, was die Geisteswissenschaften ihnen zu
bieten haben.

Düsseldorf, im Dezember 2015


XVIII

INHALTSVERZEICHNIS

Vorwort S. I - XVII

Inhaltsverzeichnis S. XVIII - XXV

1. Einleitung: Die Grundideen S. 1- 183

§ 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und Wissen-


schaft S. 1
Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten Philoso-
phischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des „trivialen“ vom
„quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue „geisteswissenschaftliche“
Philosophische Fakultät. Philosophie als Fach im Verband mit den historischen und philologischen Studien
der neuen Philosophischen Fakultät. Historisierung und Philologisierung der geisteswissenschaftlichen
Philosophie. Die neue Mathematisch-Naturwissenschaftliche Fakultät ohne Philosophie. Die Entwicklung
der Wissenschaftsphilosophie als Propädeutik der mathematischen Naturwissenschaften. Über die
Notwendigkeit der Konsolidierung des Ideenpotientials der Philosophie für Serviceleistungen und
Interdisziplinarität in den Wissenschaften.

§ 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philosophie S. 4


Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddisziplinärer
Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthropologie und prak-
tischen Philosophie und die Organisation des Ideenpotentials für die Anwendung in den Einzelwissen-
schaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissenschaften, die schon in die ge-
schichtlichen Begründungen der Wissenschaften eingegangen sind. Die Klärung der philosophischen Vor-
aussetzungen der Einzelwissenschaften als Aufgabe der allgemeinen Wissenschaftsphilosophie. Vorschlag
einer Architektonik der Wissenschaften.

§ 3 Wahrheit als Ideal der Wissenschaft S.7


Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissenschaftlichen
Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissenschaftlichung“ aller Ver-
hältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die Vermischung der Kulturbereichs-
Ideale untereinander und mit dem Wahrheitsideal der Wissenschaften. Die Wahrheitskonzeptionen der
philosophischen Grunddisziplinen und ihre metaphysische Grundlegung. Ontologische Wahrheit als
Echtheit; anthropologische Wahrheit als Wahrhaftigkeit; praxeologische bzw. pragmatistische Wahrheit als
Nützlichkeit; erkenntnistheoretische Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wis-
sens. Der realistische Korrespondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahr-
heit. Ihre Vorteile und Stärken und ihre Problematik.

§ 4 Wissen, Glauben und Intuition in den Wissenschaften S. 17


Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen Formen:
knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falschheit im Wissens-
begriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Probleme des überanschaulichen
Wissens und der Veranschaulichung durch Modelle. Wissensprätensionen und ihre floskelhaften Verklei-
dungen.
XIX

§ 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken S. 28


Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne Bildung
der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik. Ursprüngliche
Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unterschiede im Alltagsdenken
und wissenschaftlichem Denken bezüglich der Begriffe von Wissen, Glauben und Vermuten. Die alltags-
sprachliche Unterscheidung des Vermutens und Behauptens und die wissenschaftlich-logische Gleich-
setzung von Hypothese und Theorie. Die gemeinsame eine Lebenswelt der Laien und die vielen „möglichen
Welten“ der Wissenschaftler. Geschichte und Zukunft als mögliche Welten. Die vordergründige Welt der
Erscheinungen und die „Hinterwelten“ der Wissenschaft.

§ 6 Die alte und die reformierte Hochschulforschung und -Lehre S. 30


Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorganisation. Der
Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifikanz akademischer
Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium im Baccalaureus-Magister-
Doctorsystem und seine Modernisierung. Alte und neue Verständnisse der „Einheit von Forschung und
Lehre“ und des „forschenden Lernens“. Der Verfall der Vorlesung und der Aufstieg des Seminarbetriebs.
Die Bildung und die Elite einst und jetzt.

§ 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathematischen“ Logik S. 43


Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik. Moderne
Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik, auch im Hinblick
auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer erneuerten klassischen Logik
und Kritik der Fehlentwicklungen der mathematischen Logik. Reintegration intensionaler und extensionaler
Logik. Das Verhältnis von Formalismus und inhaltlichem Wissen. Der Formalismus als Notation der Spra-
che. Kritik der üblichen logischen Zeichenformeln. Über den Unterschied ausdrucksbildender und urteils-
bildender Junktoren. Die Gleichung als definitorischer Ausdruck und als methodische Artikulationsform der
Mathematik und mathematischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen.
Über Sprache und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen
guten Formalismus

§ 8 Über den Unterschied logischer und mathematischer Denkmethoden S. 67


Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegrifflichung von
Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und des extensionalen
Aspektes und die Verselbständigung von intensionaler und extensionaler Logik. Die Funktion der Dialektik
als Denken begrifflicher Widersprüche in beiden Logiken. Die Dialektik des Zahlbegriffs. Die Dialektik des
Mengenbegriffs. Der Import der dialektischen Begriffsbildung von der Mathematik in die Physik. Die Dia-
lektik physikalischer Begriffsbildung. Beispiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische
Verschmelzung der logischen Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion
der dreiwertigen Logiken.

§ 9 Die logischen und mathematischen Elemente S. 93


Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige
Induktion. Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion:
Kontrolle der korrekten Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der
logischen Deduktion des Zahlbegriffs und der hauptsächlichen Zahlarten. Die Primzahlberechnung. Die
Funktion der Buchstabenzahlen (Variablen) in der Mathematik. Unterscheidung der begriffs- und
ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre pyramidale
Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialek-
tische) Behauptungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“
zwischen Urteils- und Schlußlehre. Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale
Formalisierung der Hegelschen „Phänomenologie des Geistes“ und einer logischen Zahlentheorie. Die
Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des Widerspruchs und des „Dritten“ und
die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit.
XX

§ 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften S. 137


Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter von
Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die übliche Auf-
fassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als widersprüchlicher
Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung des Nichts gewordenen
Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des noch nicht seienden Zukünftigen
im gegenwärtigen Sein. Die geschichtliche „Realität“ und das Zukünftige als ontologische Bereiche von
Möglichkeiten. Die Konstruktion der Notwendigkeit als unveränderliche Vergangenheit und ihre Frag-
würdigkeit. Die Dialektik des Entwicklungsbegriffs als Fusion von Wirklichkeit und Möglichkeit.
.
§ 11 Die Paradoxien der Wahrscheinlichkeit S. 148
Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit und die
mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des Wahrschein-
lichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmelzung des stoischen
Universaldeterminismus und des epikureischen Indeterminismus im Wahrscheinlichkeitsbegriff. Die Rolle
der „docta ignorantia“ beim Umgang mit der Wahrscheinlichkeit.

§ 12 Die Rolle der Modelle und der Simulationen in den Wissenschaften S. 152
Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und Wissen-
schaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem
Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der
Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle.
Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der
geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle
bei der Entwicklung der physikalischen Disziplinen. Die Mathematisierung von Chemie, Biologie und
einiger Kulturwissenschaften. Die Parallele der Entwicklung von formalisierter Mathematik und formaler
Logik und die Frage von Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer
Axiomatik und Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in forma-
len Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von Ab-
bildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die Computer-
simulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen. Die KI-Forschung
(„Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer und Intelligenz. Weitere
Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-Simulation.

§ 13 Die Bestimmung des wissenschaftlichen Wissens S. 176


Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches und wahr-
falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und Erkenntnisse. Die
Verkennung von Dokumentationen als Wissensbasen.

§ 14 Die Bestimmung von Wissenschaft S. 179


Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und informa-
tionstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung. Wissensbasen
und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und Zusammenhang von
Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die Aufgaben der Forschung.

II. Zur Geschichte der Disziplin „Wissenschaftsphilosophie“ S. 184 - 192

§ 15 Das Aufkommen der Bezeichnung „Wissenschaftsphilosophie“ und die Tendenzen zur


Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschaftstheorie S. 184
Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien, der
Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Architektoniken und
Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der Wissenschaften. Die
Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften. Die Philosophie als Vernunft-
kritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die Vorbilder der klassischen Metho-
dologien
XXI

III. Zur Geschichte der Wissenschaftsphilosophie S. 193 - 319

A . Die Antike

§ 16 Die Vorsokratiker S. 193


Die Erfindung der Arché als Ursprung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und Subjekt
und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen zum Subjekt. Die
Entdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des dialektischen (widersprüch-
lichen) Begriffs. Der pythagoräische Zahlbegriff als dialektische Vermittlung von Denk- und Sinnesobjekt.
Das Sein der Atome und das Nichts des leeren Raumes bei Demokrit und seine Erfindung der Denkmodelle.
Das Nichts des Gorgias.

§ 17 Platon (437-347) S. 200


Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die Begriffe,
Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken als Noesis und
Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw. Modellen. Die Entdeckung
des regulären Begriffs: Dihairesis und Negation. Das Wissenschaftskonzept als Begründungszusammen-
hang und als Institution der freien Künste. Der Zeitbegriff als „stehende Zahl“ und die Konstitution des
Vergangenen in der Wiedererinnerung.

§ 18 Aristoteles (384-322) S. 208


1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien als Fragen
nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklärende Wissenschaft:
Das Vier-Ursache-Schema der Erklärung. Die metaphysischen Letztbegründungen. Nachwirkungen des
Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der Wissenschaften, a. die Begriffslehre, b. die
logischen Axiome, c. die Urteilslehre, d. die Schlußlehre oder Syllogistik. 3. Die Architektonik der Wissen-
schaften: theoretische und praktische Wissenschaften und ihre Ziele und Zwecke.

§ 19 Euklid (um 300 v. Chr.), seine „Elemente“ und das Vorbild der Mathematik S. 250
Der platonische Charakter der Elemente als „dialektische Logik“. Vermeintliche geometrische Anschau-
lichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der arithmetischen Gebilde. Die
geometrischen und arithmetischen „Definitionen“. Die Gleichung als Ausdrucksmittel der mathematischen
Argumentation. Bekanntheit und Unbekanntheit der Zahlen und die Rolle der Buchstabenzahlen (Variab-
len). Die „Axiome“ als Definitionen. Die Theoreme als Behauptungssätze. Die Probleme als praktische
Konstruktionsaufgaben und als Methodenarsenale. Die Elemente und der philosophische „Mos geometri-
cus“.

§ 20 Der Epikureismus S. 277


Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomistische und
indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit als Grundlage des
guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der Freundschaften. Epikureismus
als Hausphilosophie der empirischen Ärzte.

§ 21 Die Stoa S. 280


Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und praktische Philo-
sophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das Wissen-
schaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modelldenken in Anwen-
dung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier Kardinaltugenden des
Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als ungeschriebenes oder erkanntes
Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen Philosophie als Hausphilosophie der
Juristen.
XXII

§ 22 Die Skepsis S. 301


Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische Urteils-
enthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Unterliegendes“.
Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit. Kritik der induktiven
Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“ der Begründung. Kritik der
Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen Kausaltheorien und die platonisch-
idealistische Interpretation der Kausalerklärung. Wahrscheinlichkeitswissen als platonische Meinung und
als Glaube.

§ 23 Der Neuplatonismus S. 307


Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logische
Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des hier-
archischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epistrophé als
Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische Kausaltheorie. Die
Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte bei Philon von Alexandrien:
Buchstabensinn und philosophischer Hintersinn.

§ 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie S. 314


Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die
Subjekt-Objektspaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der
Metaphysiken. Das Gesetz der Evidenzialisierung der Archai.

B Das Mittelalter: Patristische und scholastische Wissenschaftslehre S. 320 - 386

§ 25 Der ideengeschichtliche Kontext S. 320


Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken Erbes im
Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „höheren Fakultäten“
der Theologie, Jursprudenz und Medizin als praktische Berufsstudien. Die philosophische Fakultät d. h. die
„Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die „2. Wende zum Subjekt“ bei
Augustinus.

§ 26 Aurelius Augustinus (354 - 430) S. 323


1. Die Begründung der christlichen Theologie als Wissenchaft vom Göttlichen. 2. Dialektische Dogmen-
definition. 3. Die Seelenvermögen und die modellhafte Gotteserkenntnis im Spiegel der Seele. 4. Die
heilige Schrift und die wissenschaftliche Interpretation. 5. Das „Buch der Natur“ und die Erkenntnis der
sinnlich-phänomenalen Welt mittels der Zeit.

§ 27 Die Enzyklopädisten und die Tradition des antiken Wissens S. 332


Philosophiegeschichte bei Diogenes Laertios. Stobaios. Hesychios. Suidas. Athenaios. Eunapios. Die
Enzyklopädien der sieben freien Künste: Martianus Capella, Cassiodorus Senator, Isidor von Sevilla, Beda
Venerabilis, Vincenz von Beauvais und Gregor Reisch. Die Bedeutung des Boethius für die Klassiker-
Tradition.

§ 28 Die scholastische Methode S. 337


Die Lectio oder Vorlesung als Hauptmittel der Lehre und Textvermehrung. Ihr Fortleben bis heute. Die
Disputatio oder Diskussion und der Seminarbetrieb. Ihr Fortleben in einigen akademischen Prüfungs-
verfahren. Die „Sic-et-Non-Methode“ oder „Quaestionenmethode“ als Forschungsmethode der Alternativen
von Wahrheit und Falschheit. Ihr Schema in den Dispositionen des Stoffes der großen „Summen“. Ihr
Fortleben im Gerichtsprozeß.
XXIII

§ 29 Der Universalienstreit und die Konstitution der wissenschaftlichen Objekte S. 341


Die neuplatonische bzw. platonistische Konstitution der Universalien als eigentliches Sein: „Universalia
ante rem“. Der logische Aristotelismus bzw. Nominalismus spricht nur den Dingen (res) und den Zeichen
eigentliches Sein zu und leitet die Universalien von diesen ab: „Universalia post res“. Die Perfidie der
Bezeichnng „Ideenrealismus“ für den platonischen Standpunkt bei den Aristotelikern. Die Kon-
kordienformel des Albertus Magnus: „Universalia ante rem, in re et post rem“. Folgen für die Konstitution
von Geistes- und Naturwissenschaften.

§ 30 Glauben und Wissen. Die Begründung des Glaubens durch Wissen und des Wissens
durch Glauben S. 344
Glaubenswahrheit und wissenschaftliche Wahrheit: Die Philosophie als Dienstmagd der Theologie vs. die
Autorität der Vernunft. Die Begründung des Glaubens durch logisches Wissen. Die Definition des metaphy-
sischen Prinzips bei Anselm und die Dialektik der Dogmen bei Abälard. Wissen und Glauben bei Thomas
von Aquin und Wilhelm von Ockham. Der Auftrieb des quadrivial-mathematischen Studiums des „Buches
der Natur“ als Glaubens- und Wissensquelle. Die Rationalisierung der Dogmen durch die Mathematik bei
Roger Bacon und Nikolaus von Kues. Die Synthese des Nikolaus von Kues: die Docta ignorantia als
höchste mathematische „Vernunfteinsicht“. Die Lösung des Begründungsproblems: Jede Wissenschaft hat
Glaubensvoraussetzungen. Die skeptische und stoische Begründungen des wissenschaftlichen Wissens
durch (wahrscheinliche) Meinung. Dogmatisierung der Wissenschaft und Verwissenschaftlichung der
Theologie. Logik und Mathematik als Reservate der Wissens-Gewißheit.

§ 31 Der Ausbau der formalen Methoden der Wissenschaft: die „Triviallogik“ und die neue
„Quadriviallogik“ der Mathematik S. 368
Die Präsenz der aristotelisch-stoischen Logik und der euklidischen Mathematik im scholastischen Lehr-
programm der Philosophischen Fakultät. Univozität bei Johannes Duns Scotus und Analogie bei Thomas
von Aquin als Paradigmen regulärer und widersprüchlicher Begriffsbildung. Die euklidisch-mathematische
Logik bei Raimundus Lullus. Veranschaulichung der arithmetischen Begriffe durch geometrische Dar-
stellungen und ihre Formalisierungen. Die Null und das Infinitesimal-Infinite als „Zahl und zugleich Nicht-
Zahl“. Euklidisch-mathematische Logik als „höchste dialektische Vernunfteinsicht“ bei Nikolaus von Kues
und Kant. Das Auseinandertreten der trivialen Logik und der euklidisch-quadrivialen Logik.

C. Die Wissenschaftsphilosophie der Neuzeit S. 387 - 452

§ 32 Allgemeine Charakteristik der Tendenzen S. 387


Antike Wissenschaften als Vorbilder der neuzeitlichen Wissenschaften. Die Osmose der Paradigmen. Die
Spezialisierung der Wissenschaftler und das Aufkommen des Genie-Kultes der „göttlichen“ Schöpfer-
persönlichkeit. Die humanistische Wende zum Subjekt. Antischolastizismus und neue Scholastik in den
neuen Universitäten und außeruniversitären Institutionen.

§ 33 Die „humanistische“ Wende zum Subjekt S. 389


Der Renaissance-Humanismus als dritte Wende zum Subjekt. Die „klassische Philologie“ als Vermitt-
lungsinstitution des antiken Wissens. Die Präponderanz des geistigen Wesens des Menschen. Der neue
(platonische) Idealismus bei Descartes, im englischen Idealismus, bei Malebranche, Spinoza und Leibniz.
Vom geistigen Wesen des Menschen zum „transzendentalen Subjekt“ und zum „Weltgeist“. Von der
Geisteswissenschaft zu den modernen Geisterlehren.

§ 34 Der Antischolastizismus der Renaissance S. 391


„Ad fontes!“ oder die Jagd nach den Dokumenten der Antike. Die philologische Textforschung und die
Reformation. Antischolastizismus als protestantische Kritik an der katholischen Theologie und ihrer
Indienstnahme der Wissenschaften. Die Wiederbelebung der antiken quadrivialen Wissenschaften und ihre
Stilisierung als Überwindung scholastischer Irrtümer. Zeugnisse aus J. F. Fries „Geschichte der
Philosophie“ von 1848. Neuere Korrekturen und das Fortwirken des Antischolastizismus im Antihistoris-
mus der modernen Mathematik und Naturwissenschaften.
XXIV

§ 35 Die Methodenentwicklung der Natur- und Geisteswissenschaften: Empirische Daten-


sicherung und theoretische Erklärung der Phänomene S. 396
Die Ausgestaltung der platonischen „freien Künste“ zu den neuzeitlichen Geistes- und Naturwissen-
schaften. Ihre aristotelische Stufung in beschreibende „Graphien“ als Basis und erklärende Zusammen-
hangsstiftung als theoretischer Überbau. Die vermeintliche Überwindung der aristotelischen Vier-Ursa-
chenerklärung. Deren Fortwirkung und Ausgestaltung in platonisch-dialektischer (mathematischer) Be-
griffsbildung in der klassischen Mechanik und Dynamik von Cusanus über Kopernikus, Kepler, Galilei,
Descartes, Leibniz bis Newton und d‟Alembert. Die hermeneutische Vier-Ursachenerklärung in den
Geisteswissenschaften. Der Entwicklungsgedanke als neuzeitlicher Ersatz der Vier-Ursachenkonzeption.

§36 Die Vereinseitigung der deskriptiv-empirischen und der theoretischen Forschungs-


methodologien, ihre philosophischen Begründungen und ihre Folgen für die Lage der
Natur- und der Geisteswissenschaften S. 414
Die historische Kategorisierung eines kontinentaleuropäischen Rationalismus und angelsächsischen
Empirismus steht im Widerspruch zur handwerklich-experimentellen und theoretischen Grundlage der
Naturwissenschaften und zur historischen und systematischen Ausrichtung der Geisteswissenschaften.
Methodische Vereinseitigungen von Empirie und Theorie in der Wissenschaftstheorie und ihre Fort-
wirkung bis zum Positivismusstreit. Die vorbereitende Rolle der ontologischen Zwei-Weltenlehre seit
Descartes für das Gegenstandsverständnis der Geistes- und Naturwissenschaften. Die Folgen der Spaltung
der Philosophischen Fakultät im 19. Jahrhundert an der Nahtstelle von Trivium und Quadrivium für die
Ausdifferenzierung von Einzelwissenschaften in der Philosophischen und in der Mathematisch-Naturwis-
senschaftlichen Fakultät sowie in den Technischen Hochschulen. Ihre Mehrfach-Studiengänge und die
Ein-Fachstudien in den ehemals „Höheren Fakultäten“ und ihren Ausgründunge

§ 37 Die Ausbildung der „-Ismen“ als Charakterisierungsmittel wissenschaftlicher Glo-


balsysteme S. 423
Die antiken und mittelalterlichen Kennzeichnungen von Denkweisen und Weltanschauungen nach
Schulen, ihren Vordenkern und nach Schulorten. Die neuzeitliche Philosophiegeschichtsschreibung (J. J.
Brucker) und ihre Systembezeichnungen auf der Grundlage des mos geometricus. Die „evolutionären
Systeme“ seit Schelling und Hegel. Übersicht der geläufigen Ismen.

§ 38 Die Verselbständigung der Einzelwissenschaften und ihre Folgen für die Ausbildung
der modernen Metaphysiken S. 427

Prekäre Verdeutlichung der Systemprinzipien durch Kritik und Polemik der Systeme untereinander.
Plausibilität der Axiombedeutung durch Deduktion in jeweils anderen Systemen. Das Friessche („Münch-
hausen-“) Trilemma. Woher die „Dogmen“ für dogmatische Begründungen herstammen. Die moderne
Verabsolutierung der einzelwissenschaftlichen Potentiale. Moderne realistische Metaphysiken als
Physikalismus, Biologismus und Psychologismus. Moderne idealistische Metaphysiken als Pragma-
tismus, Empirismus-Historismus und Rationalismus.

§ 39 Realismus und Idealismus in der Wissenschaftsphilosophie S. 434


Die Widersprüchlichkeit des klassischen realistischen Prinzips: Dinge an sich als unerkennbar-erkannte
Wirklichkeit. Die Widersprüchlichkeit des klassischen idealistischen Prinzips: Pychische Vermögen als
tätig-untätige Subjektbestimmungen. Die Tilgung der Negationen in den widersprüchlichen Prinzipien
und die Induktion des idealistischen Prinzips: Die Identität der positiven Merkmale des realistischen
und idealistischen Prinzips. Der gereinigte Idealismus als wahre phänomenalistische Metaphysik.
XXV

D. Die gegenwärtigen wissenschaftstheoretischen Schulen bzw. Strömungen S. 453 -


612

§ 40 Der logische Empirismus bzw. die Analytische Philosophie S. 453


Zur Geschichte. Metaphysische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale Prob-
leme: Die Einheit der Wissenschaft. Das Sinnkriterium wissenschaftlicher Sätze. Die wissen-
schaftliche Erklärung. Wahrscheinlichkeit. Theoriendynamik. Das Bedeutungsproblem. Kritik der
Theorien von Frege, Carnap, Tarski, Quine, Goodman, Putnam, Dummet und Davidson

§ 41 Der kritische Rationalismus S. 475


Kritischer Rationalismus als Filiation der Analytischen Philosophie. Zur Geschichte. Metaphysische
Grundlagen. Der Wissenschaftsbegriff K. R. Poppers. Zur Methode der Falsifikation. Zentrale Prob-
leme: Das Demarkationsproblem. Die Bewährung von Theorien. Das Begründungsproblem. Wahrheit
und Wahrscheinlichkeit. Die evolutionäre Wissenschaftsentwicklung nach Th. S. Kuhn. Das Leib-
Seeleproblem bei Popper und Eccles.

§ 42 Der Konstruktivismus S. 483


Der Ausgang von Konstruktionshandlungen im Handwerk und in der Experimentalphysik. Zur Ge-
schichte: J. G. Fichtes Pragmatismus. Hugo Dingler, Paul Lorenzen, die intuitionistische Mathematik
und der französische Konventionalismus Pierre Duhems, Jules Henri Poincarés und LeRoys. Die kon-
struktivistische Enzyklopädie: Jürgen Mittelstraß und seine Mitarbeiter. Metaphysische Grundlagen.
Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Das Begründungsproblem. Das Problem
der Protophysik. Das Problem der Wissenschafts- und Philosophiegeschichte.

§ 43 Die „kritische Theorie“ der Frankfurter Schule und der dialektische Materialismus
S. 493
Zur Geschichte: das Frankfurter Institut für Sozialforschung unter Horkheimer und Adorno und seine
Entwicklung. Staats- und Parteimarxismus in der ehemaligen DDR und der Marxismus in der BRD.
Politische Maximen. Metaphysische Grundlagen: der dialektische Materialismus von Marx und Engels
und der naturwissenschaftliche Materialismus und Monismus. Die Ausgestaltung der Hegelschen Dia-
lektik. Der Wissenschaftsbegriff. Zur Methode: der Universalzusammenhang des Wissens. Die kriti-
sche Hinterfragung. Die Vermittlung der Gegensätze. Zentrale Probleme. Die Einheit und Klassifi-
kation der Wissenschaften. Die Gesetzlichkeit der Wissenschaftsentwicklung und ihre Planung. Das
Wahrheitsproblem. Die Parteilichkeit und der Wahrheitsdiskurs.

§ 44 Die Wissenschaftstheorie der Geisteswissenschaften in der Lebensphilosophie,


Phänomenologie und in der Existenzphilosophie: Die Hermeneutik des Struk-
turalismus und die postmoderne Dekonstruktion S. 509 - 612

Zur Geschichte: Schellings Lebensphilosophie und ihre Entfaltung im 19. Und 20 Jahrhundert. Nietz-
sche, Dilthey, Spencer, Bergson. Metaphysische Grundlagen 514. Der Wissenschaftsbegriff 519. Die
Sprachwissenschaft von de Saussure bis Derrida 530. Die Geschichtswissenschaft 531. Methodenlehre
535. Zentrale Probleme und Themen: Einheit und Klassifikation der Wissenschaften 546. Die Ent-
wicklung der Wissenschaften 547. Erkenntnistheoretische und ontologische Grundlagen 550. Herme-
neutik als allgemeine Methodenlehre des Verstehens 555. Dogmatische Hermeneutik und ihre Kanons
in den Geisteswissenschaften, insbesondere in der Theologie 561, Jurisprudenz 562, Ökonomik 564,
hinsichtlich der klassischen Literatur 565 und in der Mathematik 565. Zetetische Hermeneutik und ihre
Kanons vor allem in den geschichtlichen Geisteswissenschaften 575. Das Verstehen 579. Wahrheit in
der Sprache 583. Die Verkunstung der Geisteswissenschaften und die Verwahrheitung der Kunst 588.
Heidegger u. a. als denkende Dichter 597. Die Kunst als wissenschaftliche Forschung 607 - 612.
I. Einleitung: Die Grundideen

§ 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und


Wissenschaften

Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten
Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des
„trivialen“ vom „quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue
„geisteswissenschaftliche“ Philosophische Fakultät. Philosophie als Fach im Verband mit den
historischen und philologischen Studien der neuen Philosophischen Fakultät. Historisierung und
Philologisierung der geisteswissenschaftlichen Philosophie. Die neue Mathematisch-Naturwissen-
schaftliche Fakultät ohne Philosophie. Die Entwicklung der Wissenschaftsphilosophie als Propä-
deutik der mathematischen Naturwissenschaften. Über die Notwendigkeit der Konsolidierung des
Ideenpotientials der Philosophie für Serviceleistungen und Interdisziplinarität in den Wissen-
schaften.

Zu den Gestalten, in denen heute die Philosophie auftritt, gehört als bekannteste
das Fach Philosophie im Rahmen der anderen Fachwissenschaften, vor allem der
manchmal noch so genannten Philosophischen Fakultät. Ihre einstmals propädeu-
tische Funktion für das Studium anderer Fachwissenschaften ist seit etwa zwei-
hundert Jahren institutionell der Oberstufe der Gymnasien anvertraut worden, wo
sie sich noch als didaktische Befassung mit den philosophischen Klassikern und
gelegentlich auch mit modernen philosophischen Strömungen nützlich macht.
Gleichwohl ist Philosophie in ihrer propädeutischen Funktion nicht gänzlich
aus den Kurrikula der Fachwissenschaften verschwunden. Deren Lehrbücher und
einführende Lehre können auch heute nicht auf Hinweise auf philosophische
Klassiker und auf deren grundlegende Ideen und maßgebliche Methoden verzich-
ten. Zumal der Appell, daß es in jedem Fach „logisch“ zugehen müsse - neben den
Bereichen, wo es „mathematisch“ zugeht - ruft Erinnerungen an die Philosophie
hervor, zu deren Bereichsdisziplinen die Logik noch immer als Methodenlehre
gehört.
Im allgemeinen aber haben sich alle Fachwissenschaften ihre eigenen Propä-
deutika geschaffen, in denen das philosophische Element kaum noch erkennbar
ist. Und ebenso unerkennbar wird es gewöhnlich auch bei manchen Forschungs-
erträgen der Einzelwissenschaften, wo es gewöhnlich in spezifische Fachtermino-
logien eingekleidet ist.
Philosophie ist also auch in den Fachwissenschaften schon immer präsent, ob
erkannt oder unerkannt. Es bedeutet daher keine Einmischung der Philosophie in
die Bereiche und Belange der Einzelwissenschaften, wenn sie daran anknüpft und
das Ihre dazu beiträgt, diese Bestände bewußt zu machen und auf ihre Weise zu
deren Klärung und Konsolidierung beizutragen.
Doch ist Philosophie bekanntlich ein weites Feld, das selber im Zuge der „Ver-
wissenschaftlichung“ in vielerlei Bereiche ausgeweitet und in Spezialdisziplinen
2

gegliedert worden ist. Einer dieser Bereiche betrifft das Verhältnis der Philosophie
zu den Einzelwissenschaften, von denen sich die meisten erst seit dem 19.
Jahrhundert von der Philosophie getrennt haben. Am weitesten haben sich die
ehemals „quadrivialen“ Anteile der Philosophie, also dasjenige, was sich seit Be-
ginn des 19. Jahrhunderts als „Mathematisch-Naturwissenschaftliche Fakultät“
verselbständigte, von der Philosophie getrennt. Und so ist es auch kein Wunder,
daß die Mathematiker und die Naturwissenschaftler, die in der Regel keine Philo-
sophen unter sich duldeten und ihnen keine propädeutische Stellung in den neuen
Mathematisch-Naturwissenschaftlichen Fakultäten einräumten, am meisten das
Bedürfnis spürten, sich ihre eigene fachnahe Philosophie zu entwickeln. Diese
Philosophie bildete sich seit Beginn des 20. Jahrhunderts als „Wissenschaftsphilo-
sophie“ der mathematischen Naturwissenschaften aus und ist seither ein Schwer-
punkt der Bemühungen der neuen philosophischen Disziplin „Wissenschafts-
theorie“ bzw. „Wissenschaftsphilosophie“ geblieben.
Das Verhältnis der Philosophie zum ehemals „trivialen“ Teil ihrer Disziplinen,
die sich seit Beginn des 19. Jahrhundert in den neuen „Philosophischen Fakul-
täten“ (einschließlich des Faches „Philosophie“) und darüber hinaus in den alten
„höheren Fakultäten“ Theologie und Jurisprudenz als „Geisteswissenschaften“
etablierten, ist demgegenüber immer vergleichweise eng geblieben. Zeitweise war
es so intim, daß die Philosophie des 19. Jahrhunderts geradezu nur noch als Philo-
logie und Geschichte der philosophischen Klassiker, also gleichsam als Teil-
bereich der Philologien und Historiographien Bestand hatte. Und diese Tendenz
ist auch heute noch stark genug, um der Gestalt der Philosophie an so manchen
philosophischen Fakultäten und Fachbereichen den Anschein zu verleihen, sie sei
gerade nichts anderes mehr als Philosophiegeschichte und Klassiker-Philologie.
Gerade diese Nähe zu den Geisteswissenschaften oder vielmehr die Integration
der Philosophie in die Geisteswissenschaften hat lange verhindert, daß die
Philosophie ein entsprechend distanziertes Verhältnis zu den Philologien und
Historiographien entwickelte und eine „Wissenschaftsphilosophie der Geistes-
wissenschaften“ als Bereichsdisziplin entwickelte. Erst seit einigen Jahrzehnten
wird dies unter dem Titel der „Hermeneutikdebatte“ nachgeholt.
Es liegt aber auf der Hand, daß eine „Philosophie der Wissenschaften“ zugleich
und gleichmäßig sowohl eine „Wissenschaftstheorie“ der mathematischen und
nicht-mathematischen Naturwissenschaften wie auch der logischen (und manch-
mal unlogischen) Geisteswissenschaften sein muß. „Wissenschaftstheorie“ wird
diese Disziplin in Analogie zur älteren „Erkenntnistheorie“ genannt, obwohl es
sich in beiden Fällen keineswegs um eine Theorie, sondern um viele Theorien
handelt, die in der Disziplin der „Wissenschaftsphilosophie“ (engl.: Philosophy of
Science) verwaltet, diskutiert und auch neu entwickelt werden.
Eine solche Spezialphilosophie mit Blick auf die Wissenschaften ist also noch
relativ neu und weit davon entfernt, in wünschenswerter Weise konsolidiert zu
sein. Man kann heute allenfalls davon sprechen, daß gewisse Theorienbestände
über die exakten Naturwissenschaften weiter entwickelt sind und daher eher als
3

konsolidiert gelten als derjenige Teil, der auf die Reflexion der Geisteswissen-
schaften ausgerichtet ist.
Die Wissenschaftsphilosophie arbeitet mit dem Ideenpotential, das das Fach
Philosophie insgesamt in seinen geschichtlichen und systematischen Dimensionen
bereitstellt, und bündelt es gleichsam in Hinsicht auf die Einzelwissenschaften mit
ihren je eigenen Problem- und Erkenntnisbeständen.
Auf diese Weise wächst der Wissenschaftsphilosophie bei der üblichen Stu-
dienorganisation im Hochschulbetrieb eine hervorgehobene interdisziplinäre Stel-
lung zu. Man studiert - als Erbschaft des alten Studienstils in den Fakultäten, in
denen man wie jetzt noch in der Jurisprudenz, Medizin und Theologie alle
beteiligten Fakultätsdisziplinen zu studieren hatte -, mindestens eine, gewöhnlich
zwei, oftmals (und besonders im Ausland) auch mehrere Fakultätswissenschaften
neben dem Fach Philosophie und bringt somit immer schon eine gewisse Ver-
trautheit mit dem Wissensstand wenigstens der einen oder anderen Fachwis-
senschaft mit. Die Wissenschaftsphilosophie ist dann die sich anbietende Schwer-
punktdisziplin, die anstehenden methodischen und enzyklopädischen Voraus-
setzungen dieser Fachwissenschaften im Lichte allgemeiner philosophischer Ge-
sichtspunkte zu erörtern und zu vertiefen. Aus der Architektonik der philosophi-
schen Disziplinen läßt sich auch vorgängig schon erkennen, auf welche Gesichts-
punkte es dabei wesentlich ankommt.
Jede Einzelwissenschaft macht grundsätzlich metaphysische Voraussetzungen,
die als „Letztbegründungen“ gewöhnlich im Fach selbst kaum mehr erkannt und
demnach auch nicht diskutiert werden. Weiterhin setzt sie sich ontologische
Rahmungen für die Abgrenzung ihres Gegenstandsgebietes von den Gegen-
ständen der übrigen Einzelwissenschaften. Nicht minder gehen erkenntnistheo-
retische, praxeologische und anthropologische Vorgaben in die Konstitution jeder
Einzelwissenschaft ein, die gewöhnlich als so selbstverständlich und natürlich gel-
ten, daß man höchstens in Krisenlagen eines Faches auf sie aufmerksam wird.
In der Tat jedoch schreiben die verschiedenen Einzelwissenschaften in der Regel
ziemlich altüberkommene philosophische Grundlagentheorien aus der Geschichte
der Metaphysik, Ontologie, Erkenntnistheorie, praktischen Philosophie und
philosophischen Anthropologie fort. Und um darauf aufmerksam zu werden und
dementsprechend auch Neuerungen in diesen Feldern benutzen und anwenden zu
können, muß und kann man bei diesen Erwägungen immer wieder die ganze
Philosophiegeschichte zurate ziehen.
So können wir zusammenfassend feststellen: Als Bereichsphilosophie gehört
die Wissenschaftsphilosophie zu denjenigen Disziplinen der Philosophie, die das
Studium der philosophischen Grunddisziplinen Ontologie, Erkenntnistheorie ein-
schließlich der Logik, philosophische Anthropologie und Praxeologie sowie der
Metaphysik voraussetzen und deren Ideenpotentiale für die Reflexion auf die
Einzelwissenschaften bündeln. Sie faßt affine Probleme, Thematiken und Vor-
aussetzungen dieser Grunddisziplinen für die philosophische Grundlegung der
Einzelwissenschaften und die spekulative Durchdringung der ihnen zugeordneten
4

Wirklichkeitsbereiche zusammen. Sie ist darum auch für die Selbstreflexion der
Einzelwissenschaften und die philosophische Vertiefung ihres Studiums eine we-
sentliche Voraussetzung.

§ 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philo-


sophie

Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddiszi-


plinärer Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthro-
pologie und praktischen Philosophie und die Organisation des Ideenpotentials für die Anwendung
in den Einzelwissenschaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissen-
schaften, die schon in die geschichtlichen Begründungen der Wissenschaften eingegangen sind.
Die Klärung der philosophischen Voraussetzungen der Einzelwissenschaften als Aufgabe der all-
gemeinen Wissenschaftsphilosophie. Vorschlag einer Architektonik der Wissenschaften

Eine Architektonik der Philosophie macht den Voraussetzungszusammenhang der


Disziplinen und Einzelwissenschaften und ihr Verhältnis zu ihren Gegenstands-
bereichen deutlich. Ihre Struktur spiegelt sowohl historische wie systematische
Zusammenhänge in der Philosophie wider.
Philosophie beginnt bei den Vorsokratikern mit metaphysischen Problem-
stellungen, und sie entwickelt sich im Laufe ihrer Geschichte zu immer differen-
zierterer Problembetrachtung in Grund- und Bereichsdisziplinen, aus denen sich
ihrerseits die meisten Einzelwissenschaften ablösen und verselbständigen.
Der systematische Zusammenhang ist u. a. auch ein logischer: Die Benennungen
der Disziplinen und Wissenschaften gliedern sich in ein Gattungs-, Art- und
Unterartgefälle und stellen eine Klassifikation der Wissenschaften dar. Das allge-
meinste „metaphysische“ Ideenpotential erhält sich im jeweils untergeordneten
Besonderen als „generischer“ Ideenbestand und wird hier spezifiziert.
Ontologie setzt Metaphysisches voraus als Vorbegriff von Wirklichkeit, die nun
näher nach Wirklichkeitsbereichen oder Wirklichkeitsschichten spezifiziert wird.
Philosophische Anthropologie setzt ein metaphysisches „Wesen des Menschen“
voraus und spezifiziert es nach seinen Anteilen an ontologischer Wirklichkeit
bzw. nach Vermögen, Kräften und Anlagen. Erkenntnistheorie (Gnoseologie)
setzt die beiden metaphysischen Pole eines (ontologischen) Erkenntnisgegen-
standes und eines (anthropologischen) Erkenntnissubjektes voraus und spezifiziert
deren Verhältnisse zueinander. Praktische Philosophie (Praxeologie) ergänzt die
„theoretischen“ Aspekte des Verhältnisses von menschlicher zur übrigen Wirk-
lichkeit um die Aspekte des Handelns und Schaffens, der Eingriffe und Ver-
flochtenheit des menschlichen Subjektes in die objektive Wirklichkeit.
5

Was in diesen Grunddisziplinen als Erkenntnis- und Ideenvorrat erworben wurde,


wird seinerseits Voraussetzungspotential für die Bereichsdisziplinen. Natur,
Kultur und Sinngebilde sind spezifizierte ontologische Bereiche, die in jeweils
speziellen Formen, Mustern, Schematen von Menschen erkannt und handelnd
durchdrungen werden. In diesem Bemühen hängen die Bereichsdisziplinen der
Philosophie und die Einzelwissenschaften aufs engste zusammen und sind auf
vielen Forschungsgebieten kaum von einander zu trennen.
Dieser Zusammenhang der philosophischen Disziplinen und der Wissenschaf-
ten ist in der Wirklichkeit selber begründet, die grundsätzlich eine einzige ist. Die
Wissenschaften betrachten und erforschen einzelne Teile dieser Einheit.
Aber aus ihrer traditionellen Arbeitsteilung heraus neigt jede Einzelwissen-
schaft dazu, ihren Wirklichkeitszuschnitt als einen selbständigen und von den
Gegenständen der anderen Wissenschaften unabhängigen Gegenstand anzugehen.
Eine solche Unabhängigkeit kann es aber nicht geben. Die Verbindungen jedoch,
durch die sie zusammenhängen, bleiben gewöhnlich im blinden Fleck ihrer
Sichten. Es sind gerade die philosophischen Disziplinen und letzten Ende die
Metaphysik, deren Blick einzig und allein auf das Ganze der Wirklichkeit gerich-
tet ist und diese Einheit zum Thema macht.
Machen wir einen Vorschlag zu einer solchen Architektonik. Ihre philoso-
phische Ausgangsdisziplin ist also die Metaphysik als Kerndisziplin der allge-
meinsten Prinzipien der Philosophie bzw. der Gesichtspunkte aller Weltanschau-
ungen. Sie liefert die speziellen Ausgangsgesichtspunkte für die vier Grunddis-
ziplinen Ontologie (Wirklichkeitslehre), philosophische Anthropologie (philoso-
phische Lehre vom Menschen, nicht mit der biologischen und medizinischen
Anthropologie zu verwechseln), Erkenntnistheorie (Erkenntnislehre) und prak-
tische Philosophie (Lehre vom Handeln und Schaffen, nicht mit praktischem Phi-
losophieren zu verwechseln).
Aus ihnen stammen die Leitgesichtspunkte für die sogenannten Bereichs-
disziplinen. Diese stehen in engstem Kontakt mit den Einzelwissenschaften und
können daher nicht ohne deren einschlägiges Fachwissen entwickelt, studiert und
gelehrt werden. Zur Klassifizierung der Bereichsdisziplinen und der ihnen zuge-
ordneten Einzelwissenschaften dienen in der Regel ontologische Abgrenzungen
von Wirklichkeitsbereichen als deren Forschungsobjekten.
Die in Europa älteste und bis heute geläufig gebliebene ontologische Unter-
scheidung ist diejenige in Natur- und Geisteswissenschaften. Davon wird in den
folgenden Paragraphen noch vielfach die Rede sein. Diese Unterscheidung knüpft
an die traditionelle Vorstellung der Trennbarkeit von materieller Natur und imma-
teriellen psychischen bzw. geistigen Gegebenheiten an. Darunter stellte man sich
früher Seelen und Geister, Engel und Götter oder den Gott, später auch Bewußt-
sein und Bewußtseinsinhalte als rein geistige Gebilde vor. So wurde „Geistes-
wissenschaften“ gemeinsame Bezeichnung für die wissenschaftliche Befassung
mit solchen Gebilden.
6

An diese traditionelle Grundunterscheidung anknüpfend, sei hier eine weitere


Unterscheidung innerhalb der Geisteswissenschaften vorgeschlagen, die den mo-
dernen Entwicklungen Rechnung trägt. Es ist die Unterscheidung zwischen reinen
Sinngebilden (Ideen, Formen, Normen) die von einer materiellen Naturunterlage
als deren „Träger“ genau unterscheidbar sind, und demjenigen, was man Kultur
(das Gesamt der Artefakte) nennt. Kultur als ontologischer Wirklichkeitsbereich
ist dadurch gekennzeichnet, daß sich Geistiges als Sinn und Bedeutung“ mit
natürlichen Trägern dieses Sinnes verbindet und gleichsam amalgamiert. Mit
dieser Unterscheidung haben wir es folglich mit drei philosophischen Bereichsdis-
ziplinen und entsprechend mit drei Gruppen von Wissenschaften zu tun: Natur-
wissenschaften, Kulturwissenschaften und Sinngebildewissenschaften.
Naturphilosophie umfaßt weiter spezialisiertes Forschungsbemühen um die so-
genannte tote Natur, die lebendige (organische) und die menschliche Natur.
Kulturphilosophie läßt sich nach den einzelnen Kulturbereichen wie Sprache,
Recht, Religion, Kunst, Technik, auch Wissenschaft selbst, usw., weiter einteilen.
Und das gilt dann auch für entsprechende Kulturwissenschaften. Deshalb bilden
sich auch heute spezielle „Wissenschaftswissenschaften“ heraus wie etwa Wissen-
schaftssoziologie, Wissenschaftsgeschichte, Wissenschaftspsychologie, Wissen-
schaftsökonomie usw.
Als Sinngebildephilosophien bezeichnen wir diejenigen Bereichsphilosophien,
in denen Normen, Werte, Regeln und reine Ideen als Sinngebilde speziell betrach-
tet und erforscht werden. Sie sind als Regelanweisung und deren Systematisierung
für das Handeln entwickelt worden und behielten von daher stets einen metho-
dischen oder technischen Charakter. Man kann sie daher überhaupt als Methodi-
ken für die Anwendung von Ideen auf einzelne Gebiete bezeichnen. Darauf ver-
weisen auch ihre Bezeichnungen, die gewöhnlich auf „-ik“ enden (von griech.: iké
téchne).
Am beständigsten hat sich seit der Antike die Logik (in der Antike und im
Mittelalter auch „Dialektik“ genannt) als Methode und Regelkanon für das
richtige Denken gehalten. Sie ist daher auch stets eine der wichtigsten philoso-
phischen Bereichsdisziplinen geblieben. Neben ihr stehen aber auch Ethik,
Ökonomik und Politik (aus den aristotelischen „praktischen Disziplinen“) mit den
in ihnen entwickelten Normen, Maximen, Regeln und „Gesetzen“. Auch aus den
ehemaligen Trivialdisziplinen Grammatik und Rhetorik des platonischen Kanons
haben sich eine Reihe jetzt selbständiger Geisteswissenschaften entwickelt.
Mathematik mit den Schwerpunkten Arithmetik und Geometrie aus dem plato-
nischen Quadrivium gehört jetzt als exemplarische Einzelwissenschaft zu diesen
Sinngebildewissenschaften. Sie bleibt auch im Rahmen der Disziplinen der
mathematisch-naturwissenschaftlichen Fakultät eine reine Geisteswissenschaft
bzw. Sinngebildewissenschaft und wird deshalb im Titel der „Mathematisch-
Naturwissenschaftlichen“ Fakultät stets besonders genannt.
Der Vorschlag zu einer Architektonik der philosophischen Disziplinen und der
zugeordneten Wirklichkeitsbereiche sieht demnach folgendermaßen aus:
7

Architektonik der Wissenschaften

Kerndisziplin: METAPHYSIK

Grunddisziplinen: Ontologie Anthropologie Erkenntnistheorie Praxeologie

Bereichsdisziplinen: Naturphilosophie Kulturphilosophie Sinngebildephilosophie


Wissenschaftsphilosophie

Einzelwissenschaften: Naturwissenschaften Kulturwissenschaften Sinngebildewissenschaften


Wissenschaftswissenschaften

Wirklichkeitsbereiche: NATUR KULTUR (Artefakte) SINNGEBILDE


Wissenschaft

§ 3 Wahrheit als Ideal der Wissenschaft

Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissen-
schaftlichen Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissen-
schaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die
Vermischung der Kulturbereichs-Ideale untereinander und mit dem Wahrheitsideal der Wissen-
schaften. Die Wahrheitskonzeptionen der philosophischen Grunddisziplinen und ihre metaphysi-
sche Grundlegung. Ontologische Wahrheit als Echtheit; anthropologische Wahrheit als Wahr-
haftigkeit; praxeologische bzw. pragmatistische Wahrheit als Nützlichkeit; erkenntnistheoretische
Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Die realistische Korres-
pondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile
und Stärken und ihre Problematik

Die Wissenschaft als Kulturinstitution ist auf die Akkumulation, Sicherung,


Verwaltung, Tradierung und Erweiterung von Wissen abgestellt. Diese Aufga-
benstellung spricht sich schon in ihrer über zwei Jahrtausende konstant geblie-
benen Bezeichnung aus. Die über alle Jahrhunderte unangefochtene Kontinuität
der Institution Wissenschaft im Abendland spricht dafür, daß sie diese Aufgabe
im allgemeinen zum Nutzen der Staaten, Gesellschaften und der einzelnen Men-
schen gemeistert hat.
Davon zehrt natürlich auch die heute noch bemerkbare Hochschätzung der
Wissenschaft. Sie zeigt sich vor allem in der oft beschriebenen „Verwissen-
schaftlichung“ aller Lebensbereiche, einer Durchdringung der Menschenbildung –
gleichsam von der Wiege bis zur Bahre – mit wissenschaftlichen Inhalten, und
jeder Art von Praxis mit wissenschaftlichen Methoden und Techniken.
Erst recht zeigt sie sich in den Erwartungen, die man gegenüber der Wis-
senschaft für die Lösung von Gegenwarts- und Zukunftsproblemen hegt. Die
8

„Ressource“ Wissenschaft gilt, wenigstens den politischen Verlautbarungen nach,


in allen Staaten, denen es an Bodenschätzen, klimatisch günstigen Bedingungen
und anderen natürlichen Ressourcen fehlt, als das wichtigste Gut, mit dem sich
individuelles Wohlbefinden (Gesundheit, langes Leben, „Glück“), allgemeiner
Wohlstand und Weltfrieden herbeiführen und sichern lasse. Unerwünschte Neben-
folgen der verwissenschaftlichten Zivilisation gelten als „Kollateralschäden“, die
sich durch noch mehr Wissenschaft in Gestalt wissenschaftlicher „Technik-
nebenfolgenabschätzung“ und ethischer Kontrolle beseitigen, vermeiden oder
konterkarieren ließen. Auch wer dies anders sieht und sich etwa als moderne
Kassandra betätigen möchte, tut gut daran, sich auf Wissenschaft zu berufen,
wenn er überhaupt gehört und ernst genommen werden möchte.
Was die Wissenschaft immer im Innersten zusammengehalten hat ist ihr Ideal
der Wahrheit, das sie als einen der höchsten Kulturwerte etabliert hat. Von daher
scheint es ganz natürlich, daß man wissenschaftliches Wissen immer auch als
wahres Wissen verstanden hat, und wissenschaftliches Wissen einen Vertrauens-
vorsprung vor allem anderen Wissen genießt.
Auch andere Kultur- und Zivilisationsbereiche außerhalb und neben der
Wissenschaft haben ihre traditionellen Wertideale, die für deren Institutionen und
Praktiken Ziel und Gehalt bestimmen und gleichsam ihre Permanenz gewähr-
leistet haben. Der Religion und dem Kultus geht es um das Heil, dem Rechts-
wesen um die Gerechtigkeit, der Politik um das Bonum Commune des jeweiligen
Staates, der Wirtschaft um die optimale Daseinsvorsorge, dem Medizinalwesen
um die Gesundheit, der Technik um das Machbare, dem Sport geht es (leider fast
nur noch) um die Ausweitung der körperlichen Leistungsfähigkeiten des Men-
schen. Worum es heute der Kunst geht, ist sehr umstritten; ehemals ging es ihr um
das Schöne.
Alle diese Zwecksetzungen haben in der Geschichte mit der Wissenschaft darin
konkurriert, ihre Ideale zu verallgemeinern und auf die übrigen Bereiche und
besonders auf die Wissenschaft auszudehnen. Und diese Tendenzen sind immer
noch aktuell und tragen heute mehr denn je zur Unklarheit über das Wesen der
Wissenschaft und die Ideale der übrigen Kulturbereiche bei.
Wenn man nur noch wissenschaftlich, d. h. „theologisch“ fromm und gläubig
ist, die Gerechtigkeit nicht mehr von jedem Rechtsgenossen erspürt und gelebt,
sondern von rechtswissenschaftlicher Forschung und Auslegung erwartet wird,
wenn das Bonum Commune von wissenschaftlicher Politikberatung abhängig
gemacht wird, die Wirtschaft nach Nobelpreistheorien gesteuert, Gesundheits-
vorsorge nach dem letzten Stand der Schulmedizin bemessen wird, die Technik
nur noch als „Forschung und Entwicklung“ begriffen, der Sport von der Doping-
medizin getragen, das, was Kunst sein soll, vom Urteil der Kunstwissenschaft
bestimmt wird, so braucht man sich nicht zu wundern, wenn die Laien in allen
diesen Bereichen irritiert oder frustriert sind. Es wird ihnen zugemutet, ihre
traditionellen Einstellungen in diesen Bereichen für wissenschaftlich überholt und
als falsch geworden anzusehen.
9

Die traditionellen Ideale der Kulturbereiche treten jetzt als religiöser Fundamenta-
lismus, quärulatorische Übersensiblität in den Rechtsverhältnissen, politischer
Dezisionismus aus partikulären Machtinteressen, als primitive Sammler-, Jäger-
und Tauschmentalitäten sowie als vorindustrielle Produktion und Landwirtschaft,
alternative Gesundheitsmagie, sportliches „body-building“ und als „Jedermann ist
Künstler“-Einstellungen auf und erleben eine gewisse Konjunktur als Gegenwehr
und Alternativen zu den wissenschaftlich vorgegebenen Zielen.
Aber auch für die Wissenschaft ist das folgenreich. An die Stelle ihres epocha-
len Ideals, der Wahrheit zu dienen, treten diese traditionellen Ideale der einzelnen
Kulturbereiche, oder diese Kulturideale gehen mannigfaltige Verschmelzungen
mit dem Wahrheitsideal ein.
Von der Wissenschaft erwartet man dann gläubig das Heil der Welt. Man
unterstellt ihre Organisation dem Gerechtigkeitsideal und verlangt von ihr die
politische Förderung des Bonum Commune. Man bewertet sie ökonomisch als
Dienstleistungs- und Produktionsstätte von Wissen und ausgebildetem Human-
kapital. Man empfielt sie als Diagnostik, Anamnese und Therapeutik für alle Ge-
brechen der modernen Welt. Man hält sie weitgehend nur noch nach dem Maßstab
des Einsatzes avanciertester Technik für seriös. Und man feiert nicht zuletzt (wie
früher in der Kunst) die Auffälligkeit, den Glanz, die Schönheit und Eleganz
sowie die Genialität ihrer Spitzenleistungen.
Die hybriden Ideale dienen jetzt überall als Kriterien für die Beurteilung
wissenschaftlicher Leistungen. Von Wahrheit ist dabei am wenigsten oder über-
haupt nicht mehr die Rede, wie jeder Gutachter in wissenschaftlichen Angelegen-
heiten weiß. Wissenschaftliche Leistungen werden kaum noch danach beurteilt,
inwieweit sie wahres Wissen fördern, sondern wie weit und kräftig sie einem der
genannten Hybridideale entsprechen.
Jedoch hat die Amalgamierung des Wahrheitsideals der Wissenschaft mit
Idealen anderer Kulturbereiche eine lange Geschichte. Nennen wir nur einige
jedem Wissenschaftler bekannte Beispiele.
In der mittelalterlichen Scholastik sollte nach einigen (aber keineswegs allen)
Theologen „die Philosophie die Dienerin der Theologie sein“ (philosophia ancilla
theologiae), wobei Philosophie für alle Wissenschaften des Triviums und Quadri-
viums stand. Das wurde meist so verstanden und auch praktiziert, daß Wissen-
schaft von der Kirche, und mittels ihres Einflusses auch durch weltliche Macht-
haber, überhaupt nur soweit zugelassen und gefördert wurde, als sie theologischen
Interessen, d. h. dem Heile der christlichen Gesellschaft diente. Diese Einstellung
setzte sich von Seiten der katholischen Kirche über den „Modernistenstreit“ des
19. bis zum berühmten Werturteilsstreit zu Beginn des 20. Jahrhunderts fort.
Seither haben sich jedoch im christlichen Abendland alle Kirchen und die meisten
ihrer Theologen dem Kantischen Votum angeschlossen, daß dieser Dienst der
Philosophie nicht darin bestehe, hinter der Theologie – „ihr die Schleppe tragend“
- herzulaufen, sondern – „ihr das Licht der Vernunft vorantragend“ (I. Kant) –
10

voranzugehen. Aber das gilt ersichtlich nicht von allen Religionen, die heute in
der Welt ihre „Wahrheiten“ verkünden.
Im 20. Jahrhundert wurden große Teile der Wissenschaft in den ideologischen
Dienst des Faschismus und Kommunismus genommen. Statt der Wahrheit hatte
Wissenschaft politischen Idealen der „Parteilichkeit“ und der nationalen Gewin-
nung des „Weltmachtstatus“ zu dienen. Was in den beteiligten Staaten und für die
Welt dabei herauskam, ist bekannt, ebenso das, was an Nachwehen bis heute
wirksam blieb.
Mit der 68er-Revolution trat das Ideal der Emanzipation in den Mittelpunkt der
politischen Diskussion. Den Juristen erinnerte „Emanzipation“ noch an die rö-
mischrechtliche Entlassung von Kindern aus der Obhut und Gewalt des „pater
familias“. Für linke Ideologen war Emanzipation das Ziel aller historischen
Klassenkämpfe zur Befreiung des Individuums aus gesellschaftlichen Zwängen.
Für Pädagogen war es das Erziehungsziel der „Mündigmachung“ junger Men-
schen, wie es in der „mittleren Reife“ und im „Reifezeugnis des Abiturs“ verbrieft
wurde. In den neueren Studienreformen aber wurde die Emanzipation zum Recht
auf Teilhabe am zwanglosen permanenten Diskurs, und die wissenschaftliche
Wahrheit dadurch zum Ergebnis solcher „emanzipatorischen“ Diskurse.
Wie man weiß, war die Umsetzung des Emanzipations-Ideals in den modernen
westlichen Gesellschaften überall im Sinne der Propagandisten erfolgreich. Die
Väter und Mütter büßten die rechtliche Verantwortung für ihre Kinder ein oder
gaben sie auf. Die Erreichung des „Reifezeugnisses“ und die Zulassung zum
wissenschaftlichen Hochschulstudium wurde fast zum Menschenrecht, und die
Standards aller Ausbildungsgänge wurden entsprechend angepaßt.
Während die emanzipatorische Revolution noch weiterläuft, scheint inzwischen
das Ideal der ökonomischen Daseinsvorsorge das gesamte westliche Wissen-
schaftssystem zu steuern. Wissenschaft wird gemäß herrschender „Shareholder-
value-Mentalität“ ständig nach ökonomischem Nutzen evaluiert, industriell orga-
nisiert und nach maximalem Output an wirtschaftlich und technisch umsetzbaren
Ideen und beruflich verwendbaren Absolventen finanziert. Die Organisation der
Hochschulen wurde im „Bolognaprozeß“ durch neue Hochschulgesetze gänzlich
nach BWL-Gesichtspunkten, d. h. als wirtschaftliche Unternehmung gestaltet. Der
Staat schließt „Zielvereinbarungen“ und „Pakte“ mit seinen Hochschulen ab, die
auf Lieferung des gewünschten Outputs an Forschungs- und Ausbildungsresulta-
ten abgestellt sind.
So wurde die einstige Gelehrtenrepublik in viele Präsidialdiktaturen umge-
wandelt. Die Universitäten und Hochschulen haben statt Rektoren nun allmäch-
tige Vorstandsvorsitzende, die von niemandem verantwortlichen Hochschulräten
(deren Mehrheit aus Vorstands- und Aufsichtsräten von Großbetrieben und von
gesellschaftlichen Gruppen stammt) gewählt und beraten werden. Die ehemaligen
akademischen Selbstverwaltungsgremien führen hinsichtlich ihrer übriggelas-
senen Kompetenzen ein Schattendasein, wenn auch voller Betriebsamkeit. Sie
dürfen ständig neue Richtlinien umsetzen und Vollzugsmeldungen abgeben und
11

sich im übrigen um „Exzellenz“ bemühen. Diese besteht bisher weitgehend darin,


werbewirksame Großprojekte, d. h Absichtserklärungen, „Alleinstellungsmerk-
male“ und „Profile“ für künftige Forschungsvorhaben auszuarbeiten. Die Lehrin-
halte bzw. Kurrikula werden durch private Akkreditierungs- und Evaluations-
agenturen lizensiert, d. h. genehmigt oder abgeschafft. Die Ausstattungen der
Fakultäten und Institute sind seit langem auf niedrigem Niveau und weit hinter
den Bedürfnissen erheblich zunehmender Studierendenzahlen eingefroren. Die
Lehrenden und Forscher werden hauptsächlich danach beurteilt, ob und wieviel
„Drittmittel“ sie von Stiftungen und Sponsoren für ihre Forschungsvorhaben und
die Anstellung von Mitarbeitern einwerben können. Daß die Wirtschaft mit ihren
speziellen Idealen nicht als Vorbild für die Wissenschaft taugt, liegt zwar offen
zutage, hat aber noch nicht zu einer höchst nötigen Tendenzwende geführt.
Bleiben wir diesen modernen Tendenzen gegenüber dabei, daß es in der
Wissenschaft wesentlich um die Wahrheit geht. Das heißt zugleich, daß es in ihr
auch um die Falschheit und um das, was zwischen beidem liegt, gehen muß. Das
zu betonen ist schon deshalb wichtig, weil das Falschheitsproblem und das
Problem des Mittleren zwischen Wahrheit und Falschheit, nämlich das, was man
üblicherweise Wahrscheinlichkeit nennt, und das im folgenden als „Wahr-Falsch-
heit“ definiert wird, gegenüber dem Wahrheitsproblem stark unterbelichtet geblie-
ben sind.
Die Frage nach der Wahrheit begleitet die Philosophie und die Wissenschaften
seit ihren Anfängen. Daher kann es nicht verwundern, daß die Entfaltung der
Philosophie in Grunddisziplinen, wie wir sie im vorigen Paragraphen dargestellt
haben, entsprechende Fassungen des Wahrheitsproblems und spezifische Wahr-
heitsbegriffe hervorgebracht haben, die auch im heutigen Verständnis noch eine
Rolle spielen. Man spricht hier von ontologischen, anthropologischen, praktischen
bzw. pragmatischen oder gar pragmatistischen und erkenntnistheoretischen Wahr-
heitsbegriffen, die sich dann auch in den Einzelwissenschaften zur Geltung
bringen.
Der zentrale und für die Wissenschaftsphilosophie ausschlaggebende Wahr-
heitsbegriff gehört indessen zu den metaphysischen Vorgaben aller Wissen-
schaften. Von ihm müssen sich auch die grunddisziplinären Wahrheitskonzep-
tionen ableiten lassen. Der metaphysische Wahrheitsbegriff geht als sogenanntes
generisches Merkmal in alle Arten und Unterarten von Wahrheitsbegriffen ein, die
ihn nach ihren disziplinären Bedürfnissen spezifizieren. Betrachten wir die grund-
disziplinären Wahrheitsbegriffe.
Der sogenannte ontologische Wahrheitsbegriff läßt sich am besten durch den
Begriff der Echtheit näher bestimmen. Man sagt bekanntlich, das Echte sei das
Wahre, weil es „wirklich so ist, wie es sich zeigt“. Ontologisch Wahres ist daher
„reines bzw. objektives Sein“. Jeder kennt auch die „echte Geldnote“ und unter-
scheidet sie von der „falschen bzw. gefälschten“. Das verweist auf das ontolo-
gische Gegenteil des Echten, nämlich den „Schein“ oder die „Erscheinung“, hinter
12

denen sich entweder etwas anderes als das Echte verbirgt oder überhaupt „Nichts“
steht.
Der ontologische Wahrheitsbegriff hat in den Geistes- und Literaturwissen-
schaften immer schon eine bedeutende Rolle gespielt. Die in den Philologien und
in den historischen Disziplinen gepflegte „Quellenkritik“ richtete sich stets auf die
Unterscheidung des Echten vom Falschen bzw. Gefälschten. Und zur sogenannten
Kunstkritik gehörte immer die Bemühung um Unterscheidung der „echten“
Kunstwerke von den gefälschten. Dies blieb eine ständige Aufgabe. Auch in den
Naturwissenschaften hat diese Unterscheidung von Echtheit und Fälschung oder
Verfälschung eine oft unterschätzte, aber neuerdings in der Gestalt fraudulösen
Schwindels wieder viel beachtete Bedeutung. Hierzu gehört der Unterschied
zwischen den tatsächlichen Naturphänomenen, die man gerne wahre oder echte
nennt, von den künstlich in die Faktenfixierung (etwa durch Beobachtung) hinein-
getragene Verfälschungen. Diese „künstlichen Effekte“ nennt man „Artefakte“.
Dieser naturwissenschaftliche Artefaktbegriff ist von dem kultur- und geistes-
wissenschaftlichen Artefaktbegriff zu unterscheiden. Von manchen naturwis-
senschaftlichen Artefakten ist bis heute umstritten, ob es um echte Phänomene
oder Artefakte (oft auch „Dreckphänomene“ genannt) handelt.
Der anthropologische Wahrheitsbegriff ist eine Ausweitung des ontologischen
Echtheitsbegriffs auf den Menschen bzw. auf ein Subjekt, das einem ontolo-
gischen Objekt gegenübergestellt wird. Hier spricht man von Wahrhaftigkeit bzw.
Ehrlichkeit eines Menschen oder Charakters und stellt sie wiederum der Falsch-
heit, evtl. der Verlogenheit, Verschlagenheit oder Verstellungskunst eines Charak-
ters gegenüber. Diese menschliche Wahrhaftigkeit und Ehrlichkeit ist naturgemäß
integrativer Bestandteil des wissenschaftlichen Wahrheitsideals. Ohne sie hätte
der wissenschaftliche Forscher und Lehrer im Abendland nicht das Ansehen ge-
winnen können, von dem seine gesellschaftliche Stellung noch immer zehrt.
Der praxeologische bzw. pragmatistische Wahrheitsbegriff, der heute eine
besondere Konjunktur hat, verknüpft Wahrheit mit dem Nutzen bzw. dem Erfolg
von Handlungen. Das klingt schon deshalb recht plausibel, weil man seit jeher
Mißerfolg und Schaden gerne auf „falsche“ Handlungen oder Handlungsstrategien
zurückführt. Beim Wahrheitsideal der Nützlichkeit handelt es sich ersichtlich um
die Umschreibung von Zweckmäßigkeit und um Richtigkeit (die sachangemes-
sene und zweckmäßige Ausrichtung) von einfachen oder produktiven Handlungen
auf einen definierten Nutzen hin.
Der wichtigste und am meisten verwendete ist jedoch der erkenntnistheore-
tische Wahrheitsbegriff. Er wurde schon von Aristoteles definiert. Ausgehend von
der Unterscheidung zwischen objektiver Realität (res) und subjektivem Er-
kenntnisvermögen der Vernunft (intellectus) wird Wahrheit aristotelisch als ein
Ähnlichkeitsverhältnis zwischen beiden definiert. Die scholastische Definitions-
formel dafür lautet nach Thomas von Aquin: Adaequatio rei et intellectus. Die
neuere Erkenntnistheorie nennt das den Korrespondenzbegriff der Wahrheit. Hier
wird das Ähnlichkeitsverhältnis zwischen den Polen des Objektiven und Subjek-
13

tiven bzw. zwischen Erkenntnisobjekt und erkennendem Subjekt als „Entspre-


chung“ (correspondentia) gefaßt.
Als Modell für diese Entsprechung gilt allgemein das Abbildverhältnis zwi-
schen einem Gegenstand und seinem Bild. So wird dieser Korrespondenzbegriff
der Wahrheit auch gewöhnlich in ausgefeilten „Abbild(ungs)theorien“ der Wahr-
heit expliziert. Man stellt sich vor, daß – über die Sinne vermittelt – im Be-
wußtsein ein Bild von einem Gegenstand in der Außenwelt bestehen könne.
Gemäß dem mathematischen Bildbegriff wird das Abbildungsverhältnis als „ein-
eindeutige Zuordnung“ von Bewußtseinsgegebenheiten zu objektiven Sachver-
halten näher bestimmt.
Man kann den Korrespondenzbegriff der Wahrheit ohne weiteres als den der-
zeit in den Wissenschaften allgemein und in der Wissenschaftsphilosophie spe-
ziell herrschenden Wahrheitsbegriff bezeichnen. Dies umso mehr, als er Ausdruck
und Folge des in den modernen Wissenschaften vorherrschenden Realismus ist,
demgemäß ja die Voraussetzung der Unterscheidung von Außen- und Innenwelt
bzw. objektiver Realität und Bewußtsein als sakrosankte Selbstverständlichkeit
gilt. Er krankt freilich an Mängeln, die seinen Vertretern wohlbekannt sind, die
aber als ein durch weitere erkenntnistheoretische Forschung zu lösendes Problem
aufgefaßt werden. Und so ist auch ein beachtlicher Teil der erkenntnistheore-
tischen und wissenschaftstheoretischen Literatur dem Bemühen um dieses Prob-
lem gewidmet.
Das Problem ergibt sich allerdings nur unter der realistischen Voraussetzung
der Unterscheidung und Unterscheidbarkeit von Bewußtsein und sogenannter
objektiver Realität und dementsprechend von Erkenntnis und Erkenntnisgegen-
stand. Es verschwindet aber unter der idealistischen Voraussetzung, daß diese
Unterscheidung nicht gemacht werden kann. Dies ist ein deutlicher Hinweis
darauf, daß der erkenntnistheoretische Wahrheitsbegriff seinerseits in metaphy-
sischen Theorievoraussetzungen begründet wird.
Zwar ist das Abbildungsmodell (insbesondere als Photographie-Modell), gemäß
dem man ja einen Sachverhalt und sein Bild sehr gut mit einander vergleichen und
die entsprechenden ein-eindeutigen Punktzuordnungen effektiv vornehmen kann,
sehr suggestiv. Aber man unterschlägt dabei, daß der Sachverhalt und das Abbild
mit demselben Auge eines Betrachters von Sachverhalt und Abbild gesehen und
verglichen wird. Und das würde bei der Übertragung auf das Erkennen erfordern,
daß der Erkennende über ein „Organ“ verfügte, mit dem er sowohl die „äußeren“
Dinge wie auch die „inneren“ Abbilder der Dinge im Bewußtsein unterscheiden,
nebeneinander betrachten und mit einander vergleichen könnte.
Derartiges gibt es aber nicht. Zwar ist das hier oft als Argument angeführte Bild
auf der Netzhaut des betrachtenden Auges ein dem Photo vergleichbares Abbild
der Dinge vor dem Auge. Aber das Bild auf der Netzhaut gehört selbst zu den
„äußeren“ Dingen, zu denen es in einem gesetzmäßigen optischen Korrespon-
denz-Verhältnis steht. Es ist aber nicht mit dem zu verwechseln, was mit bewußter
Wahrnehmung gemeint ist.
14

Wenn jemand Dinge oder Sachverhalte sieht, so sieht er sie als solche, keineswegs
aber Abbilder von ihnen. Sieht er sie aber nicht mehr, sondern erinnert sich nur,
daß er sie gesehen hat, so sieht er sie gerade nicht. Und erst dann nennt er das, an
was er sich erinnert oder was er sich phantasierend vorstellt, mit einem gewissen
Recht „Abbilder“ der Wirklichkeit. Was also als „korrepondierend“ verglichen
werden kann, ist allenfalls das unmittelbar Gesehene und das mittelbar Erinnerte
oder Phantasierte. Die Unterscheidung von unmittelbarer sinnlicher Wahrneh-
mung und Erinnerung an Wahrgenommenes ist die eigentliche Grundlage für die
Unterscheidung von Ding und „korrespondierender“ Abbildung und damit der
Korrespondenzdefinition der Wahrheit. Das verweist auf den Vorrang der idea-
listischen Erklärung auch für die realistische Wahrheitstheorie.
Das Ausweichen auf andere Sinnesleistungen wie das Betasten, Beriechen,
Schmecken oder Hören von Sachverhalten, die zugleich gesehen werden, führt
nicht zu einer solideren Begründung des realistischen Korrespondenzbegriffs der
Wahrheit. Denn das durch verschiedene Sinne erfahrene Ding oder der Sach-
verhalt ist dann immer noch unmittelbar und keinesfalls als Abbild gegeben. In
diesem Falle „korrespondieren“ nur die verschiedenen sinnlichen Erfahrungs-
inhalte untereinander in gesetzmäßiger Weise, jedoch ersichtlich nicht als bildhaf-
te Entsprechungen.
Hält man schließlich ein Ding für die Ursache eines sogenannten Sinnes-
eindrucks, und letzteren also für dessen Wirkung, so hat man – wie Kant (in der 1.
Auflage seiner „Kritik der reinen Vernunft“) sehr richtig feststellte – nur das
Erinnerte als Ursache und das aktuell Wahrgenommene als Wirkung, beides
zusammen als „korrespondierende“ kausale Verbindung gedeutet, aber keines-
wegs ein bewußtseinsunabhängiges Wirkliches (Kants „Ding an sich“) mit einer
Bewußtseinsgegebenheit kausal verknüpft.
Daß man von einem in der realistischen Wahrheitskonzeption vorausgesetzten
bewußtseinstranszendenten „Ding an sich“ in keiner Weise etwas wissen kann,
das wissen auch die Realisten. Kant nennt es in der 2. Auflage seiner „Kritik der
reinen Vernunft“, in der er sich zum metaphysischen Realismus bekennt, ganz
richtig ein „unbekanntes Ding“. Von dem Unbekannten jedoch zu behaupten, daß
es existiere (oder nicht existiere) belastet die realistische Erkenntnistheorie mit
einer contradictio in principiis.
Anstatt das Ding an sich schlicht zu streichen, wie vor Kant schon George
Berkeley und nach ihm alle deutschen Idealisten von Fichte bis Schopenhauer
vorgeschlagen haben, macht man es in der neueren realistischen Erkenntnis- und
Wissenschaftstheorie zum Gegenstand eines unendlichen Arbeits- und For-
schungsprogramms. Gegen den Idealismus aber argumentiert man mit der Unfaß-
barkeit und Subjektivität des Bewußtseins, das noch schwerer zu erfassen sei als
das nur einfach schwierige „Ding an sich“.
Nun ist es selber schon falsch zu meinen, wenn es kein Ding an sich bzw. keine
„Außenwelt“ gäbe, bliebe eben das Bewußtsein alleine übrig. Und dies sei über-
15

haupt die Grundthese des Idealismus. Das mag zwar für einige ältere Versionen
des Idealismus gelten, aber es ist nicht das letzte Wort in der Sache.
Schon George Berkeley, dem wir hier folgen können, betonte im 18. Jahr-
hundert, daß es in einem wohlverstandenen Idealismus nicht darum gehen könne,
„die Dinge zu Ideen (im Bewußtsein) zu machen, sondern umgekehrt die Ideen zu
Dingen“1. Das heißt, daß von Bewußtsein überhaupt nur die Rede sein kann, wenn
es sachhaltig ist. Das heißt aber zugleich, daß von Bewußtsein nicht die Rede sein
kann, wenn es nicht sachhaltig ist. Aber gerade über solches nicht-sachhaltige
Bewußtsein wird ständig geredet. Sei es, daß man es als „Vermögen“ auffaßt, das
auch dann existiert, wenn es gerade nicht wahrnimmt, empfindet, denkt oder
sonstwie tätig ist; sei es, daß man eine gespensterhafte Fiktion von einem „leeren
Bewußtein“ aufstellt oder vom „Unbewußten im Bewußtsein“ redet.
Hinter das Bewußte kann in der Tat nicht zurückgegangen werden. Das ist die
metaphysische Grundthese des Idealismus. Sie schlägt auf die erkenntnistheo-
retische Problematik in der Weise durch, daß sich ausnahmslos alles, was man
Wirklichkeit, Realität, Sein – aber auch Nichts – nennt, als bewußtes Phänomen
(wir vermeiden das Wort „Inhalt eines Bewußtseins“) erweisen muß. Und das
heißt umgekehrt, daß alles dies – auch das Nichts – nur als „Bewußtes“ sinnvoller
Gegenstand der Wissenschaft sein kann.
George Berkeleys nicht hoch genug zu veranschlagende metaphysische Ein-
sicht war es zu zeigen, daß die Wirklichkeit, das Sein, nur und ausschließlich als
sinnliche Erfahrung gegeben sein kann. Das ist der Sinn seines Prinzips „Esse =
Percipi“ (Sein bedeutet dasselbe wie Wahrgenommenwerden).
Was Berkeley freilich dabei nicht bemerkte, war, daß ebenso auch das Nichts
ein ganz normaler Gegenstand der sinnlichen Erfahrung ist. Man sieht, fühlt, hört,
riecht, schmeckt eben „Nichts“ – wie die Sprache ganz richtig ausdrückt – wenn
man bei aufmerksamem Schauen, Tasten, Lauschen, Schnüffeln oder Er-
schmecken eben „nicht Etwas“ wahrnimmt, das sich in der Sprache der positiven
Erfahrungen als „Etwas“ und „Seiendes“ benennen ließe. Und das erlebt jeder-
mann gewöhnlich in vollkommener Dunkelheit und Stille, die darum immer
wieder als „Metaphern“ des Nichts dienen müssen, während sie in der Tat doch
empirische Beispiele, nämlich Arten des Nichts sind. Man sollte sich dies-
bezüglich dem Sprachgebrauch anvertrauen (der zuweilen, wie L. Wittgenstein
richtig bemerkte, „ganz in Ordnung ist“), und dabei ontologisch und logisch vom
Nichts nicht mehr fordern als von jedem Etwas, nämlich daß es sich in der
Sinneserfahrung ausweise.
Die ontologische Grenze, die die Realisten (und Materialisten) zwischen den
„Dingen an sich“ und dem Bewußtsein zu ziehen pflegen, erweist sich so als eine

1
“I am not for changing things into ideas, but rather ideas into things; since those immediate objects of perception, which,
according to you, are only appearences of things, I take to be the real things themselves”. George Berkeley, Three
Dialogues between Hylas and Philonous, in opposition to sceptics and atheists, in: G. Berkeley, A new theory of vision and
other select philosophical writings (Everyman‟s Library ed. by E. Rhys), London-New York o. J., S. 282.
16

bewußtseinsmäßige Grenze zwischen dem unmittelbar sinnlich Wahrgenomme-


nen und der Erinnerung an Wahrgenommenes, das nicht bzw. nicht mehr wahr-
genommen wird. Dies ist die Grundlage dafür, überhaupt theoretisch „am
Schreibtisch“ über Dinge in der Welt reden zu können, die man nicht „vor Augen“
oder im „unmittelbaren Zugriff“ hat. Es ist aber zugleich auch die Grundlage für
den idealistischen Wahrheitsbegriff.
Dieser idealistische Wahrheitsbegriff wird gewöhnlich als Kohärenzbegriff der
Wahrheit bezeichnet. Er spielt auf den „logischen Zusammenhang“ zwischen den
bewußten Gegebenheiten an, vor allem zwischen dem unmittelbar sinnlich Gege-
benen und dem Erinnerten, d. h. mit dem Bereich des historischen Wissens.
Darüber hinaus aber auch mit dem aus Erinnerungsbeständen kombinierten „spe-
kulativen“ Material unserer kreativen Phantasie.
Diese Gegebenheitsweisen des Bewußten genau zu unterscheiden, ist zwar
prinzipiell möglich, tatsächlich aber ein höchst schwieriges Geschäft. Und dies
angesichts der Tatsache, daß die sinnliche Wahrnehmung offenbar ständig von
Erinnerungen begleitet wird. Denn erst dies ermöglicht jede Wiedererinnerung an
schon Erfahrenes und jede Unterscheidung des Neuen und Unbekannten vom
schon Erfahrenen. Ebenso aber sind auch die unmittelbaren sinnlichen Erfah-
rungen und die Erinnerungen gewöhnlich mit phantastischen „Antizipationen“
bzw. Erwartungen und spekulativen Elementen durchschossen, die die bewußte
Aufmerksamkeit bei den Wahrnehmungen steuern.
Was hierbei kohärent genannt werden kann, hängt in erster Linie von den
logischen Methoden der Verknüpfung aller dieser Komponenten und in zweiter
Linie von den für die einzelnen Erfahrungsbereiche bzw. Forschungsfelder vorlie-
genden Theorien ab.
Logische Kohärenz können wir ohne weiteres mit dem in der Logik selbst
verbreiteten Konzept der Widerspruchslosigkeit einer Theorie gleichsetzen. Das
heißt zugleich, daß Widersprüche in einer Theorie Ausdruck von Inkohärenzen –
gleichsam Risse im logischen Netz der Gedanken - sind. Das deutet grundsätzlich
auf Einschüsse von Falschheit in einer Theorie hin. Gewöhnlich hält man aber
inkohärente bzw. widersprüchliche Theorien für in toto falsch. Wir werden aber
Argumente vorbringen, die zeigen, daß diese Meinung viel zu weit geht und daher
selber falsch ist.
Was die Theorien über bestimmte Wirklichkeitsbereiche in den Einzelwissen-
schaften und einzelnen philosophischen Disziplinen betrifft, so hält man sie unter
dem Einfluß der Kohärenztheorie der Wahrheit gewöhnlich schon dann für wahr,
wenn sie überhaupt nur widerspruchslos sind.
Widerspruchslose Theorien über engste Wirklichkeitsbereiche oder Sachver-
halte aufzustellen, dürfte jedoch einem Logiker immer möglich sein, und daher
gibt es reichlich Angebote von solchen. Das hat in allen Bereichen zur Kon-
kurrenz kohärent-wahrer Theorien geführt, die sich gleichwohl gegenseitig ihren
Wahrheitsanspruch bestreiten und insofern selber untereinander widersprechen.
Daraus resultiert der sogenannte Theorienpluralismus. Er hat seinerseits dahin ge-
17

wirkt, den Kohärenzbegriff der Wahrheit selbst in Verruf zu bringen und einen
Wahrheitsskeptizismus in der Wissenschaft zu befördern.
Dem läßt sich aber dadurch entgehen, daß man den Kohärenzbegriff der
Wahrheit – wie es ja selbstverständlich sein sollte – nicht auf einzelne Detail- und
Ressorttheorien bezieht, sondern innerhalb der Grenzen einer Einzelwissenschaft
auf das „Ganze“ des hier etablierten Wissens, und über diese Grenzen hinaus auf
das „Ganze“ des interdisziplinären Begründungszusammenhanges der Einzelwis-
senschaften und der philosophischen Disziplinen bis hin zur metaphysischen
Letztbegründung. Kohärenzwahrheit kann sich so überhaupt nur in einem kohä-
renten Gesamtwissen zeigen, das seinerseits einzelwissenschaftliches Wissen in
einem „systematischen Ganzen der Erkenntnis“ (Kant) integriert. Das Kohärenz-
kriterium der Wahrheit muß, um dem Wahrheitsproblem gerecht zu werden, durch
das „Komprehensibilitätskriterium“ (bzw. Umfassendheitskriterium) ergänzt wer-
den.
Dies hat Hegel mit seinem Dictum vorgeschlagen: „Das Wahre ist das Ganze“ 2.
Und wenn auch sein philosophisches System heute nur als Vorschlag und Muster
gelten kann, wie ein solches Ganzes des Wissen zu gewinnen sei, so war es doch
zugleich eine gültige Formulierung des „Ideals der Wahrheit“, dem alle Wissen-
schaften sich anzunähern bestrebt sein sollten.

§ 4 Wissen, Glauben und Intuition in den Wissenschaften

Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen
Formen: knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falsch-
heit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Prob-
leme des überanschaulichen Wissens und der Veranschaulichung durch Modelle. Wissensprä-
tensionen und ihre floskelhaften Verkleidungen

Jakob Friedrich Fries (1773 – 1843), der „Forscherphilosoph“ (wie ihn Alexander
von Humboldt genannt hat), einer der frühesten expliziten Wissenschaftsphiloso-
phen und dabei entschieden realistischer Kantianer, hat mit seinem Frühwerk
„Wissen, Glaube und Ahndung“ von 1805 3 drei Stichwörter geliefert, denen man
auch jetzt noch einen guten Sinn beilegen kann.

2
G. W. F. Hegel, Phänomenologie des Geistes, hgg. von J. Hoffmeister, Hamburg 1952, S. 21.
3
Jetzt in: J. F. Fries, Sämtliche Schriften, hgg. von G. König und L. Geldsetzer, Band 3, Aalen 1968.
18

Fries meinte, daß es „Wissen“ nur über das psychische Innenleben bzw. die Be-
wußtseinsgehalte des Subjekts geben könne. Dagegen könne ein subjektunab-
hängiges Objekt als natürliche „Außenwelt“ (Kants „Ding an sich“) nur Gegen-
stand des „Glaubens“ (nicht des Wissens!) sein. Dies hatte in England auch
Thomas Reid (1710 – 1796) behauptet. Weiter zeigte Fries, daß sich aus den For-
schungsergebnissen des Wissens und Glaubens eine „Ahndung“ davon ergebe,
was das metaphysische Prinzip sei, das er das Göttliche nannte, und das alles
Psychische und Physische hervorbringe und trage. Für alle drei Einstellungen
bzw. Haltungen des Wissenschaftlers postulierte er im Sinne Kants „apriorische
Voraussetzungen“, die die grundsätzliche Wahrheit des Wissens, des Glaubens
und der Ahndung verbürgen sollten.
Man wird leicht bemerken, daß Fries hierbei das Wissen und seine Wahrheit
ganz idealistisch bzw. kohärentistisch interpretierte, den Glauben und seinen
„außenweltlichen“ Gegenstand realistisch, d. h. daß er die Glaubenswahrheit ent-
sprechend korrespondenzmäßig auffaßte, und daß er unter Ahndung eine meta-
physische Letztbegründung eines wahren metaphysischen Systems verstand.
Daran ist auch heute noch richtig, daß die Wissenschaft wesentlich auf Wissen,
Glauben und Ahndungen beruht. Man nennt es jetzt nur meist auf Englisch know-
ledge, belief und intuition. Geändert hat sich freilich die Einstellung gegenüber
einer kantisch-apriorischen Wahrheitsgarantie dieser Einstellungen.
Zwar gibt es noch immer Kantianer und Transzendentalphilosophen, die dem
Apriori eine wahrheitsverbürgende Funktion zuweisen. Und auch der logische
Positivismus bzw. die sogenannte Analytische Philosophie beruft sich gelegent-
lich auf die apriorische Begründetheit der logischen und mathematischen Metho-
dologie, um damit immer noch im Sinne Kants der Wissenschaft ein Fundament
„allgemeiner Gültigkeit“ und „unbezweifelbarer Notwendigkeit“ zu vindizieren.
Aber die meisten Wissenschaftler dürften jeden Apriorismus längst verabschiedet
haben. Sie begnügen sich mit K. R. Poppers „vorläufiger Bewährung“, “ständiger
Verbesserungsfähigkeit“, stets zu gewärtigender „Fallibilität“ und daher mit
bloßer „Wahrscheinlichkeit“ ihrer wissenschaftlichen Einsichten und Erkenntnis-
se.4
Das hat Folgen für das Verhältnis dieser Einstellungen zueinander und zur
Wahrheit. Insbesondere wird dadurch die Rolle der Falschheit und der Wahr-
Falschheit in der Wissenschaft mehr in den Mittelpunkt des Interesses gerückt.
Daß es wahres Wissen gibt, beweist jede „ent-täuschte“ Sinnestäuschung und
jeder aufgedeckte Irrtum und Betrug. Daß es auch falsches Wissen gibt, das
zeigen die Sinnestäuschungen, Täuschungen, Selbsttäuschungen, die Irrtümer und
der Betrug. Man kann sie freilich erst nach der Aufdeckung als falsches Wissen
durchschauen und hält sie bis dahin gewöhnlich für wahres Wissen. Und selbst-
redend kommt es vor, daß die Wahrheit, die als Korrektur einer Falschheit

4
Vgl. Gr. Schiemann,Wahrheitsgewißheitsverlust.. Hermann von Helmholtz‟ Mechanismus im Anbruch der Moderne.
Eine Studie zum Übergang von klassischer zu moderner Naturphilosophie, Darmstadt 1997, S. 3: „Modern heißt eine
Erkenntnis nur dann, wenn sie durch die Relativität ihres Geltungsanspruchs ausgezeichnet ist“.
19

gewonnen wurde, ihrerseits wiederum als Irrtum entlarvt wird. Das zeigt aber nur,
daß die Wahrheitsfindung in der und durch die Wissenschaft ein schwieriges und
dauerndes Geschäft ist. Wahres und falsches Wissen unterscheiden sich durch-
und gegeneinander, was auch immer für das eine oder andere gehalten wird.
Wahrheit und Falschheit werden aber nicht nur bezüglich einzelner Wissens-
gegenstände einander gegenübergestellt, sondern auch auf umfassende Wissens-
komplexe bezogen. Die einfachste Konfrontation ist diejenige, die jeden histori-
schen Stand der Wissenschaften für überholt und damit für falsch, und somit den
letzten aktuellen Stand der Wissenschaften für wahr hält.
Man wird dies in der Literatur kaum so schlicht ausgedrückt finden. Jedoch hat
man mit solcher Einstellung bei den sogenannten aktualistischen Wissenschaften
zu rechnen, die ihre historischen Entwicklungsstufen des Wissens strickt vom
aktuellen Stand des Wissens unterscheiden. In solchen aktualistischen Wissen-
schaften gilt die historische Reflexion als eine luxurierende Spezialdisziplin, mit
der sich der Wissenschaftler an der Front der Forschung nicht zu befassen braucht.
Verbreitet ist jetzt auch die Einschätzung, alles vorhandene Wissen sei falsch,
und wahres Wissen sei nur von der zukünftigen Wissenschaft zu erwarten. Man
kann das (von F. Nietzsche bis K. R. Popper) für eine kokette Einstellung halten,
aber sie eignet sich gut für den Ruf nach immer mehr Wissenschaftsförderung.
Nur noch apart dagegen erscheint die Sicht, daß wahres Wissen nur in den
mythischen Ursprüngen der Wissenschaft oder allenfalls bei den Klassikern zu
finden sei, so daß, was nachher kam und daraus entstand, nur „seins- und wahr-
heitsvergessene Verdeckung“ (frei nach M. Heidegger) und also falsches Wissen
sei.
Angesichts der Schwierigkeiten, Wahrheit und Falschheit im wissenschaft-
lichen Wissen zu unterscheiden und als solche zu kennzeichnen, verlagert sich die
wissenschaftliche Gewißheitserwartung auf den wissenschaftlichen Glauben.
Viele Wissenschaftler und Wissenschaftstheoretiker nennen das, was sie für
wahres, weil (korrespondenzmäßig oder kohärent) begründetes Wissen halten,
jetzt Glauben („belief“). Dazu hat der Mathematiker und Logiker Charles Sanders
Peirce (1839 – 1914) wesentlich beigetragen, der mit seiner Version des Prag-
matismus die Hauptaufgabe der Wissenschaft in der „Festlegung des Glaubens“
sah (in seinem Aufsatz „The Fixation of Belief“ von 1877). Das wird so erläutert:
„Das Wesen des Glaubens besteht in der Ausbildung einer Gewohnheit, und
verschiedene Glauben unterscheiden sich durch die verschiedenen Handlungs-
weisen, die sie hervorrufen“.5
Mit dem „theologischen“ Glauben der Scholastiker hat der wissenschaftliche
Glaube von heute gemeinsam, daß er keine Falschheit zuläßt. Die verbreitetste
Gestalt dürfte jetzt der von Thomas S. Kuhn beschriebene Glaube an eine paradig-
matische Theorie sein, zu der man sich schulmäßig bekennt.

5
Ch. S . Peirce: „The whole essence of belief is the establishment of habit, and different beliefs are distinguished by the
different modes of action to which they give rise“. Zit. nach: Pragmatic Philosophy, hgg. v. Amely Rorty, New York 1966,
S. 30.
20

Weniger verbreitet als früher ist der Glaube als metaphysische Überzeugung. Dies
aber nur, weil metaphysische Bildung unter Wissenschaftlern selten geworden ist.
Anstelle eines metaphysisch versierten Glaubens (wie noch bei Fries) machen sich
solche Überzeugungen eher als „blinder Glauben“ geltend.
Von unserem idealistischen Standpunkt aus handelt es sich dabei z. B. um den
realistischen Glauben an die „Realität der Außenwelt“ bzw. an ein „Ding an sich
hinter den Erscheinungen“, der bisher durch keinen Grund zu begründen und
durch kein Argument zu erschüttern ist. Gelegentlich zeigt sich freilich der wis-
senschaftliche Glaube auch in purer Gesinnung. Diese Gestalt des Glaubens ver-
trägt sich mit jeder Ideologie und meist auch mit jedem Dilettantismus in der Wis-
senschaft.
Was Fries (mit einem schon seinerzeit altbackenen Wort) als „Ahndung“ be-
zeichnete, dürfte gut abdecken, was man heute Intuition nennt. Intuition (latei-
nisch: „direkte Anschauung“) wurde in der Tradition platonischen Denkens als
eine „Schau mit dem geistigen Auge“ verstanden und auf den Umgang mit
axiomatischen Grundbegriffen bzw. axiomatischen Grundsätzen und mit ihren
Bedeutungen bezogen. Von diesen nimmt man gewöhnlich an, daß sie keinen
anschaulichen Bedeutungsgehalt hätten, daß sie also „unanschaulich“ und unde-
finierbar seien. Man braucht daher, um sich überhaupt etwas bei ihnen zu denken,
„überanschauliche Vorstellungen“, die ihnen einen Inhalt verschaffen.
Da es aber weder „geistige Augen“ noch „überanschauliche Vorstellungen“ gibt
(beide Ausdrücke sind der Verlegenheit verdankte dialektische Metaphern), so
treten an deren Stelle zwangsläufig konkrete sinnliche Anschauungen (oder Er-
innerungen an solche), die sich der Wissenschaftler ad hoc zurechtlegt. Man nennt
sie auch „Modelle“, die als anschauliches Quid-pro-quo des vorgeblich Unan-
schaulichen dienen sollen (vgl. dazu § 12).
Das Denken in solchen Modellen geht schon auf den Vorsokratiker Demokrit
zurück, der sich bekanntlich die von ihm postulierten „unanschaulichen“ Atome,
die wegen ihrer Winzigkeit der sinnlichen Anschaung nicht zugänglich sein
sollten, wie Buchstaben vorstellte. Was als Modellvorstellung dienen kann, muß
natürlich bestens bekannt sein. Aber wer ein solches Modell benutzt, weiß
zugleich, daß das, was es anschaulich vor Augen stellt, gerade nicht das ist, was
gemeint ist. Es kann nur irgendwie „ähnlich“ sein, und man hat gemäß dem
modellhaften Beispiel allenfalls eine „Ahn(d)ung“, wie sich die gemeinte Sache
vielleicht verhalten könnte.
In der Tat spielen die Intuitionen und somit das Modelldenken in allen Wissen-
schaften „an der Front der Forschung“ eine eminent wichtige Rolle. Die in den
Naturwissenschaften und mittels ihrer mathematischen Methodologie standar-
disierten Modelle für die kleinsten Wirklichkeitselemente (Teilchen, Welle, string
o. ä.) und die in den Geisteswissenschaften verbreiteten „Metaphern“ sind die
heuristischen Werkzeuge schlechthin, Erkenntnisschneisen ins Unbekannte zu
schlagen.
21

Eine verbreitete Gestalt findet sich etwa in wissenschaftstheoretischen Lehr-


büchern, wenn logisch-mathematischen Formalisierungen bzw. „logischen Rekon-
struktionen“ komplizierter Sachverhalte eine „intuitive Sizze“ vorausgeschickt
wird. Es wird dabei in der Regel eine mehr oder weniger schlichte „Geschichte“
erzählt, die den unanschaulichen Formalismus, mit dem die Problematik vor-
geblich auf exakteste Weise gefaßt würde, erläutern soll. In den Anfangszeiten der
Telegraphie hat man so die „Geschichte vom Dackel“ als Modell für die Kabel-
kommunikation erzählt: Tritt man dem Dackel hinten auf den Schwanz, so bellt er
vorne. „Dasselbe ohne Dackel“ erklärt dann modellhaft die drahtlose Telegraphie.
Nur wenig komplexer ist das Modell der mehrdimensionalen Räume in der
Geometrie und Physik. Kennt man den dreidimensionalen (euklidischen) Raum,
so braucht man nur zählen zu können, um wenigstens eine Ahnung von vier- und
höherdimensionalen Räumen zu entwickeln, in denen jede einzelne Dimension
genau so ist wie eine der drei euklidischen, allerdings ohne daß man sie als
rechtwinklig zueinander stehend vorstellen kann. Und kann man zudem ordentlich
subtrahieren, so machen auch zwei- und eindimensionale „Räume“ keine Schwie-
rigkeit, die man sich zwar wie Flächen oder Linien vorstellen muß, die aber, da sie
ja „Räume“ sein sollen, keine Flächen und Linien sein sollen.
Raffinierter sind die Intuitionen, die an den großen Vorrat historisch über-
lieferter „Denkansätze“ von Philosophen (z. B. „apriori“ im Sinne Kants, „cogito“
im Sinne Descartes‟) oder Klassikern der Einzelwissenschaften (z. B. Korpus-
kularvorstellung der Materie, Vis formativa-Vorstellung oder Evolutionsmodell
des Lebendigen) angeschlossen werden.
Man setzt dann voraus, daß eine „Intuition“ des jeweiligen Klassikers durch
den Ablauf der Zeiten und die Nachwirkungsgeschichte des Gedankens so klar
und anschaulich geworden sei, daß sie Gemeingut der jeweiligen Forscherge-
meinschaft wurde. Das kommt zwar auch vor und wird in der neueren
Wissenschaftsphilosophie (seit Th. S. Kuhn) „Paradigma“ (Beispielsfall) genannt.
Man hat jedoch immer Grund zu dem Verdacht, daß es sich dabei um eine
rhetorische Floskel handelt, die Abgründe von Meinungsverschiedenheiten über
die Interpretation solcher Intuitionen zudeckt.
Geradezu modisch geworden sind Intuitionen, die an die Alltagserfahrung und
den alltäglichen Sprachgebrauch anknüpfen, um daran vorgeblich verallgemei-
nerte unanschauliche Prinzipien und Strukturen zu exemplifizieren. An diese muß
man schon glauben, um dem vermeintlichen Zauber der „einfachen Sprache“ und
der „lebensweltlichen Anschaulichkeit“ der Modelle zu erliegen. Genau genom-
men widerlegt sich dadurch jedoch der Anspruch theoretischer und „abstrakter“
Wissenschaft, irgend etwas besser zu erklären, als es das anschauungsgesättigte
Alltagsdenken selbst schon vermag.
Besonders reizvoll sind schließlich die didaktischen Modelle, mit denen
„geniale“ Forscherpersönlichkeiten ihre „überanschaulichen“ Intuitionen der Öf-
fentlichkeit oder auch der Fachwelt darzulegen pflegen. Insbesondere mathe-
matische und physikalische Formeln und Gleichungen stehen in dem Rufe, das
22

überanschauliche Denken direkt auszudrücken. Und so gilt die Aufstellung einer


solchen Formel oder Gleichung oft schon selbst als geniale Leistung. Es kann
dann Jahrzehnte dauern, bis man ein Modell bzw. eine „Interpretation“ für das
findet (oder auch nicht findet), was sie bedeuten könnte. Nicht alle Genies sind
dabei so bescheiden und zugleich so frivol wie Ludwig Wittgenstein aufgetreten,
der in seinem eigenen formelgespickten „Tractatus logico-philosophicus“ am
Ende bekannte: „Meine Sätze erläutern dadurch, daß sie der, welcher mich ver-
steht, am Ende als unsinnig erkennt, wenn er durch sie – auf ihnen – über sie
hinausgestiegen ist. (Er muß sozusagen die Leiter wegwerfen, nachdem er auf ihr
hinaufgestiegen ist)“.6
Häufig artikulieren sich solche Intuitionen aber auch durch neu vorgeschlagene
Termini, deren Bildung aus bekannten Wörtern oder Wortbestandteilen genügend
Vorstellungsgehalte assoziieren lassen, um unmittelbar als sinnvoll zu gelten, die
aber vor allem auch genügend Dunkelstellen für die interpretierende Ergänzung
durch Ahnungen bieten.
In dieser Weise hat bekanntlich Martin Heidegger mit seinem Seinsbegriff
bisher drei Generationen von Philosophen Anlaß gegeben, über seine Intuition
vom „Seyn“ oder gar vom kreuzweise durchgestrichenen „Sein“ nachzudenken.
Vergleichbares gelang Jacques Derrida mit seinem Terminus „différance“. Allzu
benevolente Hermeneutiker unterstellen in solchen Fällen, die Autoren solcher
„neuen Begriffe“ hätten ihrerseits eine präzise Vorstellung von dem gehabt, was
dadurch gemeint sein sollte. In der Tat sind aber die meisten Neologismen
heuristische Ahnungen, die ihre Lebensfähigkeit gerade erst in mehr oder weniger
langen Interpretationsdiskussionen erweisen müssen. Sehr oft ist dann das Ergeb-
nis solcher Diskussionen, daß sie als „alte – umgekrempelte – Hüte“ erkannt
werden.
Zwischen Wissen, Glauben und Ahnungen bzw. Intuitionen gibt es freilich
noch das weite Feld wissenschaftlicher Prätentionen, die in mancherlei rhetori-
schen Floskeln in wissenschaftlichen Vorträgen und Anträgen bei den Förder-
organisationen wissenschaftlicher Projekte (die man heutzutage auch in Deutsch-
land vorwiegend in englischer Sprache verfaßt) ihren Niederschlag finden.
Das Hausblatt der deutschen Hochschullehrer (Forschung und Lehre, 7/2006, S.
424) hat eine beliebig zu verlängernde Reihe davon zum besten gegeben und
darauf hingewiesen, „wie reich das Vokabular sein kann, um Unwissenheit, Un-
willen oder – Unvermögen zu umschreiben“. Wir möchten es dem aufmerksamen
Leser nicht vorenthalten und warnen die deutschsprachigen Wissenschaftler aus-
drücklich davor, die überaus klare deutsche Übersetzung bei Vor- und Anträgen
zu verwenden. Die Liste lautet folgendermaßen:
„It is believed ... Ich glaube ... / It has long been known ... Ich habe mir das
Originalzitat nicht herausgesucht ... / In my experience ... Einmal ... / In case after
case ... Zweimal ... / In a series of cases ... Dreimal / Preliminary experiments

6
L. Wittgenstein, Tractatus logico-philosophicus, 6.54, Ausgabe Frankfurt a. M. 1963, S. 115.
23

showed that ... Wir hoffen, daß ... / Several lines of evidence demonstrate that ... Es
würde uns sehr gut in in den Kram passen / A definite trend is evident ... Diese Daten
sind praktisch bedeutungslos / While it has not been possible to provide definite
answers to the questions … Ein nicht erfolgreiches Experiment, aber ich hoffe immer
noch, daß es veröffentlicht wird / Three of the samples were chosen for detailed
study ... Die anderen Ergebnisse machten überhaupt keinen Sinn / Typical results are
shown in Fig. 1 ... Das ist die schönste Grafik, die ich habe / Correct within an order
of magnitude ... Falsch / A statistically-oriented projection of the significance of
these findings … Eine wilde Spekulation / A careful analysis of obtainable data …
Drei Seiten voller Notizen wurden vernichtet, als ich versehentlich ein Glas Bier
darüber kippte / It is clear that much additional work will be required before a
complete understanding of this phenomenon occurs … Ich verstehe es nicht / After
additional study by my colleagues … Sie verstehen es auch nicht / Thanks are due to
Joe Blotz for assistance with the experiment and to Cindy Adams for valuable
discussions … Herr Blotz hat die Arbeit gemacht, und Frau Adams erklärte mir, was
das alles bedeutet / The pupose of this study was ... Es hat sich hinterher heraus-
gestellt, daß ... / Our results conform and extend previous conclusions that ... Wir
fanden nichts Neues / It is hoped that this study will stimulate further investigation in
this field … Ich geb‟s auf!“

§ 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken


Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne
Bildung der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik.
Ursprüngliche Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unter-
schiede im Alltagsdenken und wissenschaftlichem Denken bezüglich der Begriffe von Wissen,
Glauben und Vermuten. Die alltagssprachliche Unterscheidung des Vermutens und Behauptens
und die wissenschaftlich-logische Gleichsetzung von Hypothese und Theorie. Die gemeinsame
eine Lebenswelt der Laien und die vielen „möglichen Welten“ der Wissenschaftler. Geschichte
und Zukunft als mögliche Welten. Die vordergründige Welt der Erscheinungen und die „Hinter-
welten“ der Wissenschaft.

Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Früher wurden sie aus griechischen und latei-
nischen Wörtern zusammengesetzt, aus deren Kenntnis man meist schon ihre Be-
deutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter importiert. Daneben gibt es freilich einen neueren Brauch,
künstliche „Termini“ (Acronyme) aus Anfangsbuchstaben von Wörtern zu bilden,
aus denen man die Bedeutung nicht mehr erraten kann. Z. B. DNS = „Desoxy-
24

ribonukleinsäure“, KI-Forschung = „künstliche Intelligenz“-Forschung, MOOC =


massive open online courses, HD-Schema = hypothetisch-deduktives Schema der
Kausalerklärung, es wird auch HO-Schema = Hempel-Oppenheim-Schema nach
seinen Erfindern genannt. Geradezu uferlos ist die Erfindung von kommerziellen
Bezeichnungen für Heilmittel durch die Pharmaindustrie. Witzig gemeint sind
Alltagswörter als Abkürzungen wie z. B. „Juice“ = Jupiter Icymoon Explorer, d.
h. ein Weltraumprojekt zur Erkundung, ob sich unter dem Eis von Jupitertraban-
ten Wasser befindet. Das alles führt in der Wissenschaft zu einer Esoterisierung
des Wissens, das den Zugang nicht in diesen Jargon eingeweihter Laien fast un-
möglich macht.
Bei weitem die meisten Theorien werden aber noch immer in der gewöhnlichen
Bildungssprache formuliert. Und so läßt sich auch an sprachlichen Beispielen
demonstrieren, was auch in der Wissenschaft Begriffe, wahre und falsche Sätze,
Schlüsse und begründende Argumente sind.
Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften
an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als
Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist die Grund-
lage für die Formalisierung in der Logik und dann auch für die Ausbildung der
formalen als einer zweiwertigen Logik geworden, und dies in „trivialer“ Abgren-
zung von Grammatik und Rhetorik.
Die Abgrenzung von Logik und Grammatik im klassischen Trivium (dem
„geisteswissenschaftlichen“ Teil der „sieben freien Künste“ Platons) ging jedoch
nicht so weit, daß man nicht grammatische Elemente für die Zwecke der Logik
herangezogen und beachtet hätte. Bestimmte grammatisch ausgezeichnete Wörter
(Substantive und Eigenschaftswörter) wurden durch stellvertretende Zeichen
(Buchstaben bzw. Zahlen) ersetzt. Grammatische Behauptungssätze erhielten die
Form des Urteils als Verknüpfung von Subjekts- und Prädikatsbegriffen.
Dabei behielten die sprachlichen Verbindungspartikel (Junktoren bzw. Funkto-
ren) ihren sprachlichen Verknüpfungs- oder Bestimmungssinn, den man ohne
weiteres sprachlich versteht. Diese, wie Bejahung, Verneinung, und, oder, wenn ...
dann, alle, einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurz-
schriftzeichen notiert. Dies zu bemerken ist deshalb wichtig, weil eine alte
logische Tradition und die gegenwärtig herrschende Meinung davon ausgeht,
diese Verknüpfungswörter hätten überhaupt keine eigene Bedeutung, sondern sie
erhielten sie allenfalls durch die Verknüpfung mit den bedeutungshaltigen Begrif-
fen (deswegen nannte sie Aristoteles „Synkategoremata“ = „Mitbedeuter“). Das
ist jedoch falsch. Dafür spricht schon, daß diese Junktoren auch in jedem
Sprachwörterbuch als sinnvolle Wörter angeführt und erläutert werden.
Gewisse grammatische Satzformen wie Wunsch-, Befehls- und Fragesätze
wurden in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht
gelassen. Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade
dadurch, daß in ihnen auch derartige Satzformen formalisiert worden sind, um sie
25

als wahrheitswertfähig zuzulassen. Einen besonders florierenden Bereich bilden


die Modallogiken und die hier entwickelten Modalkalküle.
In der sogenannten deontischen Logik („Sollens-Logik“) werden die drei
„Werte“ Geboten, Verboten und Erlaubt, und in der sogenannten temporalen
Logik („tense-logic“) die Zeitdimensionen Vergangen, Zukünftig und Gegen-
wärtig durch besondere Junktoren formalisiert und dem logischen Schematismus
der Aussagen- und Schlußbildung unterworfen. Das hat wesentlich zur Kompli-
zierung der Wahrheits- und Falschheitsfragen beigetragen. Dies vor allem des-
halb, weil man sich dadurch erhoffte, rechtliche und ethische Normierungen sowie
Probleme der Zeitontologie (der Physik und Historiographie) mit logischen
Wahrheitswert-Formalismen „rational“ (d. h. hier eben: logisch) diskutierbar zu
machen und evtl. zu „begründen“. U. E. hat dies aber nur dazu geführt, daß das
neuerdings inflationär gebrauchte Schlagwort „rational“ die Wahrheitsfrage aus
den entsprechenden disziplinären Diskursen verdrängt hat. Denn es geht dann nur
noch um Fragen der (methodischen) Gültigkeit und Ungültigkeit, Regelhaftigkeit,
Normgemäßheit usw.
Man kann angesichts dieser Veränderungen davon ausgehen, daß die Vorstel-
lungen von Wissen, Glauben und Intuitionen bzw. Ahnungen in der Wissenschaft
sich ziemlich weit von den Vorstellungen der Laien darüber entfernt haben.
Der Laie oder der sogenannte normale Mensch „mit seinem gesunden Men-
schenverstand“ und damit oft auch der Anfänger in der Wissenschaft hält noch an
den überkommenen Bedeutungen fest. Wissen versteht er als wahres Wissen. Und
was er als wahres Wissen vertritt, das sagt er in behauptenden Urteilen und
Sätzen. Er kann dies gelegentlich auch „im Brustton der Überzeugung“ tun. Was
er nur glaubt, das wird er ehrlicherweise nicht behaupten, sondern allenfalls für
wahrscheinlich halten. Er äußert sich dann im sprachlichen Konjunktiv, mit dem
er Vermutungen ausdrückt: Es könnte so oder so sein, vielleicht aber auch nicht.
Nennt er das, was er glaubt oder vermutet, „wahrscheinlich“, so verbürgt er sich
keineswegs für die Wahrheit, sondern er läßt es offen, ob und daß es auch falsch
sein könnte. Ahnungen hat er meist nur bei drohendem Unheil oder vor strengen
Prüfern. Soll er sie in Rede fassen, so fehlen ihm die klaren und deutlichen Begrif-
fe dafür.
Wer etwas behauptet, ohne zu wissen oder Gründe dafür zu haben, daß es wahr
ist, den hält man gewöhnlich für naiv oder für dumm. Die Wahrheit zu wissen,
aber an ihrer Stelle das Falsche zu behaupten, gilt noch immer als Lüge und
Betrug. Wer etwas offensichtlich Wahres für wahrscheinlich ausgibt, den hält man
bestenfalls für einen Schelm, schlimmstenfalls aber für schwachsinnig. Ansonsten
mag man alles glauben, was andere wissen, sei es nun wahr oder falsch. Wer sich
zu sehr in Ahnungen ergeht, den hält man meist für unwissend, und das nennt man
oft auch „ahnungslos“.
In Bezug auf die Wirklichkeit vertraut der Laie durchaus darauf, daß er nur in
einer Welt lebt, die ihm als seine Lebens- oder Umwelt bekannt wird. Und diese
ist ihm durch die geometrischen und chronographischen Koordinaten des Hier und
26

Jetzt und des Dort und Damals seiner sinnlichen Erfahrung und seiner Erinne-
rungen bestimmt. Die „Welten“ seiner Erinnerungen und seiner Träume, seiner
Wünsche und Hoffnungen unterscheidet er sehr genau von seiner im wachen
Zustand erlebten Welt. Und dies erst recht dann, wenn er bemerkt, daß seine Erin-
nerungen immer wieder mit dem übereinstimmen, was er jeweils auch gegen-
wärtig noch wahrnimmt. Damit bestätigen sie eine gewisse Konstanz seiner
Lebenswelt. Er bemerkt auch, daß seine Träume aus Erinnerungsbeständen ver-
flochten sind, über die er daher auch nur in der grammatischen Vergangen-
heitsform berichten kann. Auch seine Wünsche, Hoffnungen und Phantasien
bedienen sich dieser Erinnerungsmaterie, so daß er sie nicht für eigene „reale
Welten“ hält. Tut er es doch, so hält man dies für einen bedenklichen Krankheits-
zustand.
In der Wissenschaft verhält sich alles dies ganz anders. Hier kann man Behaup-
tungen über Sachverhalte aufstellen, die grundsätzlich niemand kennt oder wissen
kann, geschweige denn, ob sie wahr oder falsch sind. Vermutungen bzw. Hypo-
thesen muß man logisch oder mathematisch in Behauptungsformen ausdrücken,
denn es gibt keinen logischen oder mathematischen Konjunktiv. Besonders K. R.
Popper scheint nachhaltig bewirkt zu haben, daß man im wissenschaftlichen
Sprachgebrauch Vermutungen (Hypothesen), die nicht wahrheitswertfähig sind,
und Theorien, die wahrheitswertfähig sein müssen, gleichsetzt. Und das zieht die
Gewohnheiten nach sich, Vermutungen auch in wissenschaftlichen Prosatexten als
Behauptungen vorzutragen.
Weil dieser Unterschied zwischen wahrheits- bzw. falschheitsfähigen Behaup-
tungen und nicht-wahrheits- bzw. falschheitsfähigen Vermutungen in der Wissen-
schaft kaum noch gemacht wird, werden auch die allerbewährtesten Naturgesetze,
die früher als exemplarische Wahrheiten galten, häufig nur noch als statistische
Wahrscheinlichkeiten, d. h. als Vermutungen und Hypothesen dargestellt. Nicht-
wissen einzugestehen, etwa ein hermeneutisches „non liquet“ (es geht nicht, d. h.
ein Verständnis ist unmöglich!) bei Interpretationen zuzugeben, ist bei gestande-
nen Wissenschaftlern geradezu verpönt.
Der Wissenschaftler lebt nicht, wie der Laie, in einer Welt, sondern in vielen
möglichen Welten, von denen diejenige, die er mit dem Laien gemeinsam be-
wohnt, nur eine ist. Logiker und Mathematiker nennen diese gemeinsame Welt die
„notwendige Welt“, von der sie alle „möglichen“ und sogar „unmögliche“ Welten
unterscheiden. I. C. Lewis und C. H. Langford haben diese möglichen Welten in
mathematischer Logik formalisiert und sie als Systeme S 1 bis S 5 (und weitere
dürften noch zu erwarten sein) differenziert.7 S. A. Kripke hat dann große Auf-
merksamkeit und Anerkennung dafür gefunden, daß er umgekehrt mit seinen
„starren Deskriptoren“ ein logisches Mittel gefunden haben wollte, gewisse Be-
standteile der „notwendigen Welt“ auch in den möglichen Welten aufzuweisen.

7
I. C. Lewis und C. H. Langford, Symbolic Logic, New York-London 1932, 2. Aufl. New York 1959.
27

Wie sollte man sich auch in den möglichen Welten zurechtfinden wenn nicht
durch das, was in allen Welten identisch ist? 8
Diese „notwendige Welt“ ist jedoch auch nur ein Teil der wirklichen Welt. Und
zwar derjenige Teil, der durch Kausalgesetze bestimmt sein soll. Der Laie nennt
sie gerne den wissenschaftlichen Elfenbeinturm, also ein Gefängnis, von dem aus
die Sicht auf die eine ganze Welt sehr beschränkt erscheint. Dafür erstrecken sich
die möglichen Welten der Wissenschaft ins Unabsehbare.
Zu den möglichen Welten gehört auch die sogenannte „geschichtliche Welt“.
Merkwürdigerweise galt sie in der Scholastik und z. T. auch jetzt noch als
paradigmatisch „notwendige“ Welt, da alles Geschichtliche vorgeblich nicht mehr
verändert werden könne. Zumindest jedoch hält man sie für einen integralen Teil
der wirklichen Welt.
Sammelt und ordnet der Historiker seine und anderer Gewährsleute Erinne-
rungen und bringt sie in einen theoretischen Zusammenhang, so bewegt er sich
nach herrschendem Selbstverständnis der Historiker in der „geschichtlichen
Welt“, die er emphatisch als „historische Realität“ beschreibt. Archäologen, Evo-
lutionsbiologen, Geologen und physikalische Kosmologen bauen diese Welt weit
über alle Erinnerungen hinaus zu einem Kosmos aus, in welchem sie gar den
Ursprung aller Dinge (etwa als kosmischen Big Bang) so schildern, als seien sie
gerade dabei anwesend und könnten ihn direkt beobachten. Und doch wissen sie
genau, daß diese „historische Realität“ vergangen und vorbei ist und somit nicht
mehr, d. h. überhaupt nicht, existiert.
Was dabei für den jeweiligen Historiker und den Kosmologen wirklich existiert
und zur Gegenwartswelt gehört, sind die materiellen Relikte alter Kulturen und
Texte, Schriftgut und Zeugnisse neuerer Epochen, Fossile und geologische Pro-
ben, die gegenwärtig ans Licht gebracht werden, kosmische Strahlungen, die jetzt
auf der Erde ankommen. Wirklich ist nur das, was gerade jetzt auf der Erde aus-
gegraben, vielleicht entdeckt, mit empfindlichsten Geräten empfangen und gemes-
sen wird. Alles dies dient aber dem Historiker und Kosmologen nur als Dokument
und gleichsam als Sprungbrett zum Sprung in die mögliche Welt „historischer
Realitäten“.
Je dichter und umfassender die geschichtliche Welt ausgebaut ist, um so
geeigneter wird sie zu einem weiteren Sprung in die mögliche Welt der Zukunft.
Da werden geordnete Erinnerungen an das Vergangene als Konstanten in die
Zukunft „extrapoliert“, zwischen denen die kreative Phantasie neue Verknüp-
fungen herstellt und variable Versatzstücke ansiedelt. Früher war dies ein Be-
tätigungsgebiet der Dichter von Zukunftsromanen. Heute wird es als „Science
fiction“ gepflegt. Von da ist es nur ein kleiner Übergang zur „Zukunftsforschung“,
deren phantastische Prognosen schon längst in die Politikberatung einfließen.

8
S. A. Kripke, Identity and Necessity, in: Identity and Individuation, hgg. v. M. K. Munitz, New York 1971, dt. Übers.
„Identität und Notwendigkeit“, in: Moderne Sprachphilosophie, hgg. von M. Sukale, Hamburg 1976, S. 190 – 215; erw.
Aufl. u. d . T. Name und Notwendigkeit, Frankfurt a. M. 1981.
28

Medienexperten nennen mittlerweile sogar alles „Mediatisierte“ „organisierte


Phantasie“ 9
Das dafür immer noch gültige Beispiel haben die Astronomen der Wissenschaft
gegeben, indem sie die künftigen Sternkonstellationen aus der Extrapolation
vergangener Konstellationen prognostizierten. Der alten Himmelsmechanik ist die
physikalische Mechanik der irdischen Vorgänge gefolgt. Schließlich haben fast
alle Wissenschaften das Comtesche „Savoir pour prévoir“ (Wissen um Voraus-
zuwissen) mehr oder weniger übernommen und sich in Prognostik und Prophetie
geübt.
Das alles ist nur so lange plausibel, als das Prognostizierte in seinen wesent-
lichen Bestandteilen genau so ist wie das Erinnerte. Denn von diesem kann man
immer sagen, daß es die Grundbeständigkeit unserer einen Welt ist, in der wir
leben. Aristoteles hat es „Substanz“ genannt und als „To ti en einai“ („das was
war und ist“, bzw. das Ge-Wesen) definiert. Das Neue und Andere, das evtl. in
unserer Gegenwart auftaucht und entdeckt oder als Zukünftiges prognostiziert
wird, existiert aber gerade nicht, solange es nicht entdeckt worden ist, oder ehe es
Gegenwart geworden ist. Deshalb bleibt der Glaube daran, daß sich irgend etwas
Zukünftiges „verwirklichen“ ließe, ein riskantes Spiel.
Zwischen geschichtlichen Vergangenheitswelten der Erinnerung und zukünfti-
gen Welten der Hoffnungen, Wünsche, Planung und der prognostischen Phantasie
haben wir es noch mit vielerlei wissenschaftlichen Hinterwelten hinter der er-
scheinenden Gegenwartswelt zu tun.
Kants „Ding an sich hinter den Erscheinungen“ gilt für die meisten Wissen-
schaftler als Modell solcher Hinterwelten. Es sind die Sinn- und Bedeutungs-
welten hinter den Texten und Dokumenten aller Philologien, die Welt der Zahlen
und Strukturen hinter den Zeichen, die Welt des Unbewußten hinter den psychi-
schen Erscheinungen, die Welten der Dämonen, Geister, Engel und des Absoluten
hinter den Manifestationen der sinnlichen Wirklichkeit, die nicht nur in den
Theologien diskutiert werden.
Erst diese Phänomene machen es verständlich, warum auch die Wissenschafts-
philosophie und die Logik sich so intensiv mit dem Thema der möglichen Welten
befassen. Es handelt sich um den prekären Versuch, gleichsam intellektuelle
Raumschiffe zu konstruieren, mit denen man zwischen all diesen möglichen
Welten hin und herfahren kann. Für solche Raumschiffe benötigt man einen Start-
und Landeplatz, um den sich dann auch die logischen Weltenbauer emsig be-
mühen. Das ist die vorn genannte Vorstellung von einer „notwendigen Welt“, die
gleichsam das Gemeinsame in den möglichen Welten ins Auge faßt und von der
man glaubt, daß sie alle möglichen Welten zusammenhält. (Vgl. dazu auch § 10).
Nun hat der Laie irgendwo durch seinen Lebenszusammenhang und durch seine
Lebenserfahrung Kompetenzen. Lebens- und Berufserfahrung geben sie ebenso
wie Hobbys und Liebhabereien oder jugendliche Übungen. Man kann sich z. B.
9
J. Hörisch und U. Kammann (Hg.), Organisierte Phantasie. Medienwelten im 21. Jahrhundert, - 30 Positionen. Paderborn
2014.
29

nur wundern, welches Maß von historischen Kenntnissen so mancher Fußballfan


über die Geschichte und aktuelle Lage dieses Gebietes hat, oder mancher
Jugendliche über die „Szene“, in der er sich bewegt. Von daher sollte jedermann
auch ein gewisses Urteil darüber haben, was man von Fachleuten auf ihren wis-
senschaftlichen Gebieten erwarten kann. Aber das ist gewöhnlich nicht der Fall,
und wenn, so traut man sich kaum, es gegenüber wissenschaftlicher Kompetenz
oder was man dafür hält, in Anschlag zu bringen. Erst ganz neuerdings erhebt sich
eine Potestbewegung, die diese Erfahrungen der Laien und Dilettanten ernst
genommen haben will. Sie nennt sich „Citizen Science“.
In den Hochschulen selber ist eine der Schnittstellen zwischen sogenanntem
Alltagswissen und wissenschaftlichem Wissen das Studium junger Leute. Im
allgemeinen hat sich bei diesen und in der Öffentlichkeit das Vertrauen darauf
erhalten, sie seien durch die gymnasiale oder andere schulische Ausbildung schon
einigermaßen „wissenschaftlich vorgebildet“. Davon kann aber heute kaum noch
die Rede sein, wie die immer zunehmenden Brücken- und Nachholkurse bewei-
sen, mit denen heute versucht wird, die Studierenden erst einmal studierfähig zu
machen. Das frühere Propädeutikum ist inzwischen weithin zu einem Postpä-
deutikum geworden. Es ist keineswegs so, daß die Studienanfänger kein Wissen
oder keine Kompetenzen für ihr Studium mitbringen. Was sie aber mitbringen,
haben wir vorn schon als Alltagswissen skizziert.
Eine andere Schnittstelle ist durch den neuerlich vermehrten Einzug von
Senioren in die Studiengänge gegeben. Man muß freilich daran erinnern, daß die
Zugänglichkeit der universitären Lehre für Senioren und ein weiteres Publikum
ein alter Brauch und eigentlich selbstverständlich war. So war es auch nichts
besonderes, daß etwa in den Vorlesungen von Fichte, Hegel, Schleiermacher,
Boeckh, Ranke und vielen anderen berühmten Professoren oftmals die höhere
Ministerialität und die Bildungselite Berlins teilnahm. In entsprechender Weise
trifft sich die pariser „haute vollée“ auch jetzt noch in den Vorlesungen promi-
nenter Professoren des Collège de France.
Manche Hochschulen haben dem neuerlichen Ansturm der „älteren Semester“
durch die Einrichtung eines abgesonderten Seniorenstudiums Rechnung getragen.
Im Ausland, wo man das Institut der in Deutschland verbreiteten Volkshoch-
schulen nicht kannte, sind (wie etwa in Straßburg durch Lucien Braun) eigene
„Universitäten des dritten Alters“ (Université du Troisième Age) gegründet
worden. Aber die meisten Hochschulen haben ihre Studiengänge einfach auch für
die Senioren und Gasthörer wieder geöffnet. Ersichtlich sind hier diejenigen
Fächer am meisten nachgefragt, wo die Laien sich am meisten Kompetenzen und
eigene Erfahrungen und Motivationen für die Teilnahme zutrauen. Zeitzeugen,
Kunstkenner, Roman- und Gedichtleser und Selbstdenker sind die neue Klientel
der neueren und der Zeit-Geschichte, der Kunstgeschichte und der Literaturwis-
senschaften sowie der Philosophie.
Die Reaktion der heutigen Hochschullehrer zeugt meistenteils von Aufge-
schlossenheit. Nur hier und da ergibt sich Widerstand gegen „Überfüllung der
30

Seminare“, „Besserwissen der selbsternannten Zeitzeugen“, der „Kunstliebhaber“,


„Literaturkenner“ und „Selbstdenker“. Das wird dann oft zur Begründung der
Ausgliederung und Organisation von eigenen Seniorenstudiengängen genommen.
In diesen abgesonderten ebenso wie in den integrierten Studiengängen aber findet
die heute charakteristische Begegnung zwischen den Laien und den Wissenschaft-
lern statt.

§ 6 Die alte und die reformierte Hochschulforschung und -Lehre


Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorgani-
sation. Der Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifi-
kanz akademischer Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium
im Baccalaureus-Magister-Doctorsystem und seine Modernisierung. Alte und neue Verständnisse
der „Einheit von Forschung und Lehre“ und des „forschenden Lernens“. Der Verfall der Vorle-
sung und der Aufstieg des Seminarbetriebs. Die Bildung und die Elite einst und jetzt

Wer heute im Hochschulbereich – der durch Fachhochschulen und private Hoch-


schulen und Akademien weit über die alten Universitäten ausgeweitet wurde, –
seine Studien beginnt, sei es als Abiturient oder auf einem der zahlreichen neuen
Zugangswege – dürfte es schwer haben, sich in dieser „akademischen Welt“
zurechtzufinden. Darum seien hier einige Bemerkungen über die alten und die
neuen Prinzipien des Hochschul- und Studienwesens angefügt.10
Was das Lehrpersonal betrifft, so ist jeder Wissenschaftler auf seinem Gebiet
Fachmann und muß über dieses Gebiet bescheidwissen. Dafür sorgen schon die
Auswahl- und Qualifikationsverfahren. Aber es dürfte auch den Laien nicht
entgangen sein, daß die Fachgebiete, auf denen Wissenschaftler wirklich qualifi-
ziert sind, immer enger gezogen werden. Und dies im Rahmen der ganzen Wis-
senschaften und ihrer Disziplinen, für die die Fachleute Diplome und Titel er-
werben und auch vergeben.
Man erwartet dann mit einem gewissen Recht, daß die Fachleute nicht nur ihr
engeres Fachgebiet, sondern das ganze Gebiet beherrschen, für das sie ihre Titel
erworben haben. Das gilt vor allem von den einstigen höheren Fakultäten
Medizin, Jurisprudenz und Theologie, in denen man auch heute noch sämtliche
Spezialdisziplinen studieren muß, und deren Diplome und Doktortitel noch immer

10
L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen,
Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München (Alber) 1971; ders., Traditio-
nelle Institutionen philosophischer Lehre und Forschung, in: Philosophie, Gesellschaft, Planung. Kolloquium H. Krings
zum 60. Geburtstag, hgg. v. H. M. Baumgartner u. a. (Bayerische Hochschulforschung I), München 1974, S. 28 – 48).
31

eine umfassende Kompetenz des Arztes, Juristen und Geistlichen verpricht. Seit
Beginn des 19. Jahrhunderts ist den Absolventen der einstigen höheren Fakultäten
noch der Nationalökonom beigetreten. Vordem studierten die Ökonomen in der
juristischen Fakultät die Staatswissenschaften und „Kameralistik“, was an man-
chen Standorten auch „Politische Ökonomie“ genannt wurde.
Aber auch diese alten Titel „Dr. med.“ „Dr. theol.“ (früher auch „D.“), „Dr.
juris“ (ggf. „Dr. juris utriusque“, d. h. des staatlichen und des Kirchenrechts) und
des „Dr. rer. pol.“ (Doktor der politischen Angelegenheiten) garantieren längst
nicht mehr, was sie einst bedeuteten. Auch in diesen Fakultäten, soweit es sie
noch gibt (es gibt sie meist nur noch in Gestalt der sogenanten „Fakultätentage“,
zu denen sich die früher zugehörigen Disziplinen regional zusammenschließen)
und soweit sie nicht in mehr oder weniger zufällige Fachbereichskombinationen
verteilt worden sind, ist die Spezialisierung weit fortgeschritten.
Auch in der „Philosophischen Fakultät“ studierte man bis ins 19. Jahrhundert
hinein alle Fächer des „geisteswissenschaftlichen“ Triviums und des „mathema-
tisch-naturwissenschaftlichen“ Quadriviums, die dazu gehörten. Bis dahin behielt
sie auch ihren Status als „propädeutische“ (vorbereitende) Fakultät, die man vor
der Zulassung zum Berufsstudium der vorgenannten „höheren Fakultäten“ durch-
laufen mußte. Aber nach der humboldtschen Reform zu Beginn des 19. Jahrhun-
derts erhielt diese Fakultät neben ihrer weiterbestehenden propädeutischen Auf-
gabe für alle höheren Studien zusätzlich die Aufgabe der regulären Berufsaus-
bildung der Gymnasiallehrer.
Diese praktische Zielvorgabe der Philosophischen Fakultät ist jetzt etwa zwei-
hundert Jahre alt. Wer sich aber als Studierender an dieser Fakultät immatrikuliert
hat, mußte meist feststellen, daß der Lehrbetrieb auf die Lehrerausbildung wenig
und gelegentlich gar keine Rücksicht nahm. Das dürfte auch ein wesentlicher
Grund dafür geworden sein, daß die Lehrerausbildung in einigen Bundesländern
den meisten ihrer Universitäten wieder weggenommen und an wenigen Hoch-
schulen konzentriert worden ist. Die in der Philosophischen Fakultät Lehrenden
haben aber das traditionelle Bewußtsein beibehalten, die Propädeutik für alle
Universitätsstudien zu betreiben, und sie stellen es in mancherlei Arten von
„Studium generale“, jetzt vermehrt auch als „Seniorenstudium“ in den Vor-
dergund. Dies umso mehr, als ja neben der Ausbildung der Gymnasiallehrer und
seit einiger Zeit auch der Lehrer anderer Schultypen die sogenannten akade-
mischen Studiengänge für eine Reihe anderer Berufe in allen Kultur- und Medien-
bereichen qualifizieren sollen.
Wilhelm von Humboldt hat bei seiner Gymnasialreform (neben der Universi-
tätsreform) das Kurrikulum der Oberstufe des Gymnasiums mit denselben
Fächern ausgestattet, die auch an der damaligen Philosophischen Fakultät, die
noch die quadrivialen Studien der Mathematik und Naturwissenschaften ein-
schloß, gelehrt wurden. Und so blieben die Lehrpläne für das Gymnasium in der
Regel ein Fächerspiegel der einstigen Philosophischen Fakultät. Die einstigen
höheren Fakultäten aber hatten und haben daher kein gymnasiales Propädeutikum.
32

Sie entwickelten an seiner Stelle ihre jeweils eigenen fakultätsbezogenen


Propädeutika. In der Medizin entstand im 19. Jahrhundert das sogenannte Physi-
kum, in welchem die naturwissenschaftlichen und mathematischen Grundkennt-
nisse und die Medizingeschichte für die weiteren Studien vermittelt wurden. Bei
den Juristen entwickelte sich ein rechtsphilosophisches und rechtsgeschichtliches,
oft auch rechtssoziologisches Vorstudium. Und es blieb typisch, daß diese Gebiete
keineswegs als „Service-Leistungen“ von den Fachleuten der Philosophischen
Fakultät gelehrt wurden. Vielmehr wachten die Juristischen Fakultäten geradezu
eifersüchtig darüber, ihre Rechtsphilosophen, Rechtshistoriker und evtl. Rechts-
soziologen aus der eigenen Fakultät zu rekrutieren. Bei den Theologen aber waren
immer die Sprachstudien, insbesondere Hebräisch bzw. Aramäisch, die klassi-
schen Sprachen und die Anfänge einer biblischen Archäologie Schwerpunkte des
Propädeutikums. Und auch diese wurden üblicherweise keineswegs als Service--
Leistungen von den Gräzisten und Latinisten sowie den Altertumskundlern der
Philosophischen Fakultät gelehrt. Das macht jedenfalls verständlich, daß alle diese
relevanten Propädeutika in der Philosophischen Fakultät gleichsam ausgespart
wurden. Ebenso auch, daß die Rechtsphilosophen, Rechtshistoriker und ggf.
Rechtssoziologen der Fakultät wenig oder gar keinen Kontakt mit den Philo-
sophen, Historikern und Soziologen der Philosophischen Fakultät haben.
Nach Absolvierung dieser Fakultäts-Propädeutika erhielt und erhält der Arzt,
Jurist, Theologe und Ökonom noch immer eine Ausbildung in allen „dogma-
tischen“ Fächern seiner Fakultät. Diese birgt sehr viel Handwerkliches und gewis-
sermaßen Arkanes in sich, das man nur im langjährigen Umgang mit den Lehrern
im Fach erlernen bzw. sich vielmehr aneignen muß. Erst diese Schulung verleiht
dem Absolventen dieser Fakultäten das Flair und den Habitus, an dem der Laie
den typischen Arzt, Juristen und Theologen, manchmal auch den Volkswirt-
schaftler (neuerdings meist BWLer) erkennt. Man kann sie immer noch leicht von
den Studierenden der Philosophischen und Mathematisch-Naturwissenschaftli-
chen Fakuläten unterscheiden.
Gewiß haben auch die aus der (alten) Philosophischen Fakultät hervorgehenden
Gymnasiallehrer einen besonderen Habitus und gleichsam eine eigene Physi-
onomie angenommen. Wer sich darüber wundert, wie geschwind das Lehrper-
sonal der Philosophischen und der Mathematisch-Naturwissenschaftlichen Fakul-
tät mit den Kravatten ihre einstigen akademischen Gepflogenheiten im Umgang
unter einander und mit den Studierenden abgelegt haben, der unterschätzt den
sozialen Druck, den das pädagogische Ideal, sich den Auszubildenden anzu-
gleichen, hier ausübt. An den Turnschuhen, Jeans, offenen Hemdkragen und
Pullovern, langen Haaren und Baseballkappen wird man hier schwerlich noch den
smarten Studierenden vom Assistenten oder auch vom Professor unterscheiden
können.
Die Absolventen der Philosophischen Fakultät, soweit sie Gymnasiallehrer
wurden, werden noch Philologen genannt. Dieser Gymnasiallehrertyp war anfangs
in allen Gymnasialfächern einsetzbar, d. h. in den historischen und philologischen
33

Nachfolgefächern des Triviums und in den mathematischen und naturwissen-


schaftlichen Nachfolgefächern des Quadriviums. Und daher versteht es sich, daß
nicht nur Sprach- und Geschichtslehrer, sondern auch Mathematiker, Physiker,
Chemiker und Biologen im gymnasialen Schuldienst auch jetzt noch gleicher-
maßen Philologen genannt werden, und daß ihre Standesvertretungen „Philo-
logenverbände“ geblieben sind.
Veränderungen im Lauf des 19. Jahrhunderts betrafen einerseits die Abtrennung
der Mathematisch-Naturwissenschaftlichen Fakultät (also des einstigen quadri-
vialen Teils) von der übrigbleibenden Philosophischen Fakultät, andererseits eine
in beiden neuen Fakultäten einsetzende Spezialisierung sowohl der Studiengänge
wie der Lehrerqualifikation.
So entstand das sehr eingeschränkte Haupt- und Nebenfachstudium (oder auch
Zwei-Hauptfächerstudium) der Gymnasiallehrer. Der ehemalige Allroundphilolo-
ge, der alle „trivialen“ und „quadrivialen“ Fächer studiert haben mußte, war
deshalb auch in allen Fächern des gymnasialen Lehrplans einsatzfähig. Der neuere
Philologe ist jetzt nur für zwei Hauptfächer ausgebildet und kann sich weitere
Lehrbefähigungen allenfalls durch Zusatzstudien und entsprechende Ergänzungs-
prüfungen erwerben.
Der Absolvent der neuen Philosophischen Fakultät ist keineswegs „Philosoph“.
Er kann es allenfalls ausnahmsweise sein, wenn er die Philosophie als Spezialge-
biet studiert hat. Er ist jetzt vielmehr im speziellen Sinne Philologe einer be-
stimmten Sprache und Literatur, oder er ist Historiker (neuerdings speziell für
alte, mittelalterliche, neuere oder Gegenwarts- bzw. Landesgeschichte), oder So-
zialwissenschaftler (evtl. speziell Soziologe, Politologe, Medienwissenschaftler)
oder Erziehungswissenschaftler. Gelegentlich ist er auch Psychologe, falls er diese
Qualifikation nicht in der naturwissenschaftlich-mathematischen oder auch in der
medizinischen Fakultät erwirbt.
Der Naturwissenschaftler ist Mikro- oder Makrophysiker, Chemiker, Biologe
(aber statt Zoologen und Botanikern gibt es jetzt nur noch „Molekularbiologen“).
Oder er ist Mathematiker, und auch dies mit einer Reihe von Spezialisierungen,
darunter mindestens theoretische und angewandte Mathematik sowie mehr und
mehr „Informatik“. Den alten Nationalökonomen bzw. Volkswirt gibt es kaum
noch. An seine Stelle sind die Betriebswirtschaftler („BWLer“) getreten.
Gewiß erinnern hier die in Prüfungsordnungen geforderten Studien in einem
oder zwei Nebenfächern gleichsam als Schwundstufe noch an die einstige For-
derung nach einem Studium aller zur Fakultät gehörigen Disziplinen. Vor allem
hatte sich das bis vor einigen Jahren noch im „Philosophicum“ als Zwischen-
prüfung für Lehramtskandidaten gehalten, bei welchem man über seine Haupt-
fächer hinaus auch philosophische und pädagogische Studien nachzuweisen hatte.
Aber solche breiten Fakultätsstudien sind heute ein Erinnerungsposten, der in
der Praxis bekanntlich kaum ernst genommen wird. Die Nebenfachstudien gehen
in der Regel kaum über die Einführungskurse der jeweiligen Grundstudien hinaus.
Überdies sind die Nebenfächer an vielen Fakultäten noch durch die Aufteilung
34

traditioneller Hauptfächer vermehrt worden, so daß ein früheres Fachstudium sich


jetzt aus zwei oder mehreren Nebenfächern zusammensetzt. Studierte man z. B.
früher Germanistik, so kann man jetzt die beiden Spezialitäten Germanistische
Linguistik als Sprachwissenschaft und Germanistische Literaturwissenschaft stu-
dieren. Hinzu treten neuerdings Spezialstudiengänge wie „Deutsch als Fremd-
sprache“, „Übersetzungswissenschaft“ oder „literarisches (kreatives) Schreiben“,
von denen man meinen sollte, die dazu nötigen Kompetenzen würden im
normalen Germanistik-Studium erworben. Daß davon keine Rede mehr sein kann,
wirft ein bezeichnendes Licht auf das, was im Normalstudium als zu erwerbende
Kompetenz gilt.
Diese Entwicklungen der letzten Jahrzehnte sind von allen Seiten begrüßt und
ständig weitergetrieben worden. Insbesondere die Bologna-Vereinbarungen der
europäischen Wissenschaftsminister zur Nachahmung angelsächsischer Bachelor-
und Masterstudiengänge haben auf diese Spezialisierungen bezug genommen.
Die Gliederung der Studien in Bachelor- und Masterstudien ist eine Erbschaft
der mittelalterlichen Studienorganisation. Diese gliederte sich in ein propädeu-
tisches Grundstudium von zwei bis drei Jahren, das mit dem Grad des Bacca-
laureus („Junggeselle“) abgeschlossen wurde und erst den Eintritt in das Haupt-
studium mit nochmals zwei bis drei Jahren Studiendauer erlaubte. Dieses wurde
mit dem Magistergrad („Meister“) abgeschlossen. Der Magistergrad war wie-
derum die Voraussetzung zur Zulassung zum Doktorstudium in den höheren
Fakultäten Jurisprudenz, Theologie und Medizin, das mit dem Doktorgrad
(„Gelehrter“) abgeschlossen wurde und im allgemeinen Vorbedingung für die Be-
rufsausübung oder den Zugang zum Professorenamt war.
Diese Studienorganisation war auf die Auswahl der Besten und Geeignetsten
für die Wissenschaften in Forschung und Lehre abgestellt. Sie hat das abend-
ländische Universitätssystem überhaupt zu dem gemacht, was es bis heute noch
teilweise ist. Und das heißt zugleich, daß es auch dort, wo die alten Bezeich-
nungen verschwanden, durchaus aufrecht erhalten wurde. Daher kann es nicht
verwundern, daß es besonders den deutschen Universitäten keine allzu großen
Schwierigkeiten gemacht hat, ihre immer noch bestehende Studienstruktur wieder
in die alten bzw. jetzt neuen englischen Bezeichnungen einzukleiden.
Aber Bachelor-Studien sind und bleiben Grundstudien. Daß sie von der Bil-
dungsbürokratie gesetzlich als Berufsstudien mit Berufsfähigkeitskompetenz und
eigenen Diplomen ausgewiesen worden sind, zeigt nur an, welch überspannte
Vorstellungen heutige Bildungspolitiker von der Leistungsfähigkeit dieser Grund-
studien haben. Teils aus Einsicht, teils resignierend nehmen sie es daher hin, daß
die einstigen höheren Fakultäten sowie die Ingenieur-Hochschulen sich diesem
Trend verweigern und keinen ihrer Absolventen als Bachelor in ihre (freien)
Berufe entlassen wollen. Und diese Fakultäten tun das aus dem Bewußtsein ihrer
Verantwortung gegenüber der Öffentlichkeit, nur ausstudierte und kompetente
Fachleute in die Berufspraxis zu entlassen. Daß auch die meisten Bachelors das
längst eingesehen haben, sieht man schon daran, daß sie weiterstudieren und
35

mindestens den Master-Grad erwerben wollen. Und um dies weitestgehend zu


ermöglich, geben sich die meisten Lehrenden auch alle Mühe, die Prüfungs-
anforderungen für den Erwerb des „Bachelors“ so weit abzusenken, daß jeder
Studierende die „Befriedigend-Hürde“ zum Weiterstudium überwinden kann.
Das Hauptstudium in allen Studiengängen heißt jetzt Master-Studium. Die da-
neben noch teilweise bestehenden Staatsexamens- und Diplom-Ingenieur-Studien-
gänge werden allerdings von den Medizinischen, Juristischen und Ingenieur-
wissenschaftlichen Fakultäten mit Zähnen und Klauen verteidigt. Zum Teil sind
sie in einigen deutschen Bundesländern, wo sie schon abgeschafft worden waren,
wieder eingeführt oder zugelassen worden. Dies nicht zuletzt deshalb, weil ihre
Absolventen weltweites Ansehen genießen und ihre Diplome eine vielfach weit
über dem Mastergrad liegende Berufskompetenz garantieren.
An das Hauptstudium kann sich noch das „Graduierten-Studium“ des poten-
tiellen Hochschullehrernachwuchses anschließen. Auch das Graduierten-Studium
mit dem Abschluß des Doktorgrades ist gegenwärtig im Begriff, sich zu verän-
dern. Die individuelle Betreuung der Doktoranden durch einen verantwortlichen
„Doktorvater“ oder eine „Doktormutter“ wird mehr und mehr abgelöst durch das
kollektive Betreuungssystem der „Graduierten-Studiengänge“, die dann meist
„Colleges“ genannt werden. Sie werden durch finanzielle Sonderzuweisungen an
die Hochschulen gefördert und tragen dadurch wesentlich zum Ausweis von
„Exzellenz“ der sie einrichtenden Hochschulen bei.
Diese Veränderungen sind ein Beispiel dafür, daß moderne Reformen teilweise
auf die Wiederherstellung alter Formen und Muster hinauslaufen. Zum über-
wiegenden Teil handelt es sich aber um politische Experimente mit dem Bil-
dungswesen, von denen noch niemand absehen kann, ob sie zum Vorteil oder zum
Schaden künftiger Generationen ausschlagen werden.
Bei alledem sollte man nicht vergessen, daß auf allen Stufen der Hochschul-
Ausbildung herausragende Studierende auch zur Lehre herangezogen wurden, was
ja gerade für den Nachwuchs die beste Lehre für die Lehrbefähigung darstellt. Das
gehörte und gehört zum System.
Wilhelm von Ockham (um 1290 – um 1348), einer der bedeutendsten scho-
lastischen Philosophen, erwarb nur den Grad eines Baccalaureus, während die
meisten mittelalterlichen Philosophen darüber hinaus den Magistergrad der Philo-
sophischen Fakultät und dann den Doktorgrad der Theologischen Fakultät
erwarben. Ockham wurde daher „venerabilis inceptor“ (verehrungswürdiger Leh-
rer, zugleich aber auch „Anfänger“) genannt. Unter heutigen Verhältnissen würde
man ihn Assistenz- oder Juniorprofessor genannt haben und hätte ihn bei seiner
offensichtlichen Bewährung in der Lehre alsbald mit dem Titel „apl. Professor“
(außerplanmäßiger, d. h. nicht im Stellenplan des Universitätshaushaltes besolde-
ter Hochschullehrer) oder „Honorarprofessor“ (d. h. „ehrenhalber mit dem Profes-
sorentitel versehen, ebenfalls nicht im Stellenplan) versehen.
Man kann erwarten, daß dieses System in allen Wissenschaften noch immer
hervorragende Wissenschaftler hervorbringt. Es sind vor allem auch nicht weniger
36

als vor einem halben Jahrhundert, als der gesamte Wissenschaftssektor und die
Zahl der Hochschulen viel kleiner war als heute.
Aber vermutlich liefert es auch heutzutage nicht mehr hervorragende Wissen-
schaftler als damals, da das alte System – entgegen einer modischen Kritik an den
sozialen Bildungsschranken - längst darauf abgestellt war, mit Hilfe von Stipen-
dien alle Begabungsressourcen auszuschöpfen. Sie bilden das heran, was man
heute allenthalben als Elite beschwört, so als hätte man keine mehr. Aber das Bild
dieser wissenschaftlichen Elite in der Öffentlichkeit ist weder klar noch adäquat,
sonst hätten der Exzellenzdiskurs und ministerielle Bemühungen, Exzellenz über-
haupt erst hervorzubringen, nicht aufkommen können. Offensichtlich fehlt es
dieser Elite an Zeit und Willen, ihre Leistungen in der Medienöffentlichkeit ange-
messen zu vermitteln. Und diejenigen, die das für sie besorgen, sind nicht immer
ihre überzeugendsten Repräsentanten.
Wie aber schon gesagt, sind moderne Wissenschaftler meist Fachleute in den
immer enger gezogenen Grenzen ihrer Fachgebiete, in denen sie sich in der Regel
nur durch ihre veröffentlichten Forschungsleistungen bekannt machen. Damit
kommen wir aber zu einem Punkte, an dem das gegenwärtige Wissenschafts-
system besonders in Deutschland am meisten im argen liegt. Und es ist gerade
dieser Punkt, wo der Laie und der Studierende dem Wissenschaftssystem zuerst
und mit nachhaltigsten Auswirkungen begegnet.
Noch immer beruht das neuere deutsche Wissenschaftssystem, besonders der
Universitäten, auf den Ideen und Plänen Wilhelm von Humboldts.11 Ihre Realisie-
rung führte die deutsche Wissenschaft im 19. Jahrhundert an die Weltspitze und
wurde in den USA, Japan und einigen anderen Ländern übernommen. W. v.
Humboldt stellte in seinen einschlägigen Schriften die zwei wesentlichen Grund-
sätze der „Einheit von Forschung und Lehre“ und des „forschenden Lernens in
Einsamkeit und Freiheit“ heraus und schrieb sie gewissermaßen fest.
Die Einheit von Forschung und Lehre entsprach einer auch vordem an vielen
Universitäten herrschenden Tradition, nach der nur ausgewiesene Forscher dort
lehren sollten. Damit war ein grundsätzlicher Unterschied zwischen Schulen (auch
dem Gymnasium) mit streng geregeltem „Unterricht“ und Universitäten mit
„freier Lehre“ begründet. Dieses Organisationsprinzip der Universitäten wird
neuerdings durch die sogenannte Verschulung der Hochschulen und durch die
(noch weitgehend nur geplante bzw. diskutierte) Einführung reiner „Lehrprofes-
suren“ konterkariert. Deren Lehrdeputat soll zwischen 12 und 20 Veranstal-
tungsstunden pro Woche betragen, was dem üblichen Lehrpensum der Gymna-
siallehrer entspricht. „Studienräte im Hochschuldienst“ gab es aber auch bisher
schon vereinzelt. So soll durch die Lehrprofessuren dies Institut nur ausgeweitet
werden.

11
W. von Humboldt, Über die innere und äussere Organisation der höheren wissenschaftlichen Anstalten in Berlin (ca.
1810), in: W. v. Humboldt, Studienausgabe in 3 Bänden, hgg. von K. Müller-Vollmer, Frankfurt a. M. 1972, Band 2, S.
133 – 141.
37

Das humboldtsche forschende Lernen in Einsamkeit und Freiheit entsprach


ebenfalls einem verbreiteten Brauch, die Studierenden als erwachsene Menschen
ernst zu nehmen, die in der Lage sein sollten, nach eigenen Begabungen, Nei-
gungen und Interessen aus dem vielfältigen Lehrangebot dasjenige auszuwählen,
was sie selber zur Bildung ihrer Persönlichkeit und zur Qualifikation für künftige
Berufsaufgaben für richtig und wichtig hielten. Daß dies in engster Zusammenar-
beit mit ihren Lehrern, nämlich „in Teilnahme an ihren Forschungen“, geschehen
konnte, ergab sich bei der meist geringen Zahl der Studierenden von selbst.
Humboldts Ideen werden bis heute immer wieder beschworen, und sie gehören
zweifellos noch immer zum Selbstverständnis der meisten Wissenschaftler, und
dies nicht nur in Deutschland. Ihre Anwendung in der Praxis des modernen
Hochschulbetriebes ist freilich weithin zu einem Zerrbild geraten.
Die Einheit von Forschung und Lehre wird vom durchschnittlichen Hochschul-
lehrer so verstanden, daß er nur das lehrt, was er selbst erforscht hat. Da dies
naturgemäß nur einige Schwerpunkte seines Faches betreffen kann, das er vertre-
ten soll, findet man kaum noch Lehrer, die den Überblick über ihr Fach behalten
haben und es in den sogenannten „großen Vorlesungen“ oder in umfassenden
„Lehrbüchern“ vorführen können. So kann es auch nicht wundern, daß nunmehr
der Doktorand als studentischer Tutor oder der Doktor in der Rolle des Assistenz-
oder Juniorprofessors zur maßgeblichen Hochschullehrerfigur wird, da er in
seinem Seminar unmittelbar aus seinen Forschungen schöpft und schöpfen muß.
Die „Einsamkeit und Freiheit“ der Studierenden macht zweifellos noch immer
die große Attraktivität des selbstbestimmten Studentenlebens im „Freiraum Hoch-
schule“ aus. Dies im Unterschied zu den Schulen (und auch Fachhochschulen),
wo der (einstmalige) Schülerstatus merkliche Zwänge der Präsenz und Assiduität
mit sich brachte und z. T. noch mit sich bringt.
Es ist gewiß in erster Linie dem Ernstnehmen dieser Freiheit der Studierenden
durch die Universitätslehrer geschuldet, daß sie eher darauf warten, ob und daß
Studierende in ihre Lehrveranstaltungen und zur Beratung und Betreuung zu
ihnen kommen, als daß sie ihnen nachlaufen und irgend welchen Druck auf sie
ausüben. Das Problem besteht eben darin, in welchem Maße die vielfach „nicht
erwachsen werden wollenden“ jungen Leute dieser Freiheit gewachsen sind.
Jedenfalls sind es nicht die Professoren, die es ihnen verdenken oder sie gar daran
hindern, ihre Freiheit dazu zu benutzen, im gesellschaftlich einigermaßen angese-
henen Status der „Studierenden“ alles andere zu betreiben als zu studieren. Und
wäre das nicht so, so wäre ein einigermaßen geregelter Lehrbetrieb und die Be-
treuung in den meisten Fächern wegen Überfüllung schon längst nicht mehr
möglich. Andererseits wird man sich nicht verhehlen, daß immatrikulierte Studen-
ten, auch wenn sie nicht studieren, den regulären Arbeitsmarkt merklich entlasten.
Am meisten dürfte aber das „forschende Lernen“ unter gegenwärtigen Bedin-
gungen mißverstanden werden. Die „Teilnahme an der Forschung“ kann ersicht-
lich nur im engeren Kreis der Fortgeschrittenen, etwa bei der Anfertigung von
Examensarbeiten unter Anleitung und Betreuung der Hochschullehrer, stattfinden.
38

Dafür gibt es in den meisten Disziplinen jetzt besondere Forschungskolloquien.


Der durchschnittliche Student und besonders der Anfänger geht aber davon aus,
daß die Forschung schon im Proseminar oder einer „Übung“ beginne. Somit gilt
jetzt gewöhnlich schon das Lesen eines Aufsatzes oder gar eines ganzen Buches
oder das Herunterladen eines Textstückes aus dem Internet als echte Forschungs-
leistung. Dies umso mehr, als heute das Lesen wissenschaftlicher Texte selbst
schon als kaum zumutbare Arbeit gilt. Darum erwarten viele Studenten von ihren
Lehrern, daß sie ihnen „vortragen, was in den Büchern steht“ (wie es auch von
studentischen Fakultätsvertretern gelegentlich gefordert wird). Und das muß der
Hochschullehrer dann auch in gehörigem Maße tun. Vorauszusetzen, daß alle oder
auch nur die Mehrzahl von Seminarteilnehmern einen thematischen Text vor der
Seminar-Diskussion gelesen hätten, hieße, über die Köpfe der meisten hinweg-
zureden und sich von vornherein um den Lehrerfolg oder um eine positive Be-
wertung in den neuerdings eingeführten Lehrevaluationen durch die Studierenden
zu bringen.
Ein verhängnisvoller Mißstand der Studienorganisation besteht heute darin, daß
sich die Professoren auch wegen solcher Erfahrungen im Grundstudium weitge-
hend aus den Lehrveranstaltungen des Grundstudiums, also der Anfänger, zurück-
gezogen haben und die ganze Propädeutik der Fächer Aufgabe der wissenschaft-
lichen Mitarbeiter oder auch der studentischen Hilfskräfte geworden ist.
Bis in die frühen sechziger Jahre war das geradezu umgekehrt. Es war fast
Ehrensache und daneben auch von pekuniärem Reiz wegen der „erlesenen Hör-
gelder“ (nämlich 2,50 DM pro Hörer und Vorlesungsstunde), daß die Professoren
möglichst große Übersichts-Vorlesungen für Anfänger und „Hörer aller Fakultä-
ten“ hielten. Die Assistenten, die bis dahin durchweg mindestens schon den Dok-
torgrad erworben haben mußten, durften, wenn sie überhaupt zur Lehre heran-
gezogen wurden, Spezialseminare über ihre eigenen Forschungsgegenstände ab-
halten. Heute ist es dagegen fast allgemein üblich geworden, daß die sogenannten
Mitarbeiter meistens Doktoranden (gelegentlich auch „Magistranden“) sind, die
sich erst noch in ihren Forschungsgegenstand einarbeiten müssen. Nur die
wenigsten dieser wissenschaftlichen Mitarbeiter haben längerfristige Stellen (die
früheren Assistentenstellen bei einem Professor) inne. Die meisten werden jetzt
aus Drittmitteln eines Forschungsprojektes dotiert. Und das hat überall zu dem
geführt, was man das Prekariat nennt: junge und oft schon voll ausgebildete
Leute, die ihre besten Jahre in oft nur auf einige Monate befristeten Projektstellen
verbringen, bei denen kaum absehbar ist, ob sie verlängert werden, entfallen oder
durch ein anderes Projekt ersetzt werden können. Diese Mitarbeiter werden aber
in den meisten Fällen auch zur Lehre herangezogen.
Bis dahin und weithin noch jetzt war und ist das Vorlesunghalten überhaupt ein
striktes Privileg der Professoren und der mit der „Venia legendi“ (Verleihung des
Rechts, Vorlesungen zu halten) versehenen Privatdozenten. Eine eigentliche Aus-
bildung für das Vorlesungshalten gab es nie. Allenfalls ergaben sich Gelegen-
39

heiten zur Vertretung der Professoren bei deren Abwesenheit durch ihre Assisten-
ten in einzelnen Lehrveranstaltungen.
Aber das Abhalten von Vorlesungen überhaupt und das der „magistralen
Vorlesungen“ über das ganze Fach insbesondere hatte für die Professoren den sehr
großen Vorteil, daß sie dadurch jederzeit den Überblick über ihr ganzes Fach zu
erarbeiten, zu behalten und zu pflegen hatten. Es war gleichsam eine ständige
Turnübung für Geistesgegenwart. Und darüber hinaus war die Übung auch heu-
ristisch fruchtbar. Wer sich ständig um diese Geistesgegenwart bemühte, setzte
sich auch in die Lage, immer wieder neue Verknüpfungen zwischen den Inhalten
herzustellen, sie zu überprüfen und daraus Gesichtspunkte für neue Forschungs-
fragen zu entwickeln.
Als 1964 die genannten „erlesenen“ Hörgelder in der Bundesrepublik pau-
schaliert wurden, um den krassen Unterschied der Erzielung von Hörgeldern in
den großen Massenfächern und den kleinen sogenannten Orchideenfächern aus
Gründen der Gerechtigkeit einzuebnen, entdeckten die Didaktiker, daß soge-
nannter Frontalunterricht, unter den man auch die akademischen Vorlesungen
subsumierte, autoritär und indoktrinierend sei. Sofort sank das Interesse an den
Vorlesungen zugunsten des freien Dialogs im Seminarbetrieb, bei dem fortan der
nummerus clausus der Kleingruppen regierte.
Das kam vielen Privatdozenten und neu berufenen Professoren sehr zupaß,
denn sie hatten oft vor ihrem Amtsantritt noch nie eine Vorlesung gehalten,
wußten andererseits aber genau, wieviel Arbeit und Mühe dazu hätte investiert
werden müssen. Hinzu kam durch dieselbe Besoldungsreform der Oktroi einer
Lehrverpflichtung für die Professoren von acht (jetzt mancherorts neun), für
Assistenten bzw. wissenschaftliche Mitarbeiter von mindestens zwei Stunden.
Vordem waren die Professoren nur dazu verpflichtet, „nach Bedarf im Fache“
Lehrveranstaltungen abzuhalten. Das konnten zuweilen 15 Stunden sein, aber
auch „mindestens eine Lehreinheit“ (d. h. eine Vorlesung und ein zugeordnetes
Seminar), wie man sie im allgemeinen von den Privatdozenten forderte und auch
jetzt noch fordert. Manche berühmten Professoren, an deren Forschungen die
Universität und das zuständige Ministerium besonders interessiert waren, hatten
sich in ihren Berufungsverhandlungen sogar ausbedingen können, überhaupt keine
Lehrveranstaltungen abzuhalten, um sich gänzlich der Forschung zu widmen.
Begleitend zur Einrichtung reiner Lehrprofessuren sollen übrigens nach neuesten
Plänen auch wieder vermehrt solche reine Forschungsprofesssuren (ohne Lehr-
verpflichtung) eingeführt werden.
Der Lehrverpflichtung seit 1964 ließ sich am bequemsten durch Seminare und
Kolloquien nachkommen, da die Zeit für die Ausarbeitung von Vorlesungen
immer knapper wurde. Wer heute in das Vorlesungsverzeichnis einer Universität
schaut, wird leicht bemerken, daß nur noch die Historiker – ans Geschichten-
erzählen gewöhnt – in nennenswertem Umfang Vorlesungen halten, die übrigen
Professoren allenfalls eine einzige pro Semester, und die Assistenten dürfen und
mögen es immer noch nicht. Die neuen Junior-Professoren haben inzwischen
40

dieselben Lehrverpflichtungen wie ihre älteren Professorenkollegen. In manchen


Fächern, die sich besonders forschungsintensiv geben, verzichtet man zugunsten
der Forschungsseminare von vornherein auf Vorlesungen.
Die fatalen Folgen dieser Studienorganisation liegen eigentlich auf der Hand.
Aber man spricht kaum darüber, es sei denn, daß sie als Fortschritt gepriesen
werden.
Die ehemaligen „großen Fächer“ (Einzelwissenschaften) leben praktisch nur
noch in Instituts- und Seminarbezeichnungen fort. Die einstigen „Lehrstühle“ für
das ganze Fach, die man durchweg als Parallelprofessuren eingerichtet hatte,
werden jetzt für vielerlei Unterdisziplinen ausgelegt und ausgeschrieben, und das
setzt sich bei den ehemaligen „Extraordinariaten“, den vorigen C-3 und jetzigen
W-2 Professuren weiter fort.
Die Zerstückelung der Fächer in Spezialdomänen der bestallten Hochschul-
lehrer schon bei den Stellenausschreibungen wird zwar überall mit der notwen-
digen und sachangemessenen Spezialisierung der Forschung begründet. Aber
solche Spezialisierungen ergaben sich als „Schwerpunkte“ innerhalb des zu ver-
tretenden Lehrfaches schon immer von selbst. Die jetzt praktizierten Spezialisten-
Ausschreibungen dienen aber vor allem dem Zweck, überhaupt neue Professoren-
und Mitarbeiterstellen zu erhalten und jede Konkurrenz zwischen den Fachver-
tretern, wie sie nur durch die früher üblichen Parallelprofessuren in den Fächern
gewährleistet war, zu verhindern.
Das überall geforderte „Profil“ der Fächer besteht dann vor allem in der Viel-
zahl und Buntheit der Spezialitäten an den einzelnen Fakultäten und Universi-
täten. Es kann nicht verwundern, daß viele Professoren diese Gelegenheit nutzen,
ihr persönliches Lehrangebot und ihre speziellen Forschungsinteressen in einem
neuen Studiengang zu etablieren. An attraktiven und vielversprechenden Bezeich-
nungen dafür fehlt es nirgends. Dadurch sind aber die tatsächlich angebotenen
Studieninhalte kaum noch erkenbar oder vergleichbar geworden. Und um hier
dem Wildwuchs neuer Studiengänge zu steuern, haben die dadurch überforderten
Kultus- bzw. Wissenschaftsministerien deren Überprüfung, Vergleichung und
Vereinheitlichung privaten Akkreditierungsgesellschaften übertragen, vor denen
die Fakultäten und Fachbereiche ihre Studiengänge in regelmäßigen Abständen
offenzulegen und zu rechtfertigen haben. Diese Akkreditierungsgesellschaften
rekrutieren ihr Personal zum größten Teil aus selbsternannten „Hochschuldidak-
tikern“ und zum geringeren Teil aus Fachkollegen, die dadurch reichlich Gelegen-
heit und Mittel finden, ihre Vorstellungen von den richtigen und zukunftweisen-
den Inhalten der kurrikularen Lehrangeboten den jeweiligen Fächern aufzuok-
troieren.
Die auf diese Weise verursachte Zersplitterung des Lehrangebots hat kompen-
satorisch zur Einrichtung von „interdisziplinären“ Kooperationen und Koalitionen
(Clustern) mit einem Superprofil geführt. Was man dabei als „interdisziplinäre
Forschung und Lehre“ bezeichnet, ist zwar manchmal eine echte Kooperation der
Fachleute, die das Spezialwissen ihrer Fächer einbringen, sehr oft aber ein dilet-
41

tantisches Herumwildern in allen Disziplinen, die die Lehrenden vorher nicht


studiert haben.
Nichts erscheint jetzt einfacher, als für beliebige Probleme neue Professuren
oder gar Institute „In“ und „An“ den Hochschulen einzurichten, die das Problem
interdisziplinär „beforschen“ und in der Lehre plausibel darstellen sollen. Die
Lehr-Kurricula dieser „innovativen Fächer“ bestehen dann in der Regel aus den
Service-Leistungen älterer bodenständiger Fächer. Die Forschungsmethodologie
ergibt sich meist aus dem „Praxisbezug“ und allenfalls aus demjenigen, was die
dazu eingesetzten Lehrpersonen früher selbst studiert haben. Und hinter allen aus
dem Fächerfundus der traditionellen Universitäten gespeisten neuen Disziplinen
und Wissenschaften dehnt sich dann noch das weite Reich ehemaliger Fachschul-
und Handwerkslehren aus, die überall auf die „Akademisierung“ ihrer Kurrikula
an Universitäten drängen. Die Blüten solcher Entwicklungen kann man jede
Woche in den zahlreichen Annoncen neuer Studiengänge und Fortbildungsange-
boten von Hochschulen in der Tagespresse zur Kenntnis nehmen. Die Anzahl der
in Deutschland studierbaren Fächer und Fächerkombinationen beträgt aktuell etwa
eintausendachthundert.
Für die Studienanfänger und für die Öffentlichkeit ist diese Organisation der
Lehre naturgemäß bunt, verwirrend und interessant. Sie kommt den Erwartungen
an Vielfalt, Schwierigkeit und Tiefe der Fächer entgegen. Nur einen ungefähren
Überblick über das zu gewinnen, was zunächst oder überhaupt zu studieren wich-
tig ist, ist selbst zu einem Teil des Studiums geworden und trägt damit schon von
selbst seinen Teil zur Verlängerung der Studienzeiten bei.
Studierte man in früheren Zeiten das oder die Fächer, für die man in der gymna-
sialen Oberstufe am meisten Interesse entwickelt und die besten Schulnoten
bekommen hatte, so kommt es jetzt häufig oder gar überwiegend vor, daß man
gerade das interessant und studierenswert findet, wovon man auf der Schule nichts
oder wenig erfahren hatte. Naturgemäß erfreut sich gerade die Philosophie dieser
Attraktivität in besonderem Maße, was überall zu hoher Studiennachfrage und
vergleichsweise vielen Mißerfolgen im Studium führt.
Dabei verstärkt sich eine Anforderung an die Studierenden beträchtlich, die
auch Wilhelm von Humboldt schon im Auge gehabt hatte. Humboldt hatte gefor-
dert, daß die Studierenden die „Universalität“ des Lehrangebotes in ihrer persön-
lichen „Individualität“ zu einem Ganzen, einer „Totalität“ der erworbenen Bil-
dung verknüpfen sollten. Er ging dabei davon aus, daß diese Totalität gerade nicht
von den Lehrenden vorgegeben werden konnte noch sollte, da sie ja jeweils nur
ihre Fächer bzw. ihre Wissenschaft zu vertreten hatten. Die Umsetzung lieferte
daher Absolventen, in deren Köpfen sich nicht nur die studierte Einzelwis-
senschaft, sondern überhaupt wissenschaftliche Bildung zu einem Ganzen fügte.
Unter heutigen Verhältnissen kann dies kaum noch auf das Gesamt einer
einzigen, geschweige denn mehrerer oder gar aller Wissenschaften bezogen wer-
den. Im gleichen Maße wie die allgemeine Bildung verschwindet, nimmt das
öffentliche Reden über und Fordern von „Bildung“ zu. Auch die spezialisierten
42

Lehrer und Forscher haben, wie wir schon sagten, gewöhnlich nicht mehr den
Überblick über das Ganze ihres Faches. Und auch deswegen schotten sich die
einzelnen Fakultäten bzw. Fachbereiche mehr und mehr gegeneinander ab. Für
„interfakultative“ Gespräche und Treffen der Fachvertreter fehlt es bei der zuneh-
menden Spezialisierung und dem zeitlichen Druck der Geschäfte sowohl an Zeit
wie an Interesse.
Wohl aber hat der bei so vielen Spezialisten studierende junge Kopf noch
immer alle Chancen, sich Überblicke über den „Tellerrand“ seines engeren Stu-
dienfaches hinaus zu erarbeiten. Doch den meisten sind bei der jetzt üblichen
Kapazitätsplanung des Stundenbudgets für Besuch sowie Vor- und Nachbereitung
der Lehrveranstaltungen (die sich am Arbeitsvolumen von ca. 40 Wochenstunden
der lohnabhängig Beschäftigten orientiert) engste Grenzen gesetzt.
Erwähnen wir aber auch die neueste Initiative des Landes Nordrhein-Westfalen
im letzten Hochschulgesetzt von 2014 zur Aufhebung der persönlichen Anwesen-
heitspflichten der Studierenden in den Lehrveranstaltungen. Sie wird damit be-
gründet, daß so viele Studierende aus unterprivilegierten Bevölkerungsschichten
tagsüber ihren Lebensunterhalt durch eine berufliche Tätigkeit finanzieren müß-
ten. Da sie auf diese Weise tagsüber nicht mehr an Lehrveranstaltungen teil-
nehmen können, kann die Präsenz bei Lehrveranstaltung nur noch in besonders zu
begründenden Fällen verbindlich gefordert werden. Die einstige akademische
Freiheit zum Besuch oder Nichtbesuch von Vorlesungen (und nur von diesen) an
den Universitäten, wodurch die Studierenden gegebenenfalls auch ihren Beifall
oder ihre Mißbilligung bezüglich des jeweiligen Dozenten zum Ausdruck brach-
ten, wird durch das neue Hochschulgesetz auf alle Übungen und Seminare an
allen Hochschulen ausgedehnt.
Gewitzte Geister vermuten, daß im nächsten Hochschulgesetz alle Hochschulen
des Landes der Fern-Universität Hagen, die mit ca. 80 000 Studierenden ohnehin
die größte Hochschule Deutschlands ist, eingegliedert werden. Für das danach
folgende Hochschulgesetz wäre in Konsequenz zu erwarten, daß auch der gesamte
Lehrbetrieb eingespart und durch ein zentrales Videoprogramm exzellenter Lehre
im MOOC-Verfahren ersetzt wird. Deren Inhalte lassen sich preisgünstig als
Video-Mitschnitte von Lehrveranstaltungen der prominentesten Professoren US-
amerikanischer Ivy-League-Universitäten und auch schon einiger deutscher Ex-
zellenz-Universitäten kaufen.12

12
Eine vorsichtige Empfehlung des MOOC-Verfahrens (Massive Open Online Courses) liegt
schon seit einiger Zeit vor. Der geschäftsführende Direktor der German-American Fulbright Com-
mission Rolf Hoffmann verspricht sich davon: „Neue didaktische Modelle im online-learning
erhöhen die Qualität der Lehre, vermitteln komplexe Inhalte verständlicher, öffnen auch kleinen
Hochschulen neue Nischen bei der Rekrutierung und Einbindung Studierender (gerade im dualen
Bereich) und erreichen potenziell Studierwillige, die sonst nicht den Weg zur Hochschule finden“.
In: Forschung und Lehre 8/13, S. 606.
43

§ 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathemati-


schen“ Logik
Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik.
Moderne Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik,
auch im Hinblick auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer
erneuerten klassischen Logik und Kritik der Fehlentwicklungen der mathematischen Logik. Re-
integration intensionaler und extensionaler Logik. Das Verhältnis von Formalismus und inhalt-
lichem Wissen. Der Formalismus als Notation der Sprache. Kritik der üblichen logischen Zeichen-
formeln. Über den Unterschied ausdrucksbildender und urteilsbildender Junktoren. Die Gleichung
als definitorischer Ausdruck und als methodische Artikulationsform der Mathematik und mathe-
matischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen. Über Sprache
und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen guten
Formalismus

Um in die Wissenschaft überhaupt und in die Philosophie insbesondere einzudrin-


gen, tut man gut daran, sich mit der Logik zu befassen. Diese versteht sich
wesentlich als Lehre von der wissenschaftlichen Wahrheit, Falschheit und
Wahrscheinlichkeit. Sie ist die methodische Hauptdisziplin für alle Wissen-
schaften. Seit jeher wird sie als Teildisziplin der Philosophie gelehrt und erfüllt
damit einen letzten Rest ihrer früheren propädeutischen Aufgabe für alle Wissen-
schaften.
Da die Logik als Disziplin schon fast in den Anfängen der Philosophie von den
Megarern begründet, von den Sophisten geübt, von Aristoteles auch z. T. forma-
lisiert und jedenfalls in ihrer klassischen Gestalt schon ausgearbeitet worden ist,
von da an auch ständig ein beachtliches Hilfsmittel für die inhaltlichen Wissen-
schaften war, ist ihr Gebrauch selbstverständlich geworden, auch im alltäglichen
Denken. Auch der wissenschaftliche Laie ruft gelegentlich einen Gesprächs-
partner dazu auf, irgend eine Angelegenheit „logisch zu beurteilen“, sich über-
haupt „einen Begriff von einer Sache“ zu machen und aus bestimmten Sach-
verhalten „Schlüsse zu ziehen“. Auch das geflügelte Wort vom „gesunden Men-
schenverstand“ dürfte sich der Tatsache verdanken, daß man wenigstens die Rudi-
mente logischer Kultur in den weitesten Kreisen voraussetzt.
Das hat dazu geführt, daß viele Wissenschaftler glauben, ihre gleichsam mit der
Muttermilch aufgesogene logische Kompetenz genüge auch in ihrem Fache, und
eine besondere Befassung mit der disziplinären Logik erübrige sich.
Wenn argumentiert wird, versucht man seine Thesen zu begründen und beruft
sich eventuell auf das Leibnizsche Prinzip vom Grunde. Hält man etwas für
falsch, so versucht man einen Widerspruch aufzudecken und beruft sich auf das
Prinzip vom zu vermeidenden Widerspruch. Auch das Prinzip der Identität wird
noch gerne beschworen, falls jemand im Gespräch von einer zu einer anderen
Bedeutung eines ins Feld gestellten Terminus übergeht. Und will man ein Dis-
kussionsende erzwingen, so stellt man den Gesprächspartner gerne vor die Alter-
native, sich entweder für oder gegen eine entscheidende These auszusprechen.
44

Denn: „tertium non datur“, wie bekanntlich das Prinzip vom ausgeschlossenen
Dritten besagt.
Damit kommt man in den meisten Fällen ganz gut durch. Doch der wissen-
schaftstheoretisch etwas gewitztere Kollege kontert mit Autoritäten und neueren
Forschungsergebnissen. Er weiß von Karl Albert, daß man in der Wissenschaft
überhaupt nichts begründen kann. Denn jede Begründung ist entweder „dogma-
tisch“ (und schon deswegen theologischer Voreingenommenheit verdächtig), oder
sie beruht auf einer Petitio principii, (sie beweist, was sie vorausgesetzt hat, und
sie setzt voraus, was sie beweisen will), oder sie führt zu einem unendlichen
Regreß immer weiter zurückreichender Begründungen, und etwas Viertes gibt es
nicht. Das Argument geht auf Jakob Friedrich Fries zurück und ist mittlerweile
auch als Friessches Trilemma bekannt.13 Auch beim Widerspruch behauptet etwa
die neuere Paralogik (wie schon I. Kant bezüglich der „dynamischen Antinomien
der reinen Vernunft“), daß Widersprüchliches gelegentlich wahr sein könne. 14
Bezüglich der Identität der Begriffe hat L. Wittgenstein behauptet, daß sich
unter Begriffen nur „Familienähnlichkeiten“ und gegebenfalls gar keine Identitä-
ten der Bedeutungen erfassen ließen.15 Wem dies schon zu lange her ist, der beruft
sich auf die neueste daraus entstandene „Fuzzi-Logik“, die „unscharfe Begriffe“
(hinsichtlich ihrer Intensionen und/oder Extensionen) zuläßt.16
Das Tertium non datur gilt vielen schließlich durch die avanciertesten Theorien
der Mathematik und Mikrophysik als längst überholt und als eingeschränkter
Spezialfall für klassische Problembewältigung. 17
Werden solche Argumente noch durch einige logische bzw. mathematisch-
logische Formeln unterstützt, so wird der Muttermilch-Logiker sicher sogleich die
Waffen strecken und das Gespräch verständnislos beenden. Was ihn aber nicht
hindert, auf seiner Meinung zu bestehen und die moderne Logik und Wis-
senschaftstheorie insgesamt für sophistisches Gerede zu halten. Auch darin zeigt
sich die zunehmend sich weitende Kluft zwischen den wissenschaftlichen Kultu-
ren und den sogenannten Laien.
Die Mathematik hat für die sogenannten exakten Naturwissenschaften, aber im-
mer mehr auch darüber hinaus in Wissenschaften, die sich mit dem Prestige der
„Exaktheit“ der Naturwissenschaften, insbesondere der Physik, schmücken wol-
len, ebenfalls methodische Funktionen. Hervorgetreten sind hier vor allem die
Ökonomie, die Soziologie und Teile der Sprachwissenschaften. Auch die Mathe-
matik stellt eigene Theorien über Wahrheit, Falschheit und Wahrscheinlichkeit
13
K. Albert, Traktat über kritische Vernunft, Tübingen 1968, S. 13.
14
Manuel Bremer, Wahre Widersprüche. Einführung in die parakonsistente Logik, Sankt Augustin 1998.
15
L. Wittgenstein, Philosophische Untersuchungen (1953), Frankfurt a. M. 1971, Nr. 67, S. 57 f.
16
L. A. Zadeh, Fuzzy Logic and Approximate Reasoning, in: Synthese 30, 1975, p. 407 – 428.
17
K. Gödel, On Formally Undecidable Propositions of Principia Mathematica and Related Systems, hgg. von R. B.
Braithwaite, New York 1962; dt. Original: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme I. In: Monatshefte für Mathematische Physik 38, 1931, p. 173-198; N. Vasallo, Sulla problematicità del principio
del terzo escluso. Linguisticità e senso concreto del principio nella lettura intuizionista di L. E. J. Brouwer. In: Epistemolo-
gia 23, 2000, p. 99-118; F. von Kutschera, Der Satz vom ausgeschlossenen Dritten. Untersuchungen über die Grundlagen
der Logik, Berlin-New York 1985.
45

zur Verfügung. Nicht von ungefähr gilt ja eine richtige Gleichung wie etwa „2
mal 2 = 4“ als exemplarische Wahrheit, und die „Scheingleichung“ „2 mal 2 = 5“
als falsch. Wahrscheinlichkeiten gelten als die eigentliche Domäne der mathe-
matischen Statistik.
Die Mathematik hat sich, anders als die Logik, zu einer höchst umfangreichen
Einzelwissenschaft mit großen Instituten (an manchen Universitäten sogar zu
„Mathematischen Fakultäten“), einem eigenen Studiengang und einem Berufs-
profil der Mathematiker ausgeweitet. Die Schwierigkeit und damit der Aufwand
zu ihrem Studium ist beträchtlich und schreckt die meisten Wissenschaftler und
immer mehr auch die jungen Leute davon ab, sich näher damit zu befassen.
Gleichwohl empfiehlt es sich, und besonders für den Wissenschaftstheoretiker,
sich mathematische Grundkenntnisse anzueignen.
Auch die Mathematiker diskutieren ihre Grundlagenprobleme „logisch“. Und
viele betonen, daß die von ihnen gepflegte „mathematische Logik“ nur ein
Anwendungsgebiet der allgemeinen Logik für die Zwecke der Mathematik sei.
Die meisten mathematischen Logiker dürften jedoch der Meinung sein, daß die
sogenannte mathematische Logik bzw. „Logistik“ die von ihnen nun „klassisch“
genannte traditionelle Logik abgelöst und fast gänzlich ersetzt habe. W. Steg-
müller schreibt etwa: „Mit Recht wird heute zwar darauf hingewiesen, daß die
aristotelische Syllogistik nur einen infinitesimalen Teil dessen ausmacht, was man
gegenwärtig als Logik bezeichnet. Mit fast derselben Sicherheit kann man aber
behaupten, daß bereits in wenigen Jahrzehnten dasjenige, was heute Logik
genannt wird, nur mehr als Bruchteil der Logik betrachtet werden wird“ (wobei
mit „die Logik“ im wesentlichen die moderne mathematische Logik gemeint ist.18
Der Mathematiker Gottlob Frege, der diese Wendung am Ende des 19. Jahr-
hunderts mit eingeleitet hat, betont ausdrücklich, „daß die Arithmetik weiter
entwickelte Logik ist, daß eine strenge Begründung der arithmetischen Gesetze
auf rein logische und nur auf solche zurückführt“. 19 Der Mathematiker Hans
Hermes bekräftigte dies mit dem Hinweis: „Die Besinnung auf die Grundlagen
der Mathematik hat zu dem Versuch geführt, die Logik auf der Basis formaler
Sprachen von Grund auf neu zu begreifen und ihr Verhältnis zur Mathematik zu
untersuchen“. 20 Wobei vorausgesetzt wird, daß „formale Sprachen“ selbst schon
mathematische Zeichenkomplexe sind, die Wittgenstein in seinem „Tractatus
logico-philosophicus“ von 1921 als „Idealsprachen“ von den Gemeinsprachen
strikt unterschieden hatte. Zugleich bemerkt Hermes aber auch:
„Zu einer genauen Beschreibung des mathematischen modus procedendi gehört also
die Diskussion der logischen Schlußregeln. Welche Regeln werden angewandt?

18
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band 1: Wissenschaft-
liche Erklärung und Begründung, Berlin-Heidelberg-New York 1969, S. XVI.
19
G. Frege, Funktion und Begriff, in: G. Frege, Funktion, Begriff, Bedeutung. Fünf logische Studien, hgg. von G. Patzig,
Göttingen 1962, S. 25.
20
H. Hermes, Methodik der Mathematik und Logik, in: Enzyklopädie der geisteswissenschaftlichen Arbeitsmethoden, hgg.
v. M. Thiel, 3. Lieferung, München-Wien 1968, S. 4.
46

Merkwürdigerweise haben sich die Mathematiker mit dieser Frage fast zweitausend
Jahre lang kaum befaßt. Noch heute wird z. B. von einem an einer deutschen
Universität studierenden Mathematiker nicht verlangt, daß er sich mit diesem Prob-
lem beschäftigt. ... Obwohl der Mathematiker offenbar auch ohne Kenntnis der
logischen Regeln seine Wissenschaft betreiben kann, so sollte er doch beachten, daß
die Strenge der Mathematik mit den logischen Regeln zusammenhängt, und daß es
doch sehr erstaunlich ist, daß man in einer so intensiv betriebenen Wissenschaft, wie
es die Geometrie ist, mehr als zweitausend Jahre benötigte, um eine wesentliche
Lücke in der Beweisführung zu entdecken. Eine solche Panne wäre vermutlich nicht
eingetreten, wenn man die Regeln der Logik gekannt hätte“. 21

Dem kann man nur zustimmen. Tatsächlich wird jedoch von Seiten der meisten
Mathematiker der Anspruch erhoben, eine zeitgemäße moderne Logik könne nur
eine Teildisziplin der Mathematik sein.
Diese Meinung ist zuerst von dem Mathematiker George Boole (1815 - 1864)
in seiner „Untersuchung über die Denkgesetze, auf welche die mathematischen
Theorien der Logik und der Wahrscheinlichkeiten gegründet sind“ 22 vertreten
worden. Aber in diesem Werk zeichnen sich auch schon gravierende Unterschiede
zwischen der alten „klassischen“ und der neuen „mathematischen Logik“ ab. Man
findet zum ersten Mal die Ersetzung der logischen Kopula als Hauptjunktor des
Urteils durch die mathematische Gleichung (die eine logische Äquivalenz ist und
keineswegs mit der Kopula „ist“ in behauptenden Urteilen verwechselt werden
darf!). Daraus ergibt sich die seither in der mathematischen Logik herrschende
Auffassung, das Verhältnis von Subjekt und Prädikat im Urteil sei, wie in mathe-
matischen Gleichungen, ein solches der Bedeutungsidentität, das durch die ver-
schiedenen terminologischen und ausdrucksmäßigen Formulierungen, etwa durch
die Quantifikation des Subjekts und/oder eine Quantifikation des Prädikats dissi-
muliert werde. Wahre Urteile müßten daher als „Tautologien“ (wie Wittgenstein
im „Tractatus logico-philosophicus“ behauptete) verstanden werden.
An Boole schließt sich der Ausbau einer „Boolschen Algebra der Logik“ durch
W. S. Jevons und Ch. S. Peirce an, in der die Logik als „mathematischer Kalkül“
verstanden wird. H. Hermes definierte: „Jeder Kalkül besteht aus einem System
von Regeln, die es erlauben, Figuren herzustellen, die aus den Buchstaben eines
Alphabets gebildet sind, welche zu K (d. h. zum Kalkül) gehören“.23
Man wird also bei der „mathematischen Logik“ grundsätzlich davon ausgehen
müssen, daß es sich dabei um Anwendung der Mathematik auf einige traditionelle
logische Sachverhalte handelt. Was sich aus dem Bestand der klassischen Logik
für diese Anwendungen nicht eignet, wird dabei außer Betracht gelassen.
Unseren Bedenken gegen diese Auffassung von Logik haben wir in der „Logik“
(Aalen 1987), im „Grundriß der pyramidalen Logik mit einer logischen Kritik der
mathematischen Logik und Bibliographie der Logik“ (Internet der Phil.-Fak. der

21
H. Hermes, Methodik der Mathematik und Logik, S. 16.
22
G. Boole, Investigation of the Laws of Thought on which are Founded the Mathematical Theories of Logic and Proba-
bilities, London 1854, ND New York 1958.
23
H. Hermes, Methodik der Mathematik und Logik S. 34.
47

Universität Düsseldorf 2000) sowie in den „Elementa logico-mathematica“


(Internet der Phil. Fak. der HHU-Universität Düsseldorf 2006) sowie in einer
englischsprachigen Veröffentlichung 2013 24 Ausdruck gegeben. Wir schließen
damit an einen Grundlagenstreit an, den Günther Jakobi mit seinem Buch „Die
Ansprüche der Logistiker auf die Logik und ihre Geschichte“ 25 und Bruno v.
Freytag-Löringhoff mit seiner „Logik, ihr System und ihr Verhältnis zur Lo-
gistik“ 26 eröffnet hatten, ohne daß von den „Logistikern“ bzw. den „mathema-
tischen Logikern“ jemals darauf reagiert wurde.
Im Sinne von G. Jakobi und B. von Freytag-Löringhoff, wenn auch nicht auf
ihren Grundlagen, haben wir uns daher bemüht, eine klassisch-logische Kritik der
mathematischen Logik und ihrer Denkweisen zu entwickeln. Das veranlaßt uns
auch hier, dem Leser einige Winke zu geben, auf die er achten sollte, und zwar
besonders in Hinsicht auf das, was wir oben über die Erwartungen des Laien
gegenüber der Wissenschaft gesagt haben. Vor allem sollen dazu gewisse Unter-
schiede in der klassisch-logischen und mathematisch-logischen Denkweise her-
vorgehoben werden.
Dazu sei an einige traditionelle Forderungen erinnert, die an die Logik als
allgemeine wissenschaftliche Methodologie gestellt werden.
Die Logik sollte zunächst Kriterien dafür bereithalten, was in der Wissenschaft
als „Begriff“ gelten kann. Denn die Begriffe sind überall der Grundstoff, aus dem
das wissenschaftliche Wissen besteht. Darüber hinaus sollte man von ihr erwarten,
daß sie zeigt und Kriterien dafür hat, wie aus Begriffen und begrifflichen
Ausdrücken Urteile, Schlüsse und Argumente entstehen, mit denen man Wahres
und Falsches ausdrücken und ggf. nachweisen kann. Vor allem sollte man aber
auch Aufschluß darüber erwarten, wie man Wahres und Falsches von einander
unterscheiden kann, und wie die Frage dieser Unterscheidung oder ggf. ihrer
Nichtunterscheidbarkeit mit der Wahrscheinlichkeit zusammenhängt. Insbesonde-
re sollte die Logik auch deutlich machen können, wie sich aus alledem „Theorien“
zusammensetzen lassen, die nur das Wahre festhalten, es begründen und evtl.
beweisen und das Falsche ausscheiden. Schließlich muß gezeigt werden, was
Wahrscheinlichkeit ist und was sie mit den „Hypothesen“, in denen wissenschaft-
liche Vermutungen ausgedrückt werden, zu tun hat.
Über alle diese Gegenstände haben sich in der klassischen Logik und in der
mathematischen Logik verschiedene und oft entgegengesetzte Meinungen heraus-
gebildet. Und da die vorherrschende Meinung in der wissenschaftlichen Metho-
dologie darauf hinausläuft, daß die moderne und auf der Höhe der Wissenschaft
stehende Logik nur die mathematische Logik sein könne, die klassische Logik
aber durch sie überholt sei, so herrscht allgemein auch die Meinung, die ge-

24
Erweiterte und durch Anmerkungen und Korollarien ergänzte englische Übersetzung: L. Geldsetzer, Logical Thinking
in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements. Introduced and Translated from German
by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013
25
Stuttgart 1962.
26
Stuttgart 1955, 3. Aufl. 1961.
48

nannten Gegenstände seien in der klassischen Logik gleichsam nur angedacht und
in gänzlich unklaren Gestalten überliefert worden. In der mathematischen Logik
aber seien sie erst in angemessener formaler Fassung diskutierbar und mehr oder
weniger schon ein „fundamentum inconcussum“ jeder brauchbaren wissenschaft-
lichen Methodologie geworden.
Bei dieser Lage kann es nicht verwundern, daß auch gutwillige Liebhaber der
klassischen Logik kaum noch Anlaß gesehen haben, deren Potentiale weiterzuent-
wickeln und überhaupt die klassische Logik in eine moderne Form zu bringen.
Geschweige denn, daß sie diese Potentiale dazu benutzt hätten, daraus kritische
Gesichtspunkte zu entnehmen, um die mathematische Logik selber von ihrem
Standpunkt aus zu prüfen.
Genau dies haben wir in den oben genannten Veröffentlichungen versucht. Als
Ertrag dieser Studien und Ausarbeitungen der klassischen Logik seien folgende
hier relevante Punkte angeführt, zu denen auch einige Fehler in den Grundlagen
der klassischen Logik gehören, die z. T. auch in die mathematische Logik über-
nommen worden sind.

1. Es war und ist bisher ein erstrangiges Ideal sowohl der klassischen wie der
mathematischen Logik, den logischen Formalismus so auszubauen, daß sich in der
„logischen Formalisierung“ wissenschaftlicher Erkenntnisse deren Wahrheit un-
mittelbar „ablesen“ lassen könne. Natürlich sollte das auch dafür genügen, die
Falschheit formal kennzeichnen zu können, und über Wahrheit und Falschheit
hinaus auch die Wahrscheinlichkeit.
Dies ist weder in der klassischen noch in der mathematischen Logik gelungen.
In beiden Konzeptionen hat man sich damit begnügt, den Widerspruch als
formales Kennzeichen der Falschheit auszuweisen. Genauer gesagt: dies zu
behaupten. Somit auch die Aufdeckung von Widersprüchen in formalisierten
Theorien als Hauptmittel der Widerlegung von Irrtümern in der Wissenschaft zu
benutzen.
Daß dies falsch ist, weil der Satzwiderspruch aus einem wahren und einem
falschen allgemeinen Satz, die im Negationsverhältnis zueinander stehen, zusam-
mengesetzt ist und also nicht ausschließlich falsch sein kann, ist wohl auch
Aristoteles nicht entgangen. Nur hat er sich dazu nicht genau genug geäußert, als
er nur auf das Falsche beim Widerspruch hinwies. Zu dem Begründungsargument
für die übliche Auffassung, es handele sich bei der dann sogenannten Wider-
spruchsfalschheit um ein metasprachliches Phänomen, werden wir weiter unten
Stellung nehmen.
Unter dieser also selbst falschen Voraussetzung geht man davon aus, daß alles
„Logische“, in dem kein Widerspruch nachzuweisen ist, als „wahr“ (oder „gül-
tig“) zu behandeln sei. Das hat zur Folge, daß man einerseits jede noch so phan-
tastische Spekulation, wenn sie nur widerspruchslos ist, als wahr hinnehmen solle.
Es hat auch zur Folge, daß die Wahrscheinlichkeit immer nur hinsichtlich ihrer
49

„Wahrheitsnähe“ thematisiert wurde, nicht aber, wie es richtig wäre, ebenso hin-
sichtlich ihrer Falschheitsnähe.
Wir haben uns demgegenüber bemüht, auf der Grundlage der in der Logik alt-
bekannten „porphyrianischen Bäume“ bzw. der „Begriffspyramiden“ (das sind
„auf den Kopf gestellte“ Begriffsbäume) einen neuen logischen Formalismus zu
entwickeln, der dem alten logischen Ideal der Wahrheits- und Falschheits-
darstellung – und darüber hinaus der Wahrscheinlichkeitsdarstellung – direkt zu
genügen vermag.
Der „pyramidale Formalismus“ beruht auf der prinzipiellen Voraussetzung, daß
die Logik allgemein und ein logischer Formalismus speziell, die intensionalen und
extensionalen Begriffseigenschaften in allen logischen Verhältnissen gemeinsam
beachten und zum Ausdruck bringen muß. Das heißt, daß eine sogenannte rein
intensionale Logik (wie man sie gewöhnlich den Geisteswissenschaften unter-
stellt) ebenso wie eine rein extensionale Logik (auf die sich Mathematiker zu
berufen pflegen) schon deswegen keine Logik sein kann, weil sie nur eine Seite
des logisch Relevanten berücksichtigen.
Diese Verkennung der intensional-extensionalen Verknüpftheit in allen logi-
schen Elementen hat den ungeheuren Aufwand zur Folge, den man bei der
Entwicklung und Ausgestaltung dieser Einseitigkeiten der vermeintlich nur
intensionalen und der nur extensionalen Logik betreibt. Und auch von diesem
Aufwand kann man bei genauem Hinsehen feststellen, daß er immer wieder davon
zehrt, daß auf versteckte oder unbemerkte Weise intensionale Voraussetzungen in
die extensionale, und umgekehrt extensionale Voraussetzungen mehr oder
weniger unbemerkt oder gar dissimuliert in die intensionale Logik eingehen, ohne
welche ja Logik niemals funktionieren kann.
Der in unserer Logik vorgestellte pyramidale Formalismus integriert also beides,
nämlich intensionale und extensionale Logik, wieder zu einem Ganzen. In ihm
werden die gewohnten alphabetischen Notationszeichen (allerdings in Anwen-
dung auf Intensionen von Begriffen, nicht auf „ganze“ Begriffe) mit graphischen
Strukturen für die Anwendung auf Extensionen und auf die Verknüpfungs-
funktion der Junktoren verbunden. Der hier vorgeschlagene pyramidale Graph
formalisiert die logischen Verhältnisse so, daß an ihnen unmittelbar die inten-
sional-extensionale Struktur von Begriffen, ihrer Verknüpfungen mittels der Junk-
toren zu Ausdrücken und Urteilen, und schließlich auch deren Verknüpfung zu
Schlüssen und ganzen Theorien sichtbar und kontrollierbar wird.
In diesem Formalismus wird nicht nur die intensional-extensionale Definition
der im Formalismus vorkommenden Begriffe, sondern auch die „logische
Wahrheit“ der mit ihnen gebildeten Urteile unmittelbar an den regulären Rela-
tionen, die zwischen ihnen in der Pyramidenstruktur bestehen, sicht- und ablesbar.
Erweiterungen zu irregulären Strukturen machen entsprechend sicht- und
ablesbar, was als logisch formalisierte Falschheit und Wahrscheinlichkeit gelten
kann. Damit wird das eingangs genannte Ideal der Logik, Wahrheit, Falschheit
und Wahrscheinlichkeit direkt im Formalismus sichtbar zu machen, verwirklicht.
50

2. Das Verhältnis von logischem und mathematischem Formalismus zu inhalt-


lichen Erkenntnissen bzw. Theorien ist bisher höchst problematisch geblieben.
Man spricht üblicherweise von der Anwendung des Formalismus auf inhaltliches
Erkenntnismaterial und entsprechend von der „Erfüllung“, „Interpretation“,
„Deutung“ und „Modellierung“ des Formalismus durch dieses Erkenntnismaterial.
Aber oft spricht man auch umgekehrt von der „Interpretation“ inhaltlicher Sätze
durch den Formalismus.
Dabei wird gewöhnlich vorausgesetzt, daß der Formalismus als solcher „sinn-
und bedeutungslos“ bzw. „sinnleer“ sei, das materielle Wissen dagegen sinn- und
bedeutungshaltig, jedoch unstrukturiert und vage, so daß es (ohne Formalisierung)
nur in „Intuitionen“ und vagen Vorstellungen gehandhabt werden könne. Man
spricht bei diesem Prozedere der Anwendung des Formalismus auf inhaltliches
Wissen gerne von „logischer Rekonstruktion bzw. Formalisierung einer Intui-
tion“.
Die Unterscheidung von Formalismus und sachlichem Inhalt – die noch immer
von der aristotelischen Unterscheidung von Form und Materie zehrt – führt dann
allgemein zu der Unterscheidung von zwei Sphären mit jeweils eigenen Wahr-
heiten, Falschheiten und Wahrscheinlichkeiten. Es ist dann die Rede von „logisch-
formaler Wahrheit, Falschheit und Wahrscheinlichkeit“ und von „empirischer
Wahrheit, Falschheit und Wahrscheinlichkeit“, die im besten Falle zur Deckung
gebracht werden können, in vielen Fällen aber auseinanderklaffen. Im Extremfall
kommt es dann zu Thesen wie etwa der, daß etwas „logisch wahr“ aber „inhaltlich
falsch“ sein könne oder umgekehrt.
Nun zeigt aber schon eine kleine Überlegung, daß ein Formalismus, der ja aus
logischen bzw. mathematischen Zeichen besteht, niemals sinnleer bzw. inhaltlos
sein kann. Dies ebenso wenig wie ein Zeichen überhaupt ein Zeichen sein kann,
wenn es keine verweisende bzw. semantische Bedeutung hat. Die Frage kann also
nur sein, was die tatsächliche Bedeutung formaler Zeichen und damit des
Formalismus selber ist.
Daß die logisch relevante Bedeutung der in der Logik und Mathematik verwen-
deten großen und kleinen griechischen und lateinischen Buchstaben zunächst
einmal in ihrem Lautwert liegt, den man stets mitverstehen muß, um die
Buchstaben als Zeichen zu lesen, zu erkennen und zu unterscheiden, dürfte auf der
Hand liegen. Ihre genuin logischen Bedeutungen, die zu den sprachlich-lautlichen
Bedeutungen hinzutreten, sind aber selbst auf Begriffe zu bringen. Deren
Intensionen und Extensionen bilden auch in Urteilen, Schlüssen und Argumenten
deren eigenen formalen Sinngehalt. Dieser wird also nicht erst durch einzelne
inhaltliche Beispiele für Begriffe, Urteile, Schlüsse usw. geliefert. In der
Mathematik sind die mathematischen Gebilde wie geometrische Figuren, Zahlen,
Mengen, Strukturen, usw. selbst Sinngebilde. Und das steht zunächst einmal in
auffälligem Widerspruch zu der o. a. Meinung, der Formalismus als solcher sei
sinnleer und bedeutungslos.
51

Neben den Buchstaben benutzt man im logischen und mathematischen Forma-


lismus Verknüpfungszeichen, die sogenannten Junktoren (in der Mathematik
meist Funktoren bzw. Operatoren genannt). Diese hält man schon seit Aristoteles
für sinnleer oder bedeutungslos und geht davon aus, daß sie erst in Verbindung
mit (inhaltlichen) Begriffen (oder ganzen Sätzen) Bedeutung und Sinn erhielten.
Sie wurden daher von Aristoteles „Mit-Bedeutende“ („Synkategoremata“) ge-
nannt.
Gottlob Frege hat die These dahingehend erweitert, daß die Junktoren auch in
Verbindung mit Begriffen keine Bedeutung hätten (er nennt sie „ungesättigte
Funktionen“). Sie erhielten Bedeutung erst in behauptenden Sätzen bzw. Aus-
sagen, und zwar auch in reinen Formalismen. Diese These ist zweifellos inzwi-
schen zu einem Dogma der mathematischen Logik geworden.
Frege hat bei seiner Voraussetzung die Bedeutung der logischen Sätze bzw.
Aussagen grundsätzlich auf nur zwei Gegenstände beschränkt, die er „Wahr-
heitswerte“ nannte, nämlich Wahrheit und Falschheit. Man beachte dabei, daß die
Falschheit hier unter den allgemeineren Begriff „Wahrheitswert“ subsumiert
wurde. Das muß man zumindest als terminologische Fahrlässigkeit bewerten. Er
hätte ihn besser nur „Behauptungswert“ nennen sollen. Damit führte er zwar die
alte Tradition der zweiwertigen klassischen Logik fort, aber er gab ihr auch die als
modern und umstürzend eingeschätzte Wendung, die sogenannten zwei „Wahr-
heitswerte“ Wahrheit und Falschheit direkt zur „Bedeutung“ des Formalismus der
„Aussagenlogik“ zu machen.
Indem Frege für seine mathematische Logik nur die zwei „Wahrheitswerte“ in
Betracht nahm, wirkte seine ihm nachmals zugewachsene Autorität dahin, daß die
Frage nach einem dritten Wahrheitswert, wie ihn das sonst ausgeschlossene Dritte
und der Satzwiderspruch bzw. die sogenannte Wahrscheinlichkeit zweifellos
repräsentieren, auf lange Zeit aus logischen Analysen ausgeschlossen blieb. Wenn
ein dritter und evtl. weitere Wahrheitswerte in den letzten Dezennien diskutiert
werden, so in den speziell entwickelten „drei- und mehrwertigen Logiken“, deren
Zusammenhang mit der traditionellen zweiwertigen Logik und mit der
aristotelischen Modallogik ziemlich unterbelichtet blieb.
Von den von ihm allein festgehaltenen zwei Wahrheitswerten („wahr“ und
„falsch“) als „Bedeutungen“ logischer Aussagen unterschied Frege den „Sinn“
von Aussagen. Der Sinn sollte sich nach Frege unmittelbar an der Verknüp-
fungsweise von Begriffs- und Junktorzeichen ablesen und verstehen lassen. Der
Sinn von formalisierten Aussagen sollte also darin liegen, daß sie etwa positive,
negative, konjunktive bzw. adjunktive, disjunktive, implikative oder (wie in
mathematischen Gleichungen und den darin vorkommenden Rechenausdrücken)
äquivalente Ausdrücke darstellen. Auch diese „Sinngebung“ des Formalismus
kann inzwischen als kanonisch in der mathematischen Logik gelten. Sie wider-
spricht jedoch dem, was Frege selber „Ungesättigtheit“ solcher Zeichenverbin-
dungen genannt hat.
52

Frege übernahm seine Unterscheidung von Sinn und Bedeutung des logischen
bzw. mathematischen Formalismus aus der Hermeneutik.27 Das hat den mathe-
matischen Gleichungs-Formalismus grundsätzlich „mehrdeutig“ gemacht. Die
Fregesche Unterscheidung von Sinn und Bedeutung reproduziert ersichtlich die
alte hermeneutische Unterscheidung von vordergründigem Literalsinn eines
Textes (bei Frege der „Sinn“ der Formeln der Aussagenlogik bzw. mathe-
matischer Formeln) und „geistigem“ oder „mystischem“ Hintersinn (bei Frege die
beiden Wahrheitswerte „Wahrheit“ und „Falschheit“ als „Bedeutungen“ des
Formalismus). Diese Unterscheidung von Literalsinn und „Hintersinn“ (= Be-
deutung) wurde schon seit Philon von Alexandrien (ca. 25 v. Chr. – ca. 50 n. Chr.)
und Augustinus (354 – 430 n. Chr.) für die Interpretation der heiligen Schriften,
dann auch in der juristischen Gesetzesinterpretation entwickelt. Sie ist seither in
der Hermeneutik aller Textwissenschaften verbreitet worden. In der mittelalter-
lichen Logik aber war die Lehre von den „Suppositionen“ (d. h. das als gemeint
„Unterstellte“) der Zeichen ein bedeutendes Lehrstück über die mehrfache Be-
deutung bzw. des Sinnes von Wörtern, wobei zwischen Bedeutung und Sinn nicht
unterschieden wurde.
Durch Freges (implizite) „logische Hermeneutik“ des Doppelsinnes wurde der
logische Formalismus grundsätzlich zu einer eigenen „formalen Sprache“ ge-
macht. Frege selbst bemühte sich in einem seiner Hauptwerke, für diese formale
oder „ideale“ Sprache eine neue „Begriffsschrift“ zu entwickeln. 28
Daran war soviel richtig, daß es bei den üblichen logischen Formalismen tat-
sächlich um eine Notationsweise von ausgewählten sprachlichen Elementen geht.
Das zeigt sich in der Verwendung von Buchstaben und im gemeinsprachlichen
Sinn der meisten Junktoren. Falsch jedoch war es, den Formalismus als solchen
für eine selbständige Sprache zu halten. Keiner spricht „Mathematik“, und die
Formalismen werden auch nicht übersetzt, sondern in allen Sprachen in derselben
Gestalt notiert. Gleichwohl hat sich seither die Auffassung, die Logik und insbe-
sondere die mathematische Logik seien insgesamt „formale Sprachen“ (oder
„Idealsprachen“) ziemlich allgemein durchgesetzt. Und auch das widerspricht
ersichtlich der sonst herrschenden Meinung, der Formalismus sei als solcher
sinnleer. Entsprechend dieser Sprachauffassung vom Formalismus wurden auch
immer mehr grammatische Kategorien in die mathematische Logik übernommen.
Man spricht seither von „logischer Semantik“, womit man die „Bedeutungslehre“
als Lehre von den Wahrheitswerten meint, von „logischer Syntax“, was die
Verknüpfungsweisen mit ihrer „Sinn“-Befrachtung meint, und von „logischer
Pragmatik“, den methodischen Benutzungsweisen der vorgeblichen Idealsprache.

27
W. Hogrebe, Frege als Hermeneut (Bonner Philosophische Vorträge und Studien 16), Bonn 2001, S. 19 sieht Freges
hermeneutische Erkenntnis wesentlich darin, daß er von „nichtpropositionalen Ahnungen“ des Gemeinten speziell bei
undefinierbaren axiomatischen Begriffen spricht, zu denen auch „Sinn“ und „Bedeutung“ gehören sollen. – Zur „dogmati-
schen Hermeneutik der Mathematik“ vgl. den entsprechenden Abschnitt in § 44.
28
G. Frege, Begriffschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879; jetzt in:
G. Frege, Begriffsschrift und andere Aufsätze, hgg. von I. Angelelli, Darmstadt 1964.
53

Nun ist es schon an sich bedenklich, bezüglich des logischen bzw. mathe-
matischen Formalismus von einer besonderen Sprache zu reden. Wie schon ge-
sagt, keiner spricht oder schreibt „Logik“ oder „Mathematik“. Wären Logik und
Mathematik Sprachen, so müßten sie sich in andere Sprachen übersetzen lassen.
Es wäre ausgeschlossen, logische oder mathematische Formalismen in allen Kul-
tursprachen als Notationssystem gleicherweise zu verwenden und in diesen Ge-
meinsprachen zu interpretieren. Man kann allenfalls „logisch“ reden oder „mathe-
matisch“ argumentieren. Aber dabei werden nur logische oder mathematische
Denkstrukturen in einer inhaltlichen Bildungssprache verwendet.
Es scheint den Logikern und auch den Mathematikern gänzlich entgangen zu
sein, daß die logischen Junktoren durchweg aus der Gemeinsprache übernommene
und somit selbst eine sprachliche Bedeutung mit sich führende logische Elemente
sind. Ihre logische Bezeichnung geschieht deshalb auch durch logisch-formale
Zeichen, die nur stenographische Kürzel für bestimmte Verbindungswörter der
Gemeinsprache sind, die man in der Regel auch sprachlich sogleich versteht. Was
„und“ („“), „oder“ („“), „wenn... dann“ („“) „ist“ („“), „ist gleich“ („“)
und „nicht“ („“ bzw. „ “) bedeuten, steht in jedem guten Wörterbuch jeder
Einzelsprache. Dasselbe gilt aber auch von den meisten mathematischen Junk-
toren, die man als Rechenzeichen kennt. Einige von ihnen haben dieselbe Be-
deutung wie bestimmte logische Junktoren. Insbesondere muß auch hier betont
werden, daß das mathematische Gleichheitszeichen mit der logischen Äquivalenz
identisch ist, keineswegs aber mit der Kopula (dem „ist“). Einige mathematische
Junktoren aber bilden spezifisch mathematische Begriffe und Ausdrücke, die kein
logisches oder sprachliches Pendant haben.
Es gehört also schon ein besonderer Sinn für Mystisches dazu, sich beim
formalen Gebrauch dieser Zeichen nicht an ihre gemeinsprachliche Bedeutung zu
erinnern oder sich gar eine andere als die gemeinsprachliche Bedeutung vorzu-
stellen. Der Umgang mit diesen Junktoren in der Logik und Mathematik besteht
gerade darin, ihre gemeinsprachliche Bedeutung in den Formalismus zu über-
tragen.
Irreführend ist daher die häufig anzutreffende Darstellung, die Bedeutung der
Junktoren nähere sich nur gelegentlich und gar zufällig der gemeinsprachlichen
Bedeutung mehr oder weniger an und sei dann geradezu deren logisch und mathe-
matisch exaktere Fassung. Sind aber diese für die Logik tragenden Elemente der
Junktoren schon selber Bestandteile der Gemeinsprache, so kann das Verhältnis
von Formalismus und Sprache keineswegs als dasjenige von zwei verschiedenen
Sprachen - einer formalen und einer inhaltlichen - angesehen werden.
Der Abendländer ist gewohnt, seine Sprache wesentlich als geregelte Lautarti-
kulation aufzufassen, wobei die Schrift als Wiedergabe der Lautungen dient, die
Bedeutungen aber unabhängig von der Lautung hinzugedacht werden müssen. Im
allgemeinen hat er keine Übung im Umgang mit ikonischen Schriften, die nicht
die Lautung, sondern unmittelbar die Bedeutungen von Wörtern in anschaulichen
Bildern oder Symbolen notiert, wie es etwa im Rebus oder auch im Chinesischen
54

der Fall ist (wobei freilich manche chinesischen Schriftzeichen zugleich auch
einen Aussprachelaut mitrepräsentieren, wie das ja auch bei den alphabetischen
logischen Zeichen der Fall ist).
Die üblichen logischen und mathematischen Formalismen sind nach dem
Vorbild abendländischer Lautschriften entwickelt worden. Das sieht man schon
äußerlich daran, daß sie wie Texte in Zeilen von links nach rechts, und die Zeilen
untereinander geschrieben werden. Daher gleichen formalisierte Argumentationen
noch immer sprachlichen Texten, gelegentlich auch Versen.
Der Vorteil dieser „Schrift“ liegt darin, daß sie in allen Sprachen und Lautungen
gelesen und verstanden werden kann. Und nur deshalb gibt es bei dieser formalen
Notation kein Übersetzungsproblem in andere Sprachen. Sicherlich ist sie des-
wegen von Leibniz als „characteristica universalis“ (universelles Zeichenreser-
voir) bezeichnet worden.
In der Mathematik haben seit der Antike geometrische Sachverhalte als Veran-
schaulichungsmittel arithmetischer Verhältnisse gedient, und sie dienen auch bis
heute nicht nur in der Didaktik diesem Zweck. In der Logik sind seit der Spät-
antike auch Strukturbilder (sog. Graphen oder Diagramme), vor allem Baum-
schemata (und diese umgedreht in der Neuzeit als Pyramidenschemata) für die
Darstellung von Begriffsverhältnissen, vor allem der Hierarchie von Gattung,
Arten und Unterarten verwendet worden. Durch Raimundus Lullus in der Scho-
lastik, G. W. Leibniz, J. C. Lange (1712), Leonard Euler (1768) im 18. Jahrhun-
dert und vor allem durch John Venn im 19. Jahrhundert sind dann Kreise als
Bilder von Begriffsumfängen eingeführt worden. 29 Dadurch ließen sich auch
Implikations- und Inklusionsverhältnisse sowie Teilidentitäten von Begriffen
durch Einschreiben von kleineren in größere Kreise oder durch Überschneidungen
von Kreisen bildlich darstellen. Und da diese Verhältnisse auch als Urteile und
Schlüsse gelesen werden können, wurden dadurch auch diese z. T. bildlich
repräsentiert.
Man hält solche graphischen Darstellungen gewöhnlich nur für Hilfsmittel,
unterschätzt sie damit aber sehr. Denn in der Tat handelt es sich dabei um ikoni-
sche Notationen, die wenigstens einige logische Sachverhalte unmittelbar sinn-
lich-anschaulich darstellen und andere sonst nötige Notationen entbehrlich
machen. Unser Vorschlag einer neuen „pyramidalen“ Notation für den logischen
Formalismus knüpft an diese Tradition an, indem er bisherige lautschriftliche und
ikonische Repräsentationen der logischen Verhältnisse vereinigt.

3. Die logischen und mathematischen Anteile der Bildungssprache sind natur-


gemäß nur demjenigen zugänglich und verfügbar, der die hier vorkommenden
logischen und mathematischen Begriffe kennt. Das gilt aber allgemein von allen

29
John Venn, On the Diagrammatic and Mechanical Representations of Propositions and Reasoning, in: The London,
Edinburgh and Dublin Philosophical Magazine 10, S. 1-18, London 1880. Vgl. dazu G. Wolters, Art. „Venn-Diagramme“
in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 4, Stuttgart-Weimar 1996, S. 496 – 498;
ders., Art. “Diagramme, logische“, ibid. Band 1, Mannheim-Wien-Zürich 1980, S. 462 – 463.
55

wissenschaftlichen Teilen der Bildungssprache. Ein guter Mathematiker hat er-


sichtlich dieselben Schwierigkeiten mit den Begriffen etwa der Literaturwissen-
schaftler wie umgekehrt der Literaturwissenschaftler mit den Begriffen der
Mathematiker.
Die Fachbegriffe der Logik, die im Formalismus dargestellt werden, sind selbst
Begriff (dazu Intension und Extension bzw. Merkmal und Umfang), Subjekts-
begriff, Prädikatsbegriff, Gattung, Art, Individuum, Junktor, Urteil bzw. Aussage,
Schluß, Prinzip, Axiom, Argument, Identität, Widerspruch, Drittes u. s. w. Die der
Mathematik, soweit sie in der mathematischen Logik gebraucht werden, sind etwa
Einheit, Allheit, Zahl, Größe, Menge, Element, Unendliches (Infinites, Infinitesi-
males), Gleichung, Ungleichung, Abbildung, Summe, Differenz, Produkt, Quo-
tient, Differentialquotient, Integral, Struktur, Axiom, Theorem, Beweis usw. Und
nicht zuletzt sind, wie vordem schon gesagt, auch Wahrheit, Falschheit und Wahr-
scheinlichkeit sowohl in der Logik wie in der Mathematik einschlägige Begriffe.
Diese Grundbegriffe werden im Formalismus durch jeweils spezifische Zeichen
notiert. Hinzu kommen dann die „stenographischen“ Kürzel für die Junktoren.
Schließlich spielen auch die Zitatzeichen eine bedeutende und in der neueren
Logik geradezu ausschlaggebende Rolle. Oft werden sie nach mathematischem
Brauch als einfache oder mehrfache Klammern notiert.
Man sollte sich allerdings von dem Vorurteil freimachen, die logischen und
mathematischen Begriffe seien schon als solche klar und deutlich und hätten in
allen Verwendungen eine unumstrittene einzige Bedeutung. Mehr oder weniger
sind sie genau so umstritten und werden ebenso problematisiert, wie das in der
Regel für jeden Begriff anderer Disziplinen und Wissenschaften gilt. Vor allem
hat man damit zu rechnen, daß sich hinter einem als eindeutig eingeschätzten und
verwendeten logischen oder mathematischen Begriff Mehrdeutigkeiten verbergen,
die oft nicht erkannt werden und dann in der Verwendung zu widersprüchlichen
Folgerungen führen. Nicht zuletzt steht fast hinter jedem wissenschaftlichen
Begriff eine „etymologische“ Geschichte seines Bedeutungswandels, die zum
Verständnis seiner jeweils aktuellen Bedeutung oftmals in Betracht zu nehmen ist.
Die Ausbildung des logischen Formalismus geht auf Aristoteles zurück, der
logische Begriffe (Subjekt- und Prädikatsbegriffe) durch griechische Buchstaben
(die aber auch als Zahlen gelesen werden können) bezeichnete, die Junktoren
dabei aber in der Gemeinsprache ausdrückte. Für den mathematischen Formalis-
mus hat man seit ältesten Zeiten geometrische Gebilde wie Punkte, Strecken,
Flächen und Körper als Zeichen für Zahlen und Zahlverhältnisse benutzt. Auch
die speziellen Ziffern als Zahlzeichen verdanken sich wohl diesem Verfahren,
anschauliche Gruppierungen von Gegenständen durch ihr stilisiertes Bild darzu-
stellen. Erst seit der Renaissance wurden für gewisse Zahlen bzw. Begriffe von
Zahlen auch die in der Logik schon lange üblichen Buchstaben verwendet, was
dann zu einer schnellen Blüte der sogenannten Buchstabenrechnung und der
sogenananten analytischen Geometrie führte.
56

Betrachten wir einige grundlegende Züge des traditionellen logischen For-


malismus und knüpfen zugleich einige kritische Bemerkungen daran, die uns
veranlaßt haben, selber den neuen „Pyramiden“-Formalismus für die Logik
vorzuschlagen.
Wir haben an den traditionellen logischen Zeichen des Formalismus in erster
Linie zu beanstanden, daß ihre Grundzeichen für Begriffe – etwa „A“ und „B“ -
keine echten Radikalzeichen sind, sondern ihrerseits schon für recht komplexe
logische Sachverhalte stehen. Diese Buchstaben verdecken nämlich den Aufbau
dieser komplexen Gebilde aus elementaren Bestandteilen. Bei den Begriffen ist es
der Aufbau aus den Intensionen und Extensionen (Merkmale und Umfänge), aus
denen sich jeder Begriff zusammensetzt. Diese Dissimulationswirkung des logi-
schen Formalismus hat zur Folge, daß vieles, was im logischen Prozedere
betrieben wird, nur auf eine Kompensation von Unklarheiten hinausläuft, die die
damit operierenden Formalismen selbst erzeugen.
Was wir damit meinen läßt sich an den chinesischen Schriftzeichen für die
Begriffe zeigen, die aus Radikalen und Kombinationen aus Radikalen, und zwar
bis zu sechs Radikalen in einem einzelnen Schriftzeichen, bestehen. So gibt es im
Chinesischen z. B. ein Radikalzeichen für „Frau“ (nü) und für „Kind“ (zi), die
auch als stilisierte Bilder einer Frau und eines Säuglings entstanden sind. Jeder
chinesische Schüler lernt in der Grundschule, daß diese Zeichen stilisierte Bilder
sind. Werden diese zu einem einzigen (komplexen) Zeichen nebeneinander
gestellt, so erhält man das Schriftzeichen für „gut“ (hao), und jeder gebildete
Chinese versteht dadurch ganz anschaulich, was nach altchinesischer Tradition
überhaupt „gut“ sein kann.
Diese Bildungsweise der chinesischen Schriftzeichen für Wörter und Begriffe
entspricht aber genau dem, was wir in unserem „pyramidalen“ Formalismus für
die Notation der Intensionen bzw. Merkmale als der eigentlichen logischen Ra-
dikale, aus denen Begriffe zusammengesetzt sind, vorgeschlagen haben. Werden
sie sichtbar gemacht, so erübrigt sich jede „Definition“ der Begriffe. Man sieht an
den Buchstabenkombinationen in einem Begriff auf einen Blick, was an ihm
„generische Merkmale“ allgemeinerer Begriffe sind, unter die er fällt, und was
seine spezifische Differenz gegenüber gleichrangigen Nebenbegriffen (bzw. sei-
nen Negationen) und zugleich zu seinen Oberbegriffen ist. Vor allem aber sieht
man auch, welches (oder welche) Merkmale die axiomatischen Spitzenbegriffe
enthalten, durch die sie definierbar sind. Und das zeigt, daß die traditionelle These
von der Undefinierbarkeit der Axiome falsch ist.
Durch die Intensionen ist zugleich auch die Einordnung jedes Begriffs in eine
klassifikatorische „Begriffspyramide“ festgelegt, die die zugehörigen Quantifika-
tionen, insbesondere diejenigen der in seinem jeweiligen Umfang liegenden
Unterbegriffe, graphisch zum Ausdruck bringt. (Vgl. dazu § 9).
Entsprechendes ist kritisch zur „aussagenlogischen“ Notation von Urteilen bzw.
Sätzen (auch nach englischem Vorbild „Propositionen“ genannt) zu sagen. An den
hier verwendeten Zeichen für ganze Sätze „p“ und „q“ läßt sich nicht erkennen,
57

wie die Sätze aus Subjekts- und Prädikatsbegriffen zusammengesetzt sind (was in
der klassisch-logischen Notation etwa als „S ist P“ wenigstens noch zum Teil
gewährleistet war). Schon gar nicht wird dadurch die Verknüpfungsweise durch
spezielle Junktoren, einschließlich auch der Quantoren, sichtbar gemacht. Wird
das Satzsymbol („p“) durch ein vorgesetztes Negationszeichen spezifiziert („-p“,
d. h. „nicht p“), so wird dies gewöhnlich als Notation eines falschen Satzes
erklärt. Tatsächlich können negierte Sätze aber auch wahr sein, ebenso wie umge-
kehrt positive Sätze falsch sein können.
Vor allem läßt sich zeigen, daß im Urteil keineswegs immer „ganze“ Begriffe
als Prädikate mit dem Subjektsbegriff verbunden werden, sondern oft auch nur
reine Intensionen. Damit erübrigen sich auch viele Fragen nach der vermeint-
lichen begrifflichen und insbesondere ontologischen Natur der Prädikate, um die
sich seit dem Mittelalter der Universalienstreit vergeblich bemüht. Man sucht
seither nach dem ontologischen Ort z. B. des Begriffes „Röte“, während man bei
seiner prädikativen Verwendung im Urteil doch nur dem Begriff von Fläche oder
Ausdehnung eine pure Intension als Merkmal „rot“ zuspricht.
Ebenso wird im Formalismus der Schlüsse ohne weiteres sichtbar, warum sie
„gelten“ - und auch, daß einige klassische Syllogismen des Aristoteles keineswegs
„gültig“ sein können. Insbesondere kann gezeigt werden, daß die bei den aristote-
lischen Syllogismen vorkommenden partikulär und individuell quantifizierten
Sätze keineswegs Urteile mit einem für Urteile erforderlichen Behauptungssinn
sein können. Sie sind vielmehr Definitionen und müßten als Gleichungen bzw.
Äquivalenzen notiert werden.

4. Ist der Formalismus eine Spezialschrift eines Teils der spezialisierten Bildungs-
sprache, so ergibt sich von selbst, daß man mittels des Formalismus über den
Formalismus selbst reden und verhandeln kann, ebenso wie man in der Sprache
auch über die Sprache selbst reden und verhandeln kann. Und nicht weniger muß
dann gelten, daß man in der Bildungssprache über den Formalismus und mittels
des Formalismus über die Bildungssprache reden kann.
Dieses „Reden über ...“ wird in der Logik und Mathematik unter dem Titel
„Meta-Verhältnis“ thematisiert. Dabei wird vorausgesetzt, daß dasjenige, was im
Meta-Verhältnis zueinander stehen soll, gänzlich verschiedene Sprachen, nicht
aber Teile einer und derselben Bildungssprache seien.
Die kanonische Meinung ist die, mit der formalen (logischen oder mathema-
tischen) Metasprache ließe sich über die (inhaltliche) Gemeinsprache („Objekt-
sprache“) reden, über die formale Metasprache ihrerseits in einer dann „Meta-
meta-Sprache“ genannten weiteren formalen Sprache, usw. Als bislang ungelöstes
Problem gilt es dann, daß eine letzte Meta-meta...-Sprache wiederum die Gemein-
58

sprache sein müßte, so daß die Meta-Verhältnisse schließlich in einem Be-


gründungszirkel enden.30
Diese Auffassung von den Meta-Stufungen selbständiger Sprachen ist ersicht-
lich von dem Verfahren der Mathematik inspiriert, gewisse Zeichen oder Aus-
drücke in Klammern zu setzten, den Klammerausdruck ggf. wiederum mit
anderen Klammerausdrücken in doppelte Klammern einzuschließen, usw. Beim
Umgang mit diesen „Klammerausdrücken“ gilt dann die Regel, daß man vom
Sinn der eingeklammerten Ausdrücke gänzlich absehen könne, wenn man sich mit
den „höheren“ (Meta-) Sinn- und Bedeutungsstufen befaßt. Das hat eine gewisse
Ähnlichkeit mit dem Zitatwesen. Vom Zitieren und den dabei verwendeten An-
führungszeichen stammt auch die übliche logisch-formale Notation.
Das logische Zitieren und das mathematische Einklammern ist das Hauptmittel
dafür geworden, von inhaltlichen Sprachelementen oder Beispielen zum Forma-
lismus überzugehen. Das geschieht aber im allgemeinen unter der o. a. Voraus-
setzung der zwei gänzlich unterschiedenen Sprachen: der inhaltlichen Gemein-
oder Wissenschaftssprache und der rein formalen Ideal- oder Metasprache, die
dann noch mehrere Meta-Sprachstufen enthalten können soll.
Wer also den gemeinsprachlichen Satz: Der Schnee ist weiß, dessen Sinn in
einer Behauptung über die Farbe des Schnees besteht (und der überdies als
„analytisch wahr“ verstanden wird, weil es eben ein Merkmal des Schnees ist,
weiß zu sein), logisch als Zitat „Der Schnee ist weiß“ notiert, der sollte nach
dieser Sprachstufenunterscheidung in der logischen Metasprache damit nur
meinen, daß das Zitat ein logischer (im Beispiel überdies ein analytisch wahrer)
Behauptungssatz sei, und er sollte dabei gänzlich vom Sinn des Ausgangssatzes
absehen können.
Nach demselben Schema geht man vom Zitat zum Zitat des Zitats und damit
von der Meta- zur Meta-metasprache über. Die gemeinsprachliche Behauptung
Der Schnee ist weiß wird zum metasprachlichen (wahren) Satz „Der Schnee ist
weiß“, und dieser wird (nach Alfred Tarski) als ‚ „Der Schnee ist weiß“ ‟ zu
einem Begriff (bzw. zum Namen) eines wahren Satzes in der Meta-metasprache.31
Der logische und mathematische Anfänger hat bekanntlich die größten Schwie-
rigkeiten, diesen Vorgang des „Abstrahierens“ (Wegsehens) vom Zitat- oder
Klammersinn einzusehen und zu lernen. Meistens bemißt man logische und
mathematische Begabung gerade an dieser zu erwerbenden Fähigkeit des vor-
geblich abstrakten Denkens. Aber wie uns scheint, ganz zu Unrecht. Denn der sich
dabei sträubende gemeine Verstand des Lernenden hat die Erfahrung auf seiner
Seite, daß er ohne Verstehen und Festhalten des Behauptungssinnes des Aus-

30
Vgl. S. C. Kleene, Introduction to Metamathematics, Amsterdam-Groningen 1952; L. Borkowski, Formale Logik.
Logische Systeme – Einführung in die Metalogik (aus dem Polnischen 1968), Berlin 1976, 2. Aufl. München 1977; H.
Rasiowa and R. Sikorski: The Mathematics of Metamathematics, 3. Aufl. Warschau 1970.
31
Vgl. A. Tarski, Der Wahrheitsbegriff in den formalisierten Sprachen, in: Studia Philosophica 1, 1935, S. 261 - 405. ND
in: Logik-Texte, hgg. v. K. Berka und L. Kreiser, Berlin 1971, S. 445 - 559, 4. Aufl.. 1986, S. 443 - 546; A. Tarski, Die
semantische Konzeption der Wahrheit und die Grundlagen der Semantik, 1944, in: Wahrheitstheorien, hgg. von G.
Skirbekk, Frankfurt a. M. 1977, S. 140 – 188.
59

gangssatzes keineswegs nachvollziehen kann, daß und warum das Zitat überhaupt
ein Satz sein soll. Und noch weniger kann er nachvollziehen, daß und warum das
Zitat des Zitats einen logischen Begriff bzw. den „logischen Namen“ eines
wahren Satzes (wie Tarski behauptet) darstellen soll. Er muß dies als pure „aus-
sagenlogische“ Konvention zur Kenntnis nehmen.
Wir halten diese logische und mathematische Konvention einer vorgeblichen
Sinn-Eliminierung durch Zitatzeichen und Klammern (neuerdings spricht man
hier von „Deflation“) für irreführend und überflüssig. Mit dem hermeneutischen
Commonsense sind wir der Meinung, daß Zitatzeichen und Klammern keineswegs
die Sinnhaltigkeit logischer Zeichen eliminieren oder neutralisieren, sondern ihren
eigenen Zeichensinn zum Sinn des Zitierten hinzufügen. Und genau dies macht
erst ihren Gebrauch in der Logik verständlich und gemäß vollziehbaren Regeln
beherrschbar. Eine kleine Überlegung zum Zitieren in der hermeneutischen Praxis
der Geisteswissenschaften kann dies zeigen.
Der eigene Sinn der Zitatzeichen in der Schriftsprache ist grundsätzlich der, das
Zitierte hervorzuheben und die Aufmerksamkeit darauf zu lenken (wir machen
davon im vorliegenden Text reichlich Gebrauch!). Das Zitierte erhält dadurch den
Doppelsinn einer inhaltlichen (semantischen) Bedeutung und einer formalen
(syntaktischen) Bedeutung. Es war ersichtlich diese Doppeldeutigkeit, die G.
Frege zu seiner Unterscheidung von Sinn und Bedeutung veranlaßte. Ein drittes
und weitere Zitatzeichen werden zwar beim mathematischen Einklammern ver-
wendet, das kommt aber in der sprachlichen Verwendung nur in Ausnahmefällen
vor. Man kann damit allenfalls signalisieren, daß etwa ein Autor ein Wort, einen
Ausdruck oder einen Satz verwendet hat, den dann ein anderer zitierter Autor von
dem ersten Autor übernahm. Konsequenterweise muß aber auch das zweite Zitat-
zeichen dem Doppelsinn noch einen weiteren Sinn hinzufügen. Und dies führt zu
einer Sinnverdoppelung im Formalismus selber, die nur entweder tautologisch
(„der Satz des Satzes“) oder widersprüchlich („der Satz ist zugleich kein Satz“)
werden kann. Diese Meta-Weiterungen der Logik sind ein Beispiel dafür, wie die
Logik sich auch durch die Metastufentheorie der Sprachen Probleme selber
schafft, die sie dann nicht lösen kann.

5. Um hier weiter zu kommen, ist zu zeigen, daß und wie der logische Forma-
lismus als Spezialschrift für einen Teil der Bildungssprache selber eine Semantik,
d. h. eine inhaltliche genuin logische Bedeutungssphäre besitzt. Wir sagten schon,
daß die Junktoren selbst gemeinsprachliche Bedeutungen festhalten. Ein „und“
oder „oder“ verknüpft – wie in jeder Gemeinsprache – zwei Gegebenheiten. Das
können Intensionen, Extensionen, Begriffe oder Urteile bzw. Aussagen sein.
So bei allen Junktoren mit Ausnahme der in der modernen Logik erfundenen
„Selbstimplikation“. Sie soll etwas Gegebenes mit sich selbst verknüpfen. Aber
derartiges kann in der Tat gar keine Verknüpfung sein. Denn ersichtlich wird
dadurch in widersprüchlicher Weise aus einer Einheit eine Zweiheit gemacht, die
gleichwohl eine Einheit bleiben soll. Vielleicht war Kant für diese Auffassung
60

mitverantwortlich dadurch, daß er in seiner Kategorienlehre die Substanz als


Unterkategorie unter die Relationskategorie stellte. 32 Er definierte dadurch jede
„Substanz“ als eine „selbstbezügliche Relation“. Und das widersprach jedem bis
dahin überkommenenen Substanzverständnis als „selbständige ontologische Ein-
heit“.
Mit der „Selbstimplikation“ werden durchweg logische Widersprüche produ-
ziert, insofern das mit sich selbst Verknüpfte zugleich dasselbe und zweierlei
Unterschiedenes sein soll. Das hat sich in Bertrand Russells paradigmatischem
„Mengenparadoxon“ deutlich erwiesen. Denn die dazu erfundene mathematische
„Menge, die sich selbst enthält“, ist gewiß eine und zugleich zwei Mengen.
Das gilt auch für die Art und Weise, wie man in der Logik die sogenannte
Tautologie notiert, nämlich wie sie J. G. Fichte in seiner „Wissenschaftslehre“ als
„X = X“ (bzw. als Beispiel: „Ich bin Ich“) als ersten logischen Grundsatz der
Position bzw. Einführung eines Begriffs benutzte. 33
Die logische Tautologie gilt zwar (besonders seit L. Wittgensteins „Tractatus
logico-philosophicus“) als exemplarische analytische Wahrheit, insofern sie das
Identitätsprinzip formal darstelle. Aber das ist in zweierlei Hinsicht falsch. Denn
einerseits werden Tautologien nicht als behauptende Urteile mit Wahrheitswerten
formalisiert, sondern als Äquivalenzen bzw. Gleichungen, die eine Identität defi-
nieren sollen. Andererseits stellt eine Tautologie das Identische in der Gleichung
„x = x“ durch gleiche Zeichen dar. Und das widerspricht dem formalen Sinn der
Gleichung bzw. der logischen Äquivalenz, die eine identische Bedeutung durch
verschiedene Zeichen darstellen muß. Schon die stoischen Logiker haben derar-
tige „selbstbezüglichen“ Ausdrücke als „Wiederholungen“ eines und desselben
Elementes aus der Logik ausgeschlossen. Sie haben richtig erkannt, daß durch
solche tautologischen Wiederholungen weder etwas definiert noch behauptet
werden kann. Daß jedoch die logische Tautologie inzwischen als populäre Floskel
in Verkehr geraten ist, sieht man an dem dümmlichen Spruch „eine Rose ist eine
Rose ist eine Rose…“, in welchem auch die (mathematische) Gleichheit mit der
logischen Kopula verwechselt wird.
Bei den dann übrigbleibenden Junktoren ist es außerordentlich wichtig, zwi-
schen zwei gänzlich verschiedenen Arten von Junktoren zu unterscheiden, näm-
lich den ausdrucksbildenden und den urteilsbildenden Junktoren.
Die ausdrucksbildenden Junktoren verbinden nur Begriffe untereinander zu be-
grifflichen (komplexen) Ausdrücken. Ausdrucksbildend sind „und“, “oder“, die
negative Bezeichnung eines Begriffs (z. B. „Nicht-Raucher“) sowie die Quantifi-
katoren „alle“, „einige“, „ein“ und „kein“. Mit ihnen allein läßt sich kein Behaup-
tungssinn ausdrücken. Das zeigen Ausdrücke wie „Max und Moritz“, „Sein oder
Nichtsein“, „Nicht-Raucher“, „ein Ding“, „einige Tiere“, „alle Vögel“, „kein
Mensch“. Derartige Ausdrücke besitzen keinen Wahrheitswert. Setzt man solche

32
I. Kant, Kritik der reinen Vernunft, A 80/B 106, in: I. Kant, Werke, hgg.von W. Weischedel, Band 2, Darrmstadt 1956,
S. 118.
33
J. G. Fichte, Grundlage der gesamten Wissenschaftslehre, 1794, hgg. von W. G. Jacobs, Hamburg 1970, S. 12 – 15.
61

Ausdrücke z. B. als Subjekte oder Prädikate in behauptende Urteile ein, kompli-


ziert dies die Urteilsformen beträchtlich. Und das hat in neueren Zeiten zur Ent-
wicklung von Prädikatenlogiken höherer Stufen geführt.
Besonders sei hier betont, daß auch der mathematische Äquivalenzjunktor „ist
gleich“ (bzw. „=“) zu den ausdrucksbildenden Junktoren gehört. Er dient zur
Definition von Begriffen und begrifflichen Ausdrücken durch jeweils andere
Begriffe. Dies ist jedermann (in sprachlichen Beispielen) bei Synonymen in einer
Sprache oder im Verhältnis verschiedener Sprachen geläufig, wo zwei verschie-
dene Wörter eine und dieselbe Bedeutung besitzen. Bei Definitionen erläutert man
– wie in Sprachwörterbüchern üblich - eine und dieselbe Bedeutung eines Begriffs
(oder Wortes) oder Ausdrucks durch einen anderen, wie z. B. „Armut = Pauvreté“
oder „Wasser = H2O“.
In der modernen Logik wird diese Äquivalenz auch als „gegenseitige Impli-
kation“ bezeichnet und mit „Wenn A dann B, und wenn B dann A“ oder kürzer
mit „A dann und nur dann wenn B“ formalisiert. Dies ist jedoch eine irreführende
Notationsweise, da die Implikationen Wahrheitswerte besitzen und die „doppelte
bzw. gegenseitige Implikationen“ suggeriert, dies sei auch bei Äquivalenzen der
Fall.
In der Mathematik spielen die Gleichungen eine erheblich größere Rolle als in
der Logik. Fast alles, was in der Mathematik artikuliert wird, bedient sich dazu
der Gleichungen.
Daß die Gleichung in der Mathematik diese Bedeutung erlangt hat, dürfte auf
Euklids Behandlung des Themas „Gleichheit“ in seinem Lehrbuch „Elemente“ zu-
rückzuführen sein. Dieses Werk ist bekanntlich bis ins 19. Jahrhundert das para-
digmatische Lehrbuch der Mathematik im Abendland gewesen. Mathematiker
haben es stets als Muster für den Aufbau einer wissenschaftlichen Disziplin ge-
schätzt. Auch von den „trivialen“ Logikern ist seine Methodik der Voranstellung
von begründenden Axiomen und Ableitung von Folgesätzen aus diesen als „Mos
geometricus“ geschätzt worden. Manche Lehrbücher einzelner Disziplinen im 17.
und 18. Jahrhundert betonen im Untertitel, daß sie „more geometrico demonstra-
ta“ (nach geometrischer Weise des Euklid) aufgebaut und in allen Teilen bewiesen
seien.34
In § 19 wird über Euklid ausführlicher berichtet, so daß hier nur auf dasjenige
hingewiesen zu werden braucht, was aus seinem Werk bei den Gleichungen rele-
vant geworden ist.

34
Prototypisch dafür war die Darstellung seiner eigenen Philosophie durch Descartes unter dem Titel „Renati Des Cartes
Principiorum philosophiae pars I et II, more geometrico demonstratae, Amsterdam 1644 u. ö. B. Spinoza hat die Philo-
sophie des Descartes unter demselben Titel bearbeitet und in Amsterdam 1663 veröffentlicht. Auch sein postum veröf-
fentlichtes Hauptwerk „Ethica, ordine geometrico demonstrata“ (in seinen Opera posthuma), Amsterdam 1677 trug we-
sentlich zur Verbreitung bei. In Deutschland hat sich vor allem Chr. Wolff für den mos geometricus stark gemacht und ihn
als „methodus scientifica“ in seinen zahlreichen lateinischen Disziplinendarstellungen verbreitet. Vgl. dazu besonders
seinen „Discursus praeliminaris de Philosophia in genere / Einleitende Abhandlungen über Philosophie im Allgemeinen,
(1728), historisch-kritische Ausgabe, übers., eingel. und hgg. von G. Gawlik und L. Kreimendahl, Stuttgart-Bad Cannstatt
1996. Im Gegensatz zum modernen Axiomenverständnis legte Wolff größten Wert darauf, daß die axiomatischen Begriffe
klar und deutlich definiert sein müssen, um aus ihnen Folgesätze ableiten zu können.
62

Euklid thematisiert die Gleichheit nach der Behandlung der Definitionen und
Postulate.35 Es handelt sich bei seinen Ausführungen darüber offensichtlich um
Einsichten, die an den Eigenschaften der Waage gewonnen wurden, die hier als
Modell für den Umgang mit Gleichem und Ungleichem dient. Andernfalls wären
diese angeblichen „Axiome“ unverständlich. Hauptsache dabei ist die Vorstellung
vom Gleichgewicht, die man an jeder Waage mit zwei gleichen Hebelarmen (in
gerader Linie und parallel zum Horizont, bei Euklid „Ebene“ genannt) beobachten
kann.
Machen wir aber auch auf die Dialektik aufmerksam, die in die platonisch-
euklidische Mathematikbegründung eingebaut ist, und die sich auch am Waage-
modell erweist. Die hier herausgestellte Gleichheit der beiden Seiten beruht er-
sichtlich zugleich auf der Ungleichheit ihrer Ausrichtung, also auf ihrem Gegen-
satz, d. h. auf der Ungleichheit ihrer (vektoriellen) Ausrichtung. Diese Dialektik
macht sich später noch in Newtons Definition der Kräfte bemerkbar, wonach be-
kanntlich jede Kraft einer entgegengesetzten Kraft „gleich“ sein soll, obwohl sie
ihr in dieser Entgegensetzung gerade „ungleich“ ist.
Die Erfahrung lehrt, daß der Gleichgewichtszustand einer Waage sich auch
dadurch aufrecht erhalten läßt, daß man verschiedene Gewichte in jeweils ver-
schiedenen Abständen vom Aufhängepunkt der Waage anbringt. Jedes Wiegen
und Wägen besteht ja darin, daß man ausprobiert, welche Gewichte in welchen
Abständen vom Aufhängepunkt die Waage im Gleichgewicht halten. Dies ge-
schieht in kontinuierlichen Veränderungen der jeweiligen Gewichte und der Ab-
stände vom Aufhängepunkt der Waagebalken. Damit aber ergibt sich auch die
Modellvorstellung für das jenige, was man seither bei den Umwandlungen von
Gleichungen in einfachere oder komplexere Gestalten (sog. Kürzen oder Herüber-
nehmen von Ausdrücken der einen auf die andere Seite unter Auswechseln der
Rechenjunktoren) praktiziert.
Ein entscheidender Schritt in der Entwicklung der Mathematik war dann die
Ablösung der Arithmetik von jeder geometrischen Veranschaulichung in der soge-
nannten Algebra, und zwar unter Beibehaltung der Gleichung als Hauptmittel der
methodischen Artikulation. Was man als geometrische Gleichung jederzeit mit
Pythagoras demonstrieren kann, nämlich die Gleichung a² + b² = c² (Flächen-
Summe der Kathedenquadrate = Flächen-Summe des Hypothenusenquadrats am
rechtwinklichen Dreieck) läßt sich rein arithmetisch keineswegs für beliebige
Zahlen beweisen. Für a = 3, b = 4, c = 5 ist es auch eine arithmetische Gleichung.
Für a = 2, b = 3, c = 4 ist es keine Gleichung, obwohl es so erscheint. Damit er-
öffnet sich ein ungeheures Problemfeld für diese neue Disziplin, nämlich der
Nachweis, ob solche Formeln überhaupt Gleichungen sind oder nicht, und welche
Zahlenwerte sie „erfüllen“, damit sie Gleichungen bleiben. Irgendwelche Formeln
als Gleichungen zu notieren, ohne zu wissen, ob es tatsächlich Gleichungen sind,
erfüllt auch in der Mathematik den Tatbestand der Irreführung und Täuschung.
35
Euklid‟s Elemente. Fünfzehn Bücher aus dem Griechischen übersetzt von J. F. Lorenz, neu hgg. von C. Brandan Moll-
weide, 5. verb. Ausgabe Halle 1824, S. 4.
63

Die von den ausdrucksbildenden Junktoren strikt zu unterscheidenden Verbin-


dungspartikel sind die urteilsbildenden Junktoren, die stets einen Behauptungs-
sinn des Urteils produzieren. Urteile besitzen im Unterschied zu Ausdrücken
einen Wahrheitswert, d. h. sie können wahr, falsch oder beides zugleich sein.
Behauptende Urteile werden also nur mittels der urteilsbildenden Junktoren for-
muliert. Die meist gebrauchten sind die Kopula „ist“ und ihre Negation „ist
nicht“, der Existenzjunktor „es gibt“ sowie vier genau unterscheidbare Impli-
kationsjunktoren „wenn ... dann“. Dies sind die allgemeine, materiale, formale
und korrelative Implikation. Sie sind in den üblichen Formalismen bezüglich ihrer
Verküpfungsweise kaum unterscheidbar und werden daher oft miteinander ver-
wechselt. In der pyramidalen Darstellung zeigen sich jedoch ihre Unterschiede
sehr deutlich
Die klassische und die mathematische Logik unterscheiden sich erheblich in
ihrem Verständnis der Bedeutung und Funktion der Junktoren. Viele „klassische“
Logiker halten die Definitionen (als Äquivalenzen) für behauptende Urteile (mit
Wahrheitsanspruch) und sprechen deswegen gerne von „wahren Begriffen“. Wenn
Begriffe als solche jedoch wahr sein könnten, müßte jedes Sprachwörterbuch mit
seinen fremdsprachlichen Äquivalenzen der Lemmata als Wahrheitstresor gelten.
Was wohl niemand behaupten wird.
Auch in der mathematischen Logik und speziell in der Arithmetik gilt die logi-
sche Äquivalenz (die mathematische Gleichung) allgemein als Standardjunktor
für mathematische Behauptungen mit Wahrheitsanspruch. Dabei identifiziert man
oft die Kopula „ist“ mit dem Äquivalenzjunktor „ist gleich“. Wir haben schon
vorn Beispiele für diese „mathematischen Wahrheiten“ und dann sprichwörtlich
gewordenen Alltagswahrheiten genannt wie „2 ∙ 2 = 4“ oder Kants Paradeexempel
für ein „wahres synthetisches Urteil apriori“: „5 + 7 = 12“.
Charles Sanders Peirce hat das mit der Einführung eines besonderen Zeichens
„€ ” sanktioniert, das er aus „C“ (= Kopula für logische „Unterordnung“) und
Äquivalenzjunktor „ = “ (für Gleichungszeichen) kombiniert hat. Er sagt darüber:

“Die Kopula ‚ist‟ wird bald die eine, bald die andere der beiden Beziehungen aus-
drücken, die wir mittels der Zeichen C und = dargestellt haben. ... Ausführlichst
wird dieses Zeichen als ‚untergeordnet oder gleich‟ zu lesen sein“.36

Peirce hat zwar richtig gesehen, daß die logische Kopula eine Unterordnung eines
Subjektbegriffs unter seine Gattung anzeigt, und daß das Gleichheitszeichen die
Bedeutungsidentität zweier Ausdrücke besagt. Aber diesen wesentlichen Unter-
schied in einem neuen Junktor unsichtbar werden zu lassen, hat in der mathe-
matischen Logik große Folgeschäden gehabt.
Der Mathematiker Hermann Weyl dokumentiert, daß die Kantische Auffassung
von der mathematischen Gleichung als behauptendes Urteil sakrosankt war – und
läßt dabei seine Fehleinschätzung der Logik erkennen:

36
Ch. S. Peirce, Vorlesungen I, zitiert nach J. M. Bochenski, Formale Logik , 3. Aufl. Freiburg i. Br. S. 357.
64

„(Beispiel für) ein wirkliches Urteil (ist) 17 + 1 = 1 + 17“.... „Ein Existentialsatz – etwa
‟es gibt eine gerade Zahl‟ - ist überhaupt kein Urteil im eigentlichen Sinne, das einen
Sachverhalt behauptet. Existential-Sachverhalte sind eine leere Erfindung der Logi-
ker“.37

Daß die mathematischen Gleichungsformeln Definitionen ohne Wahrheitswert


sind, bemerkt man schon daran, daß die Zahlbegriffe (d. h. ihre Bedeutungen als
„Größen“) stets durch viele Ausdrücke darstellbar sind und sich somit unterein-
ander ersetzen bzw. „substituieren“ lassen. Man lernt und memoriert diese Defi-
nitionen als „kleines und ggf. großes Einmaleins“. Man weiß dann, daß etwa die
Bedeutung der Zahl 4 dieselbe (identisch) ist mit den Summen 1 + 3, 2 + 2, oder
mit den Differenzen 5 – 1, 7 – 3, oder mit dem Produkt 2 ∙ 2 (und zugleich auch
-2 ∙ -2) , oder mit dem Quotient 8 : 2, oder mit der 2. Potenz von 2, oder mit der
Wurzel aus 16.
Die erstmalige Definition (man spricht jetzt nach S. Kripke vom „Taufereignis“)
neuer Zahlbegriffe (über die in den Beispielen angebenen Ausdrücke für „natür-
liche positive sowie negative Zahlen“ hinaus) ergab sich historisch aus dem
Problem, die Rechenarten über den anschaulichen Bereich abzählbarer Gegen-
stände hinaus auszuweiten.
Subtrahiert man 4 von der 4, so bleibt Nichts übrig. So wurde die Null (lat.:
nullus = keiner) definiert als „4 – 4 = 0“. Subtrahiert man 5 von der 4, so definiert
man eine negative Zahl: „4 – 5 = – 1“. Multipliziert man eine Zahl mit sich
selbst, so definiert man eine Potenzzahl: 4 ∙ 4 = 16“. Teilt man 1 durch 3, so defi-
niert man eine Irrationalzahl: „1 : 3 = 0,333...“ Zieht man die 2. Wurzel aus einer
negativen Zahl, so definiert man eine imaginäre Zahl: „√-4 = 2i“, usw.
Das Definieren neuer Zahlarten und Unterarten von Zahlen läßt sich beliebig
ausweiten und ist längst über jeden Verständnishorizont von Nicht-Mathematikern
ausgeweitet worden. Die Definition einer neuen Zahlart gilt jedoch in der Mathe-
matik und mathematischen Logik als Entdeckungsleistung und Einsicht in neue
Wahrheiten. Aus der Sicht der klassischen Logik aber handelt es sich dabei um
die Ausweitung eines fachspezifischen arithmetischen Synonymenlexikons.
Algebraische Funktionsgleichungen (mit „Unbekannten“, z. B. x, y), die sich
einer geometrischen Veranschaulichung gänzlich entziehen, werden zwar wie die
analytischen (auf die Geometrie bezogenen) als Gleichungen notiert, eben weil
man die Gleichungen für Behauptungssätze hält. Sie sind aber korrelative Impli-
kationsurteile, die in der Form: „wenn es ein so beschaffenes y gibt, dann gibt es
(auch) ein so oder anders beschaffenes x“ (oder: „y → (f)x“) zu formalisieren
wären. Sie können deswegen im Gegensatz zu normalen bzw. echten Äquivalenz-
Gleichungen des Typs „y = (f)x“ wahr oder falsch sein. In ihnen werden rein

37
H. Weyl, Über die neue Grundlagenkrise der Mathematik (1921), in: O. Becker, Grundlagen der Mathematik in ge-
schichtlicher Entwicklung, 2. Aufl. Freiburg-München 1964, S. 350.
65

arithmetische Größenwerte (ohne Bezug auf geometrische Sachverhalte) einander


zugeordnet. Diese Größenwerte sind in der Regel verschieden und als solche
erkennbar. Es können jedoch auch gleiche Zahlenwerte einander zugeordnet
werden. Das dürfte ein Grund dafür sein, daß solche Korrelationen als Äquiva-
lenzen erscheinen und immer noch in Gleichungsform notiert werden.

6. Am meisten macht sich der Unterschied zwischen logischem und mathe-


matisch-logischem Denkstil in der modernen Aussagenlogik bemerkbar. Die Be-
zeichnung „Aussagenlogik“ suggeriert von vornherein, es handele sich dabei um
einen modernen Kalkül wahrer und falscher Behauptungen.
Dieser Kalkül beruht aber grundsätzlich auf der Nichtunterscheidung von aus-
drucksbildenden und urteilsbildenden Junktoren. In den Wittgensteinschen (und
Postschen) Wahrheitswerttabellen werden allen dort aufgeführten Junktoren
Wahrheitswerte zugesprochen. Die klassische Kopula und die Quantifikatoren
werden allerdings nicht aufgeführt und somit nicht definiert. Dies signalisiert von
vornherein einen gravierenden Mangel der sogenannten Wahrheitswerttabellen für
die Junktordefinitionen und damit auch des Gesamtkonzepts der „Aussagenlogik“.
Darüber hinaus aber beruht die Aussagenlogik auf der irreführenden Benutzung
der Metastufentheorie, von der vorn schon die Rede war. Sinn bzw. Bedeutung
der Junktoren wird in der Aussagenlogik als Meta-Sinn bzw. Meta-Bedeutung der
durch sie verknüpften wahren und/oder falschen sog. Elementarsätze definiert.
Dabei wird jedoch grundsätzlich verkannt, daß die objektsprachlichen wahren
und/oder falschen Sätze auf der Metastufe nur noch als begriffliche Ausdrücke
(eben: „wahrer Satz“ / „falscher Satz“) aufgefaßt werden, die keinen Behaup-
tungssinn und damit auch keinen Wahrheitswert besitzen können. Überhaupt
defininiert die Aussagenlogik für alle ausdrucksbildenden Junktoren einen
Wahrheitswert. Es wurde aber schon gezeigt, daß ein Ausdruck wie „wahrer und
falscher Satz“ (der in der Aussagenlogik als „falsche“ Behauptung definiert wird,
überhaupt kein wahrheitswertfähiger Behauptungssatz sein kann. (Mehr darüber
in § 9).

7. Ist der Formalismus entsprechend gebaut, so wirkt er gleichsam wie ein struk-
turierter Filter. Er läßt nur Begriffe und begriffliche Ausdrücke, behauptende
Sätze und Satzketten als Schlüsse durch und zwingt ihnen seine Form auf. Alles
andere Sprach- und Vorstellungsmaterial aber läßt er nicht passieren. Das heißt
zugleich auch, daß nicht alles, was man sich vorstellen und selbst in grammatisch
korrekter Weise besprechen kann, logisch formalisiert werden kann.
Ein falsch verstandenes Logikkonzept verunklart den formalen Logikfilter da-
durch, daß er ihn der Grammatik einer Sprache annähert oder gar mit Teilen einer
Sprachgrammatik gleichsetzt. Die sprachliche Grammatik ist aber selbst ein Filter
der Sinnhaftigkeit von Laut- und Schriftgebilden. Werden in dieser Weise gram-
matische Elemente zu logischen Formen gemacht, so kommt es zu den diversen
Logiktypen etwa einer speziell temporalen, deontischen, Normen-, Wunsch- oder
66

Quaestionenlogik und der Wahrscheinlichkeitslogik. Die neuerdings erfundene


„Fuzzy-Logik“ ist ein Versuch, die letzten Reste des in der Gemeinsprache vor-
kommenden logisch Nicht-Formalisierbaren auch noch zu formalisieren.

8. In den üblichen Formalismen sind die bisherigen formalen Elemente wie Buch-
staben, Junktorenzeichen, Klammern und Zitatzeichen, auch mathematische Re-
chenzeichen, weit davon entfernt, das einzulösen, was man sich seit Leibniz unter
einer Kalkülisierung des logischen Prozedere verspricht. Die in der mathema-
tischen Logik vertretene Kalkülisierung bzw. Algebraisierung des Denkens insi-
nuiert zwar, man habe nach dem Vorbild des mechanischen Rechnens längst
einige zuverlässige „intellektuelle“ Denkmaschinen (sog. Turing-Maschinen) er-
funden. Aber es handelt sich trotz allem, was man darüber sagt, um pure
mathematische Metaphern, die dem logischen Denken nur sehr vage und allenfalls
so weit entsprechen, als auch in der Mathematik Logik enthalten ist. Ganz außer
acht bleibt dabei, daß die Mathematik selbst auf weite Strecken dialektisch ist.
Das wird über die quasi-mathematischen Formalismen der mathematischen Logik
naturgemäß in die klassische Logik zurückübertragen.
Der ursprüngliche römische Calculus war ein Kalksteinchen, bei den Griechen
Psephos genannt. Er diente zur sinnlichen Repräsentanz einer Recheneinheit. Man
konnte mehrere von ihnen gruppieren, einteilen und trennen und so die Grund-
rechenarten mechanisch praktizieren. Reste von diesen Verfahren finden sich
noch im Abacus und im japanischen Soroban.
Die Hauptsache bei einem solchen Rechenkalkül war und ist es, den Zahlen
oder Anzahlen von Gegenständen Rechensteine zuzuordnen, um dann unter ihnen
Gruppierungen gemäß den Rechenarten vorzunehmen. Von einem „logischen“
Kalkül sollte man erwarten, daß er den aus Reden oder Schriften entnommenen
Begriffen in gleicher Weise manipulierbare Dinge zuordnet.
Genau dies haben wir bei der Entwicklung der „Begriffspyramide“ im Auge
gehabt. Sie ordnet den Begriffen Positionen in einer Begriffspyramide zu. Die in
den Reden und Schriften verwendeten Junktoren, soweit sie Ausdrücke und
Urteile bestimmen, zeigen die sich ergebenden Relationen zwischen den Be-
griffspositionen an. Dadurch wird das hierarische Allgemeinheitsgefälle und die
Nebeneinanderstellung der vorkommenden Begriffe abgebildet.
Trägt man die so verstandenen Begriffe in die Pyramidenpositionen ein (oder
stellt sie sich in dieser pyramidalen Ordnung vor), so wird man leicht erkennen,
welche Begriffe dabei regulär sind, und welche – wenn sie nicht in die reguläre
Pyramidenstruktur passen – irregulär, also z. B. kontradiktorisch sind. Und vor
allem wird man dann bei einiger Übung und Routine sogleich noch weitere
junktorielle Verknüpfungen zwischen ihnen herstellen (oder sich vorstellen)
können, als in der Rede oder Schrift artikuliert werden.
Für das eigene logische Argumentieren wird man demnach seine eigenen
Gedanken schon von vornherein als pyramidal geordnete Begriffe explizieren.
Gelingt dies nicht in erhoffter Weise, so kann dies nur ein Anzeichen für unklares
67

Denken oder eine im begrifflichen Material liegende Problematik sein. Gelingt es


aber, so wird man mit Leichtigkeit von einem Begriff zum nächsten – sei es ein
allgemeinerer oder speziellerer oder durch Negationen abgetrennter – übergehen
und darin zugleich einen „rhetorischen Leitfaden“ für die theoretische Ordnung
einer mehr oder weniger umfassenden Argumentation zur Verfügung haben.

§ 8 Über den Unterschied logischer und mathematischer Denkmethoden


Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegriff-
lichung von Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und
des extensionalen Aspektes und die Verselbständigung von intensionaler und extensionaler Logik.
Die Funktion der Dialektik als Denken begrifflicher Widersprüche in beiden Logiken. Die Dia-
lektik des Zahlbegriffs. Die Dialektik des Mengenbegriffs. Der Import der dialektischen Begriffs-
bildung von der Mathematik in die Physik. Die Dialektik physikalischer Begriffsbildung. Bei-
spiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische Verschmelzung der logischen
Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion der dreiwertigen
Logiken

Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Aber sprachliche Wörter bezeichnen regel-
mäßig nur die Intension(en) eines Begriffs, nicht aber die zugehörigen Exten-
sionen. Deswegen sind sprachliche Wörter nicht mit wissenschaftlichen Begriffen
zu verwechseln.
Traditionellerweise wurden die wissenschaftlichen Begriffe aus griechischen
und lateinischen Wörtern gebildet, aus deren Kenntnis man meist schon ihre
Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter (oder was man dafür hält) importiert. Daneben gibt es
freilich einen neueren Brauch, künstliche „Termini“ aus Anfangsbuchstaben von
Wörtern zu bilden (Akronyme), aus denen man die Bedeutung nicht mehr erraten
kann (z. B. DNS = „Desoxyribonukleinsäure“, KI-Forschung = „künstliche Intel-
ligenz“-Forschung, MOOC = massive open online course). Das ist man zwar aus
Firmenbezeichnungen gewöhnt, in der Wissenschaft aber führt es zu einer
Esoterisierung der Terminologie, die ein Verständnis „nichteingeweihter“ Laien
und nicht weniger auch von Wissenschaftlern anderer Disziplinen fast unmöglich
macht.
68

Vielfach ist es auch üblich, wissenschaftliche Gegenstände, Begriffe, Probleme,


Hypothesen mit dem Namen ihrer Entdecker oder Erfinder zu bezeichnen (z. B.
„Friessches Trilemma“, „Kant-Laplacesche Hypothese“, „Einsteinsche Relativi-
tätstheorie“, „Heisenbergsche Unbestimmtheitsrelation“). Auch deren Verständnis
setzt schon Insiderwissen voraus, das dem Laien meist unzugänglich ist. Man
möchte jedoch dem Laien empfehlen, von denen, die solche Bezeichnungen ge
brauchen, eine Erläuterung zu erbitten. Sehr oft stellt sich dann nämlich heraus,
daß auch Experten keine klare oder übereinstimmende Vorstellung vom Gemein-
ten besitzen.
Bei weitem die meisten wissenschaftlichen Theorien werden aber noch immer in
der gewöhnlichen Bildungssprache formuliert, besonders wenn sie wissenschaft-
liche Begriffe in den Bildungswortschatz aufgenommen hat. Und so läßt sich auch
an sprachlichen Beispielen demonstrieren, was auch in der Wissenschaft Begriffe,
wahre und falsche Sätze, Schlüsse und begründende Argumente sind.
Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften
an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als
Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist überhaupt
die Grundlage für die Formalisierung in der Logik und dann auch der Ausbildung
der formalen als einer zweiwertigen Logik geworden.
Bestimmte grammatisch ausgezeichnete Wörter (Substantive und Eigenschafts-
wörter) wurden durch stellvertretende Zeichen (Buchstaben bzw. Zahlen) ersetzt.
Grammatische Behauptungssätze erhielten die Form des Urteils als Verknüpfung
von Subjekts- und Prädikatsbegriffen. Komplexe Wortverknüpfungen wurden
durch ausdrucksbildende Junktoren dargestellt. Dabei behielten die sprachlichen
Verbindungspartikel (Junktoren bzw. Funktoren) ihren sprachlichen Verknüp-
fungs- oder Bestimmungssinn bei, den man ohne weiteres sprachlich versteht. Die
satzbildenden Junktoren wie Bejahung, Existenzbehauptung („es gibt“), Vernei-
nung, Folgerungen, und die ausdrucksbildenden Junktoren wie und, oder, alle,
einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurzschriftzeichen
notiert.
Weitere grammatische Satzformen wie Wunsch-, Befehls-, Fragesätze wurden
in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht gelassen.
Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade dadurch,
daß sie auch derartige Satzformen formalisiert haben und sie damit als wahrheits-
wertfähig zulassen. Das hat wesentlich zur Komplizierung der Wahrheits- und
Falschheitsfragen beigetragen, die seither mit Fragen der (methodischen) Gültig-
keit und Ungültigkeit, Regelhaftigkeit, Normgerechtheit u. ä. vermischt, gelegent-
lich auch dadurch abgelöst werden.
Die wichtigste Einsicht in die logische Natur der Begriffe seit Platon und
Aristoteles ist wohl die, daß sie aus Intensionen („Begriffsmerkmale“, die ihre Be-
deutung ausdrücken) und Extensionen („Umfänge“, die ihren Anwendungsbereich
markieren) zusammengesetzt sind.
69

Seit Aristoteles weiß man auch, daß die Intensionen allgemeiner Begriffe voll-
ständig als sogenannte generische Merkmale in den Merkmalsbestand aller in
ihrem Umfang liegenden spezielleren Begriffe eingehen und bei deren Bedeu-
tungsverstehen mitgedacht werden müssen. Die niederen bzw „konkreteren“ Be-
griffe enthalten zusätzliche Merkmale („spezifische Differenzen“), die in ihnen
mit den generischen Merkmalen vereinigt werden (concresci = lat.: zusammen-
wachsen). Unterste Begriffe nennt man daher im Unterschied zu den abstrakten
oberen auch konkrete Begriffe. Meist sind sie Eigennamen oder quantifizierte
allgemeinere Begriffe. Letztere nennt man seit Bertrand Russell Kennzeich-
nungen.
Aus diesem Zusammenspiel der Intensionen und Extensionen der Begriffe
ergibt sich unter ihnen das, was man ihre Hierarchie oder das Allgemeinheits-
gefälle nennen kann. Dieses ist schon durch den einführenden Kommentar (Isa-
goge) des Porphyrios (um 232 – um 304 n. Chr.) zum aristotelischen Organon als
„porphyrianischer Baum“ beschrieben worden und hat in der scholastischen Logik
immer wieder auch zu graphischen Baumdarstellungen von Begriffshierarchien
geführt. Bei Porphyrios bilden die allgemeinsten Begriffe (Gattungen) den Stamm
und die Arten (Eidos) und Unterarten bis zu den Individuen die Äste und Blätter.
Moderne Fassungen solcher Begriffshierarchien stellen das Allgemeinheitsgefälle
in der Gestalt der Begriffspyramide dar, also gegenüber dem Baumschema gleich-
sam auf den Kopf gestellt, wovon auch in der hier vorgeschlagenen „pyramidalen
Logik“ ausgegangen wird.
Nun sollte man meinen, von einem Begriff könne in der Logik und mittels der
Logik in den Wissenschaften überhaupt nur die Rede sein, wenn seine inten-
sionalen und extensionalen Bestimmungen genau bekannt sind und offengelegt
werden. Ebenso sollte man meinen, daß Intensionen (Merkmale) und Extensionen
(Umfänge) für sich genommen nicht selber Begriffe sein können, da sie ja erst in
ihrer Vereinigung einen Begriff ausmachen. Um dies aber in der logischen Be-
griffslehre klar und deutlich festzuhalten, war die von Aristoteles eingeführte und
seither beibehaltene Formalisierung der Begriffe durch einfache Großbuchstaben
(die im Griechischen zugleich Zahlzeichen sind) nur unzulänglich geeignet. Sie
konnte die Intensionen und Extensionen der Begriffe nicht selbst formal darstellen
und verdeckte dadurch den internen Aufbau des Begriffs aus Intensionen und
Extensionen.
Als Kompensation dieses Nachteils der formalen Notation der Begriffe erfand
Aristoteles die nach ihm benannte Definitionsweise. Sie besteht darin, für einen
Begriff seine generischen Merkmale und die spezifische Differenz (zusätzliches
Merkmal) gesondert anzugeben.
Dies geschieht für einen beliebigen Begriff durch Angabe des nächsthöheren
Allgemeinbegriffs (genus proximum), dessen sämtliche Merkmale er (als „gene-
rische Merkmale“) aufnimmt und in dessen Umfang der zu definierende Begriff
liegt. Hinzu tritt das sogenannte spezifische Merkmal, das ihn einerseits von der
Gattung, andererseits auch von anderen unter dieselbe Gattung fallenden Art-
70

begriffen unterscheidet. Auf diese Weise wurde etwa das gemeinsprachliche Wort
„Tier“ als wissenschaftlicher Begriff definiert, indem man als nächsthöhere Gat-
tung „Lebewesen“ angab (das „Lebendigsein“ ist generisches Merkmal von
„Tier“), als spezifische Differenz seine es von den Pflanzen unterscheidende
Eigenschaften der Beweglichkeit und Sinnesausstattung.
Mit dieser aristotelischen und auch jetzt noch als logischer Standard geltenden
Definitionsweise können keineswegs alle Intensionen und Extensionen eines
Begriffs offengelegt werden. Um die Definition genau und vollständig zu machen,
müßten alle generischen Merkmale aller allgemeineren Begriffe, in deren Umfang
der zu definierende Begriff liegt, offenliegen (d. h. die ganze Hierarchie der
allgemeineren Begriffe, nicht nur das genus proximum, müßte bekannt sein).
Platon hat das schon in seiner „Definition“ des „Angelfischers“ (im Dialog So-
phistes) sehr klar vorgeführt. 38 Ebenso müßte aber auch die Extension des Be-
griffs durch Angabe aller untergeordneten Begriffe, die in seinen eigenen Umfang
fallen, deutlich werden. Das wiederum kann man im „Angelfischer“-Beispiel in
Platons Dialog Sophistes an den verschiedenen „Handwerkern“ (einschließlich
des Angelfischers) sehen, die unter den Begriff „Handwerker“ fallen und dort eine
ganze Hierarchie ausmachen.
Die Grenzen des aristotelischen Definitionsverfahrens wurden freilich schon in
der Antike entdeckt und diskutiert. Sie liegen in Richtung des Allgemeineren da-
rin, daß man beim Versuch, Begriffshierarchien aufzustellen, zu „obersten Gat-
tungen“ (Aristoteles‟ Kategorien, Euklids „axiomatische“ Grundbegriffe) gelangt,
die dann kein genus proximum mehr über sich haben. Nach unten aber gelangt
man so zu konkreten Ding- und Lagebezeichnungen („Eigennamen“) mit so
vielen Eigenschaften, daß man von ihnen dann unübersehbar viele Merkmale
nebst einer spezifischen Differenz angeben müßte. Dies hielt man gemäß dem
scholastischen Diktum: „individuum est ineffabile“ (das Individuelle läßt sich
nicht erschöpfend aussagen) für unmöglich.
Diese Begrenzungen – die in der Tat aber nur Schwächen der aristotelischen
Definitionsweise sind – haben dazu geführt, daß man „nach oben“ die Kategorien
und axiomatischen Grundbegriffe und „nach unten“ die Individuen weitgehend
aus der logischen Betrachtung ausnahm bzw. ihnen eine restringierte logische
Stellung einräumte.
Diese Beschränkungen der aristotelischen Standarddefinitionsweise sind bis
heute dogmatisch als allgemeine Grenze der Definierbarkeit von Begriffen fest-
gehalten worden. Seither sind die Logiker und Mathematiker gleicherweise der
Meinung, Grundbegriffe als höchste Gattungen (Kategorien, „Axiome“) könnten
überhaupt nicht definiert werden, und ebensowenig unterste konkrete Begriffe, die
allenfalls durch Eigennamen oder Russellsche Kennzeichnungen angedeutet
werden könnten.

38
Platon, Sophistes 219 a – 221 a, in: Platon, Sämtliche Werke nach der Übersetzung von F. Schleiermacher hgg. von W.
F. Otto u. a. (Rowohlts Klassiker der Literatur und der Wissenschaft, Griechische Philosophie Band 5) Hamburg 1958, S.
188 – 192.
71

Dies ist höchst erstaunlich angesichts der Tatsache, daß es neben der aristote-
lischen eine Menge anderer Definitionsweisen gibt, die geeignet sind, das hier
Vermißte zu leisten.
Bei höchsten Begriffen kann es nur darauf ankommen, von den spezifischen
Differenzen der nächst niederen Arten abzusehen und das ihnen gemeinsame
Merkmal festzuhalten und zu benennen, wofür freilich nicht immer ein geeignetes
„Wort“ zur Verfügung steht. Bei den sogenannten Individuen lassen sich die
generischen Merkmale, die es ja mit anderen Arten und Gattungen gemeinsam
hat, durch diese oberen Begriffe angeben, und die Spezifität als spezifische
Differenz immer auf ein einziges Merkmal reduzieren (und sei es die nur einmal
vergebene Buchstaben-Nummernkombination eines individuellen Automobils
oder eines Personalausweises). Deshalb kann und muß eine effektive Begriffs-
logik auch die höchsten und untersten begrifflichen Positionen in Begriffs-
hierarchien hinsichtlich ihrer intensionalen und extensionalen Komponenten ge-
nau konstruieren und definieren. Dadurch wird eine empfindliche Lücke in der
Begriffslogik und in der Theorie der Axiome geschlossen.
Die aristotelische Standarddefinition geht von den Intensionen (Merkmalen)
eines Begriffs aus, die dann als generische Leitfäden zugleich auch die Begriffs-
umfänge festlegen. Daran anschließend hat man später gemeint, es ließe sich auch
eine rein „intensionale Logik“ unter Absehung von den Begriffsextensionen ent-
wickeln. Da aber „Begriffe ohne Umfang“ grundsätzlich keine Begriffe sein kön-
nen, laufen diese Versuche auf reine „Bedeutungslehren“ (Semantiken) von Wör-
tern hinaus, wie sie in der philologischen Lexikographie zum Thema werden.
Von daher lag es aber nahe, als Gegenstück auch so etwas wie eine rein „exten-
sionale Logik“ zu entwickeln. Es waren die Mathematiker, die sie als „Klassen-
logik“ und mathematische Mengenlehre entwickelten. Sie wurde zum Kern der
modernen mathematischen Begriffslehre.
Auch dazu ist kritisch anzumerken, daß „Begriffe ohne Intensionen“ grund-
sätzlich keine Begriffe sein können, so daß eine strikt durchgehaltene extensionale
Logik keine Logik sein kann, sondern allenfalls zu Klassifikationen dienen kann.
Dies hat sich spätestens auch in der Logik von William Van Orman Quine,
einem der renommiertesten mathematischen Logiker in den USA, gezeigt. In
seiner Logikkonzeption des von ihm sogenannten Extensionalismus haben die
(rein extensional definierten) „Begriffe“ keinen bestimmbaren Inhalt, sie „referie-
ren nicht“ auf Bedeutungen. Daher können sie auch nicht in andere „Sprachen“ (d.
h. hier andere logisch konstruierte Theorien) „übersetzt“ werden. Die mit ihnen
gebildeten Sätze (propositions) konstruieren und gliedern immer nur einen ganzen
„holistischen“ Theorieraum, der ausschließlich durch den Anwendungsbereich
(Umfang) eines solchen „Begriffes“ bestimmt sein soll.
In der Tat werden jedoch in der mathematischen Klassen- und Mengenlogik die
Extensionen zugleich (aber meist nicht explizit) auch als Intensionen der Klassen-
und Mengenbegriffe behandelt. Das macht sie manchmal doppeldeutig und zu
dem, was wir als contradictiones in adiecto vorgeführt haben. Sie sind dann ganz
72

wesentlich für die sich hier ergebenden Widersprüche und Paradoxien verant-
wortlich. Dies zeigt sich aber erst, wenn man die klassische Begriffslogik und
unsere Analyse des Aufbaus der nichtregulären (dialektischen) Begriffe als Maß-
stab anlegt. Dann zeigt sich auch genauer der Unterschied, der zwischen klas-
sisch-logischer und mathematisch-logischer Begriffslehre besteht und damit auch
die logische von der mathematischen Denkweise trennt.
Dieser Unterschied besteht unserer Einschätzung nach wesentlich in der Stel-
lung, die die Dialektik in den Begriffslehren der klassischen und der mathe-
matischen Logik einnimmt. Und dies hat wieder beträchtliche Unterschiede
zwischen der logischen und mathematischen Auffassung von der Definition und
ihrer Formalisierung zur Folge.
In der klassischen Logik galt und gilt die Dialektik als eine „Logik des Wider-
spruchs“, die man traditionellerweise zu vermeiden und zu bekämpfen suchte, die
aber auch immer ihre Anhänger und Vertreter hatte. In der mathematischen Logik
aber gilt das Denken in Widersprüchen und mit Hilfe widersprüchlicher Begriffe
geradezu als unmöglich. Schon die Bezeichnung „Dialektik“ ist hier verpönt.
Wenn Widersprüche auftauchen und in der Forschung herausgearbeitet werden –
wie die zahlreichen mathematischen Paradoxien es zeigen – gelten sie als Grund-
lagenprobleme der Disziplin. Und von daher hält sich unbeirrt die Meinung der
Mathematiker und mathematischen Logiker, die reine Mathematik und mathe-
matische Logik könne und müsse widerspruchslos auf- und ausgebaut werden. So
definiert ein älteres Lexikon die „Mathematik“ folgendermaßen:
„Die reine Mathematik hat das Eigentümliche, daß sie aus gewissen einfachen Begriffen und
Voraussetzuungen ihre Ergebnisse durch rein logische Schlüsse ableitet, deren Rich-
tigkeit jedes Wesen, das mit menschlicher Vernunft begabt ist, zugeben muß. Er-
forderlich ist dabei nur, daß jene Begriffe und Voraussetzungen so gewählt sind, daß
man niemals auf einen Widerspruch stößt, denn ein solcher würde sofort das ganze
Gebäude umstoßen. Deshalb entnimmt die Mathematik ihre ersten Begriffe und
Voraussetzungen der Anschauung. So entnimmt die Analysis den Begriff der ganzen
Zahl und die Erzeugung der ganzen Zahlen aus der Einheit der inneren Anschauung
und entwickelt daraus alles Weitere; die Geometrie entnimmt die Begriffe der gera-
den Linie etc. der äußeren Anschauung. In beiden Fällen aber werden von den
Merkmalen der Begriffe, die man in der Anschauung vorfindet, nur gerade so viele
beibehalten, als erforderlich sind, um daraus Schlüsse ziehen zu können. Wenn nun
jemand jene ersten Begriffe und Voraussetzungen zugibt, was bei zweckmäßiger
Auswahl jeder wird tun müssen, so kann er nicht umhin, auch alles, was daraus
gefolgert wird, als richtig anzuerkennen. In diesem Sinne haben die mathematischen
Sätze eine solche Sicherheit, daß man sprichwörtlich von mathematischer Gewißheit,
Strenge und Wahrheit spricht, und eine Beweisführung mathematisch nennt, um sie
als völlig einwandfrei zu bezeichnen. In diesem Sinne nennt man auch die Mathe-
matik vorzugsweise eine exakte Wissenschaft“.39

Dieser „hohe Ton“ ist zwar heute aus den Lexika verschwunden. Sicher aber nicht
die darin zum Ausdruck kommende Überzeugung von „Gewißheit, Strenge,

39
Art. „Mathematik“ in: Meyers Großes Konversationslexikon, Band 13, 6. Aufl. Leipzig-Wien 1908, S. 432.
73

Exaktheit und Wahrheit“ aus den Köpfen der Laien und der meisten Mathema-
tiker.
Der zitierte Artikel ist, wie man leicht erkennt, im Kantischen Sinne formuliert,
wo bekanntlich Geometrie und Arithmetik auf die „Anschauungsformen“ (Raum
und Zeit) begründet werden. Jetzt ist man mehrheitlich wieder auf die platonische
„Anschauung mit einem geistigen Auge“ zurückgekehrt (was ersichtlich ein
dialektisches Oxymoron ist). Und dies nicht zuletzt, um den zahlreichen Perple-
xitäten der sinnlichen Anschauung zu entgehen, an denen schon die antike Mathe-
matik sich abgearbeitet hatte. Aber auch von der sinnlichen Anschauung gilt die
Kant-Horazische Maxime: Naturam expellas furca, tamen usque recurret. Soll
heißen, auch die moderne Mathematik kommt nicht ohne Anschaung aus.
Was man jetzt „reines Denken“ oder „unanschauliche Vorstellung“ nennt, be-
darf, um überhaupt einen Gehalt zu haben, anschaulicher Elemente. Soll das
„reine Denken“ einen Gehalt besitzen, so kann er nur in dem bestehen, was die
Sinne dem Gedächtnis und der Phantasie übermittelt haben. Ohne solchen Gehalt
bleibt keineswegs reines Denken übrig, sondern pures Nicht-Denken. Daher sind
Gedächtnis und Phantasie auch diejenigen sogenannten Vermögen, die in der
Mathematik am meisten benötigt und kultiviert werden.
Phantasie unterscheidet sich von der direkten „Anschaung“ (und zwar aller
einzelnen Sinne) dadurch, daß sie auch dasjenige noch zu irgend einer einheit-
lichen Vorstellung bringt, was nicht zugleich und im gleichen Erfahrungskontext
anschaulich gemacht werden kann. Gerade diese kreative Vorstellungsbildung ist
aber das Wesen aller sogenannten Dialektik geworden. Davon haben die Künste
gezehrt, die den „Pegasus“ (der nur als Pferd oder Vogel anschaubar ist) als
„geflügeltes Pferd“ kreierten. Ebenso aber auch die griechischen Mathematiker,
als sie „Punkt und Linie“ sowie „Eines und Vieles“ in Begriffe faßten.
Das Verfahren dieses kreativen dialektischen Denkens war den antiken Philoso-
phen geläufig. Das zeigen die Formulierungen des Parmenidesschülers Zenon
vom „fliegenden Pfeil, der ruht“, und des Heraklit vom „Logos“, der das „Wider-
sprechende vereinigt“. Derartige Denkbemühungen wurden bei den Logikern im
alten Megara und bei den Sophisten zu einem Denksport geselliger Unterhaltung.
Platon hat in seiner Ideenlehre vielfach davon Gebrauch gemacht und die
Dialektik jedenfalls nicht verachtet. Aristoteles aber wollte sie aus seiner Logik,
die wesentlich auf der sinnlichen Anschauung beruht, ausscheiden oder vermei-
den. Aber auch ihm gelang es nur teilweise, denn er hat sie in seine sogenannte
Modallogik integriert und dadurch an die Nachwelt weitergegeben.
Es dürfte nun gerade die im obigen Zitat beschriebene Einstellung und Grund-
haltung gewesen sein, die sowohl die Laienwelt als auch die Mathematiker selbst
blind gemacht hat für die offensichtliche Tatsache, daß Mathematik und die an sie
anknüpfende mathematische Logik in weiten Teilen eine ausgebaute Dialektik
widersprüchlicher Grundprinzipien und Grundbegriffe ist. Zeigen wir es an eini-
gen Beispielen.
74

Das mathematische Hauptbeispiel für inhaltliche Begriffe waren und sind die
Zahlen. In den Zahlen sah und sieht man in der neuzeitlichen Mathematik auto-
nome ontologische Gebilde, die entdeckt, erforscht, erkannt und auf Begriffe
gebracht werden müssen. Den Zahlen als mathematischen Begriffen mußten dem-
nach autonome mathematische Bedeutungen bzw. Intensionen zukommen, ebenso
Extensionen, die sich wiederum auf (andere) Zahlen erstrecken mußten. Deren
dialektische Definitionen haben wir an anderer Stelle (vgl. Elementa logico-
mathematica, Internet der Phil. Fak. der HHU Düsseldorf, 2006)40 dargestellt.
Danach ist der allgemeine Zahlbegriff eine widersprüchliche Verschmelzung der
logischen Quantoren „ein“ und „alle“ D. h. er ist zugleich elementare Einheit bzw.
genauer: Einzelheit, wie auch Gesamtheit bzw. Totalität. Logisch ist er als „All-
Einheit“ oder „Ein-Allheit“ zu definieren. Und demgemäß ist auch jede weiter zu
definierende Zahlart im Umfang des allgemeinen Zahlbegriffs ein Gebilde, das
mittels des generischen Merkmals des allgemeinen Zahlbegriffs zugleich eine
Zahleinheit und ein Gesamt von (anderen) Zahlen darstellt. So ist die Eins („ 1 “)
eine „elementare“ Einheit der natürlichen Zahlen, zugleich aber auch das Gesamt
aller ihrer echten Bruchzahlen geworden. Und jede andere natürliche Zahl ist
zugleich eine „Zahleinheit“ als Gesamt (z. B. Summe, Produkt usw.) von Ein-
heiten der natürlichen Zahlen.
Aber daß die Zahlen als solche in dieser Weise dialektisch zu definieren wären,
hat man stets „vermieden“, und wo es nicht vermieden werden konnte, durch
Dissimulationen unsichtbar gemacht. Das gelang in der Neuzeit durch die syste-
matische Trennung von Geometrie und Arithmetik.
Die alte Auffassung bis auf die Zeit von Descartes bezog die Zahlen als bloße
Quantifikationen auf geometrische Gegenstände. Diese galten als vorgegebene
„Bedeutungen“ (Intensionen), denen durch die zahlenmäßigen Quantifikationen
„Umfänge“ (extensionen) zugesprochen wurden. In dem quantifizierten Ausdruck
„3 Meter“ steht „Meter“ für die Intension der (konventionellen) Maßeinheit einer
geraden Linie; „3“ ordnet der Intension als Umfang „drei hinter einander gelegte
Einheitslängen“ zu. Das „in einer geraden Linie Hintereinanderlegen“ wird frei-
lich nicht ausgedrückt. Es muß mitverstanden werden.
Bei Euklid wurden z. B. die später sogenannten natürlichen Zahlen als Punkte
oder auch als Erstreckungseinheiten von geometrischen Linien dargestellt. Darü-
ber hinaus sprach Euklid von Flächenzahlen (zweite Potenzen) und Körperzahlen
(dritte Potenzen). Von daher stammt die Meinung, es ließe sich überhaupt eine
rein „extensionale Logik“ der Quantifikationen aufbauen. Das hieß jedenfalls, daß
die geometrischen Gebilde neben anderen Gebilden, etwa Viehherden, wirtschaft-
lichen Gütern, Münzbeständen usw. ein Anwendungsbereich arithmetischer Quan-
tifikationen war.

40
Zuletzt in: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concept: The Logical and Mathematical Ele-
ments. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013,
S. 20 – 26 und S. 94f. – Vgl. dazu auch § 9 der vorliegenden Schrift.
75

Auf dieser Nutzbarkeit der arithmetischen Quantifikation in Bezug auf zählbare


Gegenstände der Wirklichkeit beruht ersichtlich bis heute die überaus große Be-
deutung der Mathematik für die Berechenbarmachung der Welt, insbesondere in
der Physik. Soweit die Arithmetik solche inhaltliche Anwendung auf zähl- und
meßbare Gegenstände erfuhr (und noch erfährt), blieb und bleibt sie frei von jeder
Dialektik.
So lernt man denn auch den Umgang mit den Zahlen durch Abzählen (Quan-
tifizieren) von Dingen oft schon früher als den Umgang mit Begriffen. Nichts
erscheint daher selbstverständlicher und widerspruchsloser als ein primitives
Zahlverständnis, das an den vorgewiesenen Fingern von Eins bis Zehn zählt und
die Null durch die in der Faust verborgenen Finger demonstriert. Genau so
widerspruchslos kann man Kindern am selben Gegenstand „Faust“ auch logische
Qualifikationen und Quantifikationen beibringen. Dann würde man am vorge-
haltenen Finger die „Bedeutung“ (die Merkmale des Begriffs „Finger“, etwa daß
ein Finger aus „artikulierten“ Knochen, Muskeln und Sehnen, Haut und einem
Fingernagel besteht) klarlegen. Anschließend würde man erklären, was „ein
Finger“, „einige (oder manche) Finger“, „alle Finger“ und „kein Finger“, also die
logischen „Extensionen“ (Quantifikationen) besagen. Und schließlich könnte man
durch die Eigennamen der Finger (wie im Kinderlied: „das ist der Daumen ...“)
die individuellen Finger benennen bzw. kennzeichnen.
Bei solchen Übungen würde man leicht bemerken, daß die mathematische
Quantifikation durch Zahlen und die Null mit dem logischen Prozedere des
Quantifizierens identisch ist. Der Unterschied liegt nur darin, daß das logische
„einige“ durch jede beliebige Zahl oberhalb der Eins innerhalb einer Gesamtheit
ersetzt werden kann (das logische „einige“ oder neuerdings sogenannte „manch“
wird zahlenmäßig gespreizt). Das logische „alle“ wird immer durch die letztge-
zählte Zahl eines Gesamts ausgedrückt.
Nur das, was man „einige“ und „alle“ nennt, wird man dem Kind dann auch als
„Menge von Fingern“ erklären. Keineswegs aber wird man es dadurch verwirren,
daß man auch „einen“ oder gar „keinen Finger“ eine „Menge von Fingern“ nennt.
Das aber tut die mathematische Mengenlehre, und es ist noch vor einiger Zeit
einigen Generationen deutscher Schüler mit der „Mengenlehre“ eingebleut wor-
den. Schon gar nicht wird man die in der Faust verborgenen fünf Finger als „fünf
negative Finger“ bezeichnen.
Die widerspruchslose Logizität des mathematischen Quantifizierens von gege-
benen Dingen ist die Grundlage für alle Anwendungen der Mathematik in dazu
geeigneten Einzelwissenschaften und in der Alltagspraxis geblieben. Bei solchen
Anwendungen werden inhaltliche Begriffe der Wissenschaften und des Alltags (z.
B. physikalische Örter, Zeitpunkte, Massen, Kräfte etc.), deren Intensionen durch
die jeweilige Wissenschaft oder den Sprachgebrauch vorgegeben werden, mit
zahlenmäßig quantifizierten Extensionen versehen. So spricht man etwa von
„einem Ort“, „zwei Uhr“ (gemeint sind zwei Stunden seit Mittag), „drei Pfund
Butter“, „vier Pferdestärken“ („PS“) usw. Und auf dieser Gegenstands-Quanti-
76

fizierung beruht letztlich die allgemeine Anwendung, Fruchtbarkeit und Überzeu-


gungskraft der Mathematik.
Die Übereinstimmung mit der Logik und ihrer Anwendbarkeit auf Gegenstände
hört aber auf, sobald die Arithmetik nicht mehr nicht-mathematische Begriffe bloß
quantifiziert, sondern von mathematischen „Begriffen“ (z. B. den Zahlen als sol-
chen) die Rede ist. Was dann an die Stelle der Logik tritt, ist eine autonom gewor-
dene Arithmetik und Algebra.
Nach Platon, Euklid und Proklos meint der mathematische Platonismus, diese
genuin mathematischen Begriffe ließen sich als vorgegebene „Ideen“, d. h. als
genuine Begriffe, durch ein „geistiges Auge“ (wie Platon sagte) erschauen, und
sie ließen sich dann auch noch zusätzlich dem gemeinsamen logisch-arithme-
tischen Quantifikationsverfahren unterwerfen. Das platoni(sti)sche Programm for-
dert dann, das zählende Quantifizieren auf den Begriff der Zahl zu bringen und
den Zahlbegriff selbst zu quantifizieren. Ein wichtiges Resultat dieser Bestrebung
zeigte sich in der von Franciscus Viëta (François Viète, 1540 - 1603) eingeführten
sogenannten Buchstabenrechnung. In ihr stehen aristotelische Begriffszeichen
(große Buchstaben) für Zahlen, die ihrerseits durch Zahlen quantifiziert werden
(z. B. „5 X“ oder „2 Y“).
Nun hat gewiß noch kein Mensch mit seinem sinnlichen Auge, und das sind die
einzigen Augen, die der Mensch besitzt, das gesehen, was man eine Zahl oder
Menge an sich bzw. als solche nennt. Man benutzt die Wörter „Zahl“ und „Men-
ge“ normalsprachlich daher in der vorn geschilderten anwendenden bzw. exten-
sionalen Weise so, daß man von „Mengen von etwas“ oder auch „einer Anzahl
von etwas“ spricht, was man in der Regel sinnlich wahrnimmt. Man verharrt auch
dabei, Ausdrücke wie „Menge von einer Sache“ (Einer-Menge) und „Menge von
keinen Sachen“ (Null-Menge) für grammatischen Unsinn zu halten.
Von der Mathematik muß man sich jedoch belehren lassen, daß es eine „über-
anschauliche Anschauung“ gäbe, die es im Studium auszubilden und zu üben
gelte. Wenn das gelinge, könne man sich sehr wohl Zahlen und Mengen „an sich“
vorstellen, daher auch „Einer-Mengen“ und „Nullmengen“ („leere Mengen“),
schließlich sogar „Mengen von Zahlen“ und „Zahlen von Mengen“ sowie „ab-
zählbare Mengen“, bei denen sich jedem sogenannten Element der Menge eine
natürliche Zahl zuordnen läßt. Dazu auch „überabzählbare Mengen“, bei denen
eine solche Zuordnung nicht möglich ist. Hilfsweise dürfe man sich der unzu-
länglichen „Modelle“ der anschaulichen logischen Mengenvorstellungen bedie-
nen, die freilich bei weitem nicht alles mathematisch Denkbare abdecken.
Daß die „mathematischen“, genauer gesagt, die mathematisierten Begriffe an-
ders gebildet werden als die logischen, dürfte daraus schon hervorgehen. Man
unterscheidet sie als „metrische“ oder „quantitative“, nach E. Cassirer auch als
„Funktionsbegriffe“, von den logischen Begriffen, die dann „qualitative“ genannt
werden. Daß das Quantitative bzw. Metrische sich auf die zahlenmäßige
Quantifizierung solcher Begriffe bezieht, liegt auf der Hand. Aber diese Charak-
77

teristik genügt bei weitem nicht, sich einen (logischen) Begriff von diesen mathe-
matischen Begriffen zu machen.
Sollen sie überhaupt Begriffe sein, so muß das Metrisch-Quantitative auch auf
Intensionen bezogen werden. Das geschieht allerdings durch die stillschweigende
Voraussetzung bzw. die Gewohnheit, daß die Intensionen mathematischer Be-
griffe immer noch wie bei Euklid geometrische Sachverhalte bedeuten, nämlich
(unausgedehnte) Punkte, Ausdehnungen, Strecken, Abstände. Ohne diese traditio-
nellen Veranschaulichungen, die heute „Modelle“ oder „Graphen“ genannt wer-
den, lassen sich die mathematischen Begriffe gar nicht denken. Das aber hat zur
Folge, daß die Anwendung der mathematischen Begriffe auf Wirklichkeitsberei-
che zunächst eine Geometrisierung der Objekte verlangt. Zeigen wir auch dies an
einigen Beipielen.
Der „quadriviale“ Hauptanwendungsbereich der Mathematik war und ist die
Physik geblieben. Alles, was in der Physik mit mathematischen Begriffen erfaßt
wird, enthält daher das geometrische Ausdehnungsmoment (Strecke) als generi-
sches Merkmal. Und mit ihm zugleich auch die Voraussetzung, daß diese Ausdeh-
nung aus (geometrischen) Punktreihen bestünden. Wie man weiß, ist aber das
Verhältnis der vorausgesetzten Diskontinuität von Punkten und des Linienkon-
tinuums bis heute ein vieldiskutiertes geometrisches Problem, dem selber eine
Dialektik zugrunde liegt.
Diese Dialektik von Punkt und Linie bzw. Unausgedehntheit und Ausdehnung
überträgt sich also von vornherein in die physikalischen Grundbegriffe. Redet
man vom physikalischen Zeitbegriff, so muß er zunächst als Ausgedehntes, näm-
lich als Zeitstrecke, aber zugleich auch als Punktreihe von „Zeitpunkten“ ver-
standen werden. Ebenso beim physikalischen Raumbegriff, der ein Komplex
seiner Erstreckungsdimensionen in Punktreihen ist (gemäß der cartesianischen
analytischen Geometrie). Die physikalische Masse wird ebenso als „Punktmasse“
(man spricht dann von „Idealisierung“) verstanden, die sich immer schon an be-
stimmten Raum- und Zeitpunkten befinden soll, während sie tatsächlich doch
immer räumlich ausgedehnt ist. Das ist von Descartes geradezu zum Wesensmerk-
mal („extensio“) der physikalischen „Substanzen“ erklärt worden.
Entsprechend der logischen Bildung abgeleiteter (deduzierter) Begriffe verste-
hen sich dann alle weiteren physikalischen Begriffe als aus diesen Grundbegriffen
zusammengesetzt. Aber ihre Zusammensetzung ist nicht eine von generischen und
spezifischen Merkmalen. Vielmehr werden diese Komplexierungen der abgelei-
teten physikalischen Begriffe gemäß den Rechenarten gebildet.
Es sind vor allem die Rechenarten der Summierung, der Subtraktion (zur Defi-
nition negativer Begriffe), der Multiplikation, der Potenzbildung und der Division,
in der Neuzeit dann die Differential- und Integralbildung, später noch die Loga-
rithmenbildung, die die mathematischen Hauptmittel als mathematische Junktoren
bzw. Operatoren dazu hergeben. Und je nach ihrer Anwendung zur Bildung der
entsprechenden Begriffe könnte man sie Tupel-Begriffe (Paare, Drillinge usw.),
negative Begriffe, Produktbegriffe, Potenzbegriffe, Quotientenbegriffe, Differen-
78

tialbegriffe und Integralbegriffe bzw. entsprechende komplexe Ausdrücke nennen.


Solcherart gebildete Begriffe und Ausdrücke können dann ihrerseits wiederum
nach denselben Rechenarten miteinander zu noch komplexeren Begriffen und
Ausdrücken zusammengesetzt werden. Eine Grenze für die Erzeugung derartiger
Komplexionen kann es offenbar nicht geben, wohl aber Grenzen der Darstellbar-
keit durch Zeichen und ihrer rechnerischen Handhabbarkeit.
Nehmen wir als Beispiel den physikalischen Geschwindigkeitsbegriff. Er ist ge-
wiß einer der einfachsten physikalischen Begriffe und geht in viele andere physi-
kalische Begriffe und Ausdrücke ein. Und doch weist er alle Charakteristika auf,
die ihn von logischen Begriffen unterscheiden.
Logisch sollte man denken, daß Geschwindigkeit eine Eigenschaft von Bewe-
gung, und diese wiederum eine Eigenschaft eines bewegten Körpers sei. Und das
wird natürlich auch in der physikalischen Mechanik stillschweigend voraus-
gesetzt. Der physikalische Begriff der Geschwindigkeit aber enthält keinen Hin-
weis darauf, daß die Geschwindigkeit einer Bewegung an einen bewegten Körper
gebunden ist. Er wird als Quotient aus räumlicher und zeitlicher Erstreckung
dargestellt. Logisch ist er jedoch als Verhältnis bzw. Proportion einer räumlichen
zu einer zeitlichen Strecke definiert („s : t“). Und das ist keineswegs dasselbe wie
ein Quotient als Resultat einer Division. In der Mathematik werden aber sowohl
die Proportionen wie auch die Quotienten mit demselben Ausdruck bezeichnet
(„s / t“) bezeichnet. Als Terminus für die Geschwindigkeit steht dafür „v“ (velo-
citas), der durch die Gleichung „v = s / t“ definiert wird.
Die physikalische Begriffsbildung suggeriert die Unanschaulichkeit des damit
Gemeinten. Man kann keine für sich bestehende Geschwindigkeit (ohne etwas
Bewegtes) als solche beobachten. Was damit gemeint ist, ist daher logisch nicht
nachvollziehbar. Es sei denn, man ließe sich darauf ein, über „körperlose“ Bewe-
gungen von Geistern zu spekulieren. In der Physik aber gehört die körperlose
Geschwindigkeit zum Standard-Begriffsarsenal.
Da die räumliche und zeitliche Erstreckung einer Bewegung auch für jeden
Punkt der jeweiligen (cartesianischen) Dimensionen gelten muß (da ja die
geometrischen Strecken als Punktreihen vorgestellt werden), fällt es dem Physiker
auch nicht schwer, von „Punktgeschwindigkeit“ eines bewegten Körpers zu reden.
Der physikalische Laie wie auch der Logiker (und auch schon der Parmenideer
Zenon), der (mit Euklid) davon ausgeht, daß ein Punkt keinerlei Ausdehnung
besitzt, muß es jedoch für unlogisch halten, einem bewegten Gegenstand über-
haupt eine Punktgeschwindigkeit zuzusprechen. Und zwar deshalb, weil ja die
physikalische Geschwindigkeit ausdrücklich als Quotient (genauer: als Propor-
tion) von Strecken (also nicht von Punkten) definiert ist. Wäre s = 0 („keine
Strecke“) und ebenso t = 0 („keine Dauer“), so wäre die Punktgeschwindigkeit als
v = 0 / 0 zu definieren. Der Logiker würde dann sagen, die Geschwindigkeit
verwandelt sich in Nichtgeschwindigkeit, und das könnte logisch nur das Gegen-
teil von Bewegung, also „Stillstand“ (physikalisch „Ruhe“) bedeuten.
79

Nun geht der Physiker davon aus, daß ein auf einer Strecke in bestimmter Zeit
bewegter Körper auch auf jedem Punkt der Strecke und zu jedem Zeitpunkt diese
Geschwindigkeit besitzen muß. Um gerade dies auch zu beweisen, haben Leibniz
und Newton mit ihrer Erfindung der Fluxions- und Differentialbegriffe in dialek-
tischer Weise den Punkt zur Strecke gemacht. Sie definierten den euklidischen
„ausdehnungslosen Punkt“ zu einem „unter jede zahlenmäßige Bestimmbarkeit
hinabreichende („infinitesimale“ = „gegen Null verschwindende“) Erstreckung“
um. Und dies zweifellos nicht ohne den verschwiegenen Einfluß von Berkeleys
sensualistischer Geometrie, in welcher der geometrische Punkt als ein „minimum
sensible“, also als etwas minimal Ausgedehntes definiert war.
Diese dialektische Definition verbirgt sich noch bis heute hinter manchen
Mystifizierungen in der Lehre von den Differentialen. Denn wohl kein Mathema-
tiker wäre geneigt zuzugeben, daß der Widerspruch in die Erfindung und Defi-
nition dieser neuen arithmetischen „Größen“ („unterhalb jeder zahlenmäßigen Be-
stimmbarkeit“) gleichsam eingebaut ist.
Der Leibnizsche Differentialquotient „d s / d t“ hält ersichtlich die Geschwin-
digkeitsdefinition als Proportion einer räumlichen und einer zeitlichen Er-
streckung bei. Aber die durch das Zeichen „d“ („differential“) quantifizierten
Strecken sollen gemäß Definition als „infinitesimale“ (gegen Null verschwin-
dende) Größenbezeichnung zugleich auch keine quantifizierbaren Strecken
(„Größen“) sein. Was nur heißen kann, daß die als Differentialgeschwindigkeit
definierte Punktgeschwindigkeit sowohl eine meßbare Größe als auch keine
(quantifizierbare) meßbare Größe ist. Und so ist das Differential von Leibniz als
neuer widersprüchlicher Zahlbegriff in die Arithmetik eingeführt worden. Logisch
läßt er sich nur als widersprüchlicher Begriff definieren, nämlich als „bestimmt-
unbestimmte Zahlengröße“. Was hier von Leibnizens Begriff des Differentials
gesagt wurde, gilt mutatis mutandis auch vom Fluenten-Begriff Isaak Newtons.
Die Definition der Punktgeschwindigkeit durch den Differentialquotienten be-
herrschte die klassische Mechanik. Als man jedoch um die Wende zum 20. Jahr-
hundert mit verfeinerten Beobachtungs- und Meßinstrumenten in die Ausdeh-
nungsbereiche der (damaligen) Elementarteilchen vordrang, glaubte man, die (in-
finitesimalen) Punktgeschwindigkeiten von Elementarteilchen ließen sich mit den
neuen Meßmethoden direkt und exakt bestimmen.
Wäre es dabei logisch zugegangen, so hätte sich das von vornherein als
vergebliche Mühe einschätzen lassen. Die Punktgeschwindigkeiten der Elemen-
tarteilchen konnten auch in den Bereichen der Mikrophysik nichts anderes sein als
Proportionen von Raum- und Zeitstrecken.41
Aber die mathematische Denkart verlangte in diesen Mikrodimensionen nach
der messenden Feststellung einer „idealen“ Punktgeschwindigkeit. Bei dieser
mußte, wie man voraussetzte, der „genaue Ort und der genaue Zeitpunkt eines

41
Vgl. dazu L. Geldetzer, Über den Begriff des Zeitpunktes bei Meßbestimmungen kanonisch-konjugierter Größen in der
Physik und über das Problem der Prognostik in der Mikrophysik. In: Geschichte und Zukunft, Festschrift für Anton Hain,
hgg. v. Alwin Diemer, Meisenheim (Hain) 1967, S. 142 - 149.
80

Teilchens auf seiner Bahn“ ermittelt werden. So sehr man aber in den darauf
gerichteten Experimenten die Meßskalen verfeinerte, stellte sich durchweg eine
Grenze der Geschwindigkeitsmessungen „auf dem Punkte“ heraus.
Anstatt diese Grenze auf den als Streckenproportion bzw. als Quotienten defi-
nierten Geschwindigkeitsbegriff selber zurückzuführen, brachte Werner Heisen-
berg sie in seiner Formel von der grundsätzlichen „Unbestimmtheit“ der „gleich-
zeitigen“ Erfassung von Raumstelle und Zeitpunkt der Elementarteilchen mit dem
Planckschen Wirkungsquantum h in Verbindung. Was bedeuten sollte, daß es
zwar Punktgeschwindigkeiten der Elementarteilchen geben müsse, daß aber der
messende (und somit wirkungsübertragende) Eingriff in die Bewegung der Teil-
chen deren genaue Bestimmung in der Größenordnung des Wirkungsquantums
verhindere.
Heisenberg erhielt dafür bekanntlich den Nobelpreis. Und das konnte nur be-
deuten, daß alle Mikrophysiker diese Theorie als wahr und grundlegend aner-
kannten. Heisenbergs Theorie von der prinzipiellen „gleichzeitigen“ Unbestimmt-
heit von Ort und Zeitpunkt (und anderer in Proportionen bzw. Quotientenbegriffen
„konjugierten Größen“) der Mikrophysik begründet seither das moderne physika-
lische Weltbild mit seiner Unterscheidung von Makro- und Mikrophysik und den
diesen Bereichen jeweils zugeschriebenen kausalen und indeterministischen
(akausalen) Strukturen. Auch die Bezeichnung „Quantenphysik“ verdankt sich der
Theorie von der punktuellen Unbestimmtheit in der Größenordnung des Planck-
schen Wirkungsquantums. Die Natur offenbart sich, so meint man seither, in ihren
Mikrophänomenen nur „gequantelt“. Unsere Überlegungen dürften aber schon
gezeigt haben, daß sich auch die Makrophänomene nur in „gequantelten“ Ge-
schwindigkeits-Proportionen bzw. Quotienten definieren und messen lassen.
Betrachten wir aber noch weitere dialektische Einschüsse in der physikalischen
Behandlung der Geschwindigkeit.
Ändert sich die Geschwindigkeit eines bewegten Körpers, so versteht man lo-
gisch ganz richtig, daß sie zu- oder abnimmt, und man nennt es gemeinsprachlich
Beschleunigung oder Verlangsamung. Kommt eine Bewegung eines Gegenstan-
des aber zum Stillstand, so wird man logisch überhaupt nicht mehr von Bewegung
und Geschwindigkeit reden.
In der Physik ist das anders. Hier wird jede Veränderung einer Geschwindigkeit
(also auch eine Verlangsamung), ja sogar die Richtungsänderung einer Bewegung,
als „Beschleunigung“ definiert. Da wundert sich der laienhafte Autofahrer, der
mit einer Geschwindigkeit von 80 Kilometer pro Stunde in der Kurve fährt, daß er
dabei seine (logische) Geschwindigkeit beibehält und zugleich (physikalisch) be-
schleunigt.
Logisch sollte man vermuten, daß eine Geschwindigkeit v, die als beschleunigte
gleichmäßig zunimmt, allenfalls als Summe der Ausgangsgeschwindigkeiten und
der hinzugekommenen (erhöhten) Geschwindigkeiten bezüglich der zurückge-
legten Strecken definiert werden müßte. Und das wird in der Praxis durch Inte-
gralbildung über die differentiellen Geschwindigkeiten der zurückgelegten
81

Strecke so berechnet. Definiert aber wird die Beschleunigung als eine weitere
Proportion der Geschwindigkeit im Verhältnis zur Zeit, also v / t = (s / t) / t.
Logisch sollte man wiederum meinen, daß eine Geschwindigkeit, die selber nur
das Verhältnis einer zurückgelegten Raumstrecke zu einer Zeitstrecke sein kann,
nicht nochmals in ein Verhältnis zu derselben Zeitstrecke gestellt werden könnte.
Der mathematisch denkende Physiker aber produziert aus den beiden Zeitstrecken
(die eine und dieselbe, aber zugleich auch zwei verschiedene sein müssen) ein
Zeitquadrat „ t² “ und definiert die Beschleunigung als „s / t² “.
Da nun aber die einfache gleichmäßige Geschwindigkeit als Proportion s / t
definiert ist, muß sich der mathematische Physiker die Beschleunigung nunmehr
als eine Proportion einer räumlichen Strecke und einer zeitlichen Fläche vorstel-
len. Was aber eine zeitliche Fläche oder auch ein mit sich selbst multiplizierter
Zeitbegriff „ t² “ bedeuten könnte, das wird er sich kaum vorstellen können (es sei
denn, er nehme seine Zuflucht zu M. Heideggers Spekulationen über die „Zeit-
lichkeit der Zeit“). Er beachtet nur die extensionalen Quantifikationen seines Be-
griffs. Mit anderen Worten: Er hält sich daran, daß jede Einsetzung von Zahlen an
die Stellen seiner Strecken- und Zeitparameter eine durch Division errechenbare
Zahl (den Quotienten) ergibt, die ihm die Größe der jeweiligen Beschleunigung
anzeigt. Und er beschwichtigt sein unzulängliches Vorstellungsvermögen mit der
Meinung, es handele sich ja bei den Begriffszeichen um bloße Meßanweisungen
(„Dimensionen“) der jeweiligen Begriffskomponenten.
Doch auch damit sind die dialektischen Einschüsse bei den physikalischen Ge-
schwindigkeitsvorstellungen nicht erschöpft. Sie setzen sich in den Grundlagen
der sogenannten Relativitätstheorie kosmischer Geschwindigkeiten fort.
A. Einsteins „revolutionärer Sturz der klassischen Newtonschen Mechanik“
durch seine Relativitätstheorie beruhte grundsätzlich darauf, daß er die Licht-
geschwindkeit c als Naturkonstante postulierte. 42 Einstein trug damit den nega-
tiven Resultaten der Michelson-Morley-Experimente Rechnung, die darauf aus-
gerichtet waren, den Einfluß der Eigengeschwindigkeit von Lichtquellen auf die
Geschwindigkeit der ausgestrahlen Licht-Quanten (oder Lichtwellen) festzu-
stellen.
Logischerweise hätte man erwarten können, daß sich die Geschwindigkeiten der
jeweiligen Lichtquelle und des ausgestrahlten Lichtes addieren oder subtrahieren
ließen, wenn sie sich auf einer und derselben Strecke bewegen. So, wie bekannt-
lich eine aus einem fliegenden Jet in Flugrichtung abgeschossene Rakete um den
Betrag der Jet-Geschwindigkeit schneller fliegt, als sie es von einem stehenden
Abschußgerät aus tun würde. Aber dies freilich unter der Voraussetzung, daß sich
die sogenannten Lichtquanten wie nacheinander abgeschossene Raketen von der
Lichtquelle entfernen. Paradigmatische Phänomene hatten sich vorher schon beim
akustischen „Doppler-Effekt“ gezeigt: Das Motorengeräusch eines sich entfernen-
den Fahrzeugs klingt dumpfer oder tiefer, eines sich nähernden „höher“ als zum
42
Vgl. dazu H. A. Lorentz, A. Einstein, H. Minkowski, Das Relativitätsprinzip. Eine Sammlung von Abhandlungen mit
einem Beitrag von H. Weyl und Anmerkungen von O. Sommerfeld. Vorwort von A. Blumenthal, 6. Aufl. Darmstadt 1958.
82

Zeitpunkt des Passierens. Und das wird erklärt als Verlängerung bzw. Verkürzung
der Schallwellen, die beim Hörer eintreffen.
Einstein postulierte nun zur Erklärung der negativen Befunde Michelsons und
Morleys, daß sich das Licht ganz unabhängig von der Eigengeschwindigkeit der
Lichtquelle immer mit gleicher Geschwindigkeit nach allen Richtungen hin
ausbreite. Die Lichtausbreitung zeige also, anders als die Schallausbreitung, kei-
nen Doppler-Effekt. Das war die Einsteinsche Idee von der absoluten „Konstanz
der Lichtgeschwindigkeit nach allen Richtungen und unabhängig von der Eigen-
bewegung der Lichtquelle“. Ersichtlich war dies eine „paradoxe“ und mithin als
Widerspruch in sich hinzunehmende Idee. Sie wurde von den meisten Physikern
auch so verstanden. Was allerdings zeigt, daß sich in der Physik das dialektische
Denken wenigstens in dieser Frage durchzusetzen begann.
Es wurden seither zahlreiche weitere Dialektiken bzw. Widersprüche in der
Relativitätstheorie entdeckt. Sie machen sich etwa als „Uhrenparadox“ bei der
Abstimmung gegeneinander mit annähernder Lichtgeschwindigkeit bewegter
Uhren bemerkbar (was freilich nur im Gedankenexperiment demonstriert wird).
Die Relativitätstheorie verbietet auch, die Ablenkung von Lichtstrahlen („Perihel-
verschiebung“) im Gravitationsfeld kosmischer Massen als „Beschleunigung der
Lichtgeschwindigkeit“ zu deuten. Einstein begründete das damit, daß der kosmi-
sche Raum insgesamt in Abhängigkeit von der Verteilung der Sternmassen in ihm
„gekrümmt“ sei, so daß die krummen Linien dieser sogenannten (nicht-euklidi-
schen) Minkowski-Räume eben als „gerade Linien“ des relativistischen kosmi-
schen Raumes anzusehen seien.
Nun haben die bekannten Rotverschiebungen im Spektrum des Lichtes weit
entfernter Sterne, die man weiterhin analog zum akustischen Doppler-Effekt als
Maß für die sich vergrößernde Entfernung solcher Sterne (und als Argument für
eine fortschreitende Ausdehnung des Universums) benutzt, nicht dazu geführt, das
Einsteinsche Postulat der Konstanz der Lichtgeschwindigkeit, das ersichtlich den
Rotverschiebungen widerspricht, aufzugeben. Einstein selbst schlug vielmehr die
„Relativierung“ der kosmischen Maßeinheiten vor. Alle Maßeinheiten für Entfer-
nungsmessungen (auch der Lichtquellen!) sollen in Proportion zur Geschwin-
digkeit der Bewegung der Meßgeräte „kontrahieren“, d. h. kürzer werden, und
dementsprechend sollen auch die Zeitperioden der Zeitmeßinstrumente „dilat-
tieren“, also länger werden.
Auch das ist für den Logiker nicht nachvollziehbar. Denn es wird ihm zuge-
mutet sich vorzustellen, daß ein Metermaß, das er evtl. bei einem Raumflug (mit
angenäherter Lichtgeschwindigkeit) mit sich führt, zugleich dasselbe bleibt und
auch kürzer wird. Und daß die mitgeführte Uhr in gleichem Rhythmus weitertickt
und zugleich langsamer geht.
Physiker „erklären“ dies dem Laien so, daß der Raumfahrer bei der langsamer
verstreichenden Zeit der Reise jünger bleibt als die zurückgebliebenen Erdbe-
wohner (was ersichtlich die Raumfahrt attraktiv macht). Der Logiker aber wird
dagegenhalten, daß die widersprüchliche Relativitätstheorie auch den gegentei-
83

ligen Schluß zuläßt. Der zurückbleibende Erdbewohner entfernt sich mit der-
selben Geschwindigkeit vom Raumschiff wie dieses von der Erde. Und so müssen
auch die irdischen Uhren im Verhältnis zu den Uhren im Raumschiff langsamer
ticken. Dialektisches Denken erlaubt es, beides zu beweisen.
1983 hat die (internationale) 17. Allgemeine Konferenz für Maße und Gewichte
eine neue Längeneinheit (anstatt des Pariser „Urmeters“) als diejenige Strecke
definiert, die das Licht im Vakuum in 1/299792458 Sekunden zurücklegt. „Damit
wurde die Lichtgeschwindigkeit c als Naturkonstante endgültig festgelegt und die
Längendefinition von der Zeitdefinition abhängig gemacht“.43 Man kann das eine
Art apostolischer Definition nennen. Denn wenn die physikalischen Grundbegriffe
Raum und Zeit durch die Lichtgeschwindigkeit definiert werden, kann man sie
nicht mehr Grundbegriffe nennen und die Geschwindigkeit durch sie definieren.

Ein anderer wichtiger physikalischer Begriff ist der Kraftbegriff. Er ist schon von
Aristoteles in die Naturphilosophie eingeführt worden, und zwar im Zusammen-
hang seines Vier-Ursachenschemas der Erklärung von Veränderungen und Bewe-
gungen der natürlichen Dinge (vgl. dazu § 18).
Bei Aristoteles ist Kraft eine Disposition bzw. Anlage der toten und lebendigen
Wesen, auf Grund ihrer „materialen Ursache“ (hýle, ὕλη, lat. materia) „Formen“
(morphé, μορθή, lat. forma) anzunehmen, die ihre dann veränderten Bewegungs-
zustände bzw. ihre veränderten Gestalten als „aktuellen Zustand“ (energeia ἐνέρ-
γεια, lat. actus, dt. wörtlich “Beim-Werke-sein“ oder „Wirklichkeit“) anzeigen.
Aristoteles nannte diese Eignung zur Aufnahme von Formen „Dynamis“ (δύναμις,
lateinisch potentia, Kraft). Das blieb im späteren abendländischen Wortschatz als
„Potenz“ und somit auch in der Bezeichnung von Kräften erhalten. Die Bezeich-
nung des jeweils „aktuellen“ Zustandes aber blieb im modernen Energiebegriff
erhalten.
Das Vier-Ursachenschema diente vor allem der Erklärung von natürlichen und
(durch andere Körper) erzwungenen Bewegungen (ί, lat. motus) der irdi-
schen und kosmischen Körper und legte insofern den Grund für eine „dynami-
sche“ Physik bzw. physikalische Kinetik.
Als „natürliche Bewegungen“ beschrieb Aristoteles die sinnlich beobachtbaren
geradlinigen Bewegungen von erdhaften und flüssigen Substanzen zum Erdmittel-
punkt, die geradlinigen Bewegungen von lufthaften und feurigen Substanzen in
entgegengesetzter Richtung nach oben, schließlich die Bewegungen der Gestirne
auf „vollkommenen“ Kreisbahnen. Diese natürlichen Bewegungen erklärte
Aristoteles durch teleologische Ursachen (ηέ, causa finalis), die das „Ziel“
dieser natürlichen Bewegungen als ihren „heimatlichen Ort“ (ἰκῖ ηóπος oikei-
os topos) bestimmten. Als „Entelechie“ (ἐνηελέτεια, lat. impetus, tendentia, „inne-
res Streben“) bezeichnete er die ständige Ausrichtung des bewegten Körpers bzw.
des sich verändernden Lebewesens auf dieses Ziel hin. Vermutlich hat ihm dafür

43
R. Knerr, Goldmann Lexikon Mathematik, Gütersloh und München 1999, S. 247.
84

die beständige Ausrichtung einer Magnetnadel auf einen Magneten bei allen
Lageveränderungen als Modell für das Entelechiekonzept gedient.
„Erzwungene Bewegungen“ ergaben sich bei Aristoteles durch die Berührun-
gen und Kreuzungen der natürlichen Bewegungen der Körper. Wobei der Eingriff
des Menschen in diese natürlichen Bewegungen selbst das deutlichste anschau-
liche Beispiel für das Bewirken von Veränderungen wurden. Die erzwungenen
Bewegungen werden durch eine Wirkursache (ὅ ἡ ἀὴ ηῆ ή,
„woher der Ursprung der Bewegung“, causa efficiens) hervorgebracht. Ein Stoß
oder Druck (πή, lat impulsus, „Einschlag“) verleiht einem Körper eine Bewe-
gung in eine Richtung, die von der natürlichen ungezwungenen Tendenz zu
seinem „heimatlichen“ Ziel abweicht. Die durch Wirkursachen hervorgerufenen
Bewegungen stören also die natürlichen Bewegungen. Dies aber nach Aristoteles
nur solange, bis die natürlichen Bewegungen der Substanzen wieder bestimmend
werden und diese ihre natürlichen Ziele „anstreben“. Das ist von der neuzeitlichen
Newtonschen Physik im Begriff der Trägheitskraft als Beharren in einer unge-
störten geradlinigen Bewegung sowie als Beharren in „Ruhe“ beibehalten worden.
Bis in die Spätscholastik wurde das aristotelische Vier-Ursachenschema soweit
ausgebaut, daß die vier Ursachen die Interventionen der Körper untereinander auf
folgende Weise erklärten: die materielle Ursache erklärte überhaupt die Existenz
eines oder mehrerer Körper. Die formale Ursache erklärte ihre Gestalt. Die kau-
sale Ursache wirkte als „Einschlag“ (impulsus) eines Körpers auf einen anderen in
direkter Berührung, wodurch eine Kraft (potentia) übertragen wurde. Und die
Finalursache bewirkte als sogenannter Impetus (lat. intus petere, wörtlich: inneres
Streben oder Tendenz) die Einhaltung der natürlichen Bewegung, die ggf. durch
einen Impuls gestört wurde.
Die neuzeitliche Physik entwickelte sich aus dem Zusammentreffen dieser
aristotelischen (nicht-mathematischen und sozusagen phänomenologischen) Phy-
sik mit der neuplatonischen Phänomen- und Geisterlehre und ihrer teilweisen
Durchdringung. Der Platonismus aber brachte auch die Mathematisierung in die
neuzeitliche Physik.
Die neuplatonischen Geister (Engel) galten als die „Ausflüsse“ (Emanationen)
aus dem göttlichen Schöpfergott. Wie Gott die Welt geschaffen hat, so wirken
auch diese Geister unsichtbar auf die sinnlichen Erscheinungen ein. Die Verän-
derungen in der körperlichen Naturwelt wurden alsbald neuplatonisch in der
aristotelischen Terminologie von Kräften (Potenzen, Energien und Entelechien)
erklärt. Neuplatonischen Physikern war es daher selbstverständlich, daß man diese
Kräfte nicht sinnlich beobachten und wahrnehmen, sondern nur auf Grund ihrer
Wirkungen erschließen konnte. Und die Ausbreitung des neuplatonischen Den-
kens in weiteren Kreisen führte gleichzeitig mit der Entwicklung der modernen
Physik zu einem wuchernden Gespenster- und Hexenglauben in der Bevölkerung.
Die Unbeobachtbarkeit der Kräfte und Energien blieb seither ein neuplato-
nisches Erbstück der neuzeitlichen Physik. Man nennt derartiges heute „unbeo-
bachtbare Parameter“. Da man sie nur aus ihren Wirkungen erschließen können
85

sollte, wies man den beobachteten natürlichen und erzwungenen Bewegungs-


formen des Aristoteles jeweils diese Kräfte als Wirkursachen zu. Und das ver-
änderte die aristotelische Erklärungsweise mittels des Vier-Ursachenschemas.
Das neuzeitliche Methodenbewußtsein der Physiker stellt als wesentliche Verän-
derung und als wissenschaftlichen Fortschritt die Eliminierung der (aristote-
lischen) teleologischen Ursachen zugunsten reiner „Kausalerklärungen“ (allein
mittels der causa efficiens) heraus. Das ist jedoch eine falsche Ansicht späterer
Naturwissenschaftler, die das aristotelische Vier-Ursachenschema als überholt
ansahen und dabei die tatsächliche Rolle des aristotelischen Entelechie- und
Impetusbegriffs mißverstanden. Zwar verschmähte man den Terminus „Ente-
lechie“ zusammen mit der „causa finalis“ und schnitt diese Terminologie gleich-
sam mit dem Ockhamschen Rasiermesser aus dem physikalischen Sprach-
gebrauch heraus, weil man sie für „überflüssige“ Reminiszenzen an Spuk- und
Geistereinflüsse in die Naturwelt hielt. Tatsächlich aber wurden sie unter anderen
Bezeichungen in die Grundlagen der modernen Physik übernommen.
In neuer Terminologie sprach man nun von der „Kraft der Beharrung im
Zustand entweder der Ruhe (Trägheits- bzw „Faulheits“-Kraft) oder der ungestör-
ten gleichformigen und geradlinigen Bewegung“ (I. Newton).
Sowohl die „Ruhe“ als auch die „geradlinige Bewegung“ wurden so als die
einzig übrigbleibenden „natürlichen Bewegungen“ des Aristoteles beibehalten und
durch die „Trägheitskraft“ (als Nachfolger der „Entelechie“) erklärt. Die Kreisbe-
wegungen (zugleich mit allen Bewegungsformen gemäß den geometrischen
Kegelschnitten) aber wurden nunmehr als erzwungene Bewegungen angesehen
und mußten „kausal“ (ausschließlich durch Wirkursachen) erklärt werden.
Als materielle Ursache galt weiterhin die Materie. Von Demokrit und Epikur
übernahm man die Bezeichnung „Atom“. Die Atome aber wurden dann zu „Kor-
puskeln“ und schließlich zur physikalischen „Masse“ („m“).
Definiert wurde die Masse zuerst mittels ihrer (natürlichen teleologischen) En-
telechie, sich auf den Erdmittelpunkt hin zu bewegen, was man dann ihre
„Schwere“ oder „Gewicht“ nannte. Nachdem die sogenannte kopernikanische
Revolution aber die Erde zu einem „Himmelskörper“ neben den anderen (Plane-
ten, Sonne und alle Sterne) erklärt hatte, wurde die „Erdenschwere“ zu einer
allgemeinen Bestimmung aller Himmelskörper im gegenseitigen Verhältnis zu-
einander. Die „Schwere“ wurde zu einer Entelechie aller Himmelskörper. Die
berühmte „Gravitationskraft“ (Schwerkraft oder Anziehungskraft) der Massen
Newtons, die dieser bekanntlich weder erklären wollte noch konnte, resultierte aus
der Verallgemeinerung der alten aristotelischen „natürlichen“ Bewegungsrichtung
der „schweren“ Massen untereinander.
Die Interventionen der kosmischen und sublunarischen Körper wurden dadurch
zu einem Kräftespiel der Beharrungs- und Veränderungskräfte, das man nur an
ihren Bewegungen ablesen konnte. Es kam alles darauf an, eine Darstellungsweise
einzuführen, die die Identität der beobachtbaren Körper, ihrer Bewegungen,
Geschwindigkeiten, Beschleunigungen mit ihren Potenzen zu formulieren ge-
86

stattete. Das war die mathematische Gleichungsform und ihre Eignung zur Defi-
nition quantifizierter Größen.
Was man dabei als Kraft definieren sollte, darüber bestand lange keine Über-
einstimmung unter den Physikern.
Descartes und seine Schule schlugen vor, die physikalische Kraft als m × s / t.
(d. h. „Massen-Geschwindigkeit“) zu definieren: also K = m × v. Das ist auch so
beibehalten worden. Aber die Kraft des bewegten Körpers ließ sich so nur für
geradlinige und gleichförmig bewegte Körper bestimmen. Man hatte es aber in
vielen und interessanten Fällen mit beschleunigten und nicht auf geraden Linien
bewegten Körpern zu tun.
Hierzu machte man Gebrauch von den Definitionsgleichungen der Beschleu-
nigungen, die wir vorn schon behandelt haben. Es war Leibniz, der dafür den Be-
griff der „lebendigen Kraft“ (vis viva“ vorschlug, weil sich solche unregel-
mäßigen Bewegungen augenfällig bei Lebewesen beobachten ließen. Das wurde
zunächst angenommen und mit dem gleichsam brachliegenden aristotelischen
Begriff der Energie („E“) benannt. Die Definition der Energie bei Leibniz und
seinen Zeitgenossen lautete E = m × v². Auch dies wurde festgehalten, wie man
noch bei Einstein sieht, der die (gesamte kosmische) Energie als „E = m × c² “
(Masse multipliziert mit dem Quadrat der Lichtgeschwindigkeit c) definierte.
Daß es den Physikern aber auf die rein quantitativen Bestimmungen dabei nicht
allzu sehr ankam, sieht man daran, daß Jean LeRond d‟Alembert schon im 18.
Jahrhundert und G. C. Coriolis 1829 die Leibnizsche Definition durch den Faktor
½ korrigieren wollten und die Energie somit als „ ´ m × v² “ definierten. Diese
Korrektur berücksichtigt die Entdeckung der „Calculatores“ (Rechenkünstler) des
Oxforder Merton-Colleges in der Scholastik, wonach die Endgeschwindigkeit
einer gleichmäßig beschleunigten Bewegung der „mittleren“ Durchschnittsge-
schwindigkeit entspricht.44
Diese Definitionen typischer physikalischer Begriffe zeigen, daß in der Physik
die Berechnungsweisen von Meßdaten der Grundgrößen von Zeit- und Raum-
strecken in die intensionalen Definitionen der jeweiligen komplexeren Begriffe
übernommen werden. Logisch aber besteht doch Bedarf, über die Tragweite und
Sinnhaftigkeit dieses Verfahrens genauere Klärungen herbeizuführen.
So ist es schon logisch fragwürdig, Proportionen zwischen irgendwelchen
Größen, die als Quotientenbegriffe dargestellt werden, grundsätzlich auszurech-
nen. Bei den Geschwindigkeiten hat man sich daran gewöhnt. Aber wer würde
etwa das Ergebnis eines Fußballspiels von 6 : 2 Toren als 3 Tore angeben? Ganz
abgesehen davon, daß dasselbe Torverhältnis auch als 2 / 6 = 0, 333... „ oder „1/3“
angegeben werden könnte.
Noch fragwürdiger erscheinen die mathematischen Potenzierungen von Begrif-
fen, in denen logisch ja ohne Zweifel Begriffe mit sich selbst zu neuen Begriffen
vereinigt werden. Auch an dieses Verfahren hat man sich seit Euklids Zeiten
44
Vgl. dazu M. Jammer, Art. „Energie“, in: J. Ritter (Hg.), Historisches Wörterbuch der Philosophie, Band 2, Basel-
Stuttgart 1972, Sp. 494 - 499.
87

durch die Definitionen von Flächen (a²) und Körpern (a³) durch Potenzierung ihrer
Seitenlängen gewöhnt. Aber man hat nicht darauf geachtet, daß das Meßver-
fahren, einen Maßstab a an zwei bzw. drei ganz verschieden ausgerichtete (im
rechten Winkel zueinanderstehende, d. h. vektoriell verschiedene) Seiten eines
Quadrats oder eines Kubus anzulegen, keineswegs darauf schließen läßt, daß eine
Quadratfläche aus der 2. Potenz des Begriffs Strecke bzw. ein Kubus aus der 3.
Potenz einer Strecke hervorgehen könnte. Und somit erst recht nicht bei nicht-
euklidischen Flächen und Körpern. Es kann nur diese Denkgewohnheit sein, die
dem Physiker auch Begriffe wie Zeitquadrat oder Geschwindigkeitsquadrat in
irgend einer Weise als „rationale“ Denkhilfe bei seinen Begriffen erscheinen
lassen.
Geht man der historischen Entwicklung dieser Denkgewohnheit in Potenzen
nach, so stößt man auf „logische“ Begriffsbildungen, die als „Reflexionsbegriffe“
bekannt geworden sind und seit jeher als rätselhaft gelten. Der Prototyp scheint
des Aristoteles „noesis noeseos“, d. h. „Denken des Denkens“ gewesen zu sein.
Aristoteles hielt das „Denken des Denkens“ für eine nur einem Gotte zukom-
mende Fähigkeit. Aber später machte dieser Reflexionsbegriff als „Selbst-Be-
wußtsein“ auch bei minderen Geistern bedeutend Fortüne.
Raimundus Lullus (um 1235 – 1315) hat in seiner Ars Magna schon jede
Menge anderer Begriffe in dieser Weise mit sich selbst potenziert. Auch Charles
Bouillé (Carolus Bovillus, 1470 - ca. 1553, ein seinerzeit berühmter Logiker aus
der Schule des Petrus Ramus (Pierre de la Ramée) hat - freilich recht beiläufig -
vorgeschlagen, eine produktive Verschmelzung eines Begriffs mit sich selbst in
die Logik einzuführen. Er schlug vor, den ersten Menschen Adam als „homo“,
Eva als aus dem ersten Menschen gemacht als „homo-homo“ und Abel als dritten
Menschen und gemeinsames Produkt der Eltern als „homo-homo-homo“ zu be-
zeichnen.45 Aber bekanntlich wurden solche Vorschläge von den Logikern nie-
mals ernst genommen, wohl aber von Leibniz. Und Leibniz hat maßgeblich daran
mitgewirkt, diese „mathematische Begriffsbildung“ für „logisch“ und selbstver-
ständlich zu halten.
Die Dialektik in der mathematischen und physikalischen Begriffsbildung ist
gewiß nicht allen Mathematikern und Physikern entgangen. 46 Aber die meisten
halten die entdeckten Widersprüche und Paradoxien für Probleme, die auf dem
Wege künftiger Forschung durch widerspruchslose Lösungen zu überwinden
seien. Manche jedoch, wie etwa der Nobelpreisträger Richard P. Feynman, be-
haupten, daß z. B. die Quantenphysik – im Unterschied zum logischen Common-
sense – der „Absurdität“ (d. h. Widersprüchlichkeit) der Natur Rechnung tragen
müsse:

45
Carolus Bovillus, Liber de Sapiente, im Nachdruck der Ausgabe seiner Schriften Paris 1510, Stuttgart-Bad Cannstatt
1970 (erst 1973 erschienen) S. 132.
46
Zum Widerstand einiger Philosophen und Logiker gegen Riemanns mehrdimensionale Raumtheorie vgl. R. Torretti,
Philosophy of Geometry From Riemann to Poincaré, Dordrecht-Boston-London 1978, Chap. 4, 1: „Empiricism in Geo-
metry“ und 4,2: „The Uproar of Boeotians“, S. 255 – 301.
88

„Die Theorie der Quanten-Elektrodynamik beschreibt die Natur vom Standpunkt des
Commonsense als absurd. Und sie stimmt gänzlich mit den Experimenten überein.
So hoffe ich, daß Sie die Natur als das akzeptieren können, was sie ist, - absurd“.47

Und offensichtlich in der Meinung, solche Widersprüchlichkeiten ließen sich


weder denken noch verstehen, sagt er an anderer Stelle:

„Ich denke man kann mit Sicherheit sagen, daß niemand die Quantenmechanik
versteht“.48

Andere wie N. D. Mermin umschreiben den Sachverhalt als „magisch“: „Das


Einstein-Podolski-Rosen-Experiment kommt der Magie so nahe wie jedes physi-
kalische Phänomen, das ich kenne, und an Magie sollte man sich erfreuen“.49
Paul Marmet, dem diese Äußerungen (in meiner Übersetzung) entnommen
sind50, bucht solche Widersprüche gänzlich auf das Konto der sogenannten Ko-
penhagener Schule Niels Bohrs und ihre (angeblich auf George Berkeley grün-
dende) idealistische Erkenntnistheorie. Er glaubt, sie alle durch einen entschie-
denen Realismus und Rationalismus „lösen“ zu können. Die Mathematik aber
nimmt er gänzlich von dem Vorwurf aus, sie könne für diese Widersprüche ver-
antwortlich sein. Für ihn „bildet der mathematische Formalismus, der in der
Physik gebraucht wird, wahrscheinlich dasjenige, was das kohärenteste und logi-
sche interne System ist, welches es in der Wissenschaft gibt“ (ibid. S. 20). Da
irritiert ihn nicht einmal Werner Heisenbergs Eingeständnis, daß die „Paradoxien
der dualistischen Wellen- und Teilchenvorstellungen“ in der Mikrophysik „ir-
gendwie im mathematischen (Denk-)Schema verborgen liegen“.51
Kommen wir nach den Beispielen der physikalischen Begriffsbildung zu den
Gemeinsamkeiten und Unterschieden, die zwischen Logik und mathematischer
Logik bzw. Mathematik hinsichtlich ihrer Urteilsbildung oder Aussageformen
bestehen. Auch sie sind beträchtlich.
Gemeinsam ist der logischen wie der mathematischen Methodologie, daß sie die
Urteils- bzw. Aussageformen (Propositionen, engl.: propositions) als Mittel der
Formalisierung von wahren und falschen Behauptungen, darüber hinaus auch von
Wahrscheinlichkeiten behandeln. Für diese Formalisierungen werden bestimmte
Junktoren benutzt, durch welche die jeweiligen Begriffe verknüpft werden. Die
gemeinsame Vorlage, gleichsam das Muster dafür, ist der reguläre grammatisch
wohlgebildete sprachliche Behauptungssatz: „Irgend etwas ist (oder verhält sich)
so“.
47
R. P. Feynman, The Strange Theory of Light and Matter, Princeton University Press , N. J., 1988, S. 10.
48
R. P. Feynman, The Character of Physical Law, 1967, S. 129.
49
N. David Mermin, „Is the Moon There when Nobody Looks? Reality and Quantum Theory“, in: Physics Today, April
1985, S. 47.
50
P. Marmet, Absurdities in Modern Physics: A Solution, or: A Rational Interpretation of Modern Physics, Ottawa 1993.
51
W. Heisenberg, Physics and Philosophy, the Revolution in Modern Science, New York 1966, S. 40, zit. bei Marmet S.
24.
89

In der Logik ist der Hauptjunktor für behauptende Urteile bzw. Sätze die sprach-
liche Partikel „ist“, die sogenannte Kopula geblieben. Sie wird daher auch seit
jeher schlechthin „Verknüpfungsjunktor“ (lat.: copula) genannt. Und in Anknüp-
fung an die logische und sprachliche Verwendung der Kopula wurde auch in der
Mathematik das „ist“ beibehalten. Allerdings mit einer entscheidenden Einschrän-
kung, die mit der Behauptung der „Gleichheit“ ausgedrückt wird.
Die Behauptungsformel in der Mathematik lautet also „irgend etwas ist gleich
einem anderen etwas“. Der Verfasser gesteht bei dieser Gelegenheit gerne, daß er
sich im mathematischen Grundschulunterricht – weil im Deutschen „gleich“ auch
„sofort“ bedeutet - eine zeitlang zu der Meinung verführen ließ, die Mathematiker
hätten es mit ihren Gleichungen nur auf Schnelligkeit des Denkens, d. h. „sofor-
tige“ Ausrechnungen der Gleichungen angelegt.
Nun wird diese mathematische Gleichheitsaussage seit jeher für eine exaktere
Form der logischen kopulativen Sätze gehalten. Wie das von Ch. S. Peirce und H.
Weyl begründet wurde, ist schon im vorigen Paragraphen gezeigt worden. Man
sieht das auch an dem laxen Sprachgebrauch vieler Mathematiker, die ihre Glei-
chungen auch in der Form „a ist b“ oder ähnlich lesen. Und so findet man zwi-
schen Descartes und Kant immer wieder mathematische Gleichungen als Bei-
spiele für besonders klare und exakte Urteile angeführt. Berühmt ist das schon
erwähnte Beispiel Kants für das, was er für ein „synthetisches Urteil a priori“
hielt, nämlich die Gleichung „7 + 5 = 12“.52
Der logische kopulative Behauptungssatz drückt jedoch in keiner Weise irgend
eine Gleichheit zwischen einem Subjekt und einem Prädikat aus. Handele es sich,
um mit Kant zu reden, um analytische oder synthetische Urteile, so wird in ihnen
durchweg gerade eine Ungleichheit zwischen Subjektsbegriff und Prädikatsbegriff
vorausgesetzt. Nämlich dadurch, daß („analytisch“) eine Eigenschaft (ein Merk-
mal), das sich neben anderen Merkmalen im Subjektbegriff findet, eigens heraus-
gestellt und betont wird, oder daß es („synthetisch“) zu den Merkmalen des Sub-
jektsbegriffs hinzugefügt wird. In mathematischen Gleichungen stehen jedoch die
Ausdrücke links und rechts vom Gleichheitszeichen in keinerlei logischem Sub-
jekt-Prädikatverhältnis. Durch die Gleichung wird vielmehr die vollkommene
logische Identität der Bedeutungen der Ausdrücke links und rechts vom Gleich-
heitszeichen zum Ausdruck gebracht. Und deswegen kann eine mathematische
Gleichung keineswegs eine exaktere Form eines logischen kopulativen Urteils
sein.
Die Gleichung ist in der Tat eine „Aussageform“, die in der klassischen Logik
ebenfalls immer benutzt worden ist, nämlich eine sogenannte Äquivalenz. Die
Gleichung bzw. Äquivalenz geht vermutlich auf den philologischen Brauch zu-
rück, in den Wortlisten und späteren Sprachlexika Wörter verschiedener Sprachen
mit identischer Bedeutung nebeneinander anzuordnen, wobei das Gleichheitszei-

52
I. Kant, Kritik der reinen Vernunft, A 164, sowie Einleitung B 16 und B 205; auch in den Prolegomena, Vorerinne-
rungen § 2, c.
90

chen eingespart wird (z. B. Armut = Pauvreté). Dasselbe Verfahren der Neben-
einanderstellung wurde und wird aber auch innerhalb einer und derselben Sprache
bei den sogenannten Synonymen verwendet, also bei verschiedenen Wörtern oder
Ausdrücken, die dasselbe bedeuten.
Die logische Form dieser Äquivalenzen ist dann zur Standardform der logischen
Begriffsdefinition geworden. Es kommt hierbei ausschließlich darauf an, einen
(durch ein Wort bzw. Term bezeichneten) Begriff dadurch zu erläutern, daß seine
Merkmale (Intensionen) und sein Anwendungsbereich (die Extension) deutlich
werden. Auch die aristotelische Standarddefinition durch Angabe der generischen
und spezifischen Merkmale bezweckt nichts anderes.
Nun kann man freilich auch den Logikern den Vorwurf nicht ersparen, daß sie
den Unterschied zwischen kopulativen Behauptungen und definitorischen Erläu-
terungen (Äquivalenzen) nicht immer bemerkt und beachtet haben. Kennzeich-
nend dafür ist, daß man etwa die sogenannten Subalternationen, bei denen „eini-
ge“ und „ein“ Exemplar einer Gattung (also eine von mehreren Arten und ein
bestimmtes Individuum einer Gattung) definiert werden, für partikuläre und indi-
vidualisierende „Urteile“ mit einem bestimmten Wahrheitswert hält.
Hält man den Unterschied zwischen kopulativen behauptenden Urteilen der
Logik und gleichungsmäßigen Definitionen der Mathematik fest, so muß man
auch einsehen, daß die mathematischen Gleichungen in ihrer regulären Verwen-
dung nur Definitionen mathematischer Begriffe und Ausdrücke sein können. Und
das muß dann auch für die Anwendungen mathematischer „metrischer Begriffe“
in den mathematisierten Wissenschaften, insbesondere in der Physik gelten.
Es gilt also mit dem epochalen Mißverständnis Schluß zu machen, mathema-
tische Gleichungen wie „3 ∙ 3 = 9“ oder physikalische wie „s / t = v“ seien
überhaupt Urteile bzw. Behauptungen, die mit Wahrheit oder Falschheit in Ver-
bindung zu bringen seien. Es sind vielmehr Definitionen von Begriffen und evtl.
Ausdrücken, denen ein Terminus zugeordnet wird. Und die dadurch eingeführten
Begriffe sind teils durch ihr Alter, teils durch Auswendiglernen in der Alltags-
sprache sanktioniert worden. Da es sich dabei um Ausdrücke und Begriffe han-
delt, haben sie logisch also keinen sogenannten Wahrheitswert.
Das kann allerdings nicht heißen, daß der Umgang und die Beherrschung
solcher Ausdrücke und Begriffe immer so leicht wie beim Auswendiglernen eines
Vokabulars oder des kleinen Einmaleins wären. Jede Rechenaufgabe in der Form
einer Gleichung mit größeren Zahlen und/oder komplexeren Rechenanweisungen
stellt gegebenenfalles eine große Herausforderung dar. Aber ein nach allen Regeln
der praktischen Rechenkunst erzieltes Rechenergebnis als wahre Erkenntnis oder
neues Wissen zu deuten, geht an den logischen Tatsachen vorbei. Und das gilt
auch in den Fällen, wo die praktische Rechenkunst bei Nicht-Aufgehen von Rech-
nungen dazu geführt hat, immer neue Zahlarten (wie die negativen Zahlen beim
Subtrahieren über die Null hinaus, oder die imaginären Zahlen beim Wurzelziehen
aus negativen Zahlen) zu definieren.
91

Der Übergang zu etwas anderem als Begriffsdefinitionen liegt allerdings dort vor,
wo Mathematiker und Physiker sich in Prosatexten ohne Gleichungsformeln
äußern oder zu solchen Äußerungen veranlaßt werden. Hier müssen sie mittels
Behauptungen gleichsam Farbe bekennen, nämlich über das, was sie für wahr
und/oder falsch halten. Dabei unterliegt aber die Prüfung von Wahrheit und
Falschheit ausschließlich logischen Kriterien. Und das zeigt, daß letzten Endes
auch Mathematik und Physik in ihren Einsichten, Erkenntnissen und Theorien auf
die klassische Logik verpflichtet werden können und müssen.
Der Unterschied zwischen der logischen und mathematischen Denkweise redu-
ziert sich dadurch auf professionelle Voreingenommenheiten bezüglich ihrer
Textsorten. Denn der Logiker achtet auf die grammatische und logische Kor-
rektheit der mathematischen und ggf. physikalischen Behauptungen und sucht in
den mathematischen Formeln allenfalls Erläuterungen dazu, falls er sie nicht
gänzlich überschlägt. Der Mathematiker und Physiker aber geht davon aus, daß
sich der Behauptungsgehalt am deutlichsten und exaktesten in den angeführten
Gleichungen darstelle, und daß alles Reden darüber nur eine mehr oder weniger
einleuchtende Interpretation sei. Und dies kann nach allem, was über Gleichungen
zu sagen war, nur als Selbsttäuschung bezeichnet werden.
Die Lage kompliziert sich dadurch, daß es bei logischen Urteilen mit der zwei-
wertigen Logik von „wahr“ und „falsch“ nicht getan ist. Hinter dem Thema drei-
und/oder mehrwertiger Logiken verbergen sich mehrere Problematiken, von de-
nen man kaum wird sagen können, daß sie bis jetzt angemessen geklärt geschwei-
ge denn gelöst sind.
Zunächst hat man damit zu rechnen, daß in der Wissenschaft neben manifest
wahrem und methodisch falsifiziertem falschem Wissen, das in klaren Behaup-
tungen formuliert wird, vielerlei in Vermutungen, Hypothesen, Konjekturen und –
wie eingangs schon behandelt – in der Gestalt von Glauben und Intuitionen arti-
kuliert wird. Das mag noch mancher vorsichtige Forscher in seinen Reden und
Texten im sprachlichen Konjunktiv oder mittels verbaler Relativierungen des
Behauptungscharakters wie „könnte“, „dürfte“, „sollte“, „möglicherweise“ u. ä.
formulieren. Hat er aber logische oder mathematische Ambitionen, so kann er
nicht auf die nichtbehauptende Satzform der Vermutung zurückgreifen, denn
weder in der Logik noch in der Mathematik gibt es einen Konjunktiv. Also bleibt
ihm gar nichts anderes übrig, als seine Vermutungen in der behauptenden Urteils-
form oder mathematisch in der vermeintlich behauptenden Gleichungsform auszu-
drücken.
Auf diese Weise formulierte Vermutungen zielen naturgemäß auf die Wahrheit.
Und deshalb zeigen sie vor allem, was der Autor für wahr hält, viel weniger aber,
was er eventuell für falsch halten könnte. Und deswegen wiederum spricht man
angesichts solcher Vermutungen von „Wahrscheinlichkeit“. In welchem Begriff ja
der Wahrheitsanspruch und zumindest eine gewisse Wahrheitsnähe prätendiert
wird. Es „scheint so“, als sei die Wahrheit in der Vermutung schon enthalten. Man
weiß natürlich, daß eine Vermutung gelegentlich auch bestätigt wird, und das gilt
92

als „Verifikation“ bzw. Wahrheitsbeweis. Aber ebenso weiß man auch, daß eine
Vermutung gänzlich „daneben liegen“ kann. Aber dafür gibt es bisher leider
keinen gleichwertigen Begriff der „Falschscheinlichkeit“ von Vermutungen.
Dies waren und sind sicher genügend ernsthafte Gründe, die Wahrscheinlichkeit
in der Logik als einen dritten „Wahrheitswert“ auszuzeichnen und ihn in der
mathematischen Wahrscheinlichkeitslehre noch numerisch zu einem Kontinuum
von „Wahrscheinlichkeiten“ zu spreizen.
Wir gehen nun davon aus und haben schon früher gezeigt (vgl. Logik, Aalen
1987), daß die „Wahrscheinlichkeit“ von Vermutungen, aber dann auch in der
logischen Form der Behauptung, nichts anderes ist als ein „zugelassenes Drittes“
zwischen und neben den wahren und falschen Behauptungen. Ebenso wurde
schon gezeigt, daß dieses „Dritte“ mit dem „Widerspruch“ identisch ist und also
„Wahr-Falschheit“ genannt werden sollte. Die Widersprüche im Wahrscheinlich-
keitsbegriff erweisen sich anhand von mehren Charakteristika, die man leicht auch
als Paradoxien formulieren kann.
Auch bezüglich der Wahrscheinlichkeitskonzepte halten sich die Unterschiede
zwischen logischem und mathematischem Denken durch. Logische Wahrschein-
lichkeit ist stets symmetrisch wahr und falsch zugleich; mathematisch-numerische
Wahrscheinlichkeit spreizt die Wahrheit und Falschheit zu unterschiedlich quanti-
fizierten Anteilen auf, bzw. sie geht davon aus, daß dies so wäre. Gleichwohl liegt
die logische nicht-quantifizierbare Wahrscheinlichkeit auch jeder mathematischen
Wahrscheinlichkeit zugrunde.
Wegen der großen Wichtigkeit der Wahrscheinlichkeit und ihrer immer noch
recht undurchsichtigen Natur, soll ihr ein eigener § 11 gewidmet werden.
93

§ 9 Die logischen und mathematischen Elemente

Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige Induktion.
Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion: Kontrolle der korrekten
Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der logischen Deduktion des Zahlbegriffs und der
hauptsächlichen Zahlarten. Die Primzahlberechnung. Die Funktion der Buchstabenzahlen (Variablen) in der Mathematik.
Unterscheidung der begriffs- und ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre
pyramidale Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behaup-
tungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“ zwischen Urteils- und Schlußlehre.
Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale Formalisierung der Hegelschen „Phänomenologie des
Geistes“ und einer logischen Zahlentheorie. Die Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des
Widerspruchs und des „Dritten“ und die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit

Ausgehend vom Primat der Logik auch für das Verständnis der elementaren
mathematischen Begriffe, seien im Folgenden die logischen Elemente vorgestellt
und erläutert. Soweit möglich, seien dann auch die elementaren mathematischen
Elemente im Vergleich mit den logischen vorgestellt und ggf. auf diese zurück-
geführt.

1. Begriffe und ihre logische Konstruktion


Begriffe und ihre Bildung und Handhabung sind grundlegend für alle Wissen-
schaften. Jede Wissenschaft ist durch die Anzahl und logische Qualität an Klarheit
und Deutlichkeit ihres Begriffsbestandes grundsätzlich bestimmt und begrenzt.
Über ihren eigentlichen Begriffsbestand hinaus verfügt jedoch jede Wissen-
schaft über einen mehr oder minder umfangreichen Vorrat an bildungssprachli-
chen Wörtern. Diese tragen zu einem mehr oder weniger klaren Vorwissen über
den thematischen Bereich bei, auf den sich die jeweilige Wissenschaft bezieht.
Die Bildungssprache liefert allerdings in der Regel nur „Bedeutungen“ der jewei-
ligen thematischen Wörter, die gewöhnlich in den allgemeinen sprachlichen Lexi-
ka verzeichnet sind. Selten oder gar nicht liefert sie zugleich auch Vorwissen über
die Extensionen bzw. Umfänge, die in den eigentlichen wissenschaftlichen Be-
griffen unabdingbar damit verbunden sind, und durch die alle relevanten Begriffe
in einer „theoretischen“ bzw. wissenschaftlichen Allgemeinheitshierarchie unter-
einander verknüpft werden.
Begriffe sind keine „Einheiten“, wie es die alphabetischen Fachlexika und die
üblichen Formalismen insinuieren. Vielmehr sind sie mittels ihrer Bedeutungen
(Intensionen) und Umfänge (Extensionen) untereinander verknüpfte Hierarchien
von Themen- und Verweisungskomplexen des wissenschaftlichen Wissens. Die
hierarchische Ordnung eines wissenschaftlichen Begriffsbestandes drückt sich im
Allgemeinheitsgefälle von Gattung, Art, Unterart, Unter-Unterart usw. bis zu un-
tersten Begriffen als „Kennzeichnungen“ individueller Fakten und Daten aus.
Ihre hierarchische Struktur wird in Begriffspyramiden (den umgekehrten „por-
phyrianischen“ Begriffsbäumen) sichtbar. Obere (allgemeinere) Begriffe teilen
ihre Bedeutungen – hier durch Buchstaben bezeichnet - allen in ihrer Extension
liegenden unteren Begriffen als „generische Merkmale“ in identischer Weise zu.
94

Untere Begriffe aller Stufen enthalten zusätzlich als „spezifische Differenzen“


weitere Bedeutungsmerkmale.
Dies läßt sich in einem pyramidalen Formalismus für die regulären (wider-
spruchslosen) Begriffe eines Themenkomplexes darstellen. Links in den Kreisen
(Begriffspositionen) werden die generischen Merkmale notiert, rechts außen ste-
hen die spezischen Differenzen.

Extensional-dihäretische Begriffspyramide Extensional-multiple Begriffspyramide


mit eingeschriebenen Intensionen mit eingeschrieben Intensionen

A A

AB AC AB AC AD AE

ABD ABE ACF ACG ABF ABG ADH ADI ADJ

2. Die Gewinnung von regulären Begriffen durch Induktion


Eine reguläre Begriffspyramide zeigt, was eine logische Induktion (Epagogé)
bzw. begriffliche Abstraktion ist. Merkmalsreiche unterste Begriffe werden ver-
glichen und darauf hin geprüft, welche Merkmale in ihnen gleich sind, d. h.
Identitäten darstellen, und worin sie sich spezifisch unterscheiden. Identische
Merkmale werden hierbei durch gleiche Buchstaben dargestellt. In höheren bzw.
allgemeineren Begriffen werden sie zusammengefaßt und wiederum entsprechend
überprüft. Zuletzt wird die jeweils höchste Gattung für den Prüfbereich gebildet,
die mindestens ein allen Unterbegriffen gemeinsames Merkmal enthält. Diese In-
duktion zur Begriffsbildung ist immer vollständig.
Die Induktion legt keine bestimmte Abstraktionsrichtung zu bestimmten Ober-
begiffen fest. Jedes beliebige Merkmal läßt sich für die Wahl einer Induktions-
richtung (Verallgemeinerung) benutzen. Durch die Merkmalswahl wird ein Induk-
tionsrahmen festgelegt. Durch die verschiedenen Induktionsrahmen unterscheiden
sich verschiedene Theorien über demselben Erfahrungsbereich. Drei verschiedene
Induktionen mögen das an einem inhaltlichen Beispielen zeigen:

1 2 3

A B C

AB BA CB

ABC BAC CBA

Sokrates = ein philo- Sokrates = ein grie- Sokrates = einer der „Sokrates“ genannten
sophischer Grieche chischer Philosoph Personen unter den philosophischen Griechen

Merkmale bzw. Intensionen: A = griechisch B = philosophisch C = sokratisch


95

Erläuterung: In 1 wird „Griechentum“ als Induktionsrahmen gewählt, innerhalb


dessen „einige Griechen“ Philosophen, einige (d. h. alle anderen) Nicht-Philoso-
phen sind. „Sokrates“ wird als „ein philosophischer Grieche“ definiert.
In 2 wird „Philosoph“ als Induktionsrahmen gewählt. „Einige Philosophen“
sind Griechen, einige sind Nicht-Griechen. Sokrates wird als „ein griechischer
Philosoph“ definiert.
In 3 bilden „alle Sokrates“ genannten Individuen den Induktionsramen, von
denen „einige Philosophen“, einige Nicht-Philosophen sind. Sokrates wird als
„einer der ‚Sokrates„ genannten philosophischen Griechen definiert.
Schon beim Thema Induktion zeigt sich ein wesentlicher Unterschied der logi-
schen und mathematischen Auffassung. Von der logischen Induktion, wie sie
durch Platon und Aristoteles als „Epagogé“ („Hinführung zum Allgemeinen“)
eingeführt wurde, ist zu zeigen, daß sie immer „vollständig“ ist. Schon von einer
individuellen Instanz aus (wie Wilhelm von Ockham mit Recht bemerkte und wie
die obigen Beispiele zeigen 53) läßt sich durch Weglassen spezifischer Differenzen
ein Allgemeinbegriff induzieren. Dessen Merkmale bestimmen dann, welche
anderen bekannte oder noch unbekannte Instanzen entweder dieselben Merkmale
des induzierten Allgemeinbegriffs aufweisen und deswegen „unter ihn fallen“
oder mangels dieser Merkmale nicht unter ihn fallen.
Es kann bei der Induktion also keinesfalls darauf ankommen, ob und wieviele
weitere Instanzen hinsichtlich dessen überprüft werden, ob sie die Merkmale eines
regelrecht induzierten Allgemeinbegriffs aufweisen oder nicht. In der Logik hat
sich aber durch Sextus Empiricus (um 200 - 250 n. Chr.) die falsche Meinung
durchgesetzt, daß die Begriffsinduktion grundsätzlich „unvollständig sei“, (genau-
er: unmöglich sei!) weil man niemals alle Instanzen überprüfen könne“. 54
Die Mathematik vertritt demgegenüber die ursprüngliche Meinung von Platon
und Aristoteles. Das was hier mathematische Induktion zur Gewinnung z. B. des
allgemeinen Zahlbegriffs genannt wird, sei grundsätzlich „vollständig“. Das gilt
zwar für die Induktion ganz allgemein, dürfte aber in der Arithmetik geradezu
paradox erscheinen angesichts der Tatsache, daß man weder „alle Zahlen“ kennt
noch eine einheitliche Meinung darüber besteht, was überhaupt die gemeinsamen
Merkmale aller Zahlen in mathematischen Zahlbegriffen sind.

53
Vgl. Léon Baudry, Lexique philosophique de Guillaume d‟Ockham, Paris 1958, art. Induction, S. 119: “Aliquando
universale quod debet induci habet pro subiecto speciem specialissimam et ad habendam cognitionem de tali universali
frequenter sufficit inducere per unam singularem” / Zuweilen hat der zu induzierende Allgemeinbegriff als Instanz eine
speziellste Unterart, und um die Kenntnis eines solchen Allgemeinbegriffs zu erreichen genügt es häufig, ihn von einem
Einzelnen aus zu induzieren.
54
Sextus Empiricus, Pyrrhoneische Grundzüge. Aus dem Griechischen übersetzt und mit einer Einleitung und Erläute-
rungen versehen von Eugen Pappenheim, Leipzig 1877, Kap. 15, S. 142: „Sehr abzulehnen aber, meine ich, ist auch die
Weise in Betreff der Induction. Da sie (scl.: die Logiker) nämlich durch sie von den Einzeldingen aus das Allgemeine
beglaubigen wollen, so werden sie dies thun, indem sie entweder doch an all die Einzeldinge herangehen oder an einige.
Aber wenn an einige, so wird die Induction unsicher sein, da möglich ist, dass dem Allgemeinen einige von den in der
Induction ausgelassenen Einzeldingen entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen,
da die Einzeldinge unbegrenzt sind und unabschließbar. So dass auf diese Weise von beiden Seiten, mein„ ich, sich ergibt,
dass die Induction wankend wird“.
96

Ersichtlich ist auf Grund dieser angeblichen mathematischen „Vollständigkeit“


und damit Sicherheit der Induktion auch das negative Vorurteil gegen die logische
und das positive zugunsten der mathematischen Induktion entstanden. Das hat
wesentlich dazu beigetragen, alle mathematische Begriffsbildung für genauer,
zuverlässiger und maßgeblicher zu halten, als es die logische jemals vermöchte.
Es ist außerdem zu betonen, daß die Induktion eine Methode der Begriffbildung,
jedoch keineswegs eine Methode zur Gewinnung allgemeiner Behauptungssätze
ist, wie dies in der neueren Logik seit J. St. Mills Induktionstheorie der Kausal-
gesetze eingeführt und in der modernen Wissenschaftstheorie allgemein angenom-
men wird. Denn Behauptungssätze setzen schon die in ihnen verwendeten Begrif-
fe voraus. Das gilt also auch von Kausalgesetzen, bei denen man schon über
Begriffe dessen, was Ursache, und dessen, was Wirkung ist, verfügen muß. Erst
recht bedarf es bei Kausalsätzen eines Vermittlungselementes zwischen Ursache
und Wirkung, das die „Humesche Lücke“ zwischen den Kausalgliedern schließt.
Fehlt dieses Zwischenglied, so bleibt ein vermeintlicher Kausalsatz eine korre-
lative Implikation. Auch dieses vermittelnde Element in kausalen Implikationen
muß als Begriff induziert werden (s. u. „korrelative Implikationsurteile“).

3. Die Konstruktion von Begriffen durch Deduktion


Eine reguläre logische Deduktion setzt die induktive Gewinnung eines Induk-
tionsrahmens mit einem dadurch wohldefinierten allgemeinsten Begriff voraus.
Sie distribuiert die induktiv gewonnenen Merkmale auf die unteren Begriffs-
positionen und dient insofern zur Kontrolle einer regelrechten Induktion.
Widersprüchliche Begriffe (contradictiones in terminis bzw. contradictiones in
adiecto) werden gewöhnlich deduktiv gebildet. Sie verschmelzen induktiv gewon-
nene reguläre Artbegriffe, die in vollständiger Disjunktion (in kontradiktorischem
Gegensatz) zueinander stehen, zu einem einzigen Begriff, welcher die sich aus-
schließenden spezifischen Differenzen bzw. Merkmale zugleich und gemeinsam
enthält.
G. F. W. Hegel hat allerdings in seiner „dialektischen Methode“ der Begriffs-
bildung bzw. des Abstrahierens eine Induktion widersprüchlicher Begriffe be-
nutzt. Sie besteht darin, dihäretische Begriffe in einem ersten Schritt zu einem
gemeinsamen Begriff zu verschmelzen, in welchem die sich gegenseitig negie-
renden spezifischen Differenzen der Ausgangsbegriffe gemeinsam enthalten blie-
ben. Erst in einem zweiten Schritt, den er „Aufheben“ (bzw. Abstrahieren) nannte,
wurden diese sich negierenden spezifischen Differenzen weggelassen („erstes
Aufheben“) und die gemeinsamen generischen Merkmale beider Ausgangsbe-
griffe in einem regulären Begriff festgehalten („zweites Aufheben“). Der Aufbau
von Hegels „Phänomenologie des Geistes“ zeigt diese Induktion. Sie beginnt z. B.
mit der Dihärese von „Objekt“ und „Subjekt“, verschmilzt diese zum dialekti-
97

schen Begriff der „Erfahrung“ und abstrahiert daraus den regulären Begriff des
„Allgemeinen“.55
In diesem und anderen Beispielen solcher dialektischen bzw. kontradiktorischen
Begriffe werden Merkmale der Realität vereinigt, die nicht zu einem gemein-
samen Erfahrungskontext gehören. Sie können daher nur in der Phantasie bzw. in
Erinnerungen an absolut Ungleichzeitiges komponiert werden.
Widersprüchliche Begriffe sind deswegen auch die Bausteine der sogenannten
möglichen Welten. Zu diesen möglichen Welten gehört auch die Welt der mathe-
matischen Gebilde, die in der Regel durch Deduktionen konstruiert werden.
Als spekulative Konzeptionen sind solche widersprüchlichen bzw. „dialektischen“
Begriffe für die Wissenschaft, Kunst und Technik kreativ. Für die Forschung sind
sie heuristisch fruchtbar und daher unentbehrlich. In der Argumentation verursa-
chen sie Zwei- und Mehrdeutigkeiten, die sich in Widersprüchen und Paradoxien
ausdrücken. Und diese werden dann selbst wider Motive zu ihrer „Auflösung“
bzw. Eliminierung oder Ersetzung durch widerspruchslose Begriffe.
Kontradiktorische Begriffe lassen sich an jeder Stelle einer Begriffspyramide
zwischen je zwei dihäretischen (vollständig disjunkten, d. h. im Negationsver-
hältnis zueinander stehenden) Begriffen als deren Verschmelzung bzw. Fusion
einschreiben. Sie umfassen dann die Extensionen der fusionierten Artbegriffe ge-
meinsam. Diese Eigenschaft haben sie mit dem jeweiligen Oberbegriff (Gattung)
der dihäretischen Artbegriffe gemeinsam, und sie werden daher oft mit Gattungs-
begriffen verwechselt. Die Gattung unterscheidet sich von ihnen aber dadurch,
daß sie die spezifischen Differenzen der disjunkten Arten nicht enthält, während
sie in deren kontradiktorischer Verschmelzung gerade enthalten sind. Das sieht
formal so aus:

Widersprüchlicher Begriff zwischen dihäretischen Artbegriffen


Biologisches Beispiel:
A = Lebewesen A
AB = lebendiger Organismus
AC = toter Organismus (Leiche)
ABC
ABC = Zombie AB AC

Erläuterung: Zombies, d. h. „lebendige Leichen“, trifft man in in keinem Er-


fahrungskontext der Wirklichkeit an. Es gibt sie nur als Phantasieprodukte von
Künstlern und besonders Filmemachern.
Auch der Begriff der Zahl als Grundelement der Arithmetik läßt sich als dia-
lektische Verschmelzung in obigem Schema darstellen. Er dürfte dadurch viel von
seinem mystischen Charakter verlieren, den er in den üblichen Zahltheorien

55
Vgl. dazu L. Geldsetzer, Über das logische Prozedere in Hegels ‚Phänomenologie des Geistes‟, in: Jahrbuch für Hegel-
forschung I, hgg. von H. Schneider, Sankt Augustin 1995, S. 43 – 80 und die daraus entnommene Begriffspyramide in
Abschn. 8.
98

besitzt. Der Mathematiker Leopold Kronecker hat sich in einem geflügelten Wort
so über die Zahlen geäußert: “Die (positiven, d. h. natürlichen) ganzen Zahlen hat
der liebe Gott gemacht, alles andere ist Menschenwerk” 56
Die logische Terminologie liefert für den mathematischen Zahlbegriff den Gat-
tungsbegriff (die aristotelische Kategorie) der Quantität (in der obigen Forma-
lisierung: A) und seine beiden dihäretischen Artbegriffe Einheit (AB, logisch:
„ein“) und Allheit (AC, logisch: „alle“). Logisch gilt daher : „Einheit ist nicht
Allheit“ und umgekehrt.
Der mathematische Begriff der Zahl verschmilzt aber diese genau unterschie-
denen Artbegriffe zu dem widersprüchlichen Begriff der „Ein-Allheit“ oder „All-
Einheit“ (ABC). Zahlen sind daher zugleich Einheiten und Allheiten, von denen
dann nach dem obigen formalen Schema die Definitions-Gleichung gilt: „Einheit
= Allheit“ bzw. in Umkehr: „Allheit = Einheit“. ABC bezeichnet jede Zahl als ein
Etwas, das sowohl als Einheit bzw. „Element“ wie auch als Allheit (bzw. ein
Ganzes oder Gesamt von vielen Einheiten) gedacht wird.
Daß es „gedacht“ werden muß und keineswesg „sinnlich anschaulich“ gemacht
werden kann, erklärt sich wie bei allen dialektischen Begriffen daraus, daß nur die
Ausgangsbegriffe der Einheit (logisch: Individuelles) und der Allheit bzw. eines
Ganzen (logisch: alles) in jeweils verschiedenen Kontexten anschaulich werden
können, niemals aber zugleich und gewissermaßen auf einen Blick. Denn ent-
weder betrachtet man etwas als (elementare) Einheit und erfaßt dann nicht die es
umfassende Ganzheit; oder man achtet auf das Ganze und muß insofern dessen
Einheiten bzw. Elemente außer acht lassen. Mathematisches Denken aber besteht
gerade darin, diese getrennten Erfahrungen kreativ zu „einer Idee“ bzw. zu einem
dialektischen Begriff zu vereinen.
In der Extension des Begriffs der Zahl liegen alle weiteren speziellen Zahl-
begriffe, über deren Definitionen weiter unten zu sprechen sein wird. Daher be-
sitzen sie, soweit es sich überhaupt um Zahlen handeln soll, das generische
Merkmal der „All-Einheit“. Das zeigt sich z. B. darin, daß man die Zahl Eins in
Bruchzahlen zerlegt, was voraussetzt, daß auch sie eine Allheit von Zahlen um-
faßt. Umgekehrt darin, daß jede „größere Zahl“, die aus Einheiten zu einer Allheit
bzw. einem Ganzen zusammengesetzt wird, selber eine Zahl-Einheit darstellt.57
Der am meisten logisch klingende „Begriff“ der Zahl ist der Mengenbegriff, den
auch Euklid in seinem Lehrbuch „Elementa“ schon definierte. Logisch ist der
Mengenbegriff definiert, wenn er nur als logische Gattung der beiden logischen
Quantifikationsjunktoren „alle“ und „einige“ verstanden wird. Als mathemati-
scher Begriff ist „Menge“ jedoch geradzu ein Paradigma der Dialektizität der
mathematischen Begriffsbildung geworden. Denn man hat in ihm alle logischen

56
Leopold Kronecker in “Ueber den Zahlbegriff”, in: Journal für reine und angewandte Mathematik 10, 1887, p. 261 –
274, auch in: L. Kronecker, Werke, vol. 3, hgg. von K. Hensel, Leipzig 1899, ND New York 1968.
57
Zur pyramidalen Formalisierung der Zahlbegriffe in: L. Geldsetzer, Logik, Aalen 1987, S. 133 – 155; ders., Elementa
logico-mathematica, Internet der HHU Duesseldorf 2006; ders., Logical Thinking in the Pyramidal Schema of Concepts:
The Logical and Mathematical Elements, Dordrecht-Heidelberg-New York-London 2013, S. 20 – 28. Die Pyramide der
Zahlbegriffe in Abschn. 8 (s. u.) ist um die Prim- und Nicht-Primzahlen erweitert worden.
99

Quantifikatoren zusammengefaßt, die in „gespreizten“ zahlenmäßigen Quantifi-


kationen eine Rolle spielen.
Der logisch denkende Mensch weiß und hält es für selbstverständlich, daß man
„einige“ Dinge „eine Menge“ nennen kann. Er wird es auch verstehen, daß
Mengen kleinere Mengen, als sie selbst sind, umfassen und aus ihnen bestehen
können.
Der moderne mathematische Mengenbegriff (nicht aber der euklidische)
verlangt, auch dann von „Menge“ zu reden, wenn sie nur aus einem einzigen
Element besteht. Ebenso wenn sie überhaupt kein einziges Element enthält (die
„Null-Menge bzw. leere Menge). Und schließlich auch, wenn sie (selbstbe-
züglich) „sich selbst enthält“.
Daß der mathematische Mengenbegriff deshalb geradezu ein Wespennest von
Widersprüchen in sich birgt, ist logisch ersichtlich, und die Paradoxien (d. h. die
spezifischen Widersprüche) der Mengenlehre sind seit B. Russell allgemein
bekannt. Gleichwohl hat man einigen Generationen von Schülern die mathema-
tische „Mengenlehre“ aufoktroyiert und ihnen beigebracht, daß es sich bei diesem
mathematischen Mengenbegriff um den einzig „wissenschaftlichen“ handele, und
daß daher die gemeinsprachliche, nämlich logische Vorstellung von Menge unzu-
länglich und überholt sei.
Es sei zusätzlich bemerkt, daß die hier vorgeführte Deduktion des Zahlbegriffs
aus den logischen ein- und all-Quantoren nur demjenigen Logiker oder
Mathematiker als grundsätzlich falsch erscheinen kann, der alles Widersprüch-
liche für grundsätzlich falsch und nur für falsch hält.
Zur logischen Durchsichtigkeit der mathematischen Begriffsbildung scheint es
von erheblicher und sehr unterschätzter Wichtigkeit zu sein, sich über den
begrifflichen Charakter der Buchstabenzahlen klar zu sein. Diese sind von
Franciscus Viëta (François Viète, 1540 - 1603) in die moderne Mathematik ein-
geführt worden. Eigentlich sollte die üblich gewordene Bezeichnung schon den
Verdacht erregen, es handele sich dabei um ein Oxymoron, angesichts der
allgemeinen Überzeugung, daß Zahlen nicht Buchstaben und Buchstaben nicht
Zahlen sind.
Daß sie in der Neuzeit allgemein akzeptiert wurden, ist aber selbst schon
Ausweis einer intendierten Logifizierung der Mathematik. Die Buchstaben sollten
formale Statthalter für Zahlbegriffe und Zahlausdrücke sein, ebenso wie sie in der
formalen Logik seit Aristoteles für die Subjekts- und Prädikatsbegriffe stehen.
Die Einführung der durch Buchstaben bezeichneten „Variablen“ trieb alsbald
einen neuen Zweig der Arithmetik als „Analysis“ hervor. Von der damals üb-
lichen geometrischen Veranschaulichung der Zahlen durch Strecken blieb erhal-
ten, daß die meistgebrauchten Buchstaben X, Y (evtl. auch Z) noch auf das carte-
sische Koordinatensystem der Raumdimensionen verweisen, in denen die Zahlen
durch Abstände auf den drei Koordinaten veranschaulicht wurden. In der Regel
stehen sie für „Unbekannte“ (Zahlen).
100

Die Buchstaben wurden zunächst nur als Variable verwendet. Die Bezeichnung
besagt, daß etwa X als Begriff für „beliebige“ Einsetzungen („Erfüllungen“) von
Zahlen stehen soll. Und zwar ebenso, wie das logische Zeichen „S“ für beliebige
Subjektbegriffe stehen kann. Dies allerdings mit der von der Logik übernom-
menen Einschränkung, daß bei solchen Einsetzungen in Rechnungen immer die-
selbe Zahl (ob man sie kennt oder auch nicht kennt) durch die Variable vertreten
wird. Diese Einschränkung wurde aber alsbald fallen gelassen. In den sogenann-
ten Funktionsgleichungen stehen die Variablen in der Regel für verschiedene
Zahlen bzw. „Größen“, was in der Logik keine Parallele hat.
Da aber Rechnungsgleichungen, wie sogleich zu betrachten ist, kreativ für die
Definition von Zahlarten sind, hat man auch einige solcher Zahlarten mit anderen
Buchstaben bezeichnet, die man seither Konstanten nennt. Am verbreitetsten sind
etwa der Quotient des Verhältnisses von Kreisumfang zum Kreisdurchmesser,
genannt „Pi“ (griech.: π = 3,14159…), der nur eine und in allen Berechnung
dieses Verhältnisses bei verschieden großen Kreisen gleichbleibende Irrational-
zahl bezeichnet. Dann etwa „i“ als Konstante für eine „imaginäre“ Komponente
aller Zahlen, die sich aus dem Wurzelziehen (Radizieren) aus negativen Zahlen
ergeben. Oder auch der Differentialquotient „δx/δy“, der den sog. Grenzwert einer
sich asymptotisch der Null annähernden „unter jeden angebbaren Zahlenwert
hinabreichenden“ Quotienten bezeichnet (dazu s. u. über Differentialquotienten-
bildung). Logisch gesehen sind solche Konstanten Eigennamen für bestimmte
mathematische Gebilde, die bei ihrer Einführung wegen „Widersprüchlichkeit“
von vielen Mathematikern abgelehnt und gar nicht als „Zahlen“ anerkannt
wurden. Mit ihnen umzugehen muß der Mathematiker ebenso lernen, wie man
sich auch sonst bestimmte Wörter und Namen einprägt.
Mit der Einführung der Variablen verbunden war das Aufkommen der sog.
(mathematischen) analytischen Methode. Sie besteht darin, einerseits beliebige
Zahlen durch Variablen vertreten zu lassen, anderseits bestimmte unbekannte
Zahlen bzw. Zahlgrößen als bekannt zu behandeln und mit ihnen wie mit
bekannten Zahlen zu rechnen. Dadurch wurde die Rechentechnik außerordentlich
erleichtert und vereinfacht. Dies vor allem in den Fällen, wo sich die Unbekannten
durch geschickte Gestaltung von Rechenoperationen (z. B. das „Wegkürzen“ in
Gleichungen) zum Verschwinden bringen lassen. Was man von den „Unbe-
kannten“ ohnehin nicht weiß, braucht man dann auch nicht mehr zu wissen.
Man hat wohl bis heute nicht bemerkt, daß die Buchstaben sowohl als Variable
wie als Konstanten ebenso wie das (mathematische) analytische Verfahren selbst
eine dialektische Seite besitzen. Die Dialektik besteht darin, daß mit den
Variablen die sogenannten kommensurablen Zahlen (Zahlen, die aus einer und
derselben Einheit zusammengesetzt sind, wie die Rationalzahlen) und die
inkommensurablen Zahlen (aus verschiedenenartigen Einheiten, wie die irratio-
nalen und imaginären bzw. komplexen Zahlen und erst recht die Infinite-
simalzahlen, die keinen Zahlenwert besitzen) gleicherweise als Zahlengrößen
dargestellt werden konnten. Daraus kann man entnehmen, daß die Buch-
101

stabenzahlen bzw. Variablen selbst dialektische Zahlbegriffe aus der Fusion des
Begriffs der kommensurablen mit dem Begriff der inkommensurablen Zahlarten
sind, was ihren widersprüchlichen Charakter ausmacht.
Die Variablen vertreten grundsätzlich Zahlenwerte, die ihrerseits den arithme-
tischen Quantifizierungen unterworfen werden. Man kann sagen: dadurch werden
Quantitäten nochmals quantifiziert.
Man versteht mathematisch etwa „3x“ als Multiplikation einer unbekannten
Zahl (x) mit 3, oder „3/x“ als drei Xtel. Das versteht jeder, der weiß, was „drei
Äpfel“ oder „drei Teile eines Apfels“ sind. Er wird nicht vermuten, daß aus den
drei Äpfeln oder drei Apfelteilen beim Multiplizieren etwas ganz anderes als
Äpfel werden könnten. In der Mathematik aber muß gelernt werden, daß etwa 3x
jede beliebige Zahl bedeuten kann, die sich beim Multiplizieren mit Drei ergeben
kann. Setzt man für x die eins ein, so bleibt es bei der Drei. Setzt man 1/3 ein, so
ergibt sich die Eins. Rechnet man jedoch im Dezimalsystem, so ergibt sich im
letzteren Fall „3  0,333....“, was nicht die Eins, sondern die Irrationalzahl 0,999...
ergibt, die ersichtlich keine 1, sondern eine kleinere Zahl als 1 ergibt. Nur Mathe-
matiker finden das, wenn sie es gelernt haben, „ganz logisch“ und vor allem
„exakt“.
Konträre Begriffe lassen sich zwischen Begriffen in multiplen Artenreihen ein-
schreiben. Ihre Extension besteht dann aus denjenigen der verschmolzenen Art-
begriffe. Es handelt sich hier um die sogenannten Dispositionsbegriffe.

Dispositionsbegriff „ABC“ zwischen Artbegriffen aus einer multiplen Artenreihe


physikalisches Beispiel: psychologisches Beispiel:

A A = Aggregatzustand A = Wahrnehmung
AB = fest AB = Sehen

ABC AC=flüssig (geschmolzen) AC = Hören

AB AC AD AD = dampfförmig AD = Tasten
ABC = schmelzbar ABC = Wahrnehmungs-
vermögen

Ihr dialektischer Charakter zeigt sich ebenso wie bei den kontradiktorischen
Begriffen darin, daß man die in ihnen verschmolzenen Merkmale zwar in ver-
schiedenen bzw. getrennten Erfahrungskontexten, ihre fusionierte Vereinigung
aber nicht in einem und demselben Erfahrungskontext wahrnehmen kann.
Von dieser Art sind zahlreiche Grundbegriffe der Physik wie auch der Psy-
chologie, nämlich die Begriffe von Kräften und Potentialen sowie von Vermögen,
Veranlagungen, Fähigkeiten. Da sie seit Jahrhunderten auch in der Alltagssprache
gebraucht werden, vermutet man kaum, daß sie einen dialektischen Charakter
besitzen könnten. Man wundert sich nicht einmal darüber, daß man Kräfte und
Fähigkeiten niemals sinnlich wahrnehmen kann, sondern nur ihre sogenannten
102

Wirkungen als physikalische Veränderungen von Zuständen, oder psychologisch


als manifeste Handlungen und Verhaltensweisen. Nur wenige Physiker, wie etwa
Ernst Mach, haben versucht, den Kraftbegriff deshalb gänzlich aus der Physik zu
eliminieren. In der Psychologie und Anthropologie sind die „Vermögen“ bzw.
„Fähigkeiten“ offenbar niemals auf ihren logischen Charakter hinterfragt worden.

4. Die Junktoren bzw. Funktoren oder Operatoren


Begriffe sind zwar unentbehrliche Bausteine des Wissens, aber sie sind als solche
noch nicht geeignet, wissenschaftliches Wissen auszudrücken. Dazu müssen sie in
die logischen Formen von Urteilen bzw. behauptenden Aussagen eingesetzt wer-
den. Erst in Behauptungsform wird das Wissen wahrheitswertfähig, d. h. es kann
als wahres, falsches oder wahr-falsches oder auch „wahrscheinliches“ Wissen
ausgewiesen werden.
Das logische Mittel, Begriffe zu behauptenden Aussagen zu verknüpfen, stellen
einige Junktoren („Verknüpfungspartikel“, in der mathematischen Logik auch
Funktoren oder Operatoren genannt) dar.
In der hier vorgeschlagenen pyramidalen Formalisierung sind Junktoren selbst
zugleich logische Begriffe für die Beschreibung und Lesung der Relationen, die
zwischen den Begriffspositionen einer Pyramide bestehen. Es gibt nur vertikale
und horizontale Relationen. Deren Richtung ist dabei von entscheidender Bedeu-
tung für die Definition des jeweiligen Junktors. Deshalb lassen sie sich auch durch
Pfeile darstellen. Einige ausgerichtete Relationen werden durch die logischen
Junktoren in mehrfacher Weise beschrieben. Darauf beruhen Synonymien
zwischen einigen Junktoren.
Von den Junktoren verknüpfen einige allerdings die Begriffe nur zu begriff-
lichen Ausdrücken, die nicht wahrheitswertfähig sind. Wir haben sie ausdrucks-
bildende Junktoren genannt.
Ausdrucksbildende Junktoren sind das Und (Konjunktor, manchmal auch
Adjunktor genannt) und der mathematische Summenjunktor (Plus), das aus-
schließende und nicht-ausschließende Oder (Alternative und Disjunktor, letzterer
ebenfalls manchmal Adjunktor genannt), die Quantoren (ein, einige, alle, kein)
und der Äquivalenzjunktor bzw. das mathematische Gleichheitszeichen. Auch die
Negation wird bei sogenannten negativen Begriffen als ausdrucksbildender Junk-
tor gebraucht. Als „bestimmte Negation“ bezeichnet sie einen (positiven) Begriff
durch seine negierte (dihäretische) Nebenart und ist dann umkehrbar (z. B. „Rau-
cher“ - „Nichtraucher“: Nicht-Nichtraucher = Raucher). Als unbestimmte Nega-
tion bezeichnet sie einen (positiven) Begriff einer multiplen Artenreihe durch eine
negierte Nebenart und ist dann nicht umkehrbar. (z. B. „gelb“ – „nicht-gelb“:
nicht-nichtgelb ≠ gelb). Der Nichtbeachtung dieses Unterschieds zwischen be-
stimmter und unbestimmter begrifflicher Negation verdanken sich viele Fehler in
logischen Argumentationen (s. u.).
Die übrigen logischen Junktoren verknüpfen Begriffe zu wahrheitswertfähigen
Urteilen. Wir nannten sie urteils- oder satzbildende Junktoren. Nur durch sie
103

lassen sich Behauptungen formulieren, die wahr, falsch oder auch wahr-falsch
sein können. Diese sind die Kopula (ist), das allgemeine und das spezielle
(aristotelische) Zukommen, die urteilsbildende Negation (ist nicht) und der
Existenz- bzw. Produktjunktor (es gibt) sowie vier verschiedene Implikations-
junktoren (wenn ... dann). Die Unterscheidbarkeit der wird erst in einer regulären
Begriffspyramide sichtbar. Ihre traditionelle Nichtunterscheidung hat immer
wieder zu Problemen geführt, so daß man sogar mit Nelson Goodman vom
„Rätsel der Implikation“ sprach.
Die in der folgenden Figur eingezeichneten Pfeile drücken die Verknüpfungs-
richtung aus.
104

Begriffspyramide der satzbildenden Junktoren

Allg. Implikation
↕↔
Wenn…dann

↕ Allg. Aristotel. ↔ Korrelative


Zukommen Implikation
Gehört zu Wenn...dann

↑ Kopula ↓ Arist. Zukom. ↔


−d Negation →← Existenz-
Materiale Implik. Formale Implik. ist nicht bzw. Produkt-
ist, wenn dann Inklusion junktor Es gibt
Es gibt

Die ausdrucksbildenden Junktoren lassen sich als widersprüchliche Begriffe in die Pyramide der
satzbildenden Junktoren einschreiben.

Begriffspyramide aller Junktoren

Allg. Implikation
↕↔
Wenn…dann

↕↔ Disjunktor vel
und/oder
↕ Allg. Aristotel. ↔ Korrelative
Zukommen Implikation
Gehört zu Wenn...dann

↕↔ Kon- ↕↔Alter-
↕↔
junktor native
und oder, aut
↕↔ Quantoren = Äquivalenz
und alle, einige, ein dist ↔
gleich, d. h.

↑ Kopula ↓ Arist. Zukom. − Negation →← Existenz-


Materiale Implik. Formale Implik. ist nicht bzw. Produkt-
ist, wenn dann Inklusion junktor Es gibt
Es gibt
105

Enthalten Urteile widersprüchliche Begriffe, so erlauben die Junktoren sowohl


eine wahre wie eine falsche Lesung. D. h. Urteile mit widersprüchlichen Begriffen
sind zugleich wahr und falsch bzw. widersprüchlich.

Über die einzelnen urteils- bzw. satzbildenden (behauptenden) Junktoren mit


Wahrheitswerten ist folgendes zu sagen. Wir notieren dazu nur einige markante
Beispiele:
Die oberste Gattung der satzbildenden Junktoren ist die allgemeine Implikation.
Ihre Bedeutung ist es, die Pyramidenbegriffe in jeder Richtung miteinander zu
verknüpfen. Sie faßt die wahren Wahrheitswerte der drei untergeordneten Impli-
kationsformen zu einem gemeinsamen Wahrheitswert zusammen. Sie besitzt
keinen Falschheitswert, weil sich für jede Anwendung ein Wahrheitswert einer
speziellen Implikation angeben läßt.
Die Nichtunterscheidung der allgemeinen Implikation von den drei speziellen
Implikationsformen mit Wahrheitswerten hat in der Geschichte der Logik immer
wieder das Problem erzeugt, daß manche ihrer Anwendungen in Beispielen als
wahr, andere als falsch erscheinen. Die allgemeine Implikation läßt sich wie folgt
darstellen:

Allgemeine Implikation

„Wenn A dann AB“ und „wenn A dann AC“


A „wenn AB dann A“ und „wenn AC dann A“.
„wenn AB dann AC“ und „wenn AC dann AB“.
AB AC

Die korrelierende Implikation wird hier ohne Pfeil notiert. Sie korreliert nur durch
Negation unterschiedene Begriffe.
Die beiden dihäretischen Arten (unter der Gattung der allgemeinen Implikation)
sind einerseits das allgemeine (aristotelische) „Zukommen“, das vertikal in beiden
Richtungen verknüpft. Sie ist seit langem außer Gebrauch und macht sich nur
bemerkbar, wenn untere Begriffe oberen Begriffen zugeordnet werden („Zukom-
men“ als „Inklusion“ von AB in A), oder wenn die (generischen) Merkmale
oberer Begriffe den in ihre Extensionen fallenden unteren Begriffen beigelegt
werden („Zukommen“ als Implikation von A in AB und AC). Andererseits die
korrelierende Implikation, die allgemein horizontal alle durch Negation bestimm-
baren Begriffe verknüpft. Nur die korrelierende Implikation ist zur Formalisierung
von Kausalverhältnissen (Ursache ... Wirkung) geeignet.
Die dihäretischen Unterarten des allgemeinen Zukommens sind das spezielle
„Zukommen“ (Inklusion) bzw. die formale Implikation, welche nur von oben nach
unten verknüpft, sowie die materiale Implikation, welche nur von unten nach
106

obenverknüpft. Die Kopula („ist“ bzw. „sind“) ist synonym mit der materialen
Implikation.
Dihäretische Unterarten der korrelierenden Implikation sind die Negation und
der Existenzjunktor, die horizontal in beiden Richtungen verknüpfen (nämlich die
Begriffe, die durch die Urteils-Negation „ist nicht“ unterscheidbar und korrelier-
bar sind).

Die Negation ist der Unterscheidungsjunktor von nebenrangigen Begriffen. Sie


wird als das „Leere“ zwischen nebenrangigen Begriffspositionen notiert und
gelesen. Sie ist nur zwischen dihäretischen Nebenarten einer Begriffspyramide
umkehrbar. Zwischen Begriffen einer multiplen Artenreihe oder zwischen belie-
bigen Begriffen verschiedener Begriffspyramiden ist sie nicht umkehrbar. Viele
logische Schlußfehler beruhen auf der Nichtbeachtung dieses Unterschiedes.
Negation („ist nicht“)

AB AC „AB ist nicht AC“ und „AC ist nicht AB“

Der Existenzjunktor („es gibt“) führt Begriffe in eine Pyramide ein. Er korreliert
Intensionen und Extensionen miteinander zur Einheit des Begriffs, d. h. er
„produziert“ Begriffe. In Anwendung auf inhaltliche Beispiele behauptet er die
Existenz eines dem Begriff entsprechenden Gegenstandes. Da reguläre Begriffe
auf der Induktion aus sinnlichen Wahrnehmungen beruhen, bezeichnen die durch
Negation unterschiedenen unteren Positionen die Extension, ihre gemeinsamen
Merkmale die Intensionen der so eingeführten Begriffe.

Existenzjunktor
„es gibt A“ , nämlich als induktiv gewonnene Gattung der durch
A Negation unterschiedenen Artbegriffe AB und AC

AB AC

Ausdrucksbildende Junktoren

Sie sind aus je zwei der oben genannten dihäretischen urteilsbildenden Junktoren
zu widersprüchlichen Junktorbegriffen verschmolzen. Dadurch heben sich deren
Funktionen für die Wahrheitswertbildung auf. Die ausdrucksbildenden Junktoren
haben daher keinen Wahrheitswert.
Die nicht-ausschließende Disjunktion („und/oder“ bzw. lateinisch „vel“) ist aus
dem allgemeinen Zukommen und der korrelierenden Implikation verschmolzen
und verknüpft in allen Richtungen. Konjunktion bzw. Adjunktion („und“) und
Alternative („entweder... oder“, lateinisch „aut ...aut“) spezifizieren diese Ver-
knüpfungsweisen. Der mathematische Summenjunktor („und“ im Sinne von
107

„plus“) verknüpft nur horizontal Gleichartiges. Der mathematische Differenz-


junktor („minus“) ist aus der Adjunktion und der Negation zusammengesetzt
(„und nicht“) und verknüpft ebenfalls nur horizontal Gleichartiges (vgl. unten
über Grundrechenarten).
Die (positiven) Quantoren bzw. Quantifikatoren (ein, einige alle) sind aus der
Kopula und dem speziellen Zukommen verschmolzen und verknüpfen vertikal in
beiden Richtungen. „Alle“ verknüpft einen Begriff mit sämtlichen in seinem Um-
fang liegenden Unterbegriffen. „Einige“ verknüpft unbestimmt einen Begriff mit
einem seiner Unterbegriffe. Er drückt aber nicht aus, mit welchem von zweien
oder mehreren. „Ein“ verknüpft einen Begriff unbestimmt mit einem seiner Un-
terbegriffe bzw. einem in seinen Umfang fallen Individuum, drückt aber nicht aus,
mit welchem von „allen“, die unter den Begriff fallen. Deshalb sind die partikulär und
individuell quantifizierten Begriffe stets definitionsbedürftig.
die Quantoren bzw.Quantifikatoren

A Quantifizierte Begriffe in dihäretischer Position


liefern als „Gegenprobe“ Definitionen ihrer Ge-
einige A einige A genarten: „einige A = AB“/„einige A = nicht AB
(= AC). Als „partikuläre Urteile“ wären sie Wi-
dersprüche.
ein A ein A Eigennamen definieren Individuen: „ABD =
ein A“ (z. B. „Sokrates = ein Mensch“).

Mathematische Quantoren sind bezüglich von Einheiten synonym mit dem


logischen „ein“. Bezüglich bestimmter Zahlenwerte („größer als Eins“) sind sie
Spreizungen (Spezifikationen) des logischen „einige“. Bezüglich infinitesimaler
und „unendlicher“ (infiniter) mathematischer Bestimmungen sind sie synonym
mit dem logischen „alle“.
Das logische „kein“ ist aus der Negation und dem „ein“ zusammengesetzt
(„nicht ein“). In der Mathematik wird die Negation auch mit dem „alle“ ver-
knüpft. Dieser Ausdruck heißt dann auch „leer“. Die mathematische Quantifi-
kation des „Leeren“ ist die Null („leere Menge“).

Die Äquivalenz bzw. der mathematische Gleichungsjunktor


Der Äquivalenzjunktor ist aus der Negation und dem Existenzjunktor ver-
schmolzen. Die Äquivalenz verknüpft horizontal durch bestimmte Negation Un-
terscheidbares. Diese Unterscheidbarkeit bedingt, daß in einer Äquivalenz niemals
etwas mit sich selbst (also Ununterscheidbares) äquivalent sein kann, wie es der
falsche Gebrauch der sogenannten Tautologie in der Logik insinuiert. In der
Mathematik ist die tautologische Gleichungen (z. B. 2 = 2) per Konvention
üblich.
Die Äquivalenz induziert zugleich eine gemeinsame Bedeutung des Unter-
schiedenen, wie es der Existenzjunktor vorgibt. Im Gemeinsprachengebrauch wird
die Äquivalenz Synonymie genannt.
108

Neuerdings wird die Äquivalenz auch als „gegenseitige Implikation“ („genau


dann wenn“ bzw. „dann und nur dann, wenn“) dargestellt. Dies ist jedoch irre-
führend insofern, als durch diese Verwendung der „Implikation“ der Eindruck
erweckt wird, es handele sich bei der Äquivalenz um behauptende Urteile mit
Wahrheitswerten. Indem die Äquivalenzen jedoch Synonymien zwischen Begrif-
fen und Termini bzw. zwischen Rechenausdrücken und Zahlwerten audrücken,
sind sie logische Ausdrücke ohne Wahrheitswerte. Sie dienen als Definitionen, die
„frei setzbar“ sind.
In der Mathematik wird das meiste, was überhaupt behandelt wird, in der Ge-
stalt von Gleichungen vorgeführt. Und durch die Anwendung der Mathematik ist
die Gleichung auch in der Physik die Hauptform der Argumentation geworden. Es
bleibt aber auch hier zu betonen, daß Gleichungen grundsätzlich Äquivalenzen
bzw. Definitionen ohne Wahrheitswert sind. Gleichwohl gelten sie, wie im
vorigen Paragraphen schon gesagt wurde, in der Mathematik und und ihren
Anwendungen seit G. Boole als behauptende Urteile mit Wahrheitswerten. Mehr
darüber wird unten bei den Definitionen zu sagen sein.

Die mathematischen Grundrechenarten sind logisch gesehen ausdrucksbildende


Junktoren, die bestimmte Zahlkonfigurationen definieren, nämlich Summe, Diffe-
renz, Produkt und Quotient. An ihnen läßt sich eindrucksvoll zeigen, wie und wo
das mathematische Prozedere logisch ist, und wie und wo es von der Logik zur
Dialektik übergeht.

Das Addieren ist eine auf gleichrangige Nebenarten eingeschränkte Konjunktion


bzw. Adjunktion. Logisch daran ist, daß man beliebige Zahlen bzw. Zahlaus-
drücke zu Summen zusammenfassen kann. So wie man „einen Apfel und einen
(anderen) Apfel“ zu einem „Äpfelpaar“ summiert oder „mehrere Äpfel“ zu einer
„Apfelmenge“. Dialektisch ist die Aufhebung der Restriktion auf Gleichrangigkeit
der Summanden bei der Integralsumme. Darin wird das mathematische Additions-
verfahren kreativ. Denn hierbei werden gerade lauter ungleichartige Summanden
(nämlich Differentialquotienten) summiert. Bekanntlich handelt es sich beim Inte-
grieren einerseits um eine Summenbildung, andererseits aber auch um Nicht-
summenbildung. Das zeigt sich darin daß Integrale nicht ausrechenbar sind,
sondern daß ihre Zahlenwerte „empirisch“, d. h. durch gemessene Exhaustion von
unregelmäßigen Flächen oder Körpern gewonnen und in Tabellen zur Verfügung
gestellt werden.

Das Subtrahieren ist eine Verknüpfung der logischen Konjunktion und der Nega-
tion zu einem Ausdruck von Differenzen. Logisch ist es, wenn man sagt „AB und
nicht AC“: Und das bleibt bei Anwendung auf Beispiele so lange logisch, wie der
Subtrahend kleiner ist als der Minuend. Es ist also logisch, daß man nicht mehr
„wegnehmen“ kann als „vorhanden“ ist. Nimmt man jedoch genau das weg, was
vorhanden ist, so wird das Subtrahieren dialektisch und kreativ. Die Subtraktion
109

definiert dann in widersprüchlicher Weise „Etwas und nicht Etwas“ als „Nichts“
und definiert somit die Null als Zahl (mathematisch „+ 2 -2 = 0“).
Die Dialektik setzt sich fort in der kreativen Definition der negativen Zahlen,
denn dabei wird mehr weggenommen als vorhanden ist. Logisch muß man sagen:
negative Zahlen sind zugleich negierte bzw. Nicht-Zahlen. Deshalb wurde ihr
Zahlcharakter von vielen Mathematikern bis in die Neuzeit bestritten. Als man im
Handel und Bankwesen den negativen Zahlen eine positive Bedeutung als Schul-
den oder Kredit zusprach, setzten sich auch die negativen Zahlen als spezifische
Zahlen in der Arithmetik durch. Noch Kant befaßte sich in seinem „Versuch, den
Begriff der negativen Größen in die Weltweisheit einzuführen“ 58 mit diesem
Problem. Er diagnostizierte ganz richtig den logisch widersprüchlichen Charakter
des Verfahrens und versuchte gleichwohl, die inhaltliche Anwendung des Ver-
fahrens als „Realrepugnanz“ antagonistischer Entitäten (wie z. B. Newtons Kraft
und Gegenkraft), als nichtwidersprüchlich darzutun.

Das Multiplizieren hat als logische Grundlage die Verschmelzung bzw. Fusion
beliebiger Intensionen zu Begriffen unter Zuweisung von Extensionen. Diese Ver-
schmelzung geschieht nicht mittels eines verknüpfenden Junktors. Wie sie funk-
tioniert wurde bei der Begriffsbildung vorgeführt. Die logische Fusion führt zur
„Produktion“ neuer Begriffe, seien sie regulär oder auch widersprüchlich. Bei-
spiele sind zusammengesetzte Begriffe wie das reguläre „Gast-Haus“ oder das
irreguläre „hölzerne Eisen“ (ein bekanntes sprachliches Oxymoron).
In der Arithmetik wird die Fusion auf Zahlen und Zahlausdrücke angewandt und
liefert dadurch mathematische „Produkte“. Als Rechenverfahren wird die Multi-
plikation auf wiederholtes Summieren zurückgeführt (3  2 = 2 + 2 + 2) und
dadurch erläutert und definiert. Die Multiplikation dient neben den anderen Re-
chenverfahren ebenfalls zur Definition der Zahlen. Im mathematischen Grund-
unterricht werden die Definitionen der Zahlen aus der dezimalen Zahlreihe am
häufigsten mittels des (kleinen) „Ein-mal-Eins“ auswendig gelernt.
Die traditionelle geometrische Veranschaulichung hat die Mathematiker an die
Kreativität der Produktbildung gewöhnt, so daß sie als „logisch“ erscheint. Man
stellt Zahlgrößen durch Strecken dar, die multipliziert Flächeninhalte (ein nicht-
streckenhaftes Produkt!) produzieren. Dabei wird grundsätzlich ausgeblendet, daß
es sich nicht um gleiche Strecken, sondern um Vektorstrecken (die in der Fläche
ganz verschieden ausgerichtet sind) handelt. Und nur so kann die Multiplikation
von Strecken (a  b) zu einem nicht-streckenhaften Flächenprodukt („ab“) führen.
Dieses traditionelle Beispiel findet weite Anwendung bei der multiplikativen
Fusion unterschiedlich dimensionierter naturwissenschaftlicher Begriffe. Der
Physiker verschmilzt z. B. den Massenbegriff (m) mit dem Begriff einer Strecke
(s) und bildet so den Begriff „Arbeit“ (ms = Masse  Weg). Wollte man das Ver-

58
I. Kant, Versuch, die negativen Größen in die Weltweisheit einzuführen, Königsberg 1763, in: I. Kant, Werke in sechs
Bänden, hgg. v. W. Weischedel, Darmstadt 1960, S. 777 – 819.
110

fahren am logischen Beispiel erläutern, so müßte man definieren können: „Äpfel


mal Birnen = Kompott“.

Das Potenzieren
Die Dialektik setzt sich fort in der Potenzbildung, also im sogenannten Poten-
zieren. Hierbei wird, logisch gesehen, etwas mit sich selbst verschmolzen, was
einerseits eines und dasselbe bleibt, andererseits auch etwas anderes sein kann.
Ersteres zeigt sich in der Einerpotenz (1  1 = 1), letzteres in den Potenzen aller
anderen Zahlen (z. B. 3  3 = 9).
Die Selbstfusion von etwas mit sich selbst und somit die Widersprüchlichkeit
des Potenzierens wird in der Mathematik durch die traditionelle Veranschau-
lichung an geometrischen Anwendungen dissimuliert. Daher spricht man bekannt-
lich seit Euklid von „Quadratzahlen“ (2. Potenz) und „Kubikzahlen“ (3. Potenz).
Diese Art der Begriffsbildung wird seit der Renaissance heuristisch und spe-
kulativ benutzt, um gewisse Probleme auf den Begriff zu bringen. So ist z. B. in
der Kinematik (Bewegungslehre) der Geschwindigkeitsbegriff (v, d. h. die Pro-
portion Wegeinheit zu Zeiteinheit) mit sich selbst zu „v²“ potenziert worden, um
damit die Beschleunigung zu erfassen. (Nach der vorn schon genannten Merton-
Regel wird allerdings Beschleunigung als „mittlere Geschwindigkeit zwischen der
langsamen Anfangs- und der schnelleren Endgeschwindigkeit, also als „ ½ v² “
definiert.) Man findet in der einschlägigen Literatur keinen Hinweis darauf, daß
Physiker sich darüber Rechenschaft gaben, daß sie damit einen Begriff bildeten,
der eine Proportion von flächenhaften „Streckenquadraten“ und „Zeitquadraten“
darstellt, die sich jeder Veranschaulichung hinsichtlich bewegter Massen entzieht.
Und das wird in der Regel damit begründet, daß es sich bei den Potenzbegriffen
um rein numerische und an Beispielen empirisch verifizierte Meßgrößen handele.
In der nichtmathematischen Begriffsbildung ist das Verfahren des Potenzierens
Grundlage für das Verständnis sogenannter reflektiver bzw. ipsoflexiver (selbst-
bezüglicher) Begriffsbildung in der Reflexionsphilosophie. Beispiele sind etwa
das „Denken des Denkens“ (aristotelische „noesis noeseos“) oder „Bewußtsein
von Bewußtsein = Selbstbewußtsein“). Diese Begriffsbildung wird jedoch ebenso
wenig wie der mathematische Potenzbegriff als dialektisch durchschaut und aner-
kannt.

Das Wurzelziehen
Das als Umkehrung des Potenzierens eingeführte Wurzelziehen bzw. Radizieren
zerlegt die Potenzzahlen in ihre Faktoren. Darauf beruht die Notation der Potenz-
zahlen, die die „Wurzel“ als Basis und die Anzahl der multiplizierenden Fusionen
als Exponent notiert, wie z. B. 32 oder auch 3x . Wurzelzahlen lassen sich insofern
aus allen durch Potenzieren definierte Zahlen ziehen. Läßt man diese Beschrän-
kung fallen, so wird auch das Radizieren kreativ für die Definition neuer Zahl-
arten, und zwar sogleich mehrfach. Einerseits definiert man so die irrationalen
Zahlen, die wir „ungenau“ nennen können (vgl. unten bei Division), andererseits
111

die sogenannten imaginären Zahlen als Wurzeln aus negativen Zahlen. Hinzu
kommt, daß dieselbe Potenzzahl sich aus positiven wie negativen Wurzeln glei-
cher Größe definieren (z. B. √4 = +2 und = –2). Wollte man diese doppelte
dialektische Definition an einem nicht-mathematischen Beispiel demonstrieren, so
könnte man sagen: „Der Wurzelbegriff des Selbst-Bewußtseins ist sowohl das Be-
wußte wie das Nicht- bzw. Unbewußte“.

Die Division
Das Dividieren bzw. die Teilung hat zur logischen Grundlage die logischen Quan-
toren. Es liegt auf der Hand, daß „einige A“ und „ein A“ Teile von „A“ (bzw. von
„allen A“) sind. Diese Teile sind in allen Bildungssprachen schon durch eigene
Wörter bezeichnet, wie etwa „Element von...“, „Hälfte“, „Drittel“ usw. Worauf es
ankommt ist, daß die Partikularisierungen stets das „alle“ bzw. „das Ganze“ im
Blick behalten. Daher entsteht das Rechenverfahren der Division aus einer Ver-
schmelzung bzw. Fusion des Allquantors mit den Partikularisierungsquantoren.
Logisch könnte man dies „Teil-Ganzes“ nennen. Das erklärt, daß der mathemati-
sche Quotient als Ergebnis der Rechenoperation Division ebenfalls nur einen Teil
eines Ganzen definiert.
Logische Teilungen eines Ganzen können über „Teilbereiche“ nur bis zu
„Elementarteilen“ (was immer man in Beispielen dafür hält) führen. So ist es ganz
logisch, daß man All- oder Ganzheiten, die aus Einheiten bestehen, in vielfacher
Weise in ihre Teile bis zu den Einheiten zerlegen kann. Wobei das Divisions-
verfahren z. B durch die Rechengleichung „6 : 3 = 2“, wie gesagt, nur den
Zahlenwert eines Teils definiert. Die beim Teilen entstehenden übrigen Teile ver-
schwinden gleichsam im mathematischen Nirvana. Und dies ist logisch und
didaktisch die Grundlage für das Erlernen des Divisionsverfahrens.
Das mathematische Teilungsverfahren geht dialektisch darüber hinaus und wird
kreativ für die Definition neuer Zahlarten, nämlich der Bruchzahlen oder kurz: der
Brüche und insbesondere der sog. unendlichen Brüche. Die „elementare Einheit“,
aus der nach Euklid alle Zahlen zusammengesetzt werden, erscheint hierbei zu-
gleich als logische Einheit und als Allheit. Sie kann darum in noch „elementarere
Einheiten als die Zahleinheit“ zerlegt bzw. „zerbrochen“ werden. Darauf beruht
schon die übliche Notierung der Brüche als „1/2“, „1/3“, „1/4“ usw. gemäß den
sprachlichen Bezeichnungen „eine Hälfte“, „ein Drittel“ und „ein Viertel“ (immer
hinzugemeint: von einem Ganzen), usw.
Die Notation der Bruchzahlen mittels des Bruchstriches („ / “) ist zugleich eine
Formalisierung der Rechenaufgabe. Das Divisionsergebnis, das man speziell
„Quotient“ nennt, ist jedoch nur eine Umformung in die Dezimalnotation mittels
der Äquivalenz-Gleichung, d. h. von der Bruch- in die Dezimalform (1/2 = 0,5).
Dabei erweist sich wiederum der kreative dialektische Charakter des Verfahrens
bei der Definition der „unendlichen“ Brüche. „1/2 = 0,5“ definieren sich gewiß
gegenseitig. Aber schon der einfache Quotient „1/3“ ist nicht in dezimaler Form
definierbar. Die Gleichung „1/3 = 0,333...“ (bei Abbruch der Rechnung an belie-
112

biger Stelle hinter dem Komma) liefert ersichtlich keinen genauen dezimalen Zah-
lenwert. Sie definiert daher logisch gesehen ungenaue Zahlen (sog. „Grenzwerte“
von Reihen) als eine besondere „ungenaue“ Zahlart neben denjenigen Zahlen, die
man „genaue Zahlen“ nennen kann. Die Gleichung ist dann zugleich (dialektisch!)
keine Gleichung bzw. sie wird eine Ungleichung.
Die Division hat ebenso wie das Multiplizieren und Potenzieren zu höchst
kreativen Begriffsbildungen in der Mathematik und ihren Anwendungen geführt.
Die übliche Formulierung von Divisionsaufgaben (als Rechenoperation) ist selbst
zugleich Ausdruck für Proportionen, bei der die proportionierten Größen bzw.
Dimensionen selbständige Begriffe sind. Das hat auch Euklid in seinen „Elemen-
ten“ berücksichtigt, als er die Proportionen von den Teilungen unterschied.

Proportionen sind Teilungen, bei denen berücksichtigt wird, daß dabei nicht nur
ein „Quotient“, sondern ebenso viele „Quoten“ entstehen, wie der Divisor vorgibt.
Diese für den Praktiker jederzeit anschauliche und verständliche Operation wäre
eigentlich formal z. B. als „6 / 3 = 2  3“ zu notieren. Das ist in der Mathematik
jedoch ausgeschlossen, weil es als Ungleichung und „falsche Rechnung“ verstan-
den würde.
Und doch werden diese Proportionen als gemeinsprachige Ausdrücke häufig
verwendet, z. B. bei der Angabe von Wettkampfergebnissen („Eins zu Drei“ oder
umgekehrt, etwa bei Ergebnissen von Fußballspielen). Es würde wohl niemandem
einfallen, Fußballergebnisse in der Weise einer Divisionsaufgabe auszurechnen,
also das obengenannte „Eins zu Drei“ auszurechnen und als ein Drittel bzw.
0,333... (oder umgekehrt: 3/1 bzw. 3,0) anzugeben.
Das Beispiel kann darauf aufmerksam machen, daß es logisch auszuschließen
ist, eine quantifizierte Proportion als Divisionsaufgabe auszurechnen. Die Aus-
rechnung von Proportionen führt jedoch in der Mathematik zu Definitionen einer
Reihe genuin mathematischer und in Anwendungen physikalischer Begriffe. Als
Beispiel wurde schon die Proportion von Kreisumfang und Kreis-Durchmesser als
Quotient genannt, die mit dem (stets ungenau bleibenden) Zahlenwert 3,14159...
ausgerechnet wurde. Das Ergebnis ist die Definition der Naturkonstante Pi (π), die
für alle Kreise aller beliebigen Größen gilt.
Der mathematische Formalismus erzwingt jedoch nach der Zulassung der Null
als Zahl auch die Ausrechnung von Divisionsproblemen, bei denen Nullwerte im
Dividenden oder Divisor vorkommen. Die Rechenergebnisse reichen dann ins
Infinite und Infinitesimale. Dabei ist man allerdings nicht konsequent geblieben.
Man hat solche Rechenausdrücke als „sinnlos“ bzw. unzulässig „verboten“. Dies
aber erzeugte den Bedarf, auf andere Weise mit dem sich hier zeigenden Infi-
nitesimalproblem umzugehen. Und das Ergebnis war die Einführung einer beson-
deren Quotientenart: des sogenannten Differentialquotienten.

Bei den Differentialquotienten tritt die arithmetische Dialektik dem Logiker wohl
am eindrucksvollsten entgegen. Es handelt sich um ein Divisionsverfahren mit
113

„Zahlen, deren Zahlenwert unter jede bestimmbare Größe hinabreicht und sich
asymptotisch der Null annähert (d. h. ohne sie zu erreichen)“. Logisch wird man
solche „Zahlen ohne Zahlengröße“ als Nichtzahlen bezeichnen. Die Buchstaben-
rechnung war jedoch das geeignete Mittel, diese dialektische Eigenschaft als
irrelevant erscheinen zu lassen. Und so wurden diese „hybriden“ nicht-zahlhaften
Zahlen als „Infinitesimalzahlen“ zugelassen und buchstabenmäßig (was dann
„algebraisch“ genannt wurde) wie Zahlen behandelt. Daraus hat sich eine ganze
mathematische Disziplin, die „Infinitesimalmathematik“ entwickelt.
Nun sollte man nicht erwarten, daß in der Mathematik angesichts ihrer rein
„theoretischen“ (d. h. unanschaulichen) Ausrichtung überhaupt etwas unendlich
Kleines (Infinitesimales) oder auch unendlich Großes (Infinites) vorkommen
könnte, da sich Großes und Kleines und ungeheuer Großes oder winzig Kleines
ausschließlich in der sinnlichen Anschauung findet. Hier hat man dasjenige, was
man bei der Beobachtung mit bloßem Auge unendlich klein und unendlich groß
nennt, mit Mikro- und Teleskop ziemlich vergrößert oder verkleinert. Die Infini-
tesimalmathematik empfiehlt und plausibilisiert sich daher mit dem (allerdings
metaphorischen) Versprechen, gewissermaßen in eine Feinstruktur der Zahlen
(und ebenso in eine Megastruktur des Zahlenkosmos mittels der Cantorschen
„Mächtigkeiten“ von Zahlsystemen) einzudringen. Ein Mathematiker bekennt
dazu: „In den letzten 200 Jahren hat sich dieser Zweig der Mathematik zu einem
umfassenden Hilfsmittel der Naturwissenschaften entwickelt. Er ist immer noch
nicht völlig erforscht.“ 59
Daß hier noch viel Forschungsbedarf besteht, kann den Logiker nicht verwun-
dern. Das wird auch so bleiben, wenn man sich in der Infinitesimalmathematik
nicht über die hier waltende Dialektik im klaren ist. Und das war schon so, als
besonders George Berkely das infinitesimal-geometrische Verfahren von Leibniz
und das physikalisch-mechanische Fluxions-Verfahren von Newton als dialek-
tisches Unternehmen analysierte und kritisierte.
Die Preußische Akademie der Wissenschaften hatte dies in einer Preisfrage für
das Jahr 1784 über das Wesen des Unendlichhen so formuliert:
„Man weiß, daß die höhere Geometrie kontinuierlich vom unendlich Großen und
unendlich Kleinen Gebrauch macht. Indessen haben die Geometer, und sogar die
antiken Analysten, sorgfältig alles vermieden, was mit dem Unendlichen zu tun hat;
und berühmte Analysten unserer Zeit bekennen, daß die Termini unendliche Größe
widerspruchsvoll sind. Die Akademie verlangt also, daß man erkläre, wie man aus
einer widerspruchsvollen Annahme so viele wahre Sätze deduziert hat, und daß man
ein sicheres und klares, d. h. wirklich mathematisches Prinzip angebe, das geeignet
ist, das Unendliche zu ersetzen, ohne die Forschungen, die darauf beruhen, zu
schwierig oder zu lang zu machen.“ 60

59
R. Knerr, Goldmann Lexikon Mathematik, Art. „Infinitesimalrechnung“, München 1999, S. 163.
60
Nouveaux Mémoires de l‟Académie Royale des Sciences et Belles-Lettres, Berlin 1784, S. 12: „On sait que la haute
Géometrie fait un usage continuel des infiniment grands et des infiniment petits. Cependant les Géometres, et mȇme les
Analystes anciens, ont évité soigneusement tout ce qui approche de l‟infini; et de grands Analystes modernes avouent que
les termes grandeur infinie sont contradictoires. L‟Académie souhaite donc qu‟on explique comment on a déduit tant de
théoremes vrais d‟une supposition contradictoire, et qu‟on indique un principe sȗr, clair, en un mot vraiment mathématique,
114

Eine Antwort vom logischen Standpunkt hätte auch damals lauten können: Der
Differentialquotient, der ausschließlich in Buchstabenzeichen (δx/δy) dargestellt
wird, bleibt logisch immer eine nicht auszurechnende Proportion (wie bei den
Fußballergebnissen). Die Proportion wird aber (wie im Falle von Pi) als Quotient
bzw. Divisionsaufgabe behandelt und (wenn auch nur buchstabenmäßig) „ausge-
rechnet“. Das Ergebnis wird dann als neu definierter mathematischer Begriff
behandelt, dessen Widersprüchlichkeit keine mathematische Besonderheit dar-
stellt, wie es die Preisfrage der Preußischen Akademie unterstellt, da sie dem dia-
lektischen Verfahren der üblichen mathematischen Begriffsbildung entspricht.
G. W. Leibniz hatte das dialektische Verfahren dadurch begründet, daß er alle
Begriffe kontinuierlich bzw. „stetig“ in einander übergehen ließ. Dafür postulierte
er seine berühmte „Lex continuationis“61. Dies „Gesetz“ steht in offenbarem Wi-
derspruch zur logischen Begriffsbildung und Begriffsunterscheidung, wonach
grundsätzlich keine Kontinuität zwischen Begriffen bestehen kann, da sie gerade
durch ihre gegenseitige Abgrenzung (griech. peras, lat. definitio, im Gegensatz
zum apeiron als „Infinitem) zu Begriffen werden.
Die Widersprüchlichkeit zeigt sich in dem von Leibniz in die Geometrie ein-
geführten Begriff vom „Grenzübergang“, der einerseits eine Abgrenzung der Be-
griffe voraussetzt, andererseits diese Grenze negiert. Was hier eine Grenze über-
schreitet, gehört somit beiden Bereichen diesseits und jenseits der Grenze zugleich
an. Ersichtlich lassen sich daraus widersprüchliche geometrische Urteile über das-
jenige deduzieren, was einerseits zum Bereich diesseits, andererseits jenseits der
Grenze gehört und zugleich beiden Bereichen gemeinsam sein soll. Und dies
beantwortet die Akademie-Preisfrage nach der Fruchtbarkeit des Verfahrens. Na-
turgemäß weisen Leibnizens Beispiele aus der projektiven Geometrie der „in
einander übergehenden“ Kegelschnitte eben dieselbe kreative Dialektik auf. Und
das gilt nicht minder für alle erst im 19. Jahrhundert entwickelten Kontinui-
tätstheorien der Zahlentheorie (Dirichlet).
Leibnizens Hauptbeispiel für die Deduktion des Differentialquotienten ist eine
geometrische Strecke (die Sekante einer Kurve), die „im Grenzübergang“ in einen
geometrischen Punkt (Berührungspunkt einer Tangente) übergeht. Übrigens ein
Beispiel, das auch Nikolaus von Kues schon in vielen Variationen diskutiert
hat.62 Im Grenzübergang kann daher die Strecke zugleich Punkt und Strecke sein.
Der dialektische Begriff „Grenzübergang“ wurde nachfolgend aber nicht auf die
Grenze zwischen Strecken und Punkten beschränkt, sondern in der Geometrie
allgemein auf alle Punkte einer Strecke (oder Kurve) angewandt, die dann zu-
gleich auch Strecken in einem Punkte sein sollten. Das konnte logisch nur be-

propre à ȇtre substituté à l‟Infinie, sans rendre trop difficiles, ou trop longues, les recherches qu‟on expédie par ce moyen”
(zit. nach G. W. F. Hegel, Ges. Werke, Band 7, Hamburg 1971, Anhang S. 369f. Hier auch die Titel der eingereichten und
weiterer Arbeiten).
61
G. W. Leibniz, „Principium quodam generale“ / „Über das Kontinuitätsprinzip“, in: Hauptschriften zur Grundlegung
der Philosophie I, hgg. von E. Cassirer, Leipzig 1904, auch Hamburg 1966, S. 84 – 93.
62
Nikolaus von Kues, „De mathematica perfectione / Über die mathematische Vollendung“, in: Nikolaus von Cues, Die
mathematischen Schriften, hgg. v. J. Hofmann und J. E. Hofmann, Hamburg 1952, S. 160 – 177.
115

deuten, daß alle Punkte auf einer Strecke zugleich als „Strecken-Punkte“ und die
Strecken in einem Punkte als „Punkt-Strecken“, d. h. als ausgedehnt und zugleich
nicht-ausgedehnt definierbar wurden.
Isaak Newton hat diesen dialektischen Begriff „Fluente“ genannt. Sein Haupt-
beispiel entstammt der physikalischen Kinematik: Die Geschwindigkeit einer
physikalischen Bewegung bliebe danach auch in einem „Zeitmoment“ (d. h. in
einem Zeit-Punkt) erhalten. Logisch widerspruchslos läßt sich allerdings nur be-
haupten: Eine Strecke ist kein Punkt; und eine durch Raum- und Zeiter-
streckungen definierte Geschwindigkeit läßt sich nicht auf einen Punkt über-
tragen, denn dies wäre allenfalls ein „Ruhepunkt“ (was übrigens Zenon, der
Schüler des Parmenides, schon in der Antike und Nikolaus von Kues im Über-
gang vom Mittelalter zur Neuzeit demonstriert hatten).
Sicher dient es zur Dissimulierung dieses Widerspruchs im Begriff des Diffe-
rentialquotienten, daß er in Lehrbüchern immer noch anhand von Leibnizens
geometrischer Veranschaulichung als „Grenzübergang“ von einer Sekanten-
Strecke zu einem Tangenten-Punkt einer Kurve dargestellt wird. Man hat sich so
sehr daran gewöhnt, daß diese Demonstration nicht mehr als widersprüchlich
durchschaut wird, wenn damit behauptet wird, die Eigenschaften einer Strecke
(bezüglich ihrer Lage im Raum) blieben auch im unausgedehnten Punkt erhalten.
Die Folge ist, daß man dann auch in der Physik von „Punktgeschwindigkeiten“
redet, wo logisch nur das Gegenteil von Geschwindigkeit, nämlich „keine Ge-
schwindigkeit“ angetroffen werden kann. Werner Heisenberg hat, wie schon
vorne erwähnt, mit seiner „Unschärferelation“ bei sogenannten konjugierten phy-
sikalischen Größen aus der Not dieses Widerspruchs die Tugend einer onto-
logischen Eigenschaft der Mikro-Natur gemacht.

5. Die Definitionen

Definitionen sind Äquivalenzausdrücke. Sie sind daher keine behauptenden wahr-


heitswertfähigen Urteile, und darum frei bzw. willkürlich festsetzbar. Es ist ein
verhängnisvoller Fehler, sie mittels der Kopula zu notieren oder auszudrücken,
anstatt durch das Gleichheitszeichen oder mit Hilfe sprachlicher Wendungen wie
„das heißt“. Die Mathematik bezieht, wie schon gezeigt wurde, einen beträcht-
lichen Teil ihres wissenschaftlichen Renommees aus diesem Mißverständnis, ihre
Gleichungen seien wahrheitswertfähige Behauptungen. Definitionen beschreiben
einen Begriff mit extensionalen und/oder intensionalen Eigenschaften in den Aus-
drücken anderer Begriffe, oder umgekehrt. Die Definitionen der Begriffe sind in
der „pyramidalen“ Formalisierung durch die Position des zu definierenden Be-
griffs in einer Begriffspyramide direkt ablesbar.
Die aristotelische Standarddefinition umschreibt einen Begriff durch explizite
Angabe seiner generischen Intensionen mittels des „nächst höheren“ Begriffs
(Gattung) und durch die spezifische Intension bzw. „Differenz“, die ihn von der
Gattung und seinen Nebenarten unterscheidet. Die aristotelische Definitionsweise
116

erlaubt keine Definition höchster Gattungsbegriffe (axiomatische Grundbegriffe).


Wohl aber lassen sich solche axiomatischen Begriffe auf andere Weise (siehe
Induktion) definieren. Die üblicherweise in der Logik und Mathematik angenom-
menen axiomatischen Grundbegriffe bzw. Kategorien, die nicht definierbar sein
sollen, können daher überhaupt keine Begriffe sein.
Die sogenannten partikulären Urteile sind Definitionen. D. h. daß auch sie
keine wahrheitswertfähigen Urteile sind. Gleichwohl werden sie seit jeher und
noch immer ganz allgemein für Urteile gehalten und in den Lehrbüchern als
solche behandelt. Sie drücken die Äquivalenz zwischen einem extensional unter-
bestimmten Begriff und einem Begriff aus („Einige Lebewesen, d. h. Tiere“). Die
Negation führt hier stets zu einer weiteren Definition (Einige Lebewesen, d. h.
Nicht-Tiere). Die Negation eines sogenannten partikulären Urteils kann daher als
Gegenprobe auf ihren Definitionscharakter gelten.
Die sogenannten singulären bzw. individuellen Urteile sind ebenfalls Defini-
tionen. Sie drücken die Äquivalenz zwischen einem Begriff und seiner Umschrei-
bung durch die generischen Merkmale und die singuläre Extension seiner Gattung
aus („Mensch, d. h. ein vernünftiges Lebewesen“).
Mathematische Gleichungen sind ebenfalls Definitionen. Sie drücken Äquiva-
lenzen zwischen einer Zahl und deren Umschreibung durch Rechenausdrücke
bzw. zwischen Rechenausdrücken mit Variablen aus.
Tautologien in der Gleichungsform „x = x“ sind weder logische Ausdrücke
noch sprachlich sinnvolle Sätze. Sie sind mißbräuchliche Verwendungen der
logischen Definitionsform für den Ausdruck der Identität (mehr darüber unten bei
Axiome).
Sogenannte Funktionsgleichungen („Funktionen“) sind einerseits Äquivalenzen
von Rechenausdrücken mit Variablen (Unbekannten). Ihre übliche formale Glei-
chungsnotierung „y = f (x)“ besagt nur, daß der Begriff y dasselbe bedeutet wie
ein durch f (eine spezifische Differenz) bestimmter anderer Begriff x. Z. B.
„Quadrat, d. h. gleichseitig-rechtwinkliges Viereck“, oder „Gattin, d. h. verhei-
ratete Frau”. Insoweit sind auch Funktionsgleichungen Definitionen.
In der sogenannten analytischen Geometrie, die auf die cartesische Veranschau-
lichung der Zuordnung von Zahlgrößen zu geometrischen Punkten in der Fläche
zurückgeht, wird die Gleichungsform auf die Zuordnung auch gänzlich ver-
schiedener Zahlgrößen angewandt. Diese analytischen Funktionsgleichungen de-
finieren durch Gleichungen einen oder mehrere gemeinsame Punkte auf Kurven
bzw. anderen geometrischen Gebilden, und zwar durch zwei verschiedene Zahl-
arten, nämlich der x- und der y-Größen auf den Flächenkoordinaten. Insofern ist
ihre Notation als Gleichung gerechtfertigt.
Bei den algebraischen Funktionsgleichungen aber entfällt die geometrische
Veranschaulichung als Bezug auf die definierten Punkte. Dadurch werden die
Gleichungen zu Ungleichungen im Gewande von Gleichungen. Als Ungleichun-
gen werden sie zu korrelierenden Implikationsurteilen über das Verhältnis der
Variablen y und x. Solche algebraischen Funktionsgleichungen sind daher logisch
117

zu formulieren als: „wenn y dann (f)x“. Als Implikationen sind diese Funktionen
Behauptungen und haben daher Wahrheitswerte (Über behauptende Funktionen
mit Wahrheitswerten siehe unten bei Urteil).

6. Urteile bzw. Propositionen

Urteile machen den Bestand des Wissens aus. Sie können wahr, falsch oder beides
zugleich sein. Letzteres im Falle der widersprüchlichen Urteile bzw. der Wahr-
scheinlichkeitsurteile. Sie sind immer allgemein, wie die stoische Logik gegen
Aristoteles mit Recht annahm. Und zwar, weil die sogenannten partikulären und
individuellen Urteile, wie gezeigt, Definitionen ohne Wahrheitswerte sind.
Wahre Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Wahrheitsdefinition.
Beispiele für wahre Urteile in der pyramidalen Formalisierung
1. 2. 3.
A A alle AB sind nicht AC =
kein AB ist AC,
wenn AB dann AC
A kommt allen
AB alle AB sind A = AB AB zu = AB AC
wenn AB dann A wenn A dann AB

(kopulatives Urteil = (aristotel. „Zukommen = (allg. negatives Urteil und


materiale Implikation) formale Implikation) korrelative Implikation)

Die materiale und die formale Implikation können nicht zur logischen Forma-
lisierung von Kausalrelationen dienen. Dies offensichtlich deshalb, weil Begriffe
nicht kausale Ursachen von einander sind. Die übliche Rede von „logischen
Gründen“ verführt aber häufig zu Verwechslungen von logischen und kausalen
„Gründen“.
Die korrelative Implikation dient einerseits zur Formalisierung von beliebigen
Nebeneinanderstellungen. Sie ist jedoch auch die formale Gestalt von Kausal-
relationen. Bei diesen bedarf es jedoch weiterer anwendungsbezogener bzw.
inhaltlicher Präzisierungen. Erstens muß ein zeitlicher Unterschied zwischen den
Bedeutungen der korrelierten inhaltlichen Begriffen vorausgesetzt werden.
Zweitens muß der inhaltliche Oberbegriff als Garant der kausalen Verknüpfung
(das seit Hume gesuchte „innere Band“ zwischen Ursache und Wirkung) bekannt
und bestimmt sein.
Falsche Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Falschheitsdefinition. Diese
ergeben sich im Formalismus der Pyramide am einfachsten durch regelwidrige
(„verkehrte“) Lesung der satzbildenden Junktoren: z. B. der Kopula als negierte
Kopula und umgekehrt; oder einer der Implikationen, z. B. der Korrelation als
materiale oder formale Implikation, und umgekehrt.
118

Beispiele für falsche Urteilslesung in pyramidaler Formalisierung

1. 2. 3.
alle AB sind AC /
A A alle AC sind AB

AB alle AB sind nicht A AB A kommt AB nicht zu AB AC

Verwechselung von Unter- und Oberbegriffen (4 u. 5) und von Nebenarten mit Unterordnung

4. 5. 6.
AB
B

AB
A AB A

Wahr-falsche (widersprüchliche) Urteile verknüpfen reguläre (nicht-widersprüch-


liche) und irreguläre (widersprüchliche) Begriffe mittels der urteilsbildenden
Junktoren derart, daß die Verknüpfung bezüglich der im irregulären Begriff
verschmolzenen Intensionen sowohl als wahr wie als falsch gelesen werden kann.
Diese Urteile werden oft nicht als widersprüchlich erkannt, wenn der irreguläre
Begriff selbst nicht als contradictio in adiecto erkannt wird. In diesem Falle hat
man sich gewöhnlich per Konvention auf eine der beiden Lesungen geeinigt. Die
klassische und die mathematische Logik lesen das widersprüchliche Urteil als (in
toto) falsch, da sie Wahr-Falschheit als „Drittes“ nicht zulassen.
Beispiele für zugleich wahre und falsche Urteile (wahr-falsche bzw. widersprüchliche Urteile)

1 2. 3.
A A wahr als korrelative Impl.
falsch als formale
wahr als materiale I. wahr als formale I. und als materiale Implikation
falsch als formale und falsch als mat. I. und
AB
als korrelative Impl. AB
als korrelative Impl. AB AC

wenn AB dann A wenn A dann AB wenn AB dann AC

4. 5. 6.
A -A AB AC
Wahr-falsches Urteil als
wahr-falsch wahr-falsch als Ur- wahres neg. U. und falsches
als Urteil mit teil mit widerspr. kopulatives Urteil
widerspr. Prädikat Subjekt
AB ABC AB AC

alle AB sind A und -nicht A alle ABC sind AB und AC alle AB sind AC und nicht AC
119

Widersprüchliche Urteile gelten (zu unrecht) in der klassischen und in der


mathematischen Logik als falsche Urteile bzw. Aussagen. Damit wird jedoch in
dialektischer Weise das darin enthaltene wahre Urteil ebenfalls für falsch erklärt.
Die Begründung für diese merkwürdige Meinung ergibt sich in der klassischen
Logik aus deren Zweiwertigkeit. Man schloß einen „dritten Wahrheitswert“ aus
der Logik aus und hielt das damit Behauptete für „unvorstellbar“ bzw. „absurd“.
Die mathematische Logik bzw. „Aussagenlogik“ übernahm diese Meinung und
begründete sie mit der (Frege-Tarski) Unterscheidung von Sinn und Metasinn
bzw. „Sinn“ und „Bedeutung“ von Aussagen. Der „Metasinn“ von widerprüch-
lichen Aussagen wurde dogmatisch als „falsch“ definiert, um damit überhaupt ein
formales Falschheitsmerkmal auszuzeichnen. Und dies u. a. auch deshalb, weil
man davon ausging, es ließe sich kein rein formallogisches Merkmal für (ein-
fache, nicht-widersprüchliche) falsche Behauptungen angeben. Wie oben gezeigt,
ist dies in der pyramidalen Formalisierung möglich.
Auch die Urteilsalternativen (z. B. alle AB sind entweder A oder Nicht- A / alle
AB sind entweder AC oder nicht-AC) sind wahr-falsche Urteile. Sie ergeben sich
durch Einsetzen eines nicht wahrheitswertfähigen alternativen Ausdrucks als
Prädikat in ein kopulatives oder implikatives Urteil, welches dadurch Wahrheits-
werte erhält. Der alternative Prädikatsausdruck bedeutet dann aber nur, daß die
durch „entweder … oder“ verknüpften Prädikatsbegriffe in einem dihäretischen
Nebenartverhältnis zueinander stehen. Das kopulative Urteil mit einem alterna-
tiven Prädikat behauptet deshalb nur, daß einer der beiden Prädikatsbegriffe auf
den Subjektsbegriff zutrifft (was als „wahr“ gilt) und deshalb der andere nicht
zutrifft (was als „falsch“ gilt).
Ein alternatives Urteil ist allerdings nur sinnvoll zu benutzen, wenn grund-
sätzlich unbekannt ist, welcher Prädikatsteil zutrifft und welcher nicht. Dagegen
wird in der Praxis häufig verstoßen. So besagt etwa die sogenannte Abtrennungs-
regel, daß man von einem alternativen Prädikat jeden der beiden Prädikats-
Begriffe als „wahr“ annehmen und damit weitere wahre Urteile bilden könne. Und
dies eben deswegen, weil das alternative Urteil insgesamt wahr sei. Darauf be-
ruhen viele Fehler und Irrtümer bei der Anwendung der Urteilsalternative auf
Sachverhalte.
Die Meinung, daß alternative Urteile ohne Rücksicht auf inhaltliche Sach-
verhalte wahr seien, ist in der klassischen und modernen Logik seit jeher dog-
matisch festgehalten worden. Eine Begründung dafür ist die, daß der Alternativen-
Junktor (das ausschließende Oder) den Sinn einer Negation des Und-Junktors
(„oder = nicht und ...“) hat. Und da die Und-Verknüpfung sich widersprechender
Behauptungsanteile als formal „falsch“ gilt, gilt die Negation dieser Falschheit
schon deswegen als formale Wahrheit. Da man in der Form alternativer Be-
hauptungen demnach immer eine Wahrheit aussprechen können soll, ist die Ur-
teilsalternative eine der beliebtsten Formulierungsformen in den Wissenschaften
geworden. Sie erlaubt es, durch alternative Urteile stets recht zu behalten ohne
Rücksicht auf inhaltliche Sachverhalte.
120

Die mathematische (Aussagen-) Logik definiert für die Aussagenalternative


auch „falsche Wahrheitswerte“, nämlich wenn beide Prädikatsteile wahr oder
beide falsch seien. Dadurch werden aber nur „Nicht-Alternativen“ und nicht etwa
falsche Alternativen definiert. In der mathematischen Logik sind daher die „fal-
schen Alternativen“ zugleich nicht-alternative Alternativen.
Im Gegensatz zur (vermeintlichen) Absurdität der widersprüchlichen Behaup-
tung behauptet die (echte) Alternative nur das Nichtwissen darüber, welcher
Behauptungsanteil wahr und welcher falsch ist (d. h. die Unentschiedenheit oder
Unentscheidbarkeit). Sie kann also, wie schon gesagt, nur im Falle solchen Nicht-
wissens sinnvoll gebraucht werden. Und deshalb ist sie die logische Form „mög-
licher Antworten“ auf präzise Forschungsfragen, die eine Entscheidung über den
wahren bzw. falschen Behauptungsanteil erbringen sollen.
In der neuzeitlichen Logik sind auch sogenannte Wahrscheinlichkeitsurteile
mehr und mehr in den Vordergrund des Interesses der Logiker getreten. Trotz
ihrer Verbreitung im Forschungsbetrieb ist ihre logische Natur noch keineswegs
angemessen geklärt worden. Sie sind durchweg Vermutungen (Konjekturen bzw.
Hypothesen) im Gewande von Behauptungen. Das läßt von vornherein auf ihren
dialektischen Charakter schließen.
Was man vermutet, weiß man bekanntlich gar nicht oder nicht genau. Deshalb
formuliert man Vermutungen alltagssprachlich im Konjunktiv („es könnte sein
daß ...“). Ihr Gegenstandsbereich ist hauptsächlich alles Zukünftige, daneben aber
auch gegenwärtig mehr oder weniger Unbekanntes. Niemand, der seine Alltags-
sprache und ihre Grammatik beherrscht, wird die Konjunktivsätze mit Behaup-
tungen verwechseln.
Obwohl Aristoteles in seiner zweiwertigen Logik die Behauptungssätze zum
Substrat von Wahrheit und Falschheit gemacht hatte, hat er aber auch Vermutun-
gen (über die „possibilia futura“, d. h. zukünftig Mögliches) in seiner Modallogik
in Behauptungsformen ausgedrückt. Bekanntlich gibt es seither weder in der
Logik noch in der Mathematik konjunktivische Satzformen. Um gleichwohl dem
Nichtwissen in den Vermutungen Rechnung zu tragen, hat man die aristotelische
Modallogik zur dreiwertigen Logik erweitert. Der sogenannte „dritte Wahrheits-
wert“ ist jedoch gerade das, was Aristoteles aus der zweiwertigen Logik aus-
schließen wollte, nämlich das „Dritte“ neben Wahrheit und Falschheit.
Die Bezeichnung für dieses Dritte neben Wahrheit und Falschheit, also die
„Wahrscheinlichkeit“, wuchs den damit verbundenen Problemen erst in der
Neuzeit zu. Noch Joachim Jungius konnte in seiner „Logica Hamburgensis“ von
1681 die Wahrscheinlichkeit mit der Wahrheit gleichsetzen. Er definierte: „Wahr-
scheinlich ist, was von den Meisten oder Klügeren gebilligt, d. h. als wahr ein-
geschätzt wird“.63 Von daher ist dem Wahrscheinlichkeitsbegriff auch später stets
die Wahrheitsnähe vindiziert worden.

63
„Probabile verum est, quod plerisque aut sapientioribus probatur, hoc est verum censetur“, Joachim Jungius, Logica
Hamburgensis, hgg. v. R. W. Meyer, Hamburg 1957, S. 2 und S. 403.
121

Kant widmete der Wahrscheinlichkeit ein Kapitel seiner Logikvorlesungen und


definiert sie schon etwas einschränkender als „ein Fürwahrhalten aus unzurei-
chenden Gründen ..., die aber zu den zureichenden ein größeres Verhältnis haben,
als die Gründe des Gegentheils“64. Er unterscheidet dabei zwischen der „mathe-
matischen Wahrscheinlichkeit (probabilitas)“, die „mehr als die Hälfte der Gewiß-
heit sei“ (ibid. S. 91), und der „bloßen Scheinbarkeit (verisimilitudo); einem Für-
wahrhalten aus unzureichenden Gründen, insofern dieselben größer sind als die
Gründe des Gegentheils“ (ibid. S. 90). Bei letzterer entfällt jeder „Maßstab der
Gewißheit“. Daher könne es auch keine „Logik der Wahrscheinlichkeit (logica
probabilium)“ geben, „denn wenn sich das Verhältnis der unzureichenden Gründe
zum zureichenden nicht mathematisch erwägen läßt, so helfen alle Regeln nichts“
(ibid. S. 91).
Kants Hinweis auf den Unterschied zwischen logischer und mathematischer
Wahrscheinlichkeit wurde freilich nicht beachtet. Wohl aber wurde durch ihn die
(falsche) Meinung verstärkt, daß die (mathematische) Wahrscheinlichkeit näher
bei der Wahrheit als bei der Falschheit sei.
Kant sah jedenfalls ganz richtig, daß auf den „Schein der Wahrheit“ kein Verlaß
ist, und daß hinter dem Schein durchaus auch die Falschheit versteckt sein könnte.
Genau das ist auch der Fall. „Wahrscheinlichkeit“ ist eine recht euphemistische
Bezeichnung für den dritten Wahrheitswert geblieben, der diesen Namen nicht
verdient. Denn was nur „wahr erscheint“, kann ebensowohl „falsch“ sein. Und um
dies zu benennen, fehlt es noch bislang an einem Begriff von „Falschscheinlich-
keit“.
Logisch betrachtet ist die Wahrscheinlichkeit dasselbe wie Falschscheinlichkeit.
Und das kann man etwas strikter als „Wahr-Falschheit“ bezeichnen. Was das ist,
haben wir schon ausführlich als die logische Form des Urteilswiderspruchs be-
handelt.
Der widersprüchliche Charakter der Wahrscheinlichkeitsurteile zeigt sich zu-
nächst darin, daß sie Vermutungen (also Nicht-Behauptungen) im Gewande von
Behauptungen sind. Dann aber auch darin, daß sie (wie die Alternativen) ein
Nichtwissen als Wissen „erscheinen“ lassen. Zeigen wir dies am Beispiel von
prognostischen Wahrscheinlichkeitsurteilen.
Werden Wahrscheinlichkeits-Prognosen als Urteile behandelt (was durchaus
problematisch ist), so sind sie wahr-falsche Konjunktionen bzw. Adjunktionen
einer positiven und einer negativen Aussage über denselben zukünftigen Sach-
verhalt. Erweist sich die positive Aussage als wahr (sogenannte Verifikation, was
freilich nicht in der Zukunft, sondern in der Gegenwart festgestellt wird, wenn die
Prognose nicht mehr Prognose ist!), so war die negative falsch. Erweist sich die
negative Aussage als wahr (sog. Falsifikation), so war die positive Aussage
falsch.

64
I. Kant‟s Logik. Ein Handbuch zu Vorlesungen, hgg. v. G. B. Jäsche, erl. v. J. H. v. Kirchmann, Leipzig 1876, S. 90.
122

Der logische Musterfall dieser Verhältnisse ist der Münzwurf. Man weiß mit
Sicherheit, daß die geworfene Münze Bild oder Zahl zeigen wird, aber man weiß
nicht, welche Seite sich zeigen wird. Wenn die Münze auf dem Rand stehen
bleibt, gilt dies nicht als Münzwurf. Die logische und zugleich mathematische
Formulierung des Falles aber lautet: die Wurfergebnisse stehen im Verhältnis von
1 : 1 (oder „fifty-fifty“). Man beachte dabei, daß es sich bei dieser Formulierung
um eine Proportion (wie beim Fußballspiel), keineswegs aber um einen aus-
rechenbaren Quotienten handelt.
Man sieht, daß die Wahrscheinlichkeiten (auch „Chancen“ genannt) für den
einen und den anderen Fall der Münze gleichverteilt sind. Man kann auch sagen:
Wahrheit und Falschheit der Prognose sind im Gleichgewicht. Was wiederum
bedeutet, daß man mittels der logischen Wahrscheinlichkeit überhaupt nichts über
das prognostizierte Ergebnis behaupten kann.
Mathematiker berechnen die „statistische Wahrscheinlichkeit“ mittels ausge-
rechneter Quotienten. So ergeben sich Wahrscheinlichkeits- (oder „Risiko-“) Ko-
effizienten. Darüber soll im § 10 mehr gesagt werden. Jedenfalls kann schon
festgehalten werden, und jedes Beispiel numerischer Wahrscheinlichkeiten zeigt
es, daß die logische Halbe-Halbe-Wahrscheinlichkeit immer auf alle mathema-
tischen („statistischen“) Wahrscheinlichkeiten durchschlägt. Letztere mögen hoch
oder niedrig sein, das Ergebnis ist im Einzelfall immer gänzlich unbestimmt.
Selbst das Höchst-Wahrscheinliche passiert manchmal gerade nicht, und das
Unwahrscheinlichste passiert.
Deshalb kann man mit Wahrscheinlichkeitsaussagen – je nach Standpunkt –
immer Recht behalten oder immer falsch liegen.

Analytische Funktionsgleichungen sind, wie die Bezeichnung besagt, Gleichungen


und als solche Definitionen. Gegenstand der Definitionen waren (und sind) in der
analytischen (cartesischen) Geometrie die gemeinsamen Punkte, die durch die
Zahlvariablen der zwei (flächenbestimmtenden) oder drei (raumbestimmenden)
cartesischen Koordinaten dargestellt werden. Was wir hierbei Definitionsglei-
chungen genannt haben, wird in der Terminologie der analytischen Geometrie als
„Abbildung“ (d. h. ein-eindeutliche Zuordnung) von Variablenwerten (gewöhn-
lich von y-Werten zu x-Werten in der cartesischen Fläche) verhandelt. Die nume-
rischen Ausdrücke mit den Variablen x und y links und recht des Gleichheits-
zeichens beziehen sich auf einen Punkt oder alle Punkte auf einer Kurve als ihre
gemeinsame Bedeutung.
Die Ausweitung der euklidisch-cartesianischen Geometrie auf nicht-euklidische
Räume und mehrdimensionale Zahlordnungen hat inzwischen die ursprünglichen
geometrischen Veranschaulichungen der Funktionszusammenhänge in den Glei-
chungen weit hinter sich gelassen. Das führte zur Entwicklung rein arithmetischer
algebraischer Funktionen. Zwar versucht man auch für diese - oft aus didakti-
schem Interesse – geometrische Veranschaulichungen (sog. Graphen) zu finden,
aber das ist nur noch beschränkt möglich. Bei komplizierteren Funktionen geht
123

die Gleichungseigenschaft der ein-eindeutigen Zuordnung der Variablenwerte


verloren. Die numerische Analysis ist daher dazu übergegangen, die Gleichungs-
notation zugunsten einer korrelierenden Implikation aufzugeben. Statt y = f(x)
formalisiert man „y → f(x)“ d. h. “wenn x dann ein anderer (nur in Aus-
nahmefällen derselbe) Zahlenwert von y“.65 Darin deutet sich ein grundsätzlicher
Übergang der Funktionentheorie von der Definition ihrer numerischen Ausdrücke
zu (hypothetischen bzw. kreativen) Behauptungen in der Form korrelierender
Implikationen über das Vorliegen von existierenden neuen numerischen Gebilden
an.

7. Schlüsse.
Implikative Urteile sind zugleich einfachste Schlüsse. Komplexe Schlüsse, auch
Argumente genannt, sind Urteilsverbände, wie die aristotelischen Syllogismen
und die stoischen (chrysippschen) Schlüsse.
Man bemerke, daß sich bei den Urteilsimplikationen als einfachsten Schlüssen
nicht die Frage nach einem „falschen“ ersten oder zweiten Schlußglied stellen
kann, da diese selbst nur Begriffe, jedoch keine wahrheitswertfähigen Urteile sind.
Aristotelische Syllogismen sind Argumente aus drei Begriffen, deren inten-
sionale und extensionale Verflechtungen in einer Begriffspyramide durch Urteile
und/oder Definitionen klar und deutlich dargestellt werden. Ihre Subsumptions-
verhältnisse im Gattungs-Art-Individuum-Zusammenhang werden durch die Ko-
pula bzw. die materiale Implikation (oder beides zusammen) von unten nach oben,
oder (wie oft bei Aristoteles) durch das spezielle „Zukommen“ bzw. die formale
Implikation (oder beides zusammen) von oben nach unten dargestellt. Ihre Unter-
scheidungen von Nebenbegriffen werden durch die Negation dargestellt.
Da hierbei alles auf die Unter- und Nebenordnung der drei Begriffe des Syl-
logismus ankommt, spielen in den aristotelischen Syllogismen die Quantifi-
kationen die Hauptrolle. Die Nebenordnung kann durch die Negation eines Be-
griffs („kein ... ist“) oder durch die Negation der Kopula („.... ist nicht“) dar-
gestellt werden. Die in vielen aristotelischen Syllogismen enthaltenen sogenann-
ten partikulären bzw. individuellen Urteile sind als Definitionen zu lesen (statt
„ist“ lies „das heißt“).
Alle klassischen Syllogismen des Aristoteles lassen sich auf drei Verknüpfungs-
schemata zurückführen. Diese sind nicht mit den sog. syllogistischen Figuren des
Aristoteles zu verwechseln. Sie sehen folgendermaßen aus:

65
R. Knerr, Goldmann Lexikon Mathematik, München 1999, S. 131.
124

Die drei Schemata der aristotelischen Syllogismen


1. Leiter 2. Riß 3. Spitze

A A

AB AB AC AB AC

ABD ABD

Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund

Erklärung: In der „Leiter“ wird eine Unterart bzw. ein Individuum mit einem
Artbegriff, dieser mit seiner Gattung und im engeren „Schluß“ ersteres mit letzte-
rem verknüpft. Im Beispiel: Alle Hunde sind Tiere. Alle Tiere sind Lebewesen.
Also sind alle Hunde Lebewesen (modus barbara).
Im „Riß“ werden Unterart und Artbegriff verknüpft und beide durch Negation
von einer Nebenart unterschieden. Im Beispiel: Alle Hunde sind Tiere. Kein Tier
ist Pflanze. Also ist keine Pflanze Hund (modus calemes).
In der „Spitze“ werden zwei Artbegriffe gegeneinander abgegrenzt und mit ihrer
Gattung verknüpft. Im Beispiel: Kein Tier ist Pflanze. Alle Tiere sind Lebewesen.
Also sind (eigentl. =) einige Lebewesen Nicht-Pflanzen (modus felapton). Der
Schluß i. e. Sinn ist eine Definition von „Tier“ durch Negation der Nebenart
„Pflanze“!
Die von Aristoteles als „gültig“ dargestellten und in einem berühmten Merk-
spruch benannten Syllogismen spielen sämlich in diesen Figuren. Jedoch sind
nicht alle echte Syllogismen, da in einigen mittels negativer Definitionen mit
mehr als drei Begriffen „gespielt“ wird.
Die sogenannten stoischen Schlüsse (Chrysipps fünf „Unbeweisbare“ bzw.
„Indemonstrablen“) sind Argumente, in denen zwei Begriffe in einem pyrami-
dalen Zusammenhang gemäß den möglichen junktoriellen Verknüpfungen ein-
geführt („es gibt...“) oder eliminiert werden („es gibt nicht...“). Sie bestehen aus
einem hypothetischen bzw. nicht-behauptenden Anteil (falls es gäbe, ... so gäbe es
auch …), der sprachlich im Konjunktiv formuliert wird, und einem behauptenden
Anteil, den im engeren Sinne sogenannten Schluß (nun gibt es... also gibt es … /
gibt es nicht …).
Der Einführung oder Eliminierung eines Begriffs in den oder aus dem pyrami-
dalen Formalismus entspricht gemäß dem nicht-formalen Logikverständnis der
Stoiker die inhaltliche Behauptung oder Negierung der wirklichen Existenz von
Gegenständen, die unter den jeweiligen Begriff fallen. Die Schlüsse i. e. S.
behaupten daher die Existenz oder die Nichtexistenz des unter den einen Begriff
125

Fallenden in Abhängigkeit von der Existenz oder Nichtexistenz von Gegenstän-


den, die unter den anderen Begriff fallen (sog. modus ponens und modus tollens).
Gemäß der universaldeterministischen Ontologie der Stoiker lassen sich ihre
Schlüsse nur auf die logische Klärung des Verhältnisses von Ursache und
Wirkung bzw. von Wirkung und Ursache beziehen. Das Kausalverhältnis setzt
(worauf Sextus Empirikus besonders hinweist 66 ) stets ein zeitliches Verhältnis
voraus: Die Ursache geht zeitlich voraus, die Wirkung folgt zeitlich nach. Ein
Ursache-Wirkungsverhältnis kann aber, wie vorn gezeigt wurde, nur durch die
korrelierende Implikation zwischen Nebenartbegriffen dargestellt werden. Denn
weder kann die Gattung Ursache für Unterbegriffe noch können Unterbegriffe
Ursache für ihre Gattungen sein. Nur so erklärt sich der Sinn der fünf „unbeweis-
baren“ Schlußformen des Chrysipp. Diese lassen sich so formulieren:

a. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im disku-
tierten Beispielsfall) eine Ursache. Also gibt es (auch) eine Wirkung (modus ponens).

b. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im
diskutierten Beispielsfall) keine Wirkung. Also gibt es (auch) keine Ursache (modus
tollens).

c. Es gäbe nicht (gleichzeitig) eine Ursachen und eine Wirkung. Nun gibt es aber eine
Ursache. Also gibt es (noch) nicht eine Wirkung.

d. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Bei-
spielsfall eine Ursache. Also gibt es (noch) keine Wirkung.

e. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Bei-
spielsfall) keine Wirkung. Also gibt es (erst nur) eine Ursache. 67

Der Orientierung der stoischen Schlußlehre am Ursache-Wirkungszusammenhang


kann man entnehmen, daß diese Schlußformen in der Wissenschaft eine Haupt-
form der logischen Methode zur Entdeckung (oder Widerlegung) der Existenz von
Kausalfaktoren geworden ist.
Beispiel ist die langwährende Debatte der Stoiker über die Existenz des (demo-
kriteischen) Leeren bzw. des leeren Raumes, den sie gegen die aristotelische
Bestreitung („horror vacui“ der Natur) zu beweisen suchten. Sie schlossen von der
Existenz sichtbarer Schweißperlen auf der Haut, daß es auch unsichtbare „Poren“
in der Haut geben müsse, durch welche die Schweißperlen austreten. Das Beispiel
zeigt zugleich, daß die Kausalforschung der Stoiker eine Grundlage für die Suche
nach „unbeobachtbaren Parametern“ (wie den unbeobachtbaren Kräften in der
Physik) geworden ist.

66
Sextus Empiricus, Pyrrhoneische Grundzüge, aus dem Griechischen übersetzt und mit einer Einleitung und Erläute-
rungen versehen von Eugen Pappenheim, Leipzig 1877, 3. Buch Kap. 3,26, S. 170.
67
Vgl. die Darstellung der fünf „Unbeweisbaren“ bei J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg-München 1970,
S. 145f.
126

Die sogenannte Aussagenlogik

Die moderne Aussagenlogik steht zwischen der traditionellen Urteilslehre und der
Schlußlehre. Es werden beliebige inhaltliche Urteile („Aussagen“ bzw. sog. Ele-
mentarsätze als Beispielsfälle) in die Begriffspositionen eingesetzt, so daß die
Junktoren nicht mehr Begriffe, sondern selbständige wahre oder falsche Urteile zu
komplexen Aussagen verknüpfen. Diese komplexen Aussagen ähneln den Ver-
knüpfungen von Urteilen zu Schlüssen.
Für die komplexen Aussagen werden je nach den darin verwendeten Junktoren
eigene Wahrheitswerte („wahr“ oder „falsch“; ein dritter Wahrheitswert wird
strikt ausgeschlossen) definiert bzw. festgesetzt. Die vorne satzbildende Junktoren
genannten Operatoren behalten ihre traditionellen (von den Stoikern detaillierter
als bei Aristoteles ausgearbeiteten) Definitionen.
Die ausdrucksbildend genannten Junktoren erhalten in der Aussagenlogik eben-
falls Wahrheitswert-Definitionen, deren Sinn rätselhaft erscheint und deshalb um-
stritten ist. Dies kann nicht verwundern, weil sie gar keinen Wahrheitswert besit-
zen können. Die für die Definitionen aller Junktoren aufgestellte „Wahrheits-
werttabelle“ 68 gilt als bedeutende Errungenschaft der modernen Logik. Obwohl
sich Wittgenstein selbst später vom damaligen Stand seiner Philosophie distanziert
hat, gehört der „Tractatus“ noch immer zum obligatorischen Lehrstoff der Logik-
seminare.
Die Aussagenlogik beruht auf zahlreichen fehlerhaften Annahmen, die mehr
Probleme in der Logik aufgeworfen als gelöst haben.
Die grundlegende (falsche) Voraussetzung ist das Vorurteil, die Logik insgesamt
sei eine Meta-Sprache. D. h. ihr „Vokabular“ (Variable und Junktoren) und ihre
„Grammatik“ (die Regeln der Verknüpfung der Vokabeln und Junktoren zu „Aus-
sagen“) erzeuge eine autonome logische Bedeutungsschicht mit eigenständiger
Wahrheit und/oder Falschheit über dem Bedeutungsbereich der normalen und der
inhaltlichen wissenschaftlichen Bildungssprachen, die jeweils ihre eigenen Wahr-
heitswerte besitzen. Das hat vielfach widersprüchliche oder gar paradoxe Folgen.
Sie bestehen darin, daß die definierten Wahrheitswerte der Meta-Sprache selbst in
Widerspruch zu den Wahrheitswerten der Beispielsätze geraten.
Wittgenstein hat selbst den Terminus „Elementarsatz“ eingeführt, aber niemals
ein Beispiel für einen Elementarsatz geliefert. Aus seiner Definition: „Der Ele-
mentarsatz besteht aus Namen. Er ist ein Zusammenhang, eine Verkettung, von
Namen“ (Tractatus 4.22) kann man aber schließen, daß er mathematische Aus-
drücke wie Summen, Quotienten, Produkte und ihre „Verkettungen“ für wahr-
heitswertfähige Behauptungssätze hielt. Das ist jedoch, wie gezeigt wurde, falsch.

68
Vgl. L. Wittgenstein im Tractatus logico-philosophicus. 1920/21 Satz 5.101, in: L. Wittgenstein, Tractatus logico-
philosophicus. Logisch-philosophische Abhandlung, Frankfurt a. M. 1963, S. 60. – Vgl. dazu die Darstellungen bei J. M.
Bochenski und A. Menne, Grundriß der Logistik, 4. Aufl. Paderborn 1973, S. 36f. sowie W. Stegmüller, Probleme und
Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band I: Wissenschaftliche Erklärung und Begründung,
Berlin-Heidelberg-New York 1969, S. 6 - 25.
127

Eine weitere (falsche) Voraussetzung Wittgensteins besteht darin, daß die in der
Aussagenlogik verknüpften „Elementarsätze“ (Basissätze) keinerlei thematischen
Kontext zu besitzen brauchen. Was Aristoteles durch den „Mittelbegriff“ als Zu-
sammenhang zwischen Prämissen und Folge garantiert hatte, ist also fallenge-
lassen worden. Das aber hat u. a. zur Folge, daß auch die Abfolge von Vorder-
und Hintersätzen (bzw. von Prämissen und Folgerungen) willkürlich gewählt
werden kann.
So lehrt die Aussagenlogik, die gewöhnlich beliebige Behauptungssätze als
Elementarsätze verwendet, z. B. folgende metasprachliche „Wahrheiten“: Werden
ein beliebiger wahrer und ein ebenfalls beliebiger falscher Satz durch den Junktor
„und“ zu einem aussagenlogischen Argument verknüpft, so hat das Argument ins-
gesamt den Wahrheitswert „falsch“. Werden ein beliebiger wahrer Satz und ein
beliebiger falscher Satz durch den Junktor „oder“ (hier ist das ausschließende
„entweder ... oder“, die Alternative, gemeint) zu einem Argument verknüft, so hat
das Argument den Wahrheitswert „wahr“. Wird ein beliebiger falscher Satz und
ein beliebiger wahrer Satz durch den Junktor „wenn ... dann“ (Implikation) zu
einem Argument verknüpft, so hat das Argument den Wahrheitswert „wahr“.
Wird in umgekehrter Reihenfolge ein beliebiger wahrer und ein beliebiger
falscher Satz durch den Implikationsjunktor zu einem Argument verknüpft, so hat
das Argument den Wahrheitswert „falsch“. Und werden zwei beliebige falsche
Satze durch den Implikationsjunktor zu einem Argument verknüpft, so hat das
Argument den Wahrheitswert „wahr“.
Die Formen dieser Argumentbildungen erscheinen nur deshalb in einigen Hin-
sichten als plausibel, weil sie die Urteilsbildung der klassischen Logik nach-
ahmen. Aber der Schein trügt.
Es wurde vorn schon gezeigt, daß in der klassischen Urteilslehre ausdrucks-
bildende Junktoren ohne Wahrheitswert und satzbildende Junktoren, die den
Wahrheitswert bestimmen, zu unterscheiden sind. Gerade diese grundlegende
Unterscheidung wird in der Aussagenlogik außer acht gelassen. Nimmt man die
Voraussetzungen der Aussagenlogik beim Wort, so muß man z. B. ganze Bücher
voller falscher Sätze mit einer daraus gefolgerten falschen These für „wahr“ hal-
ten. Und das kommt in den Wissenschaften nicht selten vor (und wird durch die
Aussagenlogik gleichsam abgesegnet). Der entscheidende Fehler, der viele andere
nach sich zieht, ist also der, den ausdrucksbildenden Junktoren bzw. Operatoren
generell und speziell auf der Meta-Ebene Wahrheitswerte zuzusprechen.
Geben wir noch einige Beispiele dieses Fehlers, die sich aus dem Meta-
Ebenenansatz ergeben. So muß z. B. eine „alternative“ Verknüpfung zweier belie-
biger wahrer Sätze (mit „entweder ... oder“) wie „entweder ist Paris die Hauptstadt
von Frankreich oder die Erde ist ein Planet“ für falsch gehalten werden. Man
bemerkt aber, daß es sich nicht um eine falsche, sondern überhaupt nicht um eine
Alternative handelt.
Ebenso gilt die Konjunktion (mit „und“) eines falschen und eines wahren Satzes
wie „Paris ist die Hauptstadt von Deutschland und die Erde ist ein Planet“ (ebenso
128

in umgekehrter Reihenfolge) als falsch. Zu verstehen dabei ist allenfalls, daß die
Konjunktion nach dem Muster der Widerspruchsfalschheit für falsch gehalten
wird, obwohl es sich keineswegs um einen echten Widerspruch handelt. Es
handelt sich vielmehr um eine bloße Nebeneinanderstellung eines selbständigen
wahren und eines falschen Satzes. Man sieht dabei nicht ein, warum die beiden
Sätze noch einen übergeordneten Meta-Wahrheitswert haben sollten.
Formalisiert man die Beispielsätze selbst (üblicherweise mit den Variablen für
ganze Behauptungssätze „p“ (= wahrer Satz) und „-p“ (falscher Satz), so verkennt
der gesamte Meta-Sprachenansatz und mit ihm die Aussagenlogik, daß durch
diese Formalisierung (p bzw. –p) der inhaltliche Beispielsatz seine eigene wahre
oder falsche Satz-Bedeutung verliert und ein nicht wahrheitswertfähiger Ausdruck
an seine Stelle tritt. „Wahrer Satz“ bzw. „falscher Satz“ sind nicht selbst wahre
oder falsche Behauptungen, sondern Bezeichnungen eines (logischen) Sach-
verhaltes. Dies ebenso wie die nebeneinandergestellten Ausdrücke „weiße Kuh
und schwarze Kuh“.
Die Aussagenlogik ist entwickelt worden, um komplexe Satzverknüpfungen als
Argumente formalisieren zu können. Tatsächlich lassen sich die behauptenden
komplexen Urteile (also solche mit satzbildenden Junktoren) in der Regel auf
syllogistische und stoische Schlußformen zurückführen. Als Hauptjunktor ver-
wendet man dann die Implikation (wenn ... dann) und interpretiert die damit
verknüpften Aussagen nach der scholastischen Faustregel: „Ex falso seqitur quod-
libet“ (Aus dem Falschen folgt Beliebiges, d. h. Wahres und Falsches) und „Ve-
rum sequitur ex quolibet“ (Wahres folgt aus Beliebigem, d. h. aus Wahrem und
aus Falschem).
Diese Faustregeln, die aus der scholastischen Syllogistik in die Aussagenlogik
übernommen worden sind, machen aber nur Sinn, wenn das „Beliebige“ als Wi-
derspruchsfalschheit (also als wahr und falsch zugleich) verstanden wird. Nur
wenn ein widersprüchliches Urteil wahr und falsch zugleich ist, kann sowohl
Wahres als auch Falsches daraus gefolgert werden. Und ebenso folgt das Wahre
nur dann aus Beliebigem, wenn das „Beliebige“ ebenfalls als widersprüchliches
Urteil sowohl wahr als auch falsch zugleich ist und damit das Wahre mitenthält.
Diese – eigentlich auf der Hand liegende – restriktive Bedingung für das Funk-
tionieren solcher Schlüsse hat aber weder die scholastische Logik noch die Aus-
sagenlogik anerkannt. Als logisches „Falsum“ wurden und werden einfach falsche
Beispielsätze (anstatt widersprüchliche Sätze) in die Faustregel-Schemata einge-
setzt, und man wundert sich dann oft über die Schlußfolgen.
Dieser traditionelle Fehler verbindet sich schließlich mit dem durch die Aus-
sagenlogik neu eingeführten weiteren Fehler, den wir schon genannt haben. Er
macht sich auch in den gerade genannten Beispielssätzen bemerkbar. Er besteht
darin, daß bei der Formalisierung der Argumente auf jeden begrifflichen Zusam-
menhang zwischen den Argumentsätzen verzichtet wird. Dieser „kontextuelle“
Zusammenhang bleibt jedoch für jede Schlußbildung eine wesentliche Bedingung.
In der Aussagenlogik wird aber aus beliebigen Sätzen und Ausdrücken und ihren
129

Verknüpfungsweisen durch die Junktoren auf die Wahrheit oder Falschheit des
Gesamtarguments geschlossen. Deshalb kann man auch nur aus der Aussagen-
logik (nicht aber aus einem aristotelischen Syllogismus) den „wahren Schluß“
lernen: „Wenn 4 eine Primzahl und Berlin die Hauptstadt von Frankreich ist, dann
ist die Erde kein Planet“. Pfiffige Geister können daraus den moralischen Schluß
ziehen: Glaubwürdigkeit ergibt sich auch durch konsequentes Lügen.
Die von L. Wittgenstein vorgeschlagene Wahrheitswerttabelle von 16 Wahr-
heitswerten für die Kombination zweier Elementarsätze hat seither durch ihren
mathematischen Charakter der Variation aller möglichen Nebeneinanderstellun-
gen zweier Elementarsätze mit ihnen zugelegten Wahrheitswerten fasziniert. Sie
dürfte der bislang letzte Ausläufer der Lullischen Kunst sein, die darin bestand,
alle Kombinationen von 9 Kategorien mechanisch zu erzeugen.69
Nach allem, was vorn über die logische Leistungsfähigkeit der Junktoren gesagt
wurde, dürfte klar sein, daß die Wahrheitswertdefinitionen der Aussagenlogik sich
insgesamt dem mathematischen „dialektischen“ Prozedere verdanken.
Daher wird z. B. die Kopula, sicher der wichtigste, weil in der Logik meistge-
brauchte Junktor, überhaupt nicht definiert, sondern mit dem Gleichheitszeichen
und dem Existenzjunktor gleichgesetzt (Tractatus 3.323). Die vieldiskutierte
„Tautotologie“ mit dem Wahrheitswert „immer wahr“, mit der Wittgenstein gar
das Wesen der Logik erfaßt haben wollte, besteht in einer (nicht wahrheits-
wertfähigen) Konjunktion zweier (widersprüchlicher) Selbstimplikationen („Wenn
p, so p; und wenn q so q“).70 (Die „Kontradiktion“ mit dem Wahrheitswert „im-
mer falsch“, wird gleichsam spiegelbildlich als Konjunktion zweier wider-
sprüchlicher Satzvariablen dargestellt („p und nicht p; und q und nicht q“). Es sei
dem Leser überlassen, sich über den Unterschied der logischen und mathema-
tischen Denkweise anhand solcher Belege weiter klar zu werden.

8. Theorie
Theorien sind logisch geordnete Begriffspyramiden über einem abgegrenzten Er-
fahrungsbereich. Basisbegriffe einer Theorie sind unterste Artbegriffe bzw. Be-
schreibungstermini oder Eigennamen. Alle anderen Begriffe sind induktiv durch
Weglassen der spezifischen Differenzen und Festhalten der gemeinsamen generi-
schen Merkmale aus diesen zu abstrahieren. Das gilt insbesondere für die höch-
sten Gattungsbegriffe, die sogenannten axiomatischen Grundbegriffe oder Kate-
gorien der Theorie.
Beachtet man nur die Begriffe einer Theorie, ohne auf die Relationen zwischen
ihren Begriffspositionen Rücksicht zu nehmen, so hat man es mit dem zu tun, was
man als den „harten Kern“ (hard core) einer Theorie bezeichnen kann. Über diese
Begriffe zu verfügen, nennt man wissenschaftliche Kenntnisse. Erst die Notierung

69
Vgl. dazu L. Geldsetzer, Metaphysik. Einleitung und Geschichte der antiken und mittelalterlichen Metaphysik. Internet
des Philosophischen Instituts der HHU Duesseldorf 2009.
70
Vgl. jedoch dazu Tractatus 4.243: „Ausdrücke wie ‚a = a‟, oder von diesen abgeleitete, sind weder Elementarsätze,
noch sonst sinnvolle Zeichen“!
130

und Lesung der satzbildenden junktoriellen Beziehungen zwischen den Begriffen


einer Theorie liefert ihre Behauptungen, die man wissenschaftliche Erkenntnisse
nennt.
Bei Theorien kann es vorkommen, daß nur einzelne ihrer Sätze falsch oder
wahr-falsch sind. Man kann diese, wenn sie erkannt werden, aus der Theorie
durch Umordnung ihrer Begriffspositionen eliminieren.
In der üblichen Praxis und unter der Voraussetzung, daß Satzwidersprüche
„logisch falsch“ seien, hält man eine Theorie jedoch insgesamt für falsch und
widerlegt, wenn sich nur ein oder nur einige Widersprüche darin finden. Da diese
sich aber durch Umstrukturierung ihres pyramidalen Zusammenhanges elimi-
nieren lassen, kann man vorhandene Theorien verbessern. Das erklärt die ebenso
übliche Praxis, bewährte Theorien nicht aufzugeben (was K. Popper jedoch
empfahl), sondern sie zu „retten“ und der Erfahrungslage anzupassen.
Induktiv gewonnene Theorien sind in der Regel widerspruchslos und werden,
wenn dies (evtl. durch Deduktion aller involvierten Begriffe) bestätigt wird, als
wahr akzeptiert. Man muß freilich betonen, daß es tatsächlich wahre Theorien gibt
angesichts der unter Wissenschaftlern verbreiteten Meinung, Theorien könnten
allenfalls wahrscheinlich sein. Letzteres würde nach den hier vorgestellten logi-
schen Prinzipien nur bedeuten, daß sie Widersprüche enthalten.
Viele Theorien werden allerdings rein deduktiv entwickelt. Sie sind in der Regel
anfällig für die absichtliche oder unbemerkte Einführung widersprüchlicher
Begriffe. Die Verknüpfung solcher widersprüchlicher Begriffe liefert dann auch
widersprüchliche Aussagen bzw. Theoreme dieser Theorien.
Alle Theoriebegriffe müssen definierbar sein, wie bei der Induktion gezeigt
wurde. Allerdings geht man in der Logik wie in der Mathematik seit Aristoteles
ganz allgemein davon aus, daß die obersten Gattungsbegriffe (axiomatische
Grundbegriffe) nicht definierbar seien. Wir sagten vorne schon: wenn dies so
wäre, würde es sich dabei nicht um Begriffe handeln. Und in der Tat werden sie
auch durch „Intuitionen“ eingeführt, die keinen Anspruch darauf machen, als
Begriffe akzeptiert zu werden. Das hält die üblichen Theorien gewissermaßen
lebendig und jeweils offen für vielfältige Interpretationen.
Als Beispiele für eine induktiv konstruierte Theorie in Form einer Begriffs-
pyramide sei hier zunächst eine formale und zugleich semiformale Darstellung der
Hauptgedanken der „Phänomenologie des Geistes“ von Hegel vorgestellt. Semi-
formal heißt: anstelle der Intensionen-Variablen sind die inhaltlichen Begriffe
Hegels in die Begriffspositionen eingetragen.
131

Die „Theorie“ der Hegelschen „Phänomenologie des Geistes

A
Erinnerung
absoluter Geist
Vern. Wissen

ABC
Schaffen
AB Taten AC
Selbstbewußt Institutionen
sein,Person Normen

ABDE
Handeln
ABD Begierde ABE ACP ACQ
unglückl. Be- freies Herren- Sitte Recht
wußtsein Bewußtsein

ABDFG
Begreifen
ABDF Begriff ABDG ABEN ABEO
Totes Äuße- Inneres Leben "stoisches" "sekptisches"
res, Sinne Verstand Bewußtsein Bewußtsein

ABDFHI
Wahrnehmung ABDGLM
ABDFH Täuschung ABDFI ABDGL Erklärung ABDDGM
Allgemeines Einzelnes, Kraft Gesetz
Dieses, sagen Meinen

ABDFHJK
ABDFHJ Erfahrung ABDFHK
Ding, Objekt Ich, Subjekt

Erläuterung: Hegel beginnt mit der Induktion der „Erfahrung“, in welcher die
beiden sich dihäretisch gegenüberstehenden Instanzen Objekt und Subjekt bzw.
Ding und Ich zu einem dialektischen Begriff verschmolzen sind. „Erfahrung“
enthält die spezifischen Merkmale des Objektiven (…J) und Subjektiven (…K)
gemeinsam. Werden diese weggelassen, so wird der Begriff des „Allgemeinen“
bzw. des als „Dieses … Sagbare“ als Oberbegriff der beiden Ausgangsbegriffe
erreicht. Dem „Allgemeinen“ (…H) steht im Negationsverhältnis gegenüber der
Begriff des „Einzelnen“ (…I) bzw. des nur „Meinbaren“. Allgemeines und Be-
sonderes bzw. das Sag- und Meinbare werden zum dialektischen Begriff dessen,
was zugleich „Wahrnehmung” und „Täuschung“ ist, verschmolzen. Wird von den
gemeinsamen spezifischen Differenzen (…HI) abgesehen („aufheben 1“), gewinnt
man den höheren Begriff des durch die „Sinne wahrgenommenen Äußeren” und
„Toten“ („aufheben 2“). Diesem steht im Negationsverhältnis gegenüber das
durch den „Verstand zu erfassende innere Leben“. Usw. bis zur letzten Induktion
des „absoluten Geistes“ mit seinen „Er-Innerungen“ des gesamten Induktions-
prozesses.
Man bemerke, daß Hegel nicht alle Begriffe als „dialektische“ konstruiert,
sondern daß er dialektische Begriffe als eine Stufe der Begriffsinduktion ein-
schaltet. Gelegentlich deduziert er aus der erreichten Stufe weitere Begriffe, wie
sie auf der rechten Seite des Schemas erscheinen.
132

Als Beispiel für eine deduktiv konstruierte Theorie sei eine semiformale Pyramide
der Zahlbegriffe vorgestellt.

Semiformale Dartellung einer logisch begründeten Zahlentheorie

Logische
Quantifikation

Zahlbegriff
Menge Logisches
Logisches
Alle = Ganzes
Ein = Element

Buchstabenzahl
Kommensurable Inkommensurable
Variable, Konstante
rationale Zahl komplexe Zahl

Null Non-standard-
Zahl

Positive Zahl Negative


Neg. number
Zahl Irrationalzahl Imaginäre Zahl
ganze Zahl and
Integer und z.B.period.Bruchzahl Wurzel aus negativer
rationale Bruchzahl irrationale Wurzel Zahl
ra-
tional fractals

rationale ganze Zahl


Bruchzahl „natürliche“ Zahl

ungerade Zahl gerade Zahl


nicht halbierbar halbierbar

nmber
nmber
Primzahl Nicht-Primzahl
nur durch sich nicht nur durch
selbst teilbar sich selbst teilbar

Erläuterung: Es handelt sich um den Vorschlag einer logisch begründeten De-


duktion des allgemeinen Zahlbegriffs (Menge) und der hauptsächlichen Zahlarten
und Unterarten. Er unterscheidet sich als „logische Deduktion“ ersichtlich von
allen bisher vorgeschlagenen mathematischen Zahldefinitionen. Die Pyramide
stellt bei Lesung der Verknüpfungen zwischen den Begriffspositionen eine Zahl-
theorie dar.
133

Die in die Elipsen eingezeichneten Begriffe sind logische Quantifikationsbegriffe.


Aus den Begriffen „Eines“ (Element) und „Alles“ (Gesamt) wird der mathe-
matische Grundbegriff „Zahl“ (logisch „Menge“ genannt) fusioniert, der beide
logische Merkmale zugleich enthält. Von diesem dialektischen Zahlbegriff ist der
nichtwidersprüchliche logische Quantifikator „Einige“ zu unterscheiden, der die
mittlere Position in der multiplen Artenreihe „ein, einige, alle“ einnimmt und
deswegen die sich widersprechenden Merkmale des mathematischen Zahlbegriffs
nicht enthält. Alle spezielleren Zahlbegriffe enthalten die widersprüchlichen
Merkmale des Mengen- bzw. Zahlbegriffs als generische Merkmale und sind
deswegen in Rechtecke eingeschrieben. Aus den dihäretisch deduzierten Neben-
arten von Zahlen lassen wiederum fusionierte dialektische Zahlbegriffe induzie-
ren, die die spezifischen Differenzen der beiden Nebenarten gemeinsam enthalten,
und deren Extensionen sie gemeinsam umfassen.
Die Deduktion der Primzahlen als „ungerade nur durch sich selbst teilbare“, und
der Nichtprimzahlen als „nicht nur durch sich selbst teilbare ungerade ganze
Zahlen“ ergibt sich aus der – an anderer Stelle ausgeführten – Kritik an der seit
Euklid üblichen Zulassung der 2 und Nichtzulassung der 1 als genuiner Prim-
zahlen.

Corollarium zur Goldbachschen Vermutung:


Die Vermutung von C. Goldbach (1690 – 1764) lautet bekanntlich, daß jede gera-
de Zahl, die größer als 2 ist, durch die Summe zweier Primzahlen dargestellt wer-
den könne. Die Vermutung kann ersichtlich wegen der üblichen Primzahldefini-
tion nicht entschieden werden.
Die Zulassung der 1 als Primzahl sollte eigentlich selbstverständlich sein. Denn
sie erfüllt die traditionelle euklidische Definition der Primzahlen als „nur durch
sich selbst und die 1 teilbare (natürliche ganze) Zahl“, wie auch Henry Lebesgue
annahm. Daß die 1 als Primzahl zugelassen wird, ist für die Lösung des Problems
ausschlaggebend.
Ob die 2 als Primzahlen zugelassen wird oder nicht, spielt für die Goldbachsche
Vermutung jedoch keine Rolle. Wohl aber, daß die 1 eine ungerade und die 2 eine
gerade Zahl ist. Das Kriterium für eine Lösung liegt in den Primzahlzwillingen
(also Primzahlabständen der Größe 2). Nur mit der 1 als Summand läßt sich zur
Bildung jeder geraden Zahl, die größer als 2 ist, der kleinere Primzahlzwilling zur
„Summe zweier Primzahlen“ ergänzen. Q. e. d.

9. Axiome
Axiome als oberste Gattungsbegriffe werden, wie gesagt, in vielen Wissenschaften
als „unableitbare“ Kategorien des jeweiligen Bereiches vorgestellt. Da sie nach
klassischem aristotelischem Definitionsmuster nicht definierbar sind und diese
Meinung sich allgemein durchgesetzt hat, spricht man mit D. Hilbert von ihrer
impliziten Definition, die sich erst im Verlauf von Deduktionen und Interpretatio-
nen aus ihnen herausklären lassen soll.
134

Die definitorische Unbestimmtheit der Kategorien als oberster Gattungen der


wissenschaftlichen Theorien hat seit der Antike den großen Freiraum für Interpre-
tationen dessen geschaffen, was mit ihnen in den jeweiligen Wissenschaften bzw.
Wissenszusammenhängen gemeint sein konnte. Die Fachtermini zur Bezeichnung
der Kategorien konnten sich so über Jahrhunderte konstant erhalten. Die Ausle-
gung ihres Sinnes hat jedoch zu allen Zeiten und bei allen Schulbildungen inner-
halb der Disziplinen eine große Variationsbreite gehabt. Die Technik solcher
Auslegungen führte schon in der Spätantike zur Ausbildung sogenannter dogma-
tischer und zetetischer Hermeneutiken in der alexandrinischen Philologie und von
daher in der Jurisprudenz und Theologie.71
Am deutlichsten hat sich die hermeneutische Methode in der Ausbildung einer
eigenen mathematischen Disziplin „Axiomatik“ zur Geltung gebracht. Ihr Gründer
war David Hilbert. Er reklamierte in einem berühmt gewordenen Dictum „jeden
Gegenstand des wissenschaftlichen Wissens“ in einer ausgereiften Theorie als
„Gegenstand der axiomatischen Methode“ und somit „indirekt als Gegenstand der
Mathematik“.72
Dieser axiomatische Aufbau der Mathematik geht von vornherein davon aus,
daß die axiomatischen Grundbegriffe der Mathematik grundsätzlich nicht definier-
bar seien, sondern daß sich ihr Sinn erst in den Interpretationen offenbare. Kom-
pensatorisch dazu hat die Mathematik jedoch eine Reihe von Kriterien entwickelt,
die zur Auszeichnung und Bestimmung derjenigen „Ideen“ dienen sollen, die sich
als Axiome verwenden lassen. Diese Kriterien lauten bekanntlich: Unabhängigkeit
(von einander), Widerspruchslosigkeit, Vollständigkeit und ggf. Evidenz.
Kriterien sind nun freilich keine Theoriebegriffe. Es handelt sich dabei eher um
Ideale oder „Postulate“, die das Selbstverständnis der Mathematiker über Ziel und
Zweck ihrer Wissenschaft ausdrücken. Man möchte in den vorhandenen mathema-
tischen Theorien diejenigen Begriffe herausfinden, die als „unabhängig“ von ein-
ander nicht deduziert werden können. Man strebt an, daß alles mathematisch De-
monstrierte und Bewiesene widerspruchslos sei. Auch soll alles Mathematische in
der Gestalt von Theorien vorgeführt werde, die ihrer Natur nach einen thema-
tischen Bereich „vollständig“ abdecken. Und das alles soll sogleich auch „ein-
leuchten“ (evident sein) und insofern überzeugen.
Nach allem, was vorn über den pyramidalen Zusammenhang von Begriffen in
Begriffspyramiden von Theorien gesagt wurde, dürfte leicht zu sehen sein, daß
diese sogenannten Kriterien oder vielmehr Ideale für ihre Zwecke untauglich sind
– und sich schon gar nicht dazu eignen, gleichsam als Super-Kategorien behandelt
zu werden.
Denn wenn Axiome unabhängig von einander sein sollen, können sie nicht auf
Widerspruchslosigkeit hin geprüft werden. Wenn sie widerspruchslos sein sollen,

71
Vgl. dazu und zum Folgenden L. Geldsetzer, Art. „Hermeneutik“ in: Handlexikon der Wissenschaftstheorie, hgg. v. H.
Seiffert und G. Radnitzky, München 1989, S. 127 – 138, sowie § 45 im vorliegenden Text.
72
Vgl. D. Hilbert, Axiomatisches Denken, in: Mathematische Annalen 78, 1918, S. 405 – 415, ND in: Gesammelte
Abhandlungen III, Berlin 1935, S. 146 – 156; ND New York 1965.
135

können sie nicht unabhängig von einander sein. Wenn sie vollständig sein sollen,
muß schon der ganze Inhalt der Theorie aus ihnen abgeleitet, begründet und be-
kannt sein. Wenn sie evident sein sollen, müssen ihre Intensionen und Extensionen
bekannt sein, d. h. es geht nicht ohne ihre Definition.
Als oberste Gattungen („axiomatische Grundbegriffe“ oder „Kategorien“) so-
wohl der Logik wie auch der Mathematik gelten seit jeher die Begriffe Identität,
Widerspruch und Drittes. Da sie in Axiomatiken als nicht-definierbar gelten, kann
man sich nicht wundern, daß sie bis heute höchst umstritten, d. h. interpretierbar
geblieben sind. Ihre Problematik dürfte aber nur eine scheinbare sein, denn es läßt
sich zeigen, daß es sich bei der Identität, dem Widerspruch und dem Dritten
keineswegs um Kategorien, sondern um nachrangige Begriffe logischer Theorien
handelt.
Dafür spricht, daß sie bei Erläuterung ihrer logischen und mathematischen Natur
gewöhnlich mit den Begriffen Wahrheit und Falschheit in Verbindung gebracht
werden. Man sagt, die Identität garantiere die Wahrheit, der Widerspruch bringe
die Falschheit zum Ausdruck, und das Dritte liege außerhalb von Wahrheit und
Falschheit.
Diese Meinung wird damit begründet, daß die Identität eine Tautologie sei, bei
der man gewissermaßen keinen Irrtum begehen könne; daß der Widerspruch in der
Form einer Behauptung überhaupt „Nichts“ behaupte (deshalb wird sein Wahr-
heitswert aussagenlogisch mit 0 (Null) = Falschheit bezeichnet); das Dritte aber
liege jenseits der zweiwertigen Logik und werde erst in der neueren dreiwertigen
oder in mehrwertigen Logiken als eigenständiger Wahrheitswerte-Bereich ausge-
spreizt. Dieser Bereich umfasse die sogenannten Wahrscheinlichkeitswerte.
Als die tatsächlichen Axiome der Logik und Mathematik erweisen sich dadurch
die Begriffe von Wahrheit, Falschheit und Wahr-Falschheit.
Wahrheit und Falschheit sind diejenigen obersten Gattungen, in deren Extension
alle logischen und mathematischen Urteile und Schlüsse liegen. Im Umfang des
Wahrheitsbegriffes liegen sämtliche wahren Urteile und Schlüsse; im Umfang des
Falschheitsbegriff liegen alle falschen Urteile und Schlüsse. Die Begriffe von
Wahrheit und Falschheit stehen im Negationsverhältnis zueinander. Dadurch kön-
nen sie auch in Äquivalenzgleichungen definiert werden. Diese lauten: Wahrheit
= Nicht-Falschheit; sowie: Falschheit = Nicht-Wahrheit.
Wahr-Falschheit ist ein kontradiktorischer Begriff, der aus der Verschmelzung
der Begriffe von Wahrheit und Falschheit entsteht. Man erinnere sich, daß die
Extension eines kontradiktorischen Begriffs die Extensionen beider verschmol-
zenen Ausgangsbegriffe umfaßt. In seiner Extension liegen daher alle wahr-fal-
schen sowie Wahrscheinlichkeitsurteile und -Schlüsse, da sie aus wahren und
falschen Urteilen bzw. Schlüssen zusammengesetzt sind. Die Definition lautet
demnach: Wahr-Falschheit = Wahres und Falsches bzw. Nicht-Wahres und
Nicht-Falsches.
Man bemerke, daß Begriffe als logische und mathematische Elemente nicht
unter diese Kategorien von Wahrheit, Falschheit und Wahr-Falschheit fallen.
136

Begriffe können nicht wahr oder falsch oder wahrscheinlich sein. Insbesondere
sind es kontradiktorische und konträre widersprüchliche Begriffe nicht, die man
oft „falsche Begriffe“ nennt. Sie sind allerdings als Prädikatsbegriffe in Urteilen
das Hauptmittel, diese Urteile wahr-falsch zu machen. Im übrigen sind sie, wie
gezeigt wurde, phantastische Vorstellungen mit erheblicher heuristischer und
kreativer Relevanz.
Die Definitionen von Wahrheit, Falschheit und Wahr-Falschheit lassen erken-
nen, daß diese Kategorien nicht „unabhängig“ sondern im Gegenteil abhängig von
einander sind. Daher stellt sich die Frage der Kriterien anders als es die mathe-
matische Axiomatik vorschlägt.
Das Wahrheitskriterium besteht in der logischen Kohärenz (oft auch Konsistenz
genannt) und Komprehensibilität (Umfassendheit) einer Theorie als Urteils-
system. Kohärenz ergibt sich im definitionsgemäßen Gebrauch und entsprechen-
der Lesung der satzbildenden Junktoren in Anwendung auf reguläre Begriffe.
Komprehensibilität bedeutet, daß eine einzelwissenschaftliche Theorie sich in das
Gesamt des jeweiligen Fachwissens einschließlich seiner philosophischen (meta-
physischen und grunddisziplinären) Begründungen kohärent einfügen läßt.
Das Falschheitskriterium bedeutet: logische Inkohärenz bzw. Nicht-Kohärenz.
Diese zeigt sich im definitionswidrigen Gebrauch und entsprechender Lesung der
satzbildenden Junktoren in Anwendung auf reguläre (widerspruchslose) Begriffe.
Bei der Verwendung widersprüchlicher Begriffe in Urteilen ergibt sich die Inko-
härenz durch die falschen Anteile in den wahr-falschen Behauptungen.
Das Kriterium der Wahr-Falschheit ergibt sich aus gleichzeitiger Kohärenz und
Inkohärenz einer Theorie. Diese zeigen sich im definitionsgemäßen Gebrauch und
entsprechender Lesung satzbildender Junktoren in Anwendung auf irreguläre
(kontradiktorische und konträre) Begriffe. Hauptformen sind die widersprüch-
lichen Urteile, insbesondere als Möglichkeitsurteile, Paradoxe und Wahrschein-
lichkeitsurteile.
Bemerken wir auch an dieser Stelle: Es ist ein häufiger, jedoch irreführender
logischer Sprachgebrauch, widersprüchliche Urteile als „unlogisch“ oder gar
„sinnlos“ bzw. “absurd“ zu bezeichnen, und dies im Unterschied zu falschen Ur-
teilen. Denn Urteilswidersprüche gehören ebenso wesentlich zur Logik wie wider-
spruchslose falsche Urteile.
Sind dadurch die logischen und mathematischen begrifflichen Axiome klar und
deutlich als „Kohärenz“ und „Inkohärenz“ definiert, so lassen sich mit ihnen auch
die logischen und mathematischen „axiomatischen Grundsätze“ formulieren: 1.
„Alles Wahre ist kohärent“, 2. „Alles Falsche ist inkoherent“. 3. „Alles Wahr-
Falsche bzw. Wahrscheinliche ist kohärent und inkohärent zugleich“. Diese axio-
matischen Eigenschaften lassen sich im pyramidalen Formalismus sowohl dar-
stellen als auch ablesen.
137

§ 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften

Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter
von Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die
übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als
widersprüchlicher Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung
des Nichts gewordenen Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des
noch nicht seienden Zukünftigen im gegenwärtigen Sein. Die geschichtliche „Realität“ und das
Zukünftige als ontologische Bereiche von Möglichkeiten. Die Konstruktion der Notwendigkeit als
unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs
als Fusion von Wirklichkeit und Möglichkeit

In § 5 wurde bereits auf den Unterschied zwischen der gemeinsamen wirklichen


Lebenswelt des Menschen und den sonderbaren möglichen Welten der Wissen-
schaftler aufmerksam gemacht. Nachdem im Vorangegangen zusätzlich einiges
über die Logik ausgeführt worden ist, kann nunmehr etwas genauer über diese
möglichen Welten gehandelt werden.
Die bereits von Aristoteles konzipierte Modallogik hat zu einer in der ganzen
Logikgeschichte bearbeiteten Formalisierung der Vermutungen bzw. Hypothesen
geführt. Aristoteles hatte seine Modallogik als Theorie der „zukünftigen Mög-
lichkeiten“ (possibilia futura) entwickelt. Mit ihr sollten nicht wahre oder falsche
Behauptungen formalisiert werden, sondern „unentscheidbare“ Vermutungen über
zukünftige Ereignisse, also gerade das, was man im grammatischen Futur oder in
grammatisch-konjunktivischen Sätzen äußert. Aristoteles stellte diese Vermu-
tungen als „Möglichkeitsurteile“ neben die Notwendigkeitsurteile und die Wirk-
lichkeitsurteile.
Unter Notwendigkeitsurteilen konnte man in der aristotelischen Logiktradition
die rein formalen Urteile verstehen, da der logische Formalismus als „zwingende
Notwendigkeit“ aufgefaßt wurde. Inhaltliche bzw. nicht-formalisierte Urteile gal-
ten dann als Wirklichkeitsurteile. Zusammen mit diesen wurden die Vermutungen
als Möglichkeitsurteile i. e. S. dann in der sogenannten Modallogik behandelt.
Gerade dadurch, daß die Modallogik als traditioneller Teil der klassischen Logik
galt und die Möglichkeitsurteile zusammen mit den Notwendigkeitsurteilen (seit
Kant: „apodiktische Urteile“) und den Wirklichkeitsurteilen (seit Kant auch: „as-
sertorische“ bzw. „faktische Urteile“) behandelt wurden, wurden auch die „Mög-
lichkeitsurteile“ (Kant nannte sie „problematische Urteile“) zum Gegenstand
zweiwertiger Wahrheitswertbetrachtungen. Daraus haben sich eine Reihe spe-
zieller Modallogiken und Modalkalküle entwickelt.73 Das hat dahin gewirkt, daß

73
Vgl. dazu neben den im § 5 genannten Arbeiten die Artikel „Modalität“, „Modalkalkül“ und „Modallogik“ von K.
Lorenz in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, Band 2, Mannheim-Wien-Zürich
1984, S. 904 – 906, 906 – 907 und 907 – 911.
138

man den Möglichkeitsbegriff selbst für einen regulären logischen Begriff gehalten
hat.
Leibniz definierte den Möglichkeitsbegriff in Übereinstimmung mit dieser logi-
schen Tradition als „das Widerspruchslose“ bzw. als das, „was eingesehen werden
kann, d. h. was klar eingesehen wird“. 74 Das wird durch Christian Wolff (1679 –
1754) in seiner Definition: das Mögliche ist das, „was keinen Widerspruch in sich
enthält“ 75 gemeine Auffassung der neueren Philosophie.
Kants Transzendentalphilosophie legt ebenfalls diese Möglichkeitsdefinition zu-
grunde. Transzendentalphilosophie verstand sich ausdrücklich als eine Erfor-
schung der „Bedingungen der Möglichkeit von Erkenntnis“, d. h. der begrifflichen
Grundlagen der Erkenntnis. Dabei sollte diese „Ermöglichung“ der wissenschaft-
lichen Erkenntnis (neben den Anschauungsformen der Sinne und den „dialek-
tischen“ Ideen der Vernunft) wesentlich in Grundbegriffen („Kategorien“ bzw.
„konstitutiven“ Grundbegriffen) des Verstandes bestehen, die widerspruchslos
sein sollten.
Die Leibniz-Wolff-Kantische Möglichkeitsdefinition macht jedenfalls verständ-
lich, daß die begrifflichen „Möglichkeiten“ als reguläre (widerspruchslose) Be-
griffe gefaßt werden. Umgekehrt hat es auch dazu geführt, daß Begriffe überhaupt
als „Möglichkeiten“ verstanden werden. Das Mögliche soll sich also wider-
spruchslos denken bzw. vorstellen lassen. Was aber einen Widerspruch enthält,
gilt danach als negierte Möglichkeit, also als „unmöglich“ (daher auch „absurd“
bzw. „sinnlos“). Auch das ist so von der modernen Logik übernommen worden.
Der Möglichkeitsbegriff ist außerhalb der Logik zum Stammbegriff einer Reihe
von Grundbegriffen in den Einzelwissenschaften geworden. Auf das griechische
„dynamis“ und die lateinische Übersetzung „potentia“ gehen der physikalische
Kraftbegriff und die „Potentialität“ sowie die anthropologischen und psycho-
logischen Begriffe „Vermögen“, „Anlage“, „Disposition“ zurück. Von der Medi-
zin bis in die Vulgärsprache sind auch die aristotelischen Begriffe der geschlecht-
lichen „Potenz“ und des Geschlechts-„Akts“ erhalten geblieben.
Die vorgenannten Begriffe von Kräften und Vermögen haben in den betref-
fenden Wissenschaften immer etwas Rätselhaftes behalten. Sie sollen als ange-
nommene Ursachen manifest Wirkliches (bei Aristoteles „energeia“, lateinisch
„actus“, deutsch wörtlich: „Wirklichkeit“), das immer sinnlich wahrnehmbar ist,
aus einem unsichtbaren und theoretisch konstruierten Hintergrund erklären. Physi-
kalische Kräfte werden erst in ihren Wirkungen erfaßt und bemessen, psychische
Vermögen und Anlagen erst, wenn sie sich in manifesten Leistungen darstellen.
Daher hat es auch nicht an Kritikern gefehlt, die z. B. eine Physik ohne Kräfte

74
„Possibile est, quod intelligi potest, id est ... quod clare intelligitur“, in: G,. W. Leibniz Confessio philosophi, 1673, zit.
nach H. Seidl, Art. Möglichkeit, Historisches Wörterbuch der Philosophie, hgg. v. J. Ritter und K. Gründer, Band 6, Basel-
Stuttgart, 1984, Sp. 85.
75
Vgl. H. A. Meissner, Philosophisches Lexikon aus Christian Wolffs Sämtlichen Deutschen Schriften, Bayreuth und Hof
1737, ND hgg. von L. Geldsetzer, Instrumenta Philosophica, Series Lexica III, Düsseldorf 1970, S. 379.
139

(Ernst Mach) oder eine Psychologie ohne Vermögen (J. H. Herbart) gefordert
haben.
Die meisten Physiker und Psychologen fuhren jedoch fort, von den Kräften und
Vermögen so zu reden, wie man vordem von Geistern und Dämonen redete. Diese
bewirken alle physischen und psychischen Prozesse, doch nimmt sie niemand
wahr, und sie zeigen sich niemals in manifesten Erscheinungen. Und so bilden
auch jetzt noch die „potentiellen Kräfte“ und „unentdeckten, unausgeschöpften
und unbewußten Vermögen bzw. Kapazitäten“ (jetzt manchmal auch „Kompe-
tenzen“ genannt) ein wissenschaftstheoretisches Gespensterreich hinter denjeni-
gen physikalischen und psychischen Phänomenen, die aktuell beobachtet werden.
Der traditionelle Glaube in der Philosophie und in den Wissenschaften, daß da,
wo ein Wort eine lange Geschichte aufzuweisen hat und als „Terminus“ in den
Wissenschaften verbreitet ist, auch ein regulärer Begriff zugrunde liegen müsse,
hat den Begriff der „Möglichkeit“ immer davor geschützt, als das erkannt und
durchschaut zu werden, was er ist: nämlich ein widersprüchlicher Begriff (con-
tradictio in terminis). Da widersprüchliche Begriffe bei der Satz- und Urteils-
bildung widersprüchliche Urteile nach sich ziehen können, liegt in solchen Be-
griffen die Grundlage für die „dialektische Logik“, die von der klassischen auf
Nichtwidersprüchlichkeit abzielenden Logik unterschieden werden muß. Die fak-
tische Existenz dieser Dialektik ist auch dort, wo man sie nicht vermutet, offen-
sichtlich.
Nun scheint es besonders die vermeintliche Undefinierbarkeit der höchsten Gat-
tungen gewesen zu sein, die die Logiker und Ontologen seit jeher dem Möglich-
keitsbegriff zugute gehalten haben. Sie verstehen ihn dann als (oberste) Gattung
über den beiden ontologischen Artbegriffen „Sein“ und „Nichts“ bzw. „Wirk-
lichkeit“ und „Unwirklichkeit“. Verwendet man den Möglichkeitsbegriff („das
Mögliche“) als genus proximum über den Begriffen „Sein“ und „Nichts“, so er-
gibt sich die gewiß im Abendland traditionelle Definition von „Sein“ als „Seins-
Möglichkeit“ und von „Nichts“ als „Nicht-Möglichkeit“ bzw. „Unmöglichkeit“.
Vom Sein läßt sich dann als wahr behaupten, daß es nicht Nichts ist; und vom
Nichts, daß es nicht Sein ist.
Trotz der Plausibilität und allgemeinen Verbreitung dieser Definition weist sie
jedoch einen gravierenden logischen Fehler auf, der erst durch die genaue Analyse
der Intensionen und Extensionen des Möglichkeitsbegriffs sichtbar wird.
Wäre „Möglichkeit“ die Gattung über „Sein“ und „Nichts“, dann müßte zur
Bildung des Begriffs der Möglichkeit von den spezifischen Differenzen „Sein“
und „Nichts“ (bzw. „Nichtsein“) abstrahiert werden können. „Möglichkeit“ bliebe
dann nur als gemeinsame Gattung übrig, und „möglich“ müßte als generisches
Merkmal den Artbegriffen „Sein“ und „Nichts“ zukommen. Was zur Folge hätte,
daß alles Seiende und alles Nichtige auch möglich sein müßte. Dieses reine
„Mögliche“ müßte sich in irgend einer Weise denken bzw. vorstellen lassen, und
zwar ohne Verknüpfung mit irgendwelchen Vorstellungen von Sein oder Nichts,
denn davon müßte ja abstrahiert werden. Es verhielte sich nicht anders als
140

beispielsweise beim Begriff des „Lebendigen“, dessen Definition man durch


Abstraktion von den spezifischen Merkmalen der Arten des Lebendigen, nämlich
der „Tiere“ und der „Pflanzen“ erhält.
Der Möglichkeitsbegriff kann jedoch keine Gattung über den Artbegriffen Sein
und Nichts sein. Die Logiker entledigen sich jedoch der Frage nach seinen
Intensionen und Extensionen durch die These von der grundsätzlichen Unde-
finierbarkeit höchster Begriffe, zu denen die „Möglichkeit“ neben „Sein“ und
„Nichts“ traditionellerweise gerechnet wird.
Es wurde schon früher 76 vorgeschlagen, den Möglichkeitsbegriff als wider-
sprüchlichen Begriff zu verstehen. „Möglichkeit“ wird danach nicht durch Ab-
straktion von Sein und Nichts als gemeinsame Gattung beider induziert, wie das
bei regulären Gattungsbegriffen (und somit auch bei höchsten Gattungen bzw.
Kategorien) der Fall ist, sondern durch Verschmelzung der beiden im Nega-
tionsverhältnis zu einander stehenden Begriffe „Sein“ und „Nichts“ zu einem
dritten Begriff. „Möglichkeit“ ist dann als „Sein-Nichts“ oder auch (wegen der
Symmetrie der Verschmelzung) als „Nichts-Sein“ zu definieren. Schon die Tat-
sache, daß solche zusammengesetzten Bezeichnungen in der Philosophie- und
Logikgeschichte bisher nicht aufgetaucht sind, zeigt, daß diese dialektische Be-
griffsverschmelzung im Möglichkeitsbegriff bisher nicht gesehen worden ist.
Intensional bedeutet das, daß der Möglichkeitsbegriff die sich ausschließenden
Intensionen „Sein“ und „Nichts“ zugleich enthält, was eben seine Widersprüch-
lichkeit ausmacht. Daneben aber enthält der Möglichkeitsbegriff kein eigenes
Merkmal, wie es von einer gemeinsamen Gattung über Sein und Nichts zu fordern
wäre. Die Extension des Möglichkeitsbegriffs besteht hier in den vereinigten
beiden Extensionen der Ausgangsbegriffe „Sein“ und „Nichts“.
Das hat aber weitreichende Folgen für das, was man sich bei „Möglichkeit“
vorzustellen und zu denken hat. Es handelt sich nicht um etwas Transzendentes,
was über Sein und Nichts bzw. Wirklichkeit und Nichtwirklichkeit hinausliegen
könnte (wie bei einer Gattung zu fordern wäre), sondern gerade um alles das, was
man zugleich und in gleicher Hinsicht „nichtiges Sein“ und „seiendes Nichts“
nennen könnte. Wer also von Möglichkeiten spricht und sich dabei etwas denkt
bzw. vorstellt, der kann damit in der Regel nur etwas Wirkliches meinen, das er
zugleich für unwirklich hält, oder umgekehrt etwas Unwirkliches, was er zugleich
für wirklich hält.
Bezüglich der „Möglichkeit“ denkt sich freilich jeder Logiker und Wissen-
schaftler irgend etwas, wenn es auch schwer fällt zu sagen, was es ist und wie es
beschaffen sein könnte. Und darum meint man allgemein auch, „Möglichkeit“
müsse etwas anderes sein als ein Widerspruch in sich. Und das soll dann ebenso
von den oben genannten Ableitungsbegriffen (den ebenso dialektischen Art-
begriffen) der Möglichkeit wie Kraft, Vermögen, Anlage gelten. Jeder, der damit
umgeht, stellt sich unter irgend einem Modell bzw. einem Gleichnis etwas dabei

76
Vgl. L. Geldsetzer, Logik, Aalen 1987, S. 94 und S. 98.
141

vor und beruhigt sich damit, im Modell (besser gesagt: in der jeweiligen
Privatmythologie) ließe sich dem Unanschaulichen gewissermaßen als Denkhilfe
etwas Bildhaftes beigesellen.
Was bei diesem widersprüchlichen Begriff gedacht bzw. vorgestellt werden soll
und kann, ist jedoch einerseits das, was als Seiendes oder Existierendes (d. h. als
etwas unter den Begriff „Sein“ Fallendes) wahrgenommen und nur durch die
Wahrnehmung in seiner faktischen Existenz überhaupt bestätigt werden kann.
Andererseits ist es zugleich auch das, was in der Erinnerung an das Wahr-
genommene nach dessen Verschwinden (ein Fall von Nichts!) vorgestellt wird.
Ohne Erinnerung an Vergangenes könnte man darüber nicht als von einem vor-
dem wahrgenommenen Sein oder Wirklichen reden.
Wahrnehmung und Erinnerung sind in aller Regel wohlunterschiedene geistige
Tätigkeiten. Während und solange man etwas wahrnimmt, bemerkt man nicht, daß
man zugleich dieses Wahrgenommene auch erinnert. Es muß aber begleitend
erinnert werden, wenn es als etwas mehr oder weniger Beständiges ausgezeichnet
werden kann. Aristoteles scheint dies mit seiner Substanzdefinition gemeint zu
haben. Sie lautet bekanntlich „to ti en einai“ bzw. „das, was war und (noch) ist“
(wir haben es mit „Ge-Wesen“ übersetzt). Wohl aber bemerkt man an den Erin-
nerungen, daß das, was ihnen als Wahrgenommenes zugunde lag, ins Nichts
abgeglitten ist. Es ist für keine sinnliche Wahrnehmung mehr verfügbar.
David Hume hat die Erinnerungen „schwache Bilder“ und „weniger lebhafte
Wahrnehmungen“ von Sinneseindrücken (faint images und less lively percep-
tions) genannt.77
Als solche schwachen Bilder werden die Erinnerungen gewiß nicht mit den
sinnlichen Wahrnehmungen verwechselt. Für den realistischen Empirismus, wie
ihn Hume vertrat, ist nur das Wahrgenommene in und während der Wahrnehmung
eigentliches Sein. Die „schwachen Bilder“ nach der Wahrnehmung repräsentieren
das ins Nichts Verschwundene. Die erinnerten Bilder sind das Sein dieses Nichts
im Bewußtsein.
Die realistischen Erkenntnistheorien erklären die sinnliche Wahrnehmung be-
kanntlich selbst schon als eine Abbildung eines (an sich unerkennbaren) Objektes,
des „Dinges an sich“ Kants. Sie verkennen den Unterschied zwischen nicht-abbil-
denden Wahrnehmungen und bild-bildenden Erinnerungen und übertragen das
letztere Verhältnis auf das erstere. Idealistische Erkenntnistheorien, wie diejenige
George Berkeleys, betonen jedoch gerade die Identität von sinnlicher Wahrneh-
mung und Gegenstand der Wahrnehmung. Abbildhaftigkeit von Erkenntnissen
ergibt sich für einen wohlverstandenen Idealismus, wie ihn Berkeley vertrat,
77
“By the term impression, then, I mean all our more lively perceptions, when we hear, or see, or feel, or love, or hate, or
desire, or will. And impressions are distinguished from ideas, which are the less lively perceptions, of which we are
conscious, when we reflect on any of those sensations or movements above mentioned”, D. Hume, An Inquiry Concerning
Human Understanding, ed. by. J. McCormack and M. Whiton Calkins, Leipzig 1913, S. 15 / „Unter der Bezeichnung
Eindruck verstehe ich also alle unsere lebhafteren Auffassungen, wenn wir hören, sehen, tasten, lieben, hassen, wünschen
oder wollen. Eindrücke sind von Vorstellungen unterschieden, welche die weniger lebhaften Auffassungen sind, deren wir
uns bewußt werden, wenn wir uns auf eine jener oben erwähnten Wahrnehmungen oder Regungen besinnen“, D. Hume,
Eine Untersuchung über den menschlichen Verstand, 9. Aufl. hgg. von R. Richter, Leipzig o. J. S. 18.
142

ausschließlich und nur durch das Verhältnis der Erinnerungen zu den Wahrneh-
mungen, die sie abbilden.
Die Verschmelzung von Sein und Nichts im Möglichkeitsbegriff hat nun ihre
weiteste Anwendung in den historischen Wissenschaften. Man sollte vorsichtiger-
weise sagen: eigentlich müßte es so sein. Denn der Gegenstand der historischen
Wissenschaften ist nichts anderes als ein ins ontologische Nichts verschwundenes
Sein, das teilweise in mehr oder weniger ausgearbeiteten und geordneten Erinne-
rungen präsent gehalten wird.
Das Vergangene und Gewesene gilt jedermann als etwas, das „nicht mehr“
existiert. Das heißt jedoch ontologisch konsequent: Es ist Nichts bzw. zunichte
geworden. Zugleich hat es ein Sein in der Erinnerung als historisches Geschichts-
bild. Das Objekt der Geschichtsschreibung war und ist diese Identifikation von
Nichts und Sein, die zuerst Heraklit auf den Begriff des „Logos“ zu bringen
versucht hat.
Heraklit hat seinen Logosbegriff (der gewöhnlich, aber fälschlich als Prototyp
eines regulären widerspruchslosen Begriffs interpretiert wird) präzise als die
„Einheit des Entgegengesetzten“ definiert. Seine „Dialektik“ richtete sich gegen
Parmenides, der in seinem berühmten Lehrgedicht den größten Gegensatz von
Sein und Nichts herausgearbeitet hatte. Das Sein hatte Parmenides als nur zu
denkendes ruhendes Eines, das Nichts als vielfältiges und bewegtes sinnlich
Wahrnehmbares erklärt. Und darauf gestützt sollte Wahrheit im Seinsdenken be-
stehen, Falschheit, Irrtum und Täuschung aber in jeder sinnlichen Wahrnehmung.
Heraklit aber zeigte, daß diese Gegensätze ihrerseits als Einheit begreifbar sein
mußten, nämlich als Werden. Und es ist das Werden, das alles Geschichtliche
auszeichnet. Daher sein bekanntes Dictum „Alles fließt“ (panta rhei). Heraklits
„Eines auch Alles“ (Hen kai Pan) sowie zahlreiche weitere Beispiele erweisen die
logische Natur seines „Logos“ als Einheit entsprechender extremer Gegensätze.
Über des Heraklit Logoslehre ist die Philosophie jedoch als zu „tief, dunkel und
unverständlich“ hinweggegangen. Schon die Zeitgenossen haben Heraklit als den
„Dunklen“ ausgegeben.
Es war Platon, der der Wiedererinnerung (Anamnesis) an die angeblich vorge-
burtlich geschauten Ideen einen so wichtigen Platz in der Ideenlehre zusprach. Er
hielt die erinnerten Ideen selber für das eigentliche Sein im Unterschied zu der
Nichtigkeit der wahrgenommenen Phänomene. Und so war es auch Platon, der
dem Vergangenen als erinnerten Ideen diesen besonderen Seinscharakter vindi-
zierte, den man ihm heute noch zuspricht. Denn wenn man das Vergangene noch
immer „historische Realität“ nennt, meint man, daß es wirkliches Sein sei. Aber
mit Heraklit ist daran zu erinnern, daß es sich dabei um eine „nicht-reale Realität“
handelt. Und das ist genau das, was man sich in Erinnerungen (seien sie auch
kollektiv in wissenschaftlicher Arbeit konstruiert) als „historische Möglichkeiten“
vorzustellen hat.
Man sollte freilich hinzufügen, daß die historischen Geschichtsbilder nicht allein
auf den aufgezeichneten Erinnerungen von Zeitzeugen oder späteren Historikern
143

beruhen. Deren Berichte über Fakten und Daten gelten zwar, je älter desto mehr,
als die eigentlichen Quellen des historischen Wissens. Jedoch sind die soge-
nannten Relikte bzw. Überbleibsel als gegenwärtige Quellen von Daten und Fak-
ten, die durch Interpretationen unter steter Bezugnahme auf die vorgenannten
Berichtsquellen gewonnen werden, wesentlich für die Konstruktion der Ge-
schichtsbilder. Für die Epochen der Geschichte vor der Erfindung der Schriften
sind sie als archäologische Funde ersichtlich alleinige Faktenquellen, aus denen
auf ein Sein des Nichtseienden geschlossen wird.
Betonen wir aber sogleich, daß so erarbeitetes historisches Wissen keine hypo-
thetische Spekulation darüber sein kann, „wie es eigentlich gewesen“ ist (Leopold
v. Ranke), sondern daß es direkt „das Historische selbst“ ausmacht. Denn es gibt
kein „reales historisches Sein“, mit dem historisches Wissen konfrontiert und ver-
glichen werden könnte. Man kann das in traditionellen Termini der Geschichts-
wissenschaft auch so ausdrücken: Die sogenannten „res gestae“ (historische Fak-
ten) sind nichts anderes als „historiae“ (aufgezeichnete Erinnerungen), und dies
zusammen mit den Schlußfolgerungen aus der jeweils gegenwärtigen Existenz
von Relikten. Das hatten wohl auch schon die antiken stoischen Juristen im Sinne
mit ihrer noch immer den Juristen geläufigen Maxime: Quod non est in actis non
est in mundo (Was nicht aufgezeichnet ist, das gibt es gar nicht in der Welt).
Bezüglich der vorgeblichen „historischen Realität“ hat sich seit langem die
Vorstellung verfestigt, sie sei das einzige ontologische Fundament gesetzlicher
Notwendigkeiten. Man stellt sich vor, was einmal geschehen ist, kann nicht mehr
verändert werden. Scholastische Philosophen gingen so weit zu behaupten, nicht
einmal der allmächtige Gott könne verändern, was er in der Zeit selbst erschaffen
habe. Dadurch erhielten die historischen Fakten den logischen Charakter von
Notwendigkeiten. Aber die Vorstellung von Notwendigkeiten in der Welt ver-
dankt sich nur dem stoischen Glauben an das Fatum und die Ananke, der sich im
Abendland als Kausaldeterminismus verfestigt hat.
Solange die „Historiographie“ ihren Status als pure Faktenbeschreibung behielt,
blieb sie – wie andere „Graphien“ – auf die Faktensicherung beschränkt. Diese
erschöpfte sich in den „Historien“, die auch in dem deutschen Begriff „die Ge-
schichte“ (oftmals bis ins 19. Jahrhundert) ein grammatischer Plural blieb. Aber
die aristotelische Wissenschaftstheorie verlangte für eigentliche Wissenschaft die
Erklärung der Fakten durch die vier Ursachen. So konnte man erwarten, daß auch
die Historiker immer wieder bestrebt waren, die historischen Fakten und Daten als
manifeste Wirkungen von Ursachen anzusehen und die „verborgenen“, d. h. nicht
als historische Fakten bekannten Ursachen, hypothetisch zu konstruieren. Dabei
waren es stets die aristotelischen (und zugleich stoischen) Wirk- und Zielur-
sachen, die so konstruiert wurden. Das führte einerseits zu spekulativen Hypo-
thesen über die Wirkursachen historischer Fakten, andererseit zu teleologischen
Spekulationen über den Sinn und Zweck der Daten und Fakten. Die Zweck-
ursachen verwiesen im Geschichtsgang jeweils auf jüngere Fakten und Daten,
144

also das, was man ebenfalls in historischen Erinnerungen deren Wirkungs-


geschichte nennt.
Wie in der Naturwissenschaft verfielen jedoch die Zweckursachen in der Neu-
zeit mehr und mehr dem Verdikt theologischer Vorurteile und der Verfälschung
der Tatsachen. So blieben – ebenfalls wie in der Naturwissenschaft – die Wirkur-
sachen allein zur Erklärung historischer Fakten übrig. Es war Leibniz, der dafür
mit seinem logischen Erklärungsprinzip der „rationes sufficientes“ das Leitmotiv
der historischen Erklärungen formulierte und es auf den Begriff der „Entwick-
lung“ bzw. „Evolution“ brachte.
Für die Betrachtung der Geschichte spielt seither der Entwicklungsgedanke eine
primordiale Rolle. Er geht zwar auf den neuplatonischen Emanationsgedanken
zurück, erhielt aber in der Neuzeit eine ganz neue Fassung. Vor allem verschmolz
er fast gänzlich mit dem Fortschrittsgedanken. Man kann sagen, er brachte das die
Neuzeit beherrschende Lebensgefühl geradezu auf den Begriff. Sein Gegenteil,
nämlich Niedergang, Degeneration, Rückschritt wurde auch schon von Leibniz
„Involution“ genannt. Aber weder der Begriff noch eine entsprechende Ge-
schichtsbetrachtung erlangte gleichen Rang und Ansehen wie die „Evolution“ als
Fortschritt. Eigentlich hätte man erwarten können, daß der Begriff „Revolution“
statt „Involution“ für Dekadenztheorien verwendet würde. Aber er war in der
Astronomie schon für die Bezeichnung der Planeten-Kreisläufe vergeben. In der
Renaissance geriet er selbst ins Bedeutungsfeld des Fortschritts- und Evolutions-
begriffs. Revolution wurde – ebenso wie „Reformation“ - mehr und mehr zum
Schlagwort einer bestimmten Art von Entwicklung durch Erneuerung.
Der Entwicklungsgedanke wurde durch Leibniz zu einer der fruchtbarsten dia-
lektischen Kategorien der Geschichtswissenschaft, und dies auf Grund der darauf
angewendeten mathematisch-dialektischen Denkweise. Der Entwicklungsbegriff
verschmilzt nämlich eine aktuelle Wirklichkeit mit dem Nichts der Vergangenheit
zur Einheit. Und dies ist gerade das, was als Möglichkeit verstanden wird. Was
sich entwickelt, hat zu jedem Zeitpunkt seinen aktuellen Zustand. Aber dieser
muß als Resultat bzw. Wirkung der näheren oder ferneren vorangegangenen
Zustände verstanden werden, die als in ihm „aufgehobene“ Ursachen erinnert
werden müssen. Diese schon vergangenen Zustände als Ursachen sind bzw.
existieren „nicht mehr“ und darum überhaupt nicht.
Der dialektische Charakter des Leibnizschen Entwicklungsbegriffs zeigt sich in
den sonderbaren Bestimmungen der „Enkapsis“ bzw. des „Enthaltenseins“ und in
der Verwendung des Möglichkeitsbegriffs bei Leibniz. Die jeweils gegenwärtige
wirkliche Welt ist für Leibniz bekanntlich „die beste aller möglichen Welten“. D.
h. wenn auch wegen der Güte des Schöpfers die „beste“, so doch „mögliche
Welt“. Und was so der geschaffenen „möglich besten“ Welt an Wirklichkeit ab-
geht, das kommt der göttlichen Zentralmonade als höchster Realität zu, die in
Akten der „creatio continua“ ständig die beste aller möglichen Welten „efful-
guriert“ (aus sich „herausblitzt“).
145

Verführt von der vermeintlichen Beobachtung des Leeuwenhoek, der in den


tierischen Samen schon en miniature ausgebildete Gestalten der nächsten Gene-
ration zu sehen glaubte78, schloß Leibniz, daß alle seitherigen und nicht minder
alle künftigen Generationen in dieser Weise schon in den erstgeschaffenen Mona-
den enthalten bzw. „präformiert“ sein müßten – er nannte es „Enkapsis“ (Ein-
geschlossenheit). 79 Und darum sei der Welt-Geschichtsprozeß insgesamt eine
Auswicklung dessen, was so schon von Anfang an in vorbestimmter, „determi-
nierter“ Weise als das große „Verhängnis“ (das stoische Fatum oder die Anangke)
vorgegeben, „präformiert“ und wirklich sei.80
Was so aber für die Geschichte gelten sollte, das verlängerte sich in die Zukunft.
Leibniz betont, daß alle Gegenwart „mit der Zukunft schwanger“ sei. 81 Das konn-
te nur heißen, daß alle künftigen Möglichkeiten in der Gegenwart schon vor-
bestimmt und dadurch – wie der Fötus im Mutterleib - zugleich auch wirklich
seien. Dies ist auch eine dialektische Verschmelzung der sonst gegensätzlichen
Begriffe von Determiniertheit und Freiheit bzw. von Kausalität und Teleologie.
Zugleich aber auch eine Grundlage für ein Verständnis von Entwicklung als
symmetrisches Verhältnis von Herkunft aus dem Nichts der Vergangenheit und
dem Nichts der Zukunft, das im Sein einer jeweils vorfindlichen Gegenwart
verankert ist.
Von den Späteren hat Hegel in seiner Entwicklungstheorie den dialektischen
Grundzug im Entwicklungsbegriff in den Vordergrund gebracht. Und zwar durch
die Verschmelzung der gegensätzlichen Bedeutungen des „Aufhebens“ (sowohl
des Beseitigens als auch des Konservierens) in jeder Entwicklung. Auch dies läßt
sich modal erläutern, wie Hegel es auch getan hat: „Die ungeheure Arbeit der
Weltgeschichte“, die die Späteren sich in der historiographischen Arbeit aneig-
nen, deren „Inhalt (ist) schon die zur Möglichkeit getilgte Wirklichkeit, die be-
zwungene Unmittelbarkeit, die Gestaltung bereits auf ihre Abbreviatur, auf die
einfache Gedankenbestimmung, herabgebracht.“ 82
Die Umgestaltung der vorher weitgehend klassifikatorischen bzw. taxonomi-
schen Botanik und Zoologie zur Entwicklungsbiologie durch Lamarck und Dar-
win hat bis heute den Eindruck hinterlassen, der Entwicklungsgedanke sei
überhaupt eine Errungenschaft der naturwissenschaftlichen Biologie gewesen und
habe sich von dort aus erst in der zweiten Hälfte des 19. Jahrhunderts ausgebreitet.
Tatsächlich setzt jedoch das biologische Evolutionskonzept den Möglichkeits-

78
Vgl. Em. Radl, Geschichte der biologischen Theorien in der Neuzeit, 1. Teil, Leipzig-Berlin 1913, S. 173.
79
„Denn gleichwie sich findet, daß die Blumen wie die Tiere selbst schon in den Samen eine Bildung haben, so sich zwar
durch andere Zufälle etwas verändern kann, so kann man sagen, daß die ganze künftige Welt in der gegenwärtigen stecke“.
G. W. Leibniz, Von dem Verhängnisse, in: Hauptschriften, hgg. von E. Cassirer, Band II; ähnlich in Nouveaux Essays,
Vorwort.
80
„Das Verhängnis besteht darin, daß alles an einander hänget wie eine Kette, und ebenso unfehlbar geschehen wird, ehe
es geschehen, als unfehlbar es geschehen ist, wenn es geschehen ... Und diese Kette besteht in dem Verfolg der Ursachen
und der Wirkungen“. Vom dem Verhängnis, in: Leibniz, Hauptschriften Band II, S. 129f.
81
„Ex rationibus metaphysicis constat praesens esse gravidum futuro“. G. W. Leibniz, Fragment über die apokatastasis
panton, Erstausgabe in: M. Ettlinger, Leibniz als Geschichtsphilosoph, München 1921, S. 30.
82
G. W. Hegel, Phänomenologie des Geistes, hgg. v. J. Hoffmeister, Hamburg 1952, S. 28.
146

begriff in Anwendung auf die Geschichte voraus und hebt einige speziellere
Aspekte seiner Dialektik heraus. Man sollte doch zumindest bemerken, daß die
biologisch-evolutionäre Rede von der „Vererbung“ aus dem Erbrecht und also
historisch-kulturellen Zusammenhängen übernommen wurde. Jedes Erbe ist ja ein
je gegenwärtiges Wirkliches, das Vergangenes und ins Nichts Verschwundene in
sich aufbewahrt. So ist auch nach der Entwicklungslehre jedes Lebewesen
Produkt und Resultat seiner Ahnen und insofern ein Erbe aller vorangegangenen
Generationen.
Im Unterschied zum Erbrecht aber wird in der Biologie die Art und Weise, wie
die Erbschaft von Familien (bzw. biologisch: der Gattungen) und des Individuums
in der Geschichte zustandegekommen und aufgehäuft wurde, mit in den Evo-
lutionsbegriff aufgenommen. Das Individuum wird als Wirklichkeit von Möglich-
keiten verstanden, sowohl seiner vergangenen wie auch seiner zukünftigen. Die
Möglichkeit des Vergangenen wird im Darwinismus zur kausal konstruierten
Genidentität. Die Gene aber sind dabei noch stets die Substanz des geschicht-
lichen Werdens geblieben, die Aristoteles als To ti en einai, als „Ge-Wesen“ defi-
niert hat. Die zukünftigen Möglichkeiten erweisen sich in der „Anpassungs-
fähigkeit“ an die jeweilige Umwelt im Überleben einer je existierenden Gene-
ration und ihrer Individuen (survival of the fittest). Im gegenwärtig wieder-
belebten Lamarckismus jedoch wird das Individuum teleologisch konstruiert: als
Träger erworbener Eigenschaften, Fähigkeiten und „Vermögen“, die sich in einer
hier konstruierten Memidentität (Meme, eigentlich „Mneme“, sind im Gedächtnis
niedergelegte Möglichkeiten) zeigen sollen.
Ersichtlich ist man sich heute beim so selbstverständlichen Gebrauch des Ent-
wicklungsgedankens in den Einzelwissenschaften von der Kosmologie über die
Biologie bis zu den Technik-, Kultur- und Geisteswissenschaften dieser Dialektik
nicht bewußt. Allenfalls sind Spuren in der Definition des Entwicklungsbegriffes
des Begründers der modernen Entwicklungsphilosophie Herbert Spencer auszu-
machen. Er hatte „Evolution“ und zugleich ihr Gegenteil, die „Dissolution“ fol-
gendermaßen definiert: „Evolution in ihrem einfachsten und allgemeinsten Aspekt
ist die Integration der Materie und die Zerstreuung der Bewegung; während
Auflösung Absorption der Bewegung und begleitende Differenzierung der Materie
ist“.83
Die Evolutionsmerkmale Integration und Dissolution (= Differenzierung) klin-
gen vertraut als mathematische Bestimmungen: Integrieren und Differenzieren
gehören zu den komplizierten höheren Rechnungsarten, und sie sind höchst
gegensätzlich. Sie waren dem studierten Ingenieur Spencer wohl vertraut. Indem
er versucht, diese gegensätzlichen Merkmale einerseits auf Materie, andererseits
auf Bewegung zu beziehen, will er ihren dialektischen Charakter verschleiern. Im

83
“Evolution under its simplest and most general aspect is the integration of matter and concomitant dissipation of motion;
while dissolution is the absorption of motion and concomitant desintegration of matter”. Herbert Spencer, First Principles §
97, zitiert nach R. Eisler: Wörterbuch der philosophischen Begriffe, 3. Aufl. Berlin 1910, Band 1 Art. Evolution, S. 356.
147

spencerschen Entwicklungsbegriff wird die „Integration des Differenzierten“ zum


dialektischen Merkmal der „bewegten Materie“.
Anders als bei der „Notwendigkeits-Möglichkeitskonstruktion von Vergangen-
heit verhält es sich mit den schon von Aristoteles zum Ausgangspunkt seiner
Modallogik gemachten „zukünftigen Möglichkeiten“. Ihr Anwendungsbereich
sind vor allem die Gegenstände und Ereignisse, von denen in naturwissenschaft-
lichen und wirtschaftswissenschaftlichen Prognosen und in manchen Hypothesen
die Rede ist. Man nennt das Zukünftige gewöhnlich „noch nicht Seiendes“, d. h.
aber konsequent ontologisch: Es ist ebenfalls Nichts. Und dies im Gegensatz zum
gegenwärtigen Sein der beobachteten und wahrgenommenen Wirklichkeit. Auch
alles Zukünftige wird so zur Möglichkeit, indem es als (noch) nicht Seiendes (=
Nichts) in einer erinnerungs- und beobachtungsgesteuerten realen Antizipation
gedacht, phantasiert, vorgestellt und evtl. prognostiziert, aber auch geplant,
gewünscht oder befohlen wird.
Wem diese ontologische „Vernichtung“ des Vergangenen und Zukünftigen zu-
gunsten einer „Verseinung“ der erinnernden und antizipierend-prognostischen
stets gegenwärtigen „seienden“ Bewußtseinsleistung zu idealistisch (der Patristi-
ker Aurelius Augustinus hat sie bekanntlich schon genauer ausgearbeitet) er-
scheint, der wird gleichwohl am Leitfaden des Möglichkeitsbegriffs denken und
argumentieren. Denn der Realist hält buchstäblich die „historische Realität“, und
ebenso die antizipierten zukünftigen Ereignisse für ontologisches Sein, und er
spricht darüber meist sehr emphatisch als „objektive“ Realitäten. Aber dafür hält
er das Bewußtsein mit seinen Erinnerungen und Antizipationen für etwas onto-
logisch Nichtiges, das er als „subjektiven Faktor“ möglichst aus seinen Überle-
gungen auszuschalten bemüht ist. Wie man sieht, hat er nur die Seins- und Nichts-
begriffe gegenüber dem Idealisten ausgetauscht.
Daß das Nichts als Gegenbegriff zum Sein in der abendländischen Philosophie
bisher nicht Gegenstand solcher logischen Analysen geworden ist, die für die
Klärung des Möglichkeitsbegriffs vorausgesetzt werden müssen, verdankt sich
offensichtlich den stets im Abendland dominierenden Seinstheorien des Parme-
nides, Platons und Aristoteles‟. In ihnen wird das Nichts als Inbegriff aller Falsch-
heiten - das logisch Falsche wird bis heute als „Bedeutung“ aller falschen Behaup-
tungen formalisiert - perhorresziert oder als „Mangel an Sein“ stets vom Sein her
thematisiert.
Als eigenständiges Thema hat der Nichtsbegriff allerdings in der indischen und
chinesischen Philosophie stets große Aufmerksamkeit auf sich gezogen. Von den
Ergebnissen dortiger Gedankenarbeit kann auch die abendländische Philosophie
und Wissenschaftstheorie noch fruchtbare Anregungen übernehmen.
148

§ 11 Die Paradoxien der Wahrscheinlichkeit

Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit
und die mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des
Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmel-
zung des stoischen Universaldeterminismus und des epikureischen Indeterminismus im Wahr-
scheinlichkeitsbegriff. Die Rolle der „docta ignorantia“ beim Umgang mit der Wahrscheinlich-
keit.

Von entsprechender Wichtigkeit wie beim Möglichkeitsbegriff dürfte in der Er-


kenntnistheorie, in der Logik und in der Mathematik eine Analyse des Wahr-
scheinlichkeitsbegriffs sein.
Auf der Verschmelzung von Wahrheit und Falschheit zum Begriff des Wahr-
Falschen beruht eine bestimmte Version des Lügner-Paradoxes (des „Eubulides“).
Man könnte die hier gemeinte Person den „wahrsagenden Lügner“ nennen, weil er
die Wahrheit mittels einer Lüge und zugleich eine Lüge mittels der Wahrheit
behaupten soll. Das hält man gemäß traditionellen Meinungen über die Zwei-
wertigkeit der Logik und die Natur des Widerspruchs für „unmöglich“, „falsch“
und jedenfalls für „wider alle Meinung“ (para doxan).
Ebenso steht es aber mit dem Wahrscheinlichkeitsbegriff. Er ist seiner logi-
schen Konstitution nach ein Beispiel für dieses Dritte Auch er zeigt deswegen
paradoxe Züge, denen wir im folgenden nachgehen wollen.
In einer dreiwertigen Logik, bei der neben Wahrheit und Falschheit ein „Drit-
tes“, nämlich eben die Wahrscheinlichkeit explizit zugelassen wird, kann das
Paradox kein Paradox bleiben. Man hat sich so sehr an die Wahrscheinlichkeit als
Drittes gewöhnt, daß man auch in der begrifflichen widersprüchlichen Verschmel-
zung von Wahrheit und Falschheit zur Wahrscheinlichkeit den Widerspruch nicht
mehr erkennt.
Der wahrsagende Lügner bzw. lügende Wahrsager (man könnte ihn auch einen
„ehrlichen Betrüger“ nennen) ist daher inzwischen eine in vielen Wissenschaften
notorische Person. Es handelt sich um denjenigen Wissenschaftler, der Wahr-
scheinlichkeitsbehauptungen aufstellt.
Das funktioniert jedoch nur in der Wissenschaft. Denn im Alltagsleben stellt
man nur über dasjenige Behauptungen auf, was man sicher weiß. Was man aber
nur glaubt oder gar nur ahnt, darüber spricht man im Alltagsleben im Konjunktiv,
und der ist zum Behaupten nicht geeignet, sondern zum Vermuten gemacht. Wer
statt des Konjunktivs oder in Verbindung damit etwas „wahrscheinlich“ nennt
(„es könnte wahrscheinlich so sein!“), der behauptet es damit nicht, sondern läßt
die Frage offen. Bei diesem Sprachgebrauch hat die „vermutende Wahrschein-
lichkeit“ nichts mehr mit urteilsmäßiger Wahrheit und Falschheit zu tun, auch
nicht mit einer urteilsmäßigen Wahr-Falschheit.
Der erste paradoxale Zug am Wahrscheinlichkeitsbegriff ist also der, daß er von
Aussagen bzw. Behauptungen gelten soll, die gar keine Aussagen bzw. Behaup-
149

tungen sein können. Sie sind Vermutungen im Gewande von Behauptungen. Als
Vermutungen besitzen sie überhaupt keinen Wahrheitswert, d. h. sie sind weder
wahr noch falsch. Als Behauptungen aber besitzen sie einen Wahrheitswert, und
der ist „wahr und falsch zugleich“, was dann als „wahrscheinlich“ bezeichnet
wird.
Ein weiterer paradoxaler Zug am Wahrscheinlichkeitsbegriff liegt in seiner
doppelten Beziehung auf das subjektive Wissen bzw. Glauben einerseits und auf
einen angeblich objektiven Wirklichkeitsbestand andererseits. Nur das erstere
konnte bei seiner Verwendung schon durch die antiken Skeptiker gemeint sein,
und es wird weiterhin in der sogenannten subjektiven Wahrscheinlichkeitstheo-
rie84 beibehalten.
Letzteres, die „objektive Wahrscheinlichkeit“, ist eine Erfindung der neuzeit-
lichen Mathematik, die ihren eigenen Begriffen ein ontologisches Korrelat zu
geben bemüht war. Die Kalkülisierung von „probabilités“ 85 beruhte auf der An-
nahme, daß diese mathematischen „Wahrscheinlichkeiten“ objektive Zustände
seien, die sich durch Messungen, d. h. Anwendung der Arithmetik auf empirische
und besonders physikalische Gegebenheiten, annäherungsweise erfassen ließen.
K. Popper hat solche objektiven Wahrscheinlichkeiten „propensities“ (etwa: Ten-
denzen) genannt.
Messungen sind in aller Regel ungenau und oszillieren um gewisse „Häufig-
keitspunkte“, die man als Grenzwerte „unendlicher“ (d. h. beliebig lange fortsetz-
barer aber nie zuende zu bringender) Meßreihen berechnet. Aus diesen Grenz-
werten ergeben sich dann „idealisierte“ Meßwerte, von denen man annimmt, sie
drückten die Wirklichkeit aus. Es waren und sind noch immer diese genuin
mathematischen Verfahren, die dazu geführt haben, daß so viele Naturwissen-
schaftler davon überzeugt sind, die Wirklichkeit ließe sich überhaupt und
grundsätzlich nur noch in Wahrscheinlichkeitsbegriffen erfassen. Und da Natur-
gesetze grundsätzlich durch quantitative Messungen gewonnen werden, gibt man
in diesem Sinne auch die Naturgesetze nunmehr als Wahrscheinlichkeitsgesetze
aus.
Dies fällt dem mathematischen Logiker und Physiker umso leichter, als er seit
Leibniz (und Nikolaus Cusanus) daran gewöhnt ist, wohlunterschiedene Begriffe
in Kontinua aufzulösen, die an ihren definitorischen Grenzen ineinander über-
gehen. Danach ist etwa der „nichtausgedehnte Punkt“ zugleich eine „minimal
ausgedehnte Fläche“ (in der dann unendlich viele infinitesimale Flächenelemente
enthalten sind). Genau so erscheint dann die Wahrheit zugleich auch als „maxi-
male (100 %ige) Wahrscheinlichkeit, und die „minimale“ (0%ige) Wahrschein-
lichkeit als Falschheit. Darin zeigt sich aber nur ein weiterer paradoxaler Zug am

84
Vertreter sind L. J. Savage, The Foundations of Statistics, New York 1954, 2. Aufl. 1972 sowie B. de Finetti,
Probability, Induction, and Statistics. The Art of Guessing, London-New York 1972.
85
Pioniere dieser Wahrscheinlichkeitstheorie waren Jakob Bernoulli, Ars coniectandi, Basel 1713, ND Brüssel 1968 und
P. S. de Laplace, Théorie analytique des probabilités, Paris 1812, ND Brüssel 1967; dazu auch: Jak. F. Fries, Versuch einer
Kritik der Principien der Wahrscheinlichkeitsrechnung, Braunschweig 1842, auch in Sämtl. Schriften, hgg. von L.
Geldsetzer und G. König, Band 14, Aalen 1974.
150

gängigen mathematischen Wahrscheinlichkeitsbegriff. Für den Logiker aber


bleiben Wahrheit und Falschheit streng von der Wahrscheinlichkeit unterschieden.
Denn er wird ganz logisch behaupten: Wahrscheinlichkeit koinzidiert nicht mit
Wahrheit oder Falschheit.
Die entscheidende Paradoxie im Wahrscheinlichkeitsbegriff ergibt sich aus der
Verschmelzung logischer und mathematischer Vorstellungen in ihm. Die logische
Wahrscheinlichkeit wird nur logisch quantifiziert, die mathematische aber nume-
risch.
So ergibt sich die paradoxale Erscheinung, daß das für wahrscheinlich Ge-
haltene logisch nur entweder vorliegt (ohne daß man es kennt) bzw. daß es in der
Zukunft eintreten soll (was man daher in der Gegenwart auch nicht feststellen
kann), oder daß es nicht vorliegt (oder eintritt). Das mathematisch Wahrschein-
liche aber wird in zahlenmäßiger Quantifizierung als Proportion „günstiger Fälle“
zu „allen möglichen Fälle“ ausgedrückt und dann als Quotient auch ausgerechnet.
Dadurch soll einem komparativen Mehr oder Weniger des Wahrscheinlichen hin-
sichtlich seiner Wahrheitsnähe Rechnung getragen werden.
Die Redeweise von „günstigen Fällen“ stammt aus dem Anwendungsbereich der
Glücks- und Wettspiele, wo der günstige Fall der erhoffte oder gewinnbringende
Ausgang eines Zufallsarrangements (Spiel) ist. Die „möglichen Fälle“ umfassen
den gesamten Risikobereich, der durch die nach den Spiel- oder Wettregeln
zugelassenen Spielzüge und Spielergebnisse beschrieben wird. Man geht also
davon aus, daß „alle möglichen Fälle“ neben den ungünstigen auch die günstigen
Fälle enthalten. Daher werden in der mathematischen Proportion die günstigen
Fälle doppelt angerechnet: einmal im ersten Glied der rein günstigen Fälle, zum
anderen nochmals im zweiten Glied aller Fälle. Das kann logisch gesehen keine
echte Proportion von günstigen zu ungünstigen Fällen darstellen.
Beispielsweise hält man nach mathematischen Vorstellungen die Wahrschein-
lichkeit eines bestimmten Zahlwurfes mit einem fairen Würfel für 1 / 6. In
Prozenten ausgedrückt: 1 / 6 von 100 = 16,666... %. Dies gibt den Wahrschein-
lichkeitswert für einen „günstigen“ Wurf. Wobei die 1 im Zähler des Quotienten
für den (erhofften) günstigen Fall, die 6 im Nenner für die sechs möglichen Fälle
einschließlich des einen günstigen Falles beim Würfelwurf steht.
Logisch aber gilt zugleich, daß jeder günstige Fall nur entweder eintritt oder
nicht eintritt, so oft man auch würfeln mag. Die mathematische Wahrscheinlich-
keit eines prognostizierten Wurfergebnisses kann gar nichts über den jeweils
erhofften günstigen Fall besagen.
Glücksspieler dürften sich daher nicht beklagen, wenn etwa eine erhoffte und für
sie günstige Würfelzahl (die doch nach den Regeln der Wahrscheinlichkeits-
rechnung „durchschnittlich“ einmal pro sechs Würfen erscheinen sollte) bei noch
so vielen Würfen (und „unendlich“ oft kann man nicht würfeln!) überhaupt nicht
erscheint. Sie freuen sich aber, wenn wider alle Erwartung der günstige Fall gleich
beim nächsten Wurf oder gar in Serie eintritt.
151

Der Münzwurf, bei dem es nur zwei gleichwertige Möglichkeiten (Bild und Zahl)
gibt, bietet das Beispiel der logischen Wahrscheinlichkeit. Was wir hier logische
Wahrscheinlichkeit nennen, wird gewöhnlich als „fify-fifty“ bzw. ´ oder 50 %ige
Wahrscheinlichkeit mathematisch quantifiziert. Die numerischen Formulierung
auch der logischen Wahrscheinlichkeit (50 %) erweckt den Anschein, als sei der
mathematische Wahrscheinlichkeitsbegriff der einzig angemessene und schließe
den logischen Wahrscheinlichkeitsbegriff ein. Das führt aber nur dazu, daß die
Paradoxie mathematisch so lautet: Jede nicht 50 %ige Wahrscheinlichkeit (von
0,999... bis 0,000...1) ist zugleich eine 50 %ige. Wie man ja leicht bei jedem
Glücksspiel feststellen kann.
Die Attraktivität, ja der Zauber der mathematischen Wahrscheinlichkeit beruht
auf zweierlei. Einerseits auf dem „statistischen“ Erhebungsverfahren staatlicher
Behörden, mit dem ursprünglich alle Fälle in einem Erfahrungsbereich erhoben
wurden (z. B. die Zahl der Einwohner, der Heiraten und der Geburts- und Sterbe-
fälle in einem bestimmten Zeitintervall in einer bestimmten Region). Das konnte
bei gehöriger Sorgfalt der Erhebung zu wahren Ergebnissen führen und versah
alles „Statistische“ mit dem Renommee der Zuverlässigkeit und der Wahrheit.
Diese Erwartung erhielt sich auch bei der Ausweitung der Anwendung statisti-
scher Verfahren auf repräsentative Stichproben, die mehr oder weniger mit Unge-
nauigkeiten behaftet sind. Diese werden dann ihrerseits mit statistischen Schät-
zungen über den Umfang der Abweichung von Erwartungswerten austariert. Da-
mit aber kam der mathematische Wahrscheinlichkeitsbegriff ins Spiel. Er ließ bei
allen Anwendungen der mathematischen Statistik eine zahlenmäßig abschätzbare
Wahrheitsnähe assoziieren, wie ja schon die Bezeichnung selber nahelegt. Sie ist
bei allen Anwendungen der statistischen Wahrscheinlichkeitsberechnungen bei
Prognosen, insbesondere ökonomischen und spieltheoretischen Risikoabwägun-
gen relevant geworden.
Logisch gesehen aber wird in der Tat mit dem Wahrscheinlichkeitsbegriff zu-
gleich eine jeweils entsprechende Falschheitsnähe angesagt, die man dabei grund-
sätzlich unterschlägt, die aber in dem hier vorgeschlagenen Begriff „Wahr-Falsch-
heit“ sehr deutlich zum Ausdruck kommt.
Im Falle der Glücksspiele sollte sich der würfelnde Glücksspieler klarmachen,
daß – gemäß dem herrschenden mathematischen Wahrscheinlichkeitsbegriff -
seine Hoffnung auf den mit 16,666... % Wahrscheinlichkeit für ihn günstigen Fall
immer zugleich mit einer Restquote von 83,333...% „Falschscheinlichkeit“ beglei-
tet wird. Zugleich kann er aber über das Ergebnis des nächsten Wurfs überhaupt
nichts wissen (sofern der Würfel gut geeicht, d. h. „fair“ und nicht gefälscht ist).
Stellt man aber die Berechnung von Wahrscheinlichkeiten nicht, wie in der
Mathematik üblich geworden, als Proportion von günstigen zu allen möglichen
Fällen (und „alle möglichen Fälle“ erinnern hier an die ursprüngliche statistische
Gesamterhebung „aller“ Daten) dar und rechnet sie zudem als Quotient aus,
sondern beachtet, wie es logisch allein angemessen ist, die Proportion der günsti-
gen zu den ungünstigen Fällen, so ergeben sich auch ganz andere numerische
152

Wahrscheinlichkeitsergebnisse. Beim Würfeln ist die Proportion dann 1 zu 5 und


nicht 1 zu 6. Oder in Prozenten: statt 16,666...% sogar 20 % für den günstigen Fall
und 80 % für den ungünstigen. Diese Formulierung des Wahrscheinlichkeitsquo-
tienten ist in der Mathematik längst vorgeschlagen worden, hat aber keinen
Anklang gefunden.
Bringt man auch noch die oben explizierte logische Wahrscheinlichkeit in
Anschlag, so lautet die Proportion von günstigen zu ungünstigen Fällen sowohl
beim Münzwurf wie beim Würfeln 1 zu 1, also 50 % zu 50%. Die mathema-
tischen Wahrscheinlichkeiten könnten also als 1 / 6, 1 / 5 und 1 / 2 (oder in ent-
sprechender Dezimalform) angegeben werden.
Man sollte meinen, auf Grund dieser Erwägung müßten nun alle Wahrschein-
lichkeitsaussagen und Prognosen korrigiert bzw. umgerechnet werden. Daß dies
aber weder nötig noch zielführend ist, ergibt sich schon daraus, daß die Wahr-
scheinlichkeiten ganz unerheblich für erwartete bzw. prognostizierte Daten sind.
Sie waren und sind eine mit großem mathematischem Apparat vorgeführte „Docta
ignorantia“, in der ein grundsätzliches Nichtwissen als verläßliches Wissen vorge-
täuscht wird.
In dem wissenschaftstheoretisch so prominenten Thema der Wahrscheinlichkeit
treffen noch immer die seit der Antike kontroversen Ansichten der Stoiker und
Epikureer über die Frage zusammen, ob die Gesamtwirklichkeit einer durchgän-
gigen Kausalität unterliege oder ob sie ganz und gar indeterminiert, d. h. „spon-
tan“ und alles in ihr „zufällig“ sei.
Der stoische (kausale) Universaldeterminismus dominierte bis zum Beginn des
20. Jahrhunderts in der Physik. Nämlich bis auf Grund unlösbar scheinender Prob-
leme der Mikrophysik der epikureische Indeterminismus wieder in den Vorder-
grund der Überlegungen trat. Seither sieht die Lage in der Physik, die man
gemeinhin für die entscheidende Einsichtsquelle in die kausal-determinierte oder
indeterminierte Struktur der Wirklichkeit hält, nach einem Waffenstillstand beider
Lager aus. Man sagt, in der Makrophysik herrsche der kausale Determinismus; in
der Mikro- bzw. Quantenphysik aber der Indeterminismus. Die Verbindung zwi-
schen beiden aber stelle die statistische Wahrscheinlichkeitsbetrachtung her.
Nun sind beide Standpunkte ersichtlich Totalisierungen beschränkter Einsichten.
Nämlich daß es viele zuverlässige Erkenntnisse über Kausalitäten in der Natur
gibt, und daß es andererseits viele (vielleicht nur vorläufig) kausal unerklärliche
Erscheinungen in der Natur gibt. Der kausale Determinismus erweist sich so als
eine Hypothese bzw. Vermutung, daß in irgend einer fernen Zukunft alles bisher
kausal Unerklärbare kausal erklärt werden könne. Ihm steht der Indeterminismus
gegenüber als eine Hypothese bzw. Vermutung, daß alles bisher schon kausal
Erklärte sich in irgend einer fernen Zukunft noch tiefergehend als spontane
(chaotische bzw. freie) Selbstorganisation der Natur erklären lasse. Beide Stra-
tegien treiben naturgemäß die Forschung voran und legen die Vorstellungen von
asymptotischen Annäherungsprozessen an die Wahrheit nahe, wie sie K. Popper
propagiert hat.
153

Beide Strategien aber unterschätzen die Bedeutung und die Natur des Nicht-
wissens in der Wissenschaft. Die alte „docta ignorantia“ des Sokrates, des Cusa-
ners und Pascals ist in neueren Zeiten gerade in die Wahrscheinlichkeitsprob-
lematik eingebaut worden. Sie berührt aber darüber hinaus höchste Interessen der
Menschheit, nämlich die Interessen an einer Begründung der Freiheit einerseits,
und der Kalkulierbarkeit der Welt andererseits. Soll Freiheit mehr sein als Abwe-
senheit von sozialen Zwängen, so fällt sie überall mit dem Bereich des Nichtwis-
sens zusammen. Und soll Notwendigkeit mehr sein als ein dringendes Bedürfnis,
so fällt sie mit dem Bereich der erkannten Kausalitäten zusammen.

§ 12 Die Rolle der Modelle und der Simulation in den Wissenschaften

Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und
Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unan-
schaulichem Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buch-
staben als Modelle der Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allge-
meine Charakteristik der Modelle. Geometrie als Veranschaulichung der arithmetischen Struktu-
ren von Zahl und Rechnung. Die Rolle der geometrisierenden Veranschaulichung der Natur-
objekte in der Physik. Der Modelltransfer und seine Rolle bei der Entwicklung der physikalischen
Disziplinen. Die Mathematisierung von Chemie, Biologie und einiger Kulturwissenschaften. Die
Parallele der Entwicklung von formalisierter Mathematik und formaler Logik und die Frage von
Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer Axiomatik und
Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen
Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von
Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die
Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen.
Die KI-Forschung („Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer
und Intelligenz. Weitere Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-
Simulation

In jeder Kultur greift der Mensch in die Dinge und Sachverhalte ein, verändert
ihre Konstellationen und erzeugt neue Gegenstände. Die Wörter als artikulierte
Lautkonstellationen in den Gemeinsprachen gehören selbst schon zu solchen
„künstlichen“ Gegenständen. Aber ein großer Teil der künstlichen Dinge ahmt die
natürlichen Dinge nach und stellt Abbilder von ihnen dar. Auch die Lautnach-
ahmungen vieler Wörter (wie das berühmte „Wau-wau“) verdanken sich dieser
primitiven Kulturtätigkeit. Erst recht aber auch die verkleinerten oder vergrößer-
ten Bildwerke, die schon in den ältesten archäologischen Funden zutage getreten
sind. Es muß schon ein gewaltiger Schritt in der Kulturgeschichte gewesen sein,
als diese Abbilder von räumlichen Gegenständen zu Bildern wurden, d. h. in
154

flächige Figuren überführt wurden, wie sie in den Fels- und Höhlenzeichnungen,
die vermutlich bis zu 40 000 Jahre alt sind, gefunden wurden.
Die Repräsentationen der natürlichen Dinge durch körperliche und flächige
Abbilder machte die Dinge verfügbar für den zivilisatorischen Umgang mit ihnen.
Spiel, Belehrung, Kult, Erinnerungskultur, Handel, Thesaurierung und vieles
mehr beruhte auf dieser Verfügbarkeit. In ihrem Gebrauch wurden sie zu Zeichen
für das, was sie abbilden. Am deutlichsten sieht man es noch in den chinesischen
(„ikonischen“) Schriftzeichen, die als stilisierte Abbildungen von Dingen und
Sachverhalten entwickelt wurden. Derjenige verstand die Zeichen, der sie mit
ihren Vor- oder Urbildern, den Gegenständen selbst, vergleichen konnte.
Aber mit zunehmender Komplexheit der Zivilisationen und Kulturen wurden die
Zeichen „abstrakt stilisiert“. Der Zusammenhang mit dem, was sie abbildeten,
wurde prekär und vieldeutig. Am deutlichsten zeigt sich das in der Verschie-
denheit der kulturgebundenen Laut-Sprachen. Durch die eigene (Mutter-) Sprache
hat noch jeder einen bestimmten konkreten Zugang zu seiner Umwelt. Wer eine
Fremdsprache lernt, muß die Spuren noch vorhandener Abbildlichkeit aus ihrer
Kultur lernen. Selbst der Hahnenschrei „lautet“ in den verwandten europäischen
Sprachen immer wieder anders als das deutsche „Kikeriki“.
Der Umgang mit den Abbildern ist die Grundlage von Kunst und Wissenschaft
geworden. Deren Entwicklungen gehen Hand in Hand. Frühe Wissenschaft be-
dient sich der Kunst, wenn sie deren Abbilder und Zeichen zu ihren besonderen
Gegenständen macht. Dadurch präsentiert sich das Große und Ferne als Kleines
und Nahes der unmittelbaren Inspektion und Manipulation der Wissenschaftler.
Lao Zi (ca. 571 – 480 v. Chr.) drückte es in China so aus:
„Ohne aus der Tür zu gehen, kennt man die Welt. Ohne aus dem Fenster zu spähen,
sieht man das Himmels-Dao (den Prototyp des Weltgesetzes). ... Darum kennt sich
der Heilige (d. h. der prototypische Wissenschaftler) ohne zu reisen aus. Er nennt
die Dinge beim Namen ohne herumzuspähen, und er bringt etwas zustande ohne
einzugreifen“.86

Auch der moderne Wissenschaftler befindet sich vor seinem Buch oder Computer
noch in der gleichen Situation, indem er die Welt über Verbildlichungen zu sich
kommen läßt. Frühe Kunst aber bedient sich solchen Wissens und der anfäng-
lichen Formen von Wissenschaft, wenn sie ihre Bilder und Zeichen verfeinert,
stilisiert, typisiert.
Mathematik in ihren beiden Zweigen Geometrie und Arithmetik dürften die
ältesten Wissenschaften sein. Geometrie arbeitet aus den Abbildungen der Dinge
und Sachverhalte deren einfachste Formen heraus und perpetuiert ihre ständige
Reproduzierbarkeit mit Zirkel und Lineal. Man setzt den Zirkel an einem „Punkt“

86
Lao Zi, Dao De Jing, neu übersetzt von L. Geldsetzer, II. Teil, 47, im Internet des Philosophischen Instituts der HHU
Düsseldorf, 2000; auch in: Asiatische Philosophie. Indien und China. CD-ROM, Digitale Bibliothek (Directmedia Pub-
lishing GmbH), Berlin 2005.
155

ein und zieht damit „Kurven“ und „Kreise“. Dem Lineal verdankt man den
geraden Strich, die „Linie“.
Arithmetik unterwirft alle Dinge der Abzählbarkeit, indem sie verfügbare Dinge
als Abbilder von Dingen gruppiert und ordnet. Ihre plastischen und schon abstrak-
ten Abbilder der Dinge dürften zuerst Psephoi (Kalksteinchen), alsbald Münzen
gewesen sein. In den verschiedenen Münzmetallen unterscheidet die Arithmetik
(axiein = wertschätzen) die Abbilder, die Einzelnes und Vielfaches repräsentieren.
Was wir so sagen können, ist eine hypothetische historische Spekulation über
Ursprünge, und dies im Sinne einer historischen Möglichkeit, wie sie vorne
definiert wurde. Sie soll am Einfachen und Schlichten auf etwas Wesentliches an
der Wissenschaft hinweisen.
Wissenschaft beruht auf der Anschauung und sinnlichen Erfahrung der Welt.
Noch immer erinnern ihre vornehmsten Begriffe daran: „Wissen“ hat die etymo-
logische Wurzel im „Sehen“ (indogermanisch Vid-; griech. idea, lat. videre),
„Theorie“ in der „Gesamtschau“ einer Gesandtschaft, die darüber berichtet
(griech. theorein), „Intuition“ in der „Betrachtung des Einzelnen“. Auch die ara-
bische Wissenschaft, die an die antike griechische Bildung anknüpfte, führt ihre
Theoriebegriffe auf das „Anschauen“ (arab.: nazar) zurück. Was darüber hinaus-
geht, heißt noch immer „Spekulation“, d. h. „Spiegelung“ der Bilder, das zu neuen
und vermittelten Bildern führt. Spekulation ist der Ausgang des philosophischen
Denkens aus der Anschauung in ein anderes Medium, über dessen Natur noch
immer heftig diskutiert und geforscht wird.
Die einen nennen dies Medium „überanschauliches Denken“, manche „unan-
schauliches Denken“. Auch die „Ahn(d)ung“ und die Intuition, von der wir ein-
gangs sprachen, weist in diese Richtung. Wird das Denken von der Sinnes-
anschauung unterschieden und getrennt, wie es für abendländische Wissenschaft
und Philosophie konstitutiv wird, so muß das Denken etwas anderes und Selb-
ständiges gegenüber der sinnlichen „bildhaften“ Wahrnehmung sein.
Parmenides (geb. um 540 v. Chr.) übersprang die sinnliche Anschauung als
täuschend und identifizierte das reine Denken (to noein) als Eines mit dem Sein
(to einai). Anaxagoras (ca. 499 – ca. 428 v. Chr.) nannte es „Nous“ (Vernunft
oder Denkkraft). Bei Platon, Aristoteles und bei den Stoikern wurde der Nous (lat.
ratio) zum eigentlichen Erkenntnisorgan. Descartes wiederholte in der Neuzeit die
parmenideischen und platonischen Argumente, indem er die sinnliche Anschau-
ung skeptisch in Frage stellte und das Vernunftdenken als einzig zuverlässige
Erkenntnisquelle herausstellte. In einer der wirkkräftigsten spekulativen Philoso-
phien der Moderne, in der Transzendentalphilosophie Kants, wurde reines Denken
zur „reinen Vernunft“. Alle Formen des philosophischen Rationalismus berufen
sich seither auf Descartes und Kant und beschwören die Selbständigkeit der
Vernunft gegenüber aller sinnlichen Anschauung.
Zu dieser Frage der Stellung und Rolle der Vernunft muß auch der Wissen-
schaftstheoretiker Stellung beziehen. Er muß metaphysisch Farbe bekennen, ob er
sich auf die eingefahrenen Bahnen des Rationalismus oder des Sensualismus
156

begeben will. Machen wir also keinen Hehl aus dem diesen Ausführungen zu-
grunde liegenden Sensualismus. Und verschweigen wir nicht die offensichtliche
Tatsache, daß der Rationalismus in der Moderne die Mehrheit der Wissenschaftler
hinter sich hat, der empiristische Sensualismus aber nur wenige Denker des 18.
Jahrhunderts wie George Berkeley (1685 -1753) und Etienne Bonnot de Condillac
(1714 – 1780).
Ein wesentlicher Prüfstein für die Leistungsfähigkeit des Rationalismus bzw.
des Sensualismus sind die in der Wissenschaft verwendeten Modelle. Ihre Rolle
ist ein Modethema der neueren Wissenschaftstheorie geworden.87 Aber die Mo-
delle haben unter den Bezeichnungen Gleichnis, Metapher, Symbol u. ä. eine
lange Geschichte.
Der erste Philosoph, der die Modelle zum Thema machte, war Demokrit (2.
Hälfte des 5. Jhs v. Chr.). Er suchte, wie alle Vorsokratiker, nach dem Grund und
Ursprung aller Dinge (arché) und fand ihn im Vollen der Atome und im Leeren
des Raumes. Von den Atomen aber sagte er, man könne die winzigsten von ihnen
nicht sehen bzw. sinnlich wahrnehmen, und ebenso wenig den leeren Raum. Gera-
de das, was der Grund und Ursprung aller Dinge in der Welt sein sollte, könne
nicht sinnlich wahrgenommen werden. Es mußte zur Erklärung der unsichtbaren
winzigen Atome (größere Atome könne man u. U. als Sonnenstäubchen sehen)
und des leeren Raumes „gedacht“ werden. Das wurde zur Matrix der physikali-
schen Theorien von den „unbeobachtbaren Parametern“, die eines der umstrit-
tensten Themen der modernen Physik geworden sind.
Aber „unanschauliches Denken“ konnte Demokrit sich nicht vorstellen. Und so
führte er die Modelle zur Veranschaulichung des Unanschaulichen ein. In seinem
Falle waren es die (erst kurz vor ihm in Griechenland eingeführten) Buchstaben
der Schrift. Ihre verschiedenen Gestalten vertraten die verschiedenen Atomsorten,
ihre Verbindungen zu Wörtern und Sätzen vertraten die Komplexionsformen der
Moleküle. Und man darf vermuten, daß er die Lücken zwischen Wörtern für
anschauliche Modelle des Leeren hielt (auch bei der alten scriptio continua
mußten sich die gelesenen Wörter von einander abgrenzen lassen, um verstanden
zu werden).
Der zweite wichtige Entwicklungsschritt zur Modelltheorie war Platons (427 –
347 v. Chr.) Ideenlehre. Von Demokrit hat er den Modellgebrauch für Veran-
schaulichungen übernommen. Seine Modelle für die „unanschaulichen“ und nur
„zu denkenden“ Ideen waren seine berühmten Gleichnisse (Höhlengleichnis, Son-
nengleichnis, Liniengleichnis im „Staat“), und viele andere. Daß er gleichwohl
von „Ideenschau“, und zwar mit einem „geistigen Auge“, sprach, darf man selbst
schon als Metaphorik, in welcher das sinnliche Auge als Modell für das „un-
sinnliche Denken“ steht, verstehen. Aber es wurde zu einer Wurzel des „dialek-
tischen Denkens“, in welchem das sichtbare Modell mit dem Unsichtbaren ver-

87
Für eine Übersicht der Modelltypen und Anwendungsgebiete vgl. H. Stachowiak in: Handlexikon zur Wissenschafts-
theorie, hgg. v. H. Seiffert und G. Radnitzky, München 1989, S. 219 – 222; ders., Allgemeine Modelltheorie, Wien 1977,
sowie ders., Modelle - Konstruktion und Simulation der Wirklichkeit, München 1983.
157

schmolz (wie modellhaft die immer sichtbare Vorderseite des Mondes mit seiner
unsichtbaren Rückseite).
Die Nachfolger der platonischen Ideen waren in der abendländischen Philo-
sophie und Wissenschaft der Gott, die Geister und die Kräfte. Sie sind immer da
und wirken, aber man nimmt sie nicht wahr. Wie man über sie „dialektisch“
redete und dachte, zeigt sich in der Erbfolge des Platonismus und Neuplatonis-
mus.
Für alle Geisteswissenschaften wurde die Lehre des Neuplatonikers Philon von
Alexandria (um 25 v. Chr. – um 50 n. Chr.) vom mehrfachen Schriftsinn eine
immer sprudelnde Quelle der geisteswissenschaftlichen Modelle, die hier die
Form der Metaphern und Allegorien annahmen. Auf dem Hintergrund der plato-
nischen Ideenlehre war für Philon der „geistige Sinn“ der heiligen Schriften und
insbesondere der jüdischen Thorah etwas nur zu Denkendes. Von diesem nur zu
Denkenden unterschied Philon seine Veranschaulichung in den Texten. Zentral
wurde sein hermeneutischer Kanon vom „allegorischen Sinn“, in dem Platons
Gleichnislehre perenniert wurde. Er liegt auch Cassians vierfachen Kanones vom
literalen, allegorischen, moralischen und anagogischen Sinn zugrunde, die vor
allem den Laien der religiösen Gemeinde die „geistige Botschaft“ durch die
wörtliche Einkleidung, die gleichnishaften und moralischen Beispiele und die
Hinweise bzw. Andeutungen prophetischer Art anschaulich vermitteln.
Der dritte wesentliche Entwicklungsschritt der Modelltheorie war die Theorie
der Stoiker über das Verhältnis von Mikrokosmos und Makrokosmos. Die stoi-
sche Neuerung bestand darin, daß sie nicht das Unanschauliche durch Modelle
repräsentierten, sondern etwas Anschauliches durch etwas anderes Anschauliches.
Das wurde zum Ausgang einer allgemeinen Metaphorologie, in welcher alle
Dinge Symbole für einander werden konnten. Da sie im allgemeinen einen kau-
salen Universaldeterminismus vertraten, hat sich bei den Stoikern das Mikro-
Makroverhältnis mit der Meinung vermischt, das Modell-Verhältnis sei ein Kau-
salverhältnis. Davon zeugt der römische Augurenkult und im weitesten Ausmaß
die Astrologie und Mantik. Sternkonstellationen, Handlinien, Physiognomien sind
bekanntlich auch heutzutage noch in weitesten Kreisen motivierende Kausalitäten
für praktisches Verhalten, Tun und Entscheidungen.
Kommen wir aber zu einer mehr systematischen Betrachtung der Modelle.
Modelle sind seit Demokrit ein „Quid pro quo“ geblieben. Etwas Anschauliches
steht für etwas anderes. Was dies andere aber sein kann ergibt sich aus metaphysi-
schen Begründungen sowie aus der Abgrenzung der Wissenschaftsgebiete und
deren Gegenständen.
1. Wichtig ist, daß ein Modell grundsätzlich etwas anderes ist als das mit ihm
„Veranschaulichte“. Das Modell für die „Sache selbst“ nehmen, ist daher ein
schwerer aber weitverbreiteter Fehler in den Anwendungen. Solchen Fehlern sind
wir schon in den bisherigen Ausführungen begegnet.
158

2. Modelle sind grundsätzlich Verkürzungen dessen, was sie darstellen sollen.


Was nicht in ihnen dargestellt wird, bleibt außer Betracht, obwohl es als existent
vorausgesetzt wird.
3. Nicht alles eignet sich dafür, als Modell für etwas gebraucht zu werden. Aber
die tatsächlich verwendeten Modelle werden oft in ihrer Modellfunktion verkannt.
4. Auch wird leicht übersehen, daß ganze Disziplinen und Wissenschaften mit
ihren Objekten Modell für andere Wissenschaften geworden sind.
Letzteres ist gerade bei der Geometrie zuerst und bis heute der Fall. Die geo-
metrischen Gebilde Punkt, Linie, Kurven, Fläche, Körper waren und sind durch
die Arbeit der Geometer stets verfeinerte und untereinander zu immer komple-
xeren Gebilden ausgestaltete Abbilder von Dingen und Sachverhalten der Erfah-
rungswelt geworden. Sie werden zuerst anschauliche Modelle für die Ausbildung
der Arithmetik, wie man am Lehrbuch des Euklid und in seiner Tradition in der
Mathematik sehen kann.
Aber auch die Naturphilosophen verwendeten die geometrischen Figuren als
Modellvorrat. Davon zeugt die antike Kosmoslehre in ihrer selbstverständlichen
Voraussetzung, daß die Himmelskörper auf Fix-Punkten („Firmament“) stehen
oder auf Kreisbahnen laufen sollten, ebenso mit der Voraussetzung, daß sich beim
Schattenwurf des Lichts zwischen Lichtquelle und Gegenstand gerade Linien
ergeben.
Nicht minder verbreitet war aber auch die Benutzung geometrischer Figuren in
der Landvermessung (daher die Bezeichnung „Geometrie“) und deren propor-
tionierte Verkleinerungen in der Kartographie und in Bau- und Konstruktions-
plänen der alten Architekten und Ingenieure. Man erinnere sich, daß die grie-
chischen Tempelbauer nur in Proportionen bauten, nicht aber mit geeichten
numerischen Maßen. Nicht zwei Tempel der antiken Welt weisen übereinstim-
mende „Maße“ auf, obwohl sie fast alle in ihren geometrischen Proportionen
übereinstimmen.
Die Entwicklung der Arithmetik als Wissenschaft des „unanschaulichen Den-
kens“ war ohne die Modelle der geometrischen Gebilde nicht möglich. Und die
Didaktik der numerischen Mathematik kann auch heute nicht auf die geometri-
schen Modelle verzichten. Erst die neuzeitliche Erfindung der „analytischen
Geometrie“ hat diesen Modellzusammenhang von Geometrie und Arithmetik
gelockert, aber sie hat den Zusammenhang nicht aufgehoben.
Die neuzeitliche analytische Geometrie des Descartes verstand sich selbst als
Autonomisierung der Arithmetik, die das ganze Gebiet der Geometrie als An-
wendungsbereich der Numerik vereinnahmte. Das führte bekanntlich zu enormen
Fortschritten der konstruierbaren Komplexität der geometrischen Gebilde, die
weit über deren ursprünglichen Abbildungscharakter hinausging. Aber auch für
die arithmetischen Strukturen und Gebilde werden noch immer „Graphen“ (d. h.
geometrische Modelle) gesucht und entwickelt. Die Grenzgebilde zwischen geo-
metrischer Anschaulichkeit und arithmetischer Unanschaulichkeit kann man
besonders in der Entwicklung der Infinitesimal- und Unendlichkeitsnumerik be-
159

sichtigen, die als „transzendent“, d. h. über geometrische Demonstrierbarkeit


hinausgehend, bezeichnet werden.
Der Verlust anschaulich-geometrischer Modelle in der sogenannten Analysis
eröffnete zwar neue Perspektiven für unanschauliches mathematisches Denken.
Aber dessen Vollzug und Nachvollzug ist weitgehend Sache der individuellen und
privaten Modelle ihrer Entwickler und ihrer Interpreten. Kommt es dabei zu neuen
Vorschlägen, so werden die mathematischen Denker für ihre Denkergebnisse
durch die „Fielding-Medaille“ (den „Nobelpreis“ der Mathematiker) und Prämien
von speziellen Stiftungen ausgezeichnet. Dem Laienpublikum sind sie in der
Regel schon lange nicht mehr verständlich zu machen, und dem Mathematiker
anderer Spezialisierung meist ebenso wenig. Es gibt wohl keine andere Wis-
senschaft, in der die Spezialisierung so weit getrieben worden ist, daß nur noch
zwei oder einige wenige Spezialisten sich darüber verständigen können, worüber
sie forschen und reden und was sie sich dabei „denken“.
Die Physik wurde sowohl in der platonischen Zuordnung zum Quadrivium wie
im Aristotelischen System der „theoretischen Wissenschaften“ aufs engste mit der
Mathematik zusammengestellt. Mathematik ist bei Aristoteles die zweite „theore-
tische Wissenschaft“ nach der Ontologie (die später „Metaphysik“ genannt wur-
de); die dritte theoretische Wissenschaft ist die Naturwissenschaft („Physik“).
Das gilt bis heute als selbstverständlich und alternativlos. Daß es nicht immer
selbstverständlich war, erkennt man daran, daß die aristotelische Physik bis in die
Renaissance fast ohne Arithmetik, wohl aber auf geometrischer Grundlage, ent-
wickelt wurde. Die Einbeziehung der Arithmetik in die Physik war immer eine
platonische und dann neuplatonische Erbschaft, wie man an der Licht-Geometrie
des Robert Grosseteste (ca. 1168 – 1253), Roger Bacons (ca. 1214 – ca. 1292) ,
bei den „Calculatores“ des Merton-Colleges an der Universität Cambridge, dann
vor allem bei Nikolaus von Kues (1401 – 1464) und danach bei Galileo Galilei
(1564 – 1642) sehen kann.
Die mathematische Physik bestand und beruht bis heute auf der Verwendung
der Geometrie als Modellreservoir für die Abbildung der physikalischen Welt.
Alles, was Gegenstand physikalischer Forschung und Erklärung sein kann, muß
zunächst „geometrisiert“ werden, um es dann auch numerisch-messender Betrach-
tung zu unterwerfen. Erst in dieser geometrisierten Gestalt können physikalische
Objekte auch Gegenstand der numerisch-messenden Physik werden. Man sieht
das an der kosmologischen Big-Bang-Theorie (Urknall), die den Anfang des
Kosmos als Punkt-Ereignis und die Ausdehnung des Kosmos als sphärisch-lineare
Ausbreitung geometrisiert. Die alternative Theorie einer kosmischen Oszillation
von Ausdehnung und Zusammenziehung („ohne Anfang“, nach dem „Systole-
Diastole“-Modell des Empedokles) bedient sich teilweise des geometrischen Wel-
lenmodells.
Daß man in der Physik solche Modelle „selbstverständlich“ verwendet, verdankt
sich einer langen Tradition des Modelltransfers und der Modellkonkurrenz zwi-
schen den einzelnen physikalischen Spezialdisziplinen.
160

Die „physikalische“ (eigentlich: physische) Natur bietet sich dem Betrachter dar
in Gestalt diskreter fester Körper und als kontinuierliches Fließen von Flüssig-
keiten und Wehen von Winden (Gasen). Ob und wie man das eine für den Grund
des anderen halten konnte, darüber haben sich Demokrit und die stoischen und
epikureischen Atomisten mit Heraklits (um 544 – 483 v. Chr.) Dictum „Alles
fließt“ (panta rhei) und neuplatonischen „Emanations-Philosophen“ (emanatio =
„Herausfließen“) auseinandergesetzt.
Die Physik hat zunächst beide Phänomene in getrennten Disziplinen erforscht.
Daraus entstanden einerseits die sogenannte korpuskulare Mechanik und ande-
rerseits die „Hydrodynamik“ der Flüssigkeiten. I. Newton (1643 – 1727), der Kor-
puskularphysiker, und Christian Huygens (1629 - 1695), der Hydrodynamiker,
wiederholten den antiken Streit zwischen den Atomisten und Emanatisten um den
Vorrang ihrer Modelle für die Erklärung des Lichts und seiner Eigenschaften auf
den Grundlagen der mathematischen Physik ihrer Zeit. Es ging um die Frage,
welches Modell – diskrete Körper oder kontinuierliche Flüssigkeiten – sich besser
dazu eigne, die Lichterscheinungen mathematisch elegant und vollständig zu er-
klären und zugleich anschaulich zu machen.
Wie man weiß, blieb der Streit unentschieden. Beide Modelle blieben in Kon-
kurrenz auch in neueren physikalischen Disziplinen. Die entsprechenden Theorien
sind die Korpuskel-Mechanik und die Wellenmechanik. Mathematisches dialek-
tisches Denken aber vereinigt mittlerweile beide zur „dualistischen“ Theorie der
Partikel-Wellen-Mechanik.
Daß es überhaupt zu einer Abgrenzung der „Mikrophysik“ (der Elementar-
teilchen oder Wellen) von der klassischen Makrophysik gekommen ist, verdankt
sich ebenfalls zum Teil einem Modelltransfer. Die alte Physik der Himmelskörper
und ihrer mechanischen Bewegungen wurde selbst zum Modell, sich die Atome
wie kleine Sonnen vorzustellen, um welche die Elektronen wie Planeten kreisen
(Bohrsches Atommodell). Aber die genauere Erforschung des Verhaltens der
Elektronen (deren Theorie ja in der „Hydro“-Dynamik des elektrischen “Stroms“
entwickelt worden war) zeigte das Ungenügen dieser Modellvorstellung. Statt um
„Flüsse“ und ihr „Strömen“ geht es nun um „Strahlungen“, in denen etwas bewegt
wird, was sich manchmal an Meßpunkten identifizieren läßt, manchmal aber auch
nicht (non-locality). Die anhaltende Verlegenheit um eine Modellvorstellung
dafür äußert sich in der „String-Theorie“ („Schleifen“).
Ebenso war die Entwicklung der Relativitätstheorie, die heute die makrokos-
mische Physik beherrscht, zunächst inspiriert von den Erkenntnissen der Akustik,
insbesondere des Dopplereffektes bewegter Schallquellen. Schallausbreitung wur-
de zum Modell der Lichtausbreitung, bis sich das Ungenügen der Modellana-
logien des Schalls angesichts der (von A. Einstein postulierten) Konstanz der
Lichtausbreitung herausstellte. Inzwischen steht auch die Astronomie im Zeichen
der Modellierung und Simulation, wie es im Titel der Jahrestagung der astrono-
mischen Gesellschaft in Deutschland 2011 zum Ausdruck kam: „Surveys and
Simulations / The Real and the Virtual Universe“.
161

Die Chemie war in ihrer Geschichte (als Alchemie) ziemlich weit entfernt von
Mathematisierung. Antoine Laurent Lavoisier (1743 – 1794) und John Dalton
(1766 – 1844) aber haben erste quantitative Gesetze der Elementenverbindungen
aufgestellt und damit ihre Mathematisierung eingeleitet. Atome wurden durch
Jens Jakob Berzelius (1779 – 1848) mit latinisierten Eigennamen bezeichnet (z. B.
„H“ für „Hydrogenium“ bzw. Wasserstoff). Moleküle als chemische Verbindun-
gen von Atomen bezeichnete er mit Wörtern bzw. „Formeln“, die ihren Aufbau
gemäß der Zahl ihrer Atome darstellten (z. B. „H2O“ für das Wassermolekül, be-
stehend aus 2 Wasserstoffatomen und einem Sauerstoffatom). Molekülvorstellun-
gen aber unterwarf man dann auch in der Chemie der Geometrisierung mittels
„Strukturformeln“, die die gegenseitige Lage der Atome im Molekül veran-
schaulichen sollten. Diese wurden dann auch durch dreidimensionale Modelle
dargestellt. Die Modelle erwiesen sich als fruchtbare heuristische Instrumente für
die Entdeckung vieler komplizierterer Molekülverbindungen. August Kekülé von
Stradonitz (1829 – 1896) berichtete 1865, wie er im „Halbtraum“ das Struktur-
modell des Benzolrings (C6H6) in Gestalt einer sich selbst in den Schwanz
beißenden Schlange fand. Francis Crick und James Watson entdeckten 1953 die
Doppelhelix als Strukturmodell der DNA und erhielten dafür den Medizin-
Nobelpreis.
Ein bedeutender Schritt in der chemischen Modellierung waren die sogenannten
chemischen Reaktionsgleichungen. Sie stellen Anfangs- und Ergebniskonstel-
lationen von chemischen Prozessen dar. Auch bei ihnen kann man den Effekt dia-
lektischer Mathematisierung feststellen. Denn sie drücken zugleich die Gleichheit
und die Unterschiedlichkeit der Anfangs- und Endkonstellationen von Prozessen
in Gleichungsform dar, wo man logisch behauptende kausale Implikationen er-
wartet hätte.
Auch die Biologie hat an dieser Geometrisierung ihrer Gegenstände teilgenom-
men. Goethes „Urform“ der Pflanze im Modell des Ginko-Blattes war ein Vor-
schlag dazu. Eine wichtige Vorstufe, die Biologie näher an die Physik heranzu-
bringen, war die geometrische Beschreibung der tierischen und pflanzlichen „Zel-
len“ durch Matthias Jakob Schleiden (1804 – 1881). Noch weitergehend versuchte
dies der „Energetismus“ der Monisten-Schule des Chemie-Nobelpreisträgers Will-
helm Ostwald (1853 – 1932) und Ernst Haeckels (1834 – 1919).
Der Physiker Felix Auerbach (1856 – 1933) ging von dem Ansatz der Monisten-
schule aus, daß die Organismen insgesamt „Energiewesen“ sind, die in ihren Kör-
pern Energie speichern und „verkörpern“, zugleich aber auch in ihren Lebens-
prozessen Energie umsetzen. Er erkannte dabei, daß der Bereich des organischen
Lebens sich vom Bereich der toten physikalischen Natur dadurch unterscheidet,
daß die Lebewesen nicht dem 2. Hauptsatz der Thermodynamik unterliegen.
Dieses sogenannte Machsche Gesetz besagt, daß in „geschlossenen Systemen“ der
Physik (ohne Energiezufuhr von außen) die Energiepegel eine „entropische Ten-
denz“ zum allgemeinen Niveauausgleich aufweisen (deshalb nennt man das
Machsche Gesetz auch Entropiegesetz), wodurch zugleich auch die physikalische
162

Zeitrichtung (von der Vergangenheit in die Zukunft) definiert bzw. simuliert wird.
Auerbach nannte den Energiehaushalt lebendiger Organismen im Gegensatz zur
Physik geschlossener Systeme „ektropische Systeme“, (in denen sich auch die
Zeitrichtung, die die Entwicklung der Lebewesen bestimmt, umkehrt. 88 Heute
spricht man diesbezüglich von „Negentropismus“ (= negativer Entropismus). Auf
dieser Grundlage hat dann Karl Ludwig v. Bertalanfy (1901 - 1972) sogenannte
Fließdiagramme der Lebewesen erarbeitet. Diese hat er in Modellen von „offenen
Systemen“ (GST, d. h. General System Theory) darzustellen versucht.89
Obwohl die Möglichkeit einer adäquaten Darstellung „offener Systeme“ und
erst recht deren Anwendung in anderen Wissenschaften wie Psychologie und
Soziologie umstritten ist, war dieser Ansatz doch ein wichtiger Beitrag zur Ein-
gliederung der biologischen Objekte in das physikalisch-geometrische Paradigma.
Aber erst die neuere Rückbindung der Biologie an die physikalische Chemie
(„Molekularbiologie“ und „Molekularmedizin“) hat diese Tendenz zur herrschen-
den gemacht.
Die moderne Tendenz zur Mathematisierung weiterer Einzelwissenschaften hat
auch das Modelldenken in diesen Wissenschaften zur dominierenden Methode
gemacht. Hier sind vor allem die Soziologie und die Ökonomie zu nennen. Für
beide Bereiche war einer der Ausgangspunkte die Max Webersche Theorie von
den „Idealtypen“, die schon als Modelle in nuce angesprochen werden können.90
Kern- und Ausgangspunkt für ökonomische Modelle ist etwa der „vollkommene
Markt“ (ohne Monopole und Kartelle bei vollständiger Information aller Markt-
teilnehmer über die Marktlage) oder der „Homo oeconomicus“, der sich stets
marktgerecht „rational“ verhält.91
Von den Geisteswissenschaften hat sich die Linguistik („Computerlinguistik“)
am meisten dieser Tendenz geöffnet.92
Die Psychologie hat sich seit dem 19. Jahrhundert in einen geisteswissenschaft-
lichen (W. Dilthey, H. Lipps u. a.) und einen medizinisch-klinisch-naturwissen-
schaftlichen Zweig (im Anschluß an J. F. Herbart) geteilt. Für den letzeren Zweig
dürften das Hauptmodell der Computer und seine Leistungskapazitäten geworden
sein.
In die Philosophiegeschichtsschreibung hat das Modellkonzept mit Rudolph
Euckens „Bilder und Gleichnisse in der Philosophie“ 93 Einzug gehalten. Aber es
88
Vgl. F. Auerbach, Ektropismus und die physikalische Theorie des Lebens, Leipzig 1910.
89
K. L. v. Bertalanfy, Biophysik des Fließgleichgewichts, Braunschweig 1953, 2. Aufl. Berlin 1977; ders., General
System Theory, Scientific-Philosophical Studies, New York 1968, 2. Aufl. 1976.
90
M. Weber, „Über einige Kategorien der verstehenden Soziologie“ sowie „Die drei reinen Typen der legitimen Herr-
schaft“, in: M. Weber, Soziologie, Weltgeschichtliche Analysen, Politik, hgg. v. J. Winckelmann, Stuttgart 1956, S. 97 –
166.
91
Vgl. R. Mayntz, Formalisierte Modelle in der Soziologie, Neuwied 1967; D. Maki und M. Thompson, Mathematical
models and applications. With emphasis on the social, life, and management sciences, Englewood Cliffs, N. J. 1973; K.
Troitzsch, Modellbildung und Simulation in den Sozialwissenschaften, Opladen 1990; H. Albert, Marktsoziologie und
Entscheidungslogik, Neuwied-Berlin 1967, neue Aufl. Tübingen 1998.
92
Vgl. N. Chomsky, Explanatory models in linguistics, in: Logic, Methodology and Philosophy of Science, hgg. von E.
Nagel, P. Suppes und A. Tarski, Stanford Univ. Press 1962, S. 528 – 550; H. P. Edmundson, Mathematical Models in
Linguistics and Language processing, in: Automated Language Processing, hgg. von H. Borko, New York 1968, S. 33 – 96.
163

dauerte bis in die zweite Hälfte des 20. Jahrhunderts, bis es von Hans Leisegang
unter dem Titel „Denkform“ 94 und Ernst Topitsch in Verbindung mit dem
Mythosbegriff wieder aufgenommen wurde. Topitsch arbeitete insbesondere tech-
nomorphe, biomorphe, soziomorphe und psychomorphe Modelle als anschauliche
Denkgrundlagen der großen historischen Philosophiesysteme heraus. Dies aller-
dings in der kritischen Absicht, sie als gänzlich unzulängliche Stützen überholter
Denksysteme der „wissenschaftlichen Philosophie“ des Wiener Kreises, d. h. der
Analytischen Philosophie gegenüber zu stellen.95
Eine positive forschungsleitende Bedeutung erhielt das Modelldenken bei Hans
Blumenberg (1920 - 1996) für diejenigen Philosophen, welche die Philosophie im
engen Anschluß an die Sprach- und Literaturwissenschaften betrieben. Er ging
von theologischen und literarischen Metaphern- und Mythenstudien aus, wo es
seit jeher gepflegt wurde, und hat es geradezu zur Leitmethode eines „trivial“-
philosophischen Denkens gemacht. Für ihn sind Metaphern und Mythen das genu-
ine Denkmittel einer philosophischen Sinnkonstruktion für die Welterklärung.
Dies in scharfem Gegensatz zum begrifflichen und abstrakten wissenschaftlichen
Denkstil der neuzeitlichen Naturwissenschaft. „Die Metaphorologie sucht an die
Substruktur des Denkens heranzukommen, an den Untergrund, die Nährlösung
der systematischen Kristallisationen, aber sie will auch faßbar machen, mit wel-
chem ‚Mut‟ sich der Geist in seinen Bildern selbst voraus ist und wie sich im Mut
zur Vermutung seine Geschichte entwirft“.96
So fruchtbar sich diese Version der Metaphern- und Mythenforschung in Blu-
menbergs eigenen Schriften und in denen seiner zahlreichen geisteswissenschaft-
lichen Schüler erwiesen hat, so betonte er in seinem letzten Werk „Die Lesbarkeit
der Welt“ 97 auch die Kehrseite überkommener Mythen und Modelle als Ver-
führung und Irreführung der wissenschaftlichen Forschung. Dies am Beispiel der
(augustinischen und galileischen) Metapher vom „Buch der Natur“ („das in geo-
metrischen und arithmetischen Zeichen geschrieben ist“). Erst die neuzeitliche
Naturwissenschaft habe sich von der darin implizierten Leitvorstellung eines gött-
lichen Buch-Autors verabschiedet und den Nachweis erbracht, daß es sich um das
Modell eines Buches mit gänzlich leeren Seiten gehandelt habe.
Zuletzt hat sich noch Kurt Hübner für die Unentbehrlichkeit des Modelldenkens
in den Wissenschaften stark gemacht. 98 Auch er ging von der theologischen
Mythenforschung aus und stellte die Mythen als empirisch nicht widerlegbare

93
R. Eucken, Bilder und Gleichnisse in der Philosophie, Leipzig 1880.
94
H. Leisegang, Denkformen, Berlin 1951.
95
E. Topitsch, Vom Ursprung und Ende der Metaphysik. Eine Studie zur Weltanschauungskritik, Wien 1958; ders., Mythi-
sche Modelle in der Erkenntnistheorie, in: E. Topisch, Mythos, Philosophie, Politik. Zur Naturgeschichte der Illusion,
Freiburg 1969, S. 79 - 120.
96
H. Blumenberg, Paradigmen zu einer Metaphorologie“, Bonn 1960, S. 11; ders., Arbeit am Mythos, Frankfurt a. M.
1979. - Vgl. dazu L. Geldsetzer, Die Philosophie der Philosophiegeschichte im 19. Jahrhundert, Meisenheim 1968, S. 172 -
173.
97
H. Blumenberg, Die Lesbarkeit der Welt, Frankfurt a. M. 1981.
98
K. Hübner, Die Wahrheit des Mythos, München 1985, 2. Aufl. Freiburg-München 2010; ders., Die nicht endende
Geschichte des Mythischen, in: Texte zur modernen Mythenforschung, Stuttgart 2003.
164

„ontologische“ Erfahrungssysteme mit eigenem Recht neben die naturwissen-


schaftliche Ontologie. Die mythischen Modelle, so meint er, besäßen im Unter-
schied zu den wissenschaftlichen Theorien den Vorzug der unmittelbaren sinn-
lichen Anschaulichkeit der in ihnen benutzten Begriffe.
Kommen wir aber auf die eigentlichen methodologischen Grundlagen des Mo-
delldenkens in der Logik und Mathematik und seine Relevanz für die Veranschau-
lichung des „unanschaulichen Denkens“ zurück.
Die mit der „quadrivialen“ Mathematik konkurrierende „triviale“ Logik galt
ebenso wie jene seit jeher als eine Praxis des unanschaulichen Denkens. Aber im
Gegensatz zur Mathematik wurde in der Logik das Denken gerade und nur durch
die Beziehung auf inhaltliche Objekte veranschaulicht. Insofern entwickelte sich
Logik auch zuerst als „inhaltliches, d. h. anschauliches Denken“ mittels der inhalt-
lichen Beispiele. Jedes inhaltliche Beispiel für einen Begriff oder ein Urteil galt
als Modell dessen, was mit einem Begriff oder Urteil als rein logischen Gebilden
gedacht werden sollte. In diesen Veranschaulichungen durch inhaltliche Beispiele
wurde die Logik vor allem von den Stoikern kultiviert.
An der Stelle, wo sich die Arithmetik der geometrischen Modelle zur Veran-
schaulichung von Zahlen und Zahlverhältnissen bedienen konnte, entwickelte
Aristoteles durchaus in Konkurrenz zur Mathematik seine Logik auf der Grund-
lage ausgewählter grammatischer Kategorien.
Man sollte die aristotelischen Buchstaben (bzw. Zahlzeichen) selbst als ein logi-
sches Pendant zur mathematischen Geometrisierung verstehen. Formale Buch-
staben als logische „Variable“ bildeten nicht Gegenstände ab, sondern veran-
schaulichten bei Aristoteles die sonst unanschaulichen Begriffe, und nur diese.
Vielleicht hat er das von Demokrit übernommen. Man sollte nicht verkennen, daß
die noch heute verbreitete Gewohnheit von Logikern (aber auch von Mathema-
tikern und Physikern), einen thematischen Gegenstand zuallererst mit einem
Buchstaben zu belegen („... nennen wir es X“), der dann in einer Rede oder
Schrift für das Gedachte bzw. Gemeinte stehen bleibt, daraus entstand.
Die aristotelischen „synkategorematischen“ Junktoren, die nach Aristoteles und
auch späterhin keinen eigenen „Sinn“ besitzen sollten, waren in den Anfängen
dieser Formalisierung keine Abbildungen von irgend etwas in der Welt, sondern
direkter Ausdruck von (vermeintlich) unanschaulichen Denkverknüpfungen bzw.
Relationen. Erst ihre Stellung zwischen den formalen Modellen (Variablen) von
Begriffen erhielt als „Mitbedeutung“ (connotatio) eine Abbildungsfunktion. So
stellten erst die formalisierten Urteile in dieser Junktoren-Verknüpfung mit Be-
griffen Modelle von Urteilen und Schlüssen dar.
Aber dieser Modellansatz in der aristotelischen formalen Logik war ziemlich
beschränkt und wurde bekanntlich in der logischen Arbeit von Jahrhunderten
nicht wesentlich erweitert. Und noch wesentlicher für die Entwicklung der Logik
war es, daß diese einfachen Formalisierungen nicht als Modelle für die Anschau-
lichkeit des logischen Denkens erkannt und durchschaut wurden. Daher der immer
wiederholte Rekurs auf die (anschaulich bleibende) Sprache in der Logikge-
165

schichte bis zur Wittgensteinschen Identifizierung von „Idealsprachen“ mit Ma-


thematik und Logik. In der Sprachverwendung sah man einen unmittelbaren und
gleichsam naturwüchsigen Denkvollzug von Zusammenhangsstiftungen zwischen
den Objekten des Denkens.
Die Interpretation der Einführung (Eisagoge) des Porphyrius (um 232 – um 304
n. Chr.) in das Aristotelische Organon brachte in der mittelalterlichen Scholastik
eine explizite Modell-Veranschaulichung der Begriffe und ihrer hierarchischen
Ordnung in Begriffspyramiden in den sogenannten Porphyrianischen Bäumen
hervor. Aber auch diese Veranschaulichungen beschränkten sich auf das Ver-
hältnis von Oberbegriff zu je zwei Artbegriffen, die in den „Begriffsbäumen“
übereinander abgebildet wurden. Damit konnten allenfalls Extensionen von Be-
griffen, nicht aber ihre Intensionen und deren Zusammenhang veranschaulicht
werden. Und damit auch nicht die durchlaufende Hierarchisierung aller Begriffe
einer Theorie von ihrem axiomatischen Grundbegriffen bis zum Eigennamen,
geschweige denn von der Satz- bzw. Urteils- zur Schlußbildung.
In Bezug auf solche Begriffshierarchien blieb die Logik bis heute auf die Phan-
tasie der Logiker angewiesen. Und dem verdankt sich die Tatsache, daß logisches
Denken sich ebenso wie die Arithmetik einen Nimbus der Unanschaulichkeit be-
wahrt hat. „Rationales Denken“ wird zwar in allen Wissenschaften und besonders
in der Wissenschaftsphilosophie beschworen und in Anspruch genommen, aber es
besteht keinerlei auch nur annähernd einheitliche Auffassung über das, was Ratio-
nalität eigentlich sei.
Die Aszendenz von Modelltheorien in der Wissenschaftsphilosophie verdankt
sich in erster Linie der Entwicklung der mathematischen Logik hin zu einem Ver-
ständnis des Rationalen als Idealsprache.
Gemäß linguistischem Sprachverständnis baute man eine besondere „Semantik“
als Lehre von den Objekten aus, über die und von denen in dieser Ideal-Sprache
geredet werden kann. Solche Objekte konnten für Mathematiker nur die mathe-
matischen Gebilde selbst sein, also die Zahlen und ihre Aufbaustrukturen sowie
die geometrischen Gebilde. Als Objektbereich der Mathematik werden sie – ana-
log der traditionellen Ontologie – auch in der Mathematik als deren „Ontologie“
bezeichnet. Aber auch diese „Ontologisierung“ abstrakter Gegenstände appelliert
an die Veranschaulichung des angeblich nur Denkbaren durch die inhaltliche Bei-
spiele, die in den Ontologien einzelner Wissenschaftsbereiche vorgeführt werden.
Die Modellauffassung der modernen mathematischen Logik erhebt jede inhalt-
liche Interpretation bzw. die Anwendung des logischen Formalismus auf einen
Sachverhalt zu einem Modell der dafür gesetzten oder geforderten unanschau-
lichen Denkobjekte ihrer Axiomatik. Und da man den (axiomatischen) Forma-
lismus für eine Wahrheitsgarantie der formalisierten Denkprozesse hält, wird von
dem interpretierenden Modell erwartet, daß es ebenfalls zu inhaltlich wahren
Aussagen führt. In diesem Sinne wird etwa die mathematische Zahlentheorie als
ein Modell der Peanoschen (1858 – 1932) Axiomatik aufgefaßt, die Euklidische
166

Geometrie als Modell der Hilbertschen (1862 – 1943) Axiomatik. Dies dürfte die
Standardauffassung in der Wissenschaftsphilosophie sein.
Umgekehrt findet man aber auch die Meinung, für jede „intuitive“ inhaltliche
Theorie eines Objektzusammenhangs sei der (axiomatische) Formalismus ein Mo-
dell. Aber wie man leicht bemerkt, ist das erstere – die Interpretation eines Forma-
lismus - nichts anderes als ein Anwendungsbeispiel. Aus solchen Beispielen aber
wird der Formalismus in aller Regel erst gewonnen (wie es die stoische Logik
vorführte). Formalismus und Interpretation müssen daher von vornherein „tautolo-
gisch“ übereinstimmen. Diese Modellvorstellung ist daher ein Fall einer petitio
principii.
Da für die Logik die logischen Formalismen die anschaulichen Modelle für das
sind, was man logisches Denken (oder oft auch Rationalität schlechthin) nennt,
kommt alles darauf an, wie die Formalismen gestaltet sind und was sie dabei „zu
denken“ erlauben.
Der übliche logische Formalismus mit Begriffsvariablen und Junktoren ist –
ebenso wie der mathematische mit Zahlvariablen und Rechenarten als Junktoren
(„Operatoren“) – an die Textgestalt von Schriftsprachen gebunden. Das Textmo-
dell modelliert die Abfolge von ganzen Begriffen in (behauptenden) Sätzen und
deren Abfolge zu weiteren Begriffen und Behauptungen als “Denkprozeß“ ent-
sprechend der Abfolge eines schriftlich notierten Lese- und Vorstellungsablaufes.
Dies ist die Grundlage für die sogleich zu behandelnde „Simulation“ von Abläu-
fen geworden.
Die Modelle in der Form von Graphen modellieren dagegen keinen sprachlichen
Gedankenlauf, sondern geben ein statisches Abbild von logischen Relationen. Als
Beispiele haben wir schon die porphyrianischen Bäume, die (umgekehrten) Be-
griffspyramiden, die Eulerschen Kreise sowie die Vennschen Diagramme er-
wähnt. Sie gelten zwar als didaktische Hilfsmittel, haben aber eine selbständige
und andersartige Funktion ihrer Abbildlichkeit als die textartigen Formalismen.
Wesentlich für sie ist, daß diese Graphen-Formalismen als das behandelt werden
können, was man Modelle nennt. Der von uns vorgeschlagene und in § 9 ausführ-
lich explizierte Formalismus stellt insofern einen Verbesserungsvorschlag des
Pyramidenmodells dar.
Hier ist jedoch darauf hinzuweisen, daß es sich bei der hier entwickelten For-
malisierung nicht um eine Veranschaulichung eines „unanschaulichen Denkens“ -
das es nicht gibt - handelt. Was in den logischen Pyramiden „modelliert“ wird ist
immer inhaltliches Vorstellen, sei es in direkter sinnlicher Betrachtung des Pyra-
midenformalismus selbst oder als Erinnerung an seine Gestaltung. Die Forma-
lisierung liefert nur ein normatives Beispiel dafür, wie man mit anschaulichen
Vorstellungen, Erinnerungen und Phantasien umzugehen hat, wenn sie in eine
logische Ordnung gestellt werden sollen. Der pyramidale Formalismus in seiner
Anschaulichkeit ist also selbst ein Exemplar des logischen Vorstellens im Unter-
schied zu rein sprachlichem Reden, zum Schreiben oder Spekulieren, das der
logischen Formalisierung vorauslaufen oder auch nachfolgen mag.
167

Echte Modelle sind stets ein Quid-pro-quo geblieben. D. h. sie „supponieren“


(„stehen für...“ wie man in der scholastischen Logik sagte) für etwas, das in
bestimmten Hinsichten anders ist als das Modell, das zugleich aber auch etwas
Identisches des Gegenstandes und des Modells zur Anschauung bringt und damit
definiert. Das zeigt sich am deutlichsten in den maßstäblichen Verkleinerungen
und Vergößerungen geometrischer Gebilde. Identisch bleiben zwischen Modell
und Dargestelltem die Gestalt, verschieden aber sind die Maßverhältnisse bzw. die
Proportionen. Das identisch-verschiedene Verhältnis wird logisch Analogie ge-
nannt.
Nun hat der Analogiebegriff bekanntlich durch Thomas v. Aquins (1225 – 1274)
„Seinsanalogie“ (analogia entis) weite kategoriale und ontologische Anwendun-
gen gefunden. Aber „Analogie“ ist als Begriff des Identisch-Verschiedenen ein
weiteres Beispiel für einen dialektischen, d. h. widersprüchlichen Begriff. Er hat
auch in der mathematisch-logischen Modelltheorie eine besondere Anwendung
gefunden. Daher ist hier besonders auf die „Analogie“ im Modellverständnis der
Mathematik und mathematischen Logik einzugehen.
Wie gezeigt wurde, gehört das dialektische Denken seit jeher zur Kultur der
Mathematik. Es kann daher nicht verwundern, daß es auch bei den mathema-
tischen Modellen durchschlägt. Und es verwundert auch nicht, daß die Modell-
theorien der Mathematik in einer eigenen mathematischen Disziplin entwickelt
worden sind, die ebenso wie die ganze Mathematik ihre dialektischen Voraus-
setzungen nicht sieht und geradezu verleugnet.
Das hauptsächliche methodische Mittel zur Dissimulierung des dialektischen
Charakters der Modellvorstellungen in der Mathematik ist die analytische Metho-
de (nicht mit der analytischen Geometrie zu verwechseln), die etwas Unbekanntes
als Bekanntes behandelt. Beispiel dafür ist die Supposition von Variablen für
unbekannte Zahlgrößen „als ob sie bekannt wären“. Ein weiteres Mittel ist die
(falsche) Verwendung der Gleichungsform für Behauptungssätze.
Gemäß diesen methodischen Mitteln wird nun auch das Verhältnis von Modell
zum Objekt der Modellierung als Gleichung und zugleich als Analogieverhältnis
zwischen beiden formuliert. Das Modell wird in der Mathematik als „ein-ein-
deutiges Abbild“ („Strukturidentität“) von Modell und Objekt und zugleich als
dessen Analogie (teilweise Übereinstimmung bei teilweiser Nicht-Übereinstim-
mung) dargestellt. Beides steht jedoch im Widerspruch zueinander.
Mit der Gleichung wird nur der identische Teil des Bezuges zwischen Modell
und Objekt beachtet und dargestellt. Die Analogie aber sollte gerade die Un-
gleichheiten herausstellen. Aber diese wird bei Modellen ausgeblendet. Es gilt
geradezu als Vorzug und Stärke der mathematischen Modelle, daß in ihnen von
den Ungleichheiten zwischen Modell und Modelliertem abgesehen bzw. abstra-
hiert wird, und somit die Abbild-Relation als gegebenes Identitätsverhältnis
postuliert wird.
Ein Lexikonartikel „Modell“ formuliert dies so:
168

„Modell (nach dem aus lat. modellus, Maßstab (Diminutiv von Modus, Maß)
gebildeten ital. (16. Jh.) modello), in Alltags- und Wissenschaftssprache vielfältig
verwendeter Begriff, dessen Bedeutung sich allgemein als konkrete, wegen ‚ideali-
sierender‟ Reduktion auf relevante Züge, faßlichere oder leichter realisierbare Dar-
stellung unübersichtlicher oder ‚abstrakter‟ Gegenstände oder Sachverhalte umschrei-
ben läßt. Dabei tritt die Darstellung der objekthaften Bestandteile hinter der Darstel-
lung ihrer relational-funktionalen Beziehungen (Struktur) zurück.“ 99

„Idealisierende Reduktion“, „faßlichere oder leichter realisierbare Darstellung“,


„relational-funktionale Beziehungen“ und „Struktur“ sollen hier dasjenige be-
zeichnen, was ins Modell eingeht. Aber die „objekthaften Bestandteile“, die im
Modell nur „zurücktreten“ sollen und als „unübersichtlich“ oder „abstrakt“ gelten,
widersprechen als analogischer Anteil ersichtlich der Prätension, es handele sich
um ein ein-eindeutiges Abbildungsverhältnis, das in einer Gleichung dargestellt
werden könnte.
Die mathematischen Modelltheorien setzen, wie vorn gesagt, voraus, daß jede
mathematische Theorie – in welcher Disziplin auch immer (einschließlich physi-
kalischer Theorien in mathematischer Form) eine ein-eindeutige Abbildung ihrer
Axiomatik sei. Die „wahre“ oder „bewährte“ Theorie sei dann zugleich auch das,
was man in der Mathematik ein Modell ihrer Axiomatik nennt. Man kann auch
sagen: eine mathematische Theorie veranschaulicht jeweils ihre unanschauliche
Axiomatik.
Diese Meinung wurde durch David Hilbert (1862 - 1943) begründet und durch
die französische Mathematikergruppe, die unter dem Namen „Bourbaki“ veröf-
fentlicht, weiter verfestigt. Alfred Tarski hat die mathematische Modelltheorie zu
einem disziplinären Teil der von ihm sogenannten Meta-Mathematik gemacht.100
Die mathematische Modell-Theorie spielt hier die Rolle einer „Semantik“ der
Theorie-Objekte, die die „Syntaktik“ der axiomatischen Idealsprache durch ein
Modell interpretiert. Unter der (wie wir meinen: falschen) Voraussetzung, daß die
mathematischen Objekttheorien widerspruchslos seien, überträgt sie diese Vor-
aussetzung auch auf die (Hilbertsche) Axiomatik zurück und versucht, die Erfül-
lung der Axiom-Kriterien der Unabhängigkeit, Vollständigkeit, Definierbarkeit,
Widerspruchsfreiheit usw. auch für die Axiomatik nachzuweisen.
Wir haben aber vorn in § 9 gezeigt, daß die sogenannten axiomatischen Grund-
begriffe, die nach Hilbert als „undefinierbare Begriffe“ verstanden werden, lo-
gisch keine Begriffe sind. Zur Verdeutlichung dessen, was damit gement sein soll
und was als ihr Anwendungsbereich in Frage kommt, bedarf es daher der Anwen-
dungsbeispiele, d. h. eben der ausgeführten Theorien.

99
G. Wolters, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-
Zürich 1984, S. 911.
100
Vgl. A. Tarski, Contributions to the Theory of Models, in: Indagationes Mathematicae 16, 1954, S. 572 - 588; nach G.
Wolters, Art. „Modelltheorie“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band,
Mannheim-Wien-Zürich 1984, S. 913 – 914; vgl. auch G. Hasenjäger, Art. „Modell, Modelltheorie“ in: Wörterbuch der
Philosophischen Begriffe, Band 6, hgg. von J. Ritter und C. Gründer, Basel-Stuttgart 1984, Coll. 50 – 52.
169

Ebenso wurde gezeigt, daß die mathematischen Gleichungen im logischen Re-


gelfall Definitionen sind. Das aber heißt, daß die vorgeblichen Modelle als „ein-
eindeutige“ Abbildungen der Axiomatik Definitionen der axiomatischen „Grund-
begriffe“ sein müssen, die deren intensional-extensionalen Status überhaupt erst
festlegen. Damit klären und erläutern sie aber nur Sinn und Bedeutung der
Axiomatik selber von den Modell-Beispielen ihrer Anwendungen her.
Wenn aber davon ausgegangen wird, daß mathematisches Denken überhaupt auf
der Voraussetzung seiner „Unanschaulichkeit“ beruht, so ist die Modellbildung in
interpretatorischen Anwendungen immer noch ein prekärer Versuch der Veran-
schaulichung des Unanschaulichen. Diese Veranschaulichung aber stützt sich auf
das Vorhandensein disziplinärer mathematischer Theorien und kann daher auch
nur den Mathematikern selbst als „Veranschaulichung“ dienen. Dem mathema-
tischen Laien dürften die mathematischen Theorien selbst als unanschaulich impo-
nieren. Um sie auch dem Nichtmathematiker verständlich zu machen, bedarf es
daher logischer Analysen des mathematischen Apparates, wie wir sie vorn schon
vorzuführen versucht haben.
Neben den Modellen haben in jüngeren Zeiten die Simulationen eine bedeutende
Funktion in den Wissenschaften und in der Technik übernommen. Auch die
Simulationen verdanken sich der zunehmenden Ausbreitung mathematischer
Methoden in den früher nicht-mathematischen Einzelwissenschaften. Insbeson-
dere spielten die gewaltigen Fortschritte in der Computertechnik und der dadurch
gegebenen Manipulierbarkeit großer Datenmassen eine Hauptrolle. Dadurch ist
das Thema der Simulation als „Computersimulation“ allbekannt geworden.
Das Wort Simulation (lat. simulare, dt. Nachahmen, aber auch Verstellen bzw.
Heucheln) insinuiert zunächst einmal, daß hierbei etwas mehr oder weniger Klares
bzw. mehr oder weniger Bekanntes der physikalischen Wirklichkeit durch ein
besonders scharfes und klares Bild wiedergegeben werde. Dasselbe Verhältnis
war ja auch in den Modellkonzeptionen prätendiert. Der Physiker Heinrich Hertz
(1857 – 1897) hat es in einem berühmt gewordenen Dictum über die Methode des
physikalischen Denkens so ausgedrückt:
„Wir machen uns Symbole oder Scheinbilder der äußeren Gegenstände, und zwar
derart, daß die denknotwendigen Folgen dieser Bilder stets wiederum die Bilder
seien von den naturnotwendigen Folgen der abgebildeten Gegenstände“.101

In diesem Dictum ist schon auf die „Folgen der Bilder“, also das prozessuale
Moment der Nachbildung, hingewiesen, welches im Simulationskonzept festge-
halten wird. Diese Bedeutung dürfte überhaupt der Grund für die Attraktivität des
Terminus „Simulation“ gewesen sein.
Daneben hat aber die Simulation schon seit der Antike noch die recht pejorative
Nebenbedeutung, die seine positive Bedeutung geradezu ins Gegenteil verkehrt.

101
H. Hertz, Prinzipien der Mechanik, in: Ges. Werke Band 3, Leipzig 1894, zit. nach F. Ueberweg, Grundriß der Ge-
schichte der Philosophie, Band 4, Berlin 1923, S. 422.
170

Man erinnere sich an seinen Gebrauch in der ärztlichen Diagnostik, wo der


„Simulant“ der gesunde „Patient“ ist, der eine Krankheit und ihre Symptome
„vortäuschen“ kann. Das „Vortäuschen“ dürfte auch jetzt noch nicht ganz aus dem
heutigen Sprachgebrauch verschwunden sein. Die Militär-Strategen (wie schon
Sun Bin in China, wie Cäsar, aber auch die modernen militärischen Stäbe), die
Juristen und Steuerbeamten und nicht zuletzt die Geschäftsleute haben gewiß bis
heute die römische Maxime beherzigt:

„Quae non sunt simulo, quae sunt ea dissimulantur”


(was es nicht gibt, das täusche ich vor; was wirklich der Fall ist, wird verborgen)

Angesichts dieser Geschichte der „Simulation“ sollte man also auch in der Wis-
senschaftstheorie eine gewisse Skepsis gegenüber der Konjunktur der Simulatio-
nen nicht ganz hintanstellen.
Ebenso wie die mathematischen Modelltheorien beruhen auch die (Computer-)
Simulationen auf mathematischen Theorien. Anders als die mathematischen Mo-
delltheorien bezieht sich dabei die mathematisierte Theorie der Computer nicht
auf eine Axiomatik, sondern direkt auf große Forschungsbereiche und die hierin
gesammelten Daten- und Faktenmassen nebst ihren Zusammenhängen.
Ein weiterer Unterschied zu den mathematischen Modellen besteht darin, daß
die Objekte der Simulation in der Regel Prozesse bzw. Abläufe sind, die dann
auch durch technische Prozesse bzw. ihre mathematischen Formalisierungen in
Algorithmen, die das Computerprogramm ausmachen, abgebildet werden. Günter
Küppers und Johannes Lenhard haben die Simulationen daher sehr griffig als
„Modellierungen 2. Ordnung“ bezeichnet.102 So bleibt das Quid pro quo der Mo-
delle auch in den Simulationen erhalten.
Die Attraktivität und Konjunktur der Simulation dürfte sich in erster Linie der
Tatsache verdanken, daß sie – ebenso wie die Modelltheorien überhaupt - so gut
in den Kontext der realistischen Erkenntnistheorie paßt.
Simulationen erscheinen als eine exakte und mathematisierte Form der traditio-
nellen Adaequatio rei et intellectus, der „Übereinstimmung von Sachverhalt und
Erkenntnis“. Durch die ein-eindeutige Abbildung eines prozessualen Sachverhal-
tes soll eine selber progredierende Erkenntnis simuliert werden. Das Paradigma
dafür ist das Computerprogramm (und dafür ist wiederum die sogenannte Turing-
Machine das konzeptionelle Modell), das die maschinellen Prozesse im Computer
steuert, die ihrerseits durch bild- und geräuscherzeugende Simulation etwas dar-
stellt, was als schon bekannt und wiedererkennbar erscheint.
Das kennt jedermann vom Theater her, in welchem ja historische oder typische
Lebensabläufe und Handlungszusammenhänge simuliert werden. Sie gelten in der
Ästhetik als umso „wahrer“, je mehr sie „dem vollen Leben entsprechen“. Aller-

102
Vgl. G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for General Philoso-
phy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 305 – 329. Eine Ausarbeitung dieses
Ansatzes mit zahlreichen Anwendungsbeispielen und kritischen Bemerkungen in Joh. Lenhard, Mit allem rechnen – zur
Philosophie der Computersimulation, Berlin 2015.
171

dings war sich die ästhetische Einschätzung der dramatischen Simulationen schon
seit dem Sophisten Gorgias (ca. 480 – 380 v. Chr.) bewußt, daß dabei immer auch
die „Täuschung“ und Verstellung“ durch die Illusionen der Bühne und die Ver-
stellungskunst der Schauspieler im Spiel war. Diese Bedenken sind jedoch in den
quadrivialen Naturwissenschaften und ihren Simulationen verloren gegangen.
Umso mehr besteht Bedarf, sie auch hier geltend zu machen.
Wie in § 5 gezeigt wurde, lebt die Forschung wesentlich von Vermutungen und
Hypothesen, die eigentlich im sprachlichen Konjunktiv zu formulieren wären. Da
es diesen Konjunktiv aber weder in der Logik noch in der Mathematik gibt,
formuliert man auch die Vermutungen in der behauptenden Urteilsform. Und das
erfüllt zunächst den Tatbestand der Vortäuschung von Tatsachen, wo über deren
Existenz oder Nichtexistenz, geschweige über deren bestimmten Charakter, nichts
behauptet werden kann. Wie sich die Wahrscheinlichkeitskonzeptionen über die-
sen logischen Sachverhalt selbst hinwegtäuschen, haben wir schon ausführlich
beschrieben. Es kann jedenfalls nicht verwundern, daß in den Simulationen aus-
gebreiteter Gebrauch von statistischer Wahrscheinlichkeit und Schlußfolgerungen
daraus gemacht wird.
Da diese in ihren mathematischen Formalisierungen als sicheres und wahrheits-
garantierendes Wissen gelten, ersetzen und vertreten sie alles das, was auf der
Faktenebene alles andere als sicher, gewiß und etablierte Wahrheit ist. Damit
erfüllt das Simulationsverfahren die erste römische Maxime: „Simulo quae non
sunt“. Die mathematischen Simulationen stehen als „wahre Theorien“ für nur
vermutete und unsichere Fakten. Und zugleich decken sie das Ungewisse, vom
dem man nur mit Sicherheit weiß, daß da „irgend etwas ist“, mit Wahrheits- und
Gewißheitsansprüchen zu. Damit erfüllen sie auch die zweite römische Maxime:
„Quae sunt ea dissimulantur“. Erst die post-festum Verifikationen und Falsi-
fikationen können allenfalls als Begründungen für gelungene oder mißlungene
Simulierung dienen. Aber post festum sind die Simulationen nicht mehr Simu-
lationen, sondern Tatsachenbehauptungen.
Ersichtlich sind es gerade die schwierigsten Grundprobleme, an denen sich
metaphysische Forschung jahrhundertelang abgearbeitet hat, die nun mit der
Simulationstechnik in Angriff genommen und mit der Hoffnung auf endgültige
Erledigung bewältigt werden sollen. Nämlich die Fragen: Was ist eigentlich Geist,
Subjekt, „Intelligenz“ und deren Leistungsfähigkeit; und was ist das „Ding an
sich“ als objektiver Kern aller Wirklichkeit.
Auf der metaphysischen Grundlage des herrschenden materialistischen Realis-
mus geht die KI-Forschung (Künstliche Intelligenz-Forschung) davon aus, das
Gehirn sei das materielle Substrat des Geistes bzw. des Subjekts. Die physiolo-
gischen Gehirnprozesse müßten daher durch maschinelle Prozesse simuliert
werden können.
Der Mathematiker Johann v. Neumann (1903 – 1957), neben Konrad Zuse
(1910 – 1995) der Pionier des Computerbaus, der für sein photographisch genaues
und zuverlässiges Gedächtnis berühmt war (er konnte schon als Kind eine Tele-
172

phonbuchseite mit allen Namen und Nummern zuverlässig erinnern) hat in seinem
Buch „The Computer and the Brain“ 103 die „Analogie“ des Computers zum
menschlichen Gehirn unterstrichen. Für die Wissenschaften relevant sind dabei
naturgemäß die sogenannten kognitiven Leistungen des Gehirns.
Aber wie man durch Maschinen seit jeher die menschlichen körperlichen
Leistungen verlängert und verstärkt hat, so natürlich auch die sogenannten intel-
lektuellen Leistungen. Teleskop und Mikroskop, Hörgeräte, Thermometer und
Waagen sind Verlängerungen der sinnlichen Organe. Leibnizens Rechenmaschine
war die erste Maschine, die auch eine solche – und zwar notorisch aufwendige
und umständliche – intellektuelle Leistung, nämlich das Rechnen in den Grund-
rechnungsarten verlängerte, beschleunigte und fehlerlos ersetzte.
Mit Recht sieht man darin die Matrix der Computer. Das Wort Computer ( =
„Rechner“) selbst hat diesen Ursprung festgehalten. Nur in Frankreich hat man
eine weitere Leistungsfähigkeit der Computer aus jüngeren Entwicklungen in den
Vordergrund gerückt. Man nennt sie dort „ordinateur“ und betont damit zugleich
mit ihrer Datenspeicherkapazität – die als maschinelles Gedächtnis eingeschätzt
wird - die zuverlässige Klassifizierung und Anordnung der Daten und ihre sichere
Abrufbarkeit.
Gewiß übertrifft der Computer inzwischen jede menschliche Erinnerungs- und
Ordnungskapazität. Daher überlassen wohl die meisten Zeitgenossen ihre Erin-
nerungen und die Registerhaltung ihrer Angelegenheiten ihrem Computer. Und
ersichtlich wird im gleichen Maße das individuelle Erinnern und die Ordnungs-
haltung vernachlässigt und ersetzt.
Computerprozesse werden durch Algorithmen gesteuert. Das sind in der Mathe-
matik Handlungs- bzw. Prozeßanweisungen für die Durchführung von Rechnun-
gen. Computerprogramme sind mehr oder weniger komplexe Algorithmen, die
das Funktionieren der Computer auf bestimmte Ergebnisse hin abrichten und
steuern. Längst setzt man sie daher auch für alle möglichen Berechnungen ein, die
ein Mensch wegen Umfang und Dauer nicht mehr durchführen kann. Daraus hat
sich auch in der Wissenschaft längst ein computergestütztes „Puzzle-Solving“,
also das mechanische Problemlösen, durchgesetzt. Insbesondere mechanisiert man
mathematische Beweisverfahren.104
Nun weiß man zwar genau, wie die Computer funktionieren, aber nicht, wie das
menschliche Gehirn funktioniert. Gemeinsam haben beide nur, daß man „von
außen“ nicht sieht, wie sie ihre Geschäfte erledigen. Beide sind das, was man
„black box“ (eine schwarze Kiste) nennt, in die etwas hineingetan wird („in-put“)
und etwas herauskommt („out-put“). Und so kommt wiederum das mathematische
Modelldenken, verstärkt durch das Simulieren unbekannter Vorgänge durch be-
kannte Prozesse, ins Spiel. Wenn der Computer so gut rechnen und Daten spei-

103
J. v. Neumann, The Computer and the Brain, 1958, neue Aufl. New Haven 2000, dt.: Die Rechenmaschine und das
Gehirn, 1958.
104
Vgl. dazu die Literatur bei Kl. Mainzer, Artikel „Intelligenz, künstliche“, in: Enzyklopädie Philosophie und Wissen-
schaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-Zürich 1984, S. 255 –256.
173

chern und wieder hervorrufen kann, und beides als ausgezeichnete und geradezu
paradigmatische Intelligenzleistung gilt, so läßt man sich gerne zu dem Schluß
verführen, geradezu alle Bewußtseinsakte ließen sich computermäßig simulieren.
Als Beweis für gelungenes Simulieren der rechnenden und datenspeichernden
Intelligenz gilt nicht von ungefähr das Schachspiel der Schachcomputer gegen die
Weltmeister des Schachspiels. Und da freies Entscheiden und sogenannte Krea-
tivität als wesentliches Anthropinon gilt, haben viele Tonkünstler und Maler ihre
Kreativität längst in die Programmierung von geräusch- und bilderzeugenden
Computern mit eingebauten Zufallsgeneratoren verlagert. Was man aber bisher so
noch nicht simulieren kann, ergibt dann regelmäßig ein willkommenes und stets
auszuweitendes Forschungsprogramm.
Neben dem Rechnen ist es das Sprechen, welches gemeinhin als „Out-put“ von
Denkprozessen gilt. Das sieht man schon daran, daß alles Schulwesen heute
Mathematikkenntnisse und Sprachverfügung als hauptsächliche Testfelder intel-
ligenter Leistungen festgeschrieben hat. Auch bei den sprachlichen Artikulationen
findet der Computer seit langem verstärkten Einsatz. Schriftliche und lautliche
out-puts gehören längst zum Standard der Computer bei Übersetzungen, bei
Robotern und Automaten bis hin zu den Richtungsanweisungen im GPS der Fahr-
zeuge.
Und so hält man es für eine Frage des Fortschritts, bis auch alle weiteren
Gehirnfunktionen computermäßig simuliert werden könnten. Puppen lachen und
weinen schon und simulieren Gefühle. Die inzwischen aufgelaufene Literatur zur
Künstlichen Intelligenz läßt schon ahnen, was man sich davon verspricht, nämlich
die Klonung menschlicher Gehirne in Gestalt von Computern und den Zusam-
menschluß von Computerelementen mit neuronalen Organen (Implantation von
Computerchips ins Gehirn). Auch die Tagespresse nimmt regen Anteil an der
Reklame.105 Alle diese schönen Hoffnungen und Aussichten, die inzwischen mit
Millionendotierungen an zahlreichen Forschungsinstituten genährt und unterhal-
ten werden, beruhen aber, wie schon vorn gesagt, auf naturwissenschaftlichen
Modell- und Simulationsmethoden. Der Computer ist Modell des Gehirns, und die
Computerprozesse sind die Simulationen des menschlichen Seelenlebens. Daß nur
eine Analogie vorliegt, die neben dem, was dabei identisch funktioniert, gerade
das Unterschiedliche kennzeichnen sollte, gerät dabei immer mehr aus dem Blick.
Man muß schon die Perspektive eines sensualistischen Idealismus einnehmen,
um zu erkennen, daß auch Gehirne und ihre Funktionen etwas sind, was erst
einmal gesehen, beobachtet und erforscht werden muß, und zwar keineswegs
durch Computer.
Die sogenannten bildgebenden Beobachtungsverfahren, die die Grundlage für
die hirnphysiologischen Erkenntnisse darstellen, haben einstweilen nur eine neue

105
Vgl. z. B. FAZ vom 6. 8. 2011, S. 31: Art. „Unsterblichkeit für alle“: „Unermüdlich arbeitet Ray Kurzweil daran, uns
den Weg ins ewige Leben zu weisen. Im Jahr 2029, so prophezeit es der amerikanische Autor und Erfinder, werden das
menschliche Gehirn und der Computer eine Einheit bilden“.
174

innersomatische Beobachtungsebene neben den äußeren Beobachtungsflächen


psychischer Phänomene (z. B. Verhalten oder Gesichtsausdruck) geschaffen. Sie
sind nur eine Fortentwicklung der schon lange üblichen Diagnoseinstrumente, mit
denen man „unter die Haut“ gehen kann. Dabei ist man noch weit davon entfernt,
die elektrischen, chemischen und physiologischen Funktionen des Gehirns zu
durchschauen. Für alle diese Funktionen aber hat sich mittlerweile der gutklin-
gende Terminus „Feuern der Neuronen“ (ein schönes Oxymoron als Modell)
eingebürgert.
Computer als Maschinen müssen konzipiert, konstruiert und ihre Programme
entwickelt werden, und auch dies nicht durch Computer, sondern mittels lebendi-
ger Gehirne. Das wird durch menschliche Intelligenz und psychisches Leben von
Subjekten (oder „Geistern“) geleistet, die sich keineswegs selbst konstruieren,
programmieren und nach Modell- und Simulationsmethoden erklären lassen.
Das andere Feld der Simulationen ist die „objektive Welt“ der Dinge, Sachver-
halte und Vorgänge „an sich“. Das erstreckt sich von den mikrophysikalischen
Vorgängen in den Atomen mittels des sogenannten Standard-Modells der Teil-
chen und ihrer Wechselwirkungen bis zur Evolution des Universums mitsamt der
Evolution der Lebewesen. Wie dies methodisch geschieht, haben wir vorn schon
verschiedentlich berührt. Was man einigermaßen kennt, wird als Modell und
Simulation auf das Unbekannte übertragen. Und was nicht zum Modell-Modell
paßt, wird aus der Beachtung und Betrachtung ausgeschlossen.
Am bekanntesten dürfte heute die Klima-Simulation geworden sein. Sie hat sich
aus der Wetterprognostik entwickelt. Daß diese früher stets in Konkurrenz mit
„Omas großer Zehe“ stand und dabei oftmals hinter Omas Treffern zurückblieb,
dürfte dem älteren Radiohörer noch in Erinnerung sein. Inzwischen ist das Klima
so etwas wie die geographische und historische Durchschnittslage aller Wetter-
verhältnisse über dem Erdplaneten geworden.
Die Faktenlage ergibt sich aus historischen Wetteraufzeichnungen, aus der Ge-
schichte der Vulkanausbrüche und vermuteter Meteoriteneinschläge auf der Erde,
aus Einlagerungen in Korallen, den Wachtumsringen langlebiger Bäume und der
Verteilung und Abholzung von Wäldern, den polaren Eislagern mit konservierten
Pollen, den Meeres- und Binnensee-Ablagerungen und den fossilen Funden;
darüber hinaus aus Schwankungen der Erdbahnparameter, den Variationen der
Sonneneinstrahlung und der Meeresströmungen und der Meerespegel. Die Luft-
strömungen über Weltmeeren waren übrigens die ersten Wetterphänomene, die
auf diese Weise simuliert wurden. Sie waren stets schon für die Schiffahrt
wichtig.106
Von Außenseitern wird immer wieder auf weitere Faktoren hingewiesen, die
wegen schwieriger Modellier- und Simulierbarkeit nicht in die Klimaprognosen
eingehen. So etwa der gesamte und stets ausgeweitete Funkverkehr, der erheb-
liche Energievolumina in die Wetterverhältnisse einbringt, und den z. B. Klaus-
106
Zur Entwicklung auch G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for
General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 316 – 324.
175

Peter Kolbatz schon seit 1994 für die Zunahme der regionalen Sturm- und
Regenkatastrophen verantwortlich macht.
Am meisten umstritten ist dabei der Eintrag zivilisationserzeugter sogenannten
Treibhaus-Gase, besonders des Kohlendioxyds. Sie waren zwar schon immer eine
natürliche Bedingung des Lebens auf der Erde. Jetzt werden sie jedoch wegen
vermuteter übermäßiger Freisetzung aus ihren natürlichen Speichern in Kohle,
Erdöl und Erdgas als ein Hauptfaktor der Klimaerwärmung angesehen.
Die Daten sind recht kontingent und weisen in allen geschichtlichen Epochen
eine erhebliche Streuung auf. Je mehr man mit derartigen Daten und den immer
dichter ausgebauten Meßstationen der Gegenwart nahe kommt, desto dichter wer-
den sie. Sicher ist vom Klima aber nur das eine: daß es immer und überall ein
Klima (als Integral der Wetterlagen) gegeben hat. Aber wie es früher war, ist
überwiegend unbekannt, und wie es jetzt ist, kann jedermann direkt beobachten.
Es ist schon eine erhebliche (hypothetische) Induktion, vom Wetter in verschie-
denen Erdregionen und in begrenzten Zeitperioden zum Klima überzugehen und
dabei das Klima als Wetterdurchschnitt bestimmter Zeitepochen oder geographi-
scher Zonen zu definieren.
Die Klimax der Simulation aber ist bei alledem die Tendenzformulierung gemäß
der Comteschen Devise des „Savoir pour prévoir“. Wie das Wetter (je nach
Wunsch und Nutzen) mal für besser, mal für schlechter gehalten wird, so auch die
Simulation. Die einen beklagen, die anderen wünschen eine bestimmte Klima-
tendenz. Und jede gewünschte Tendenz läßt sich auch simulieren.
Hier kommen jedoch die nationalen und erst recht die industriellen und kom-
merziellen Interessen ins Spiel. Wird es tendentiell kälter (in Richtung auf eine
neue Eiszeit), so erscheint das genau so gefährlich und lebensbedrohend wie eine
Tendenz zur Erwärmung. Beide Tendenzen lassen sich durch entsprechend aus-
gewählte fotographische Bestandsaufnahmen bestimmter Weltregionen illustrie-
ren. Die Kehrseite dieser Gefahren ist freilich der kaum öffentlich diskutierte
Nutzen und Vorteil solcher Tendenzen für die eine oder andere Weltgegend und
ihre Bewohner, seien es Menschen oder Tiere und Pflanzen.
Die überall privilegierte Ausrichtung der Klima-Simulation zwischen den ex-
tremen Tendenzen ist die Konstanthaltung des Klimas geworden, der Status quo,
wie er gegenwärtig empfunden wird. Die Simulation liefert ein mathematisches
Bild, in welchen die bekannten und die zahlreichen vermuteten unbekannten
Faktoren ein prekäres Gleichgewicht aller bekannten und unbekannten Faktoren
vortäuschen. Schon die Einteilung natürlicher und zivilisatorischer Faktoren, die
in diese Simulationen eingehen, bleibt willkürlich und interessengebunden. Daß
die Weltklimakonferenzen dazu auffordern können, das Klima so, wie es sich
heute darbietet, zu stabilisieren und dazu ungeheure Ressourcen aufzubieten, dürf-
te eine der merkwürdigsten Erscheinungen der bisherigen Weltgeschichte sein.
176

§ 13 Die Bestimmung des wissenschaftlichen Wissens.

Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches
und wahr-falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und
Erkenntnisse. Die Verkennung von Dokumentationen als Wissensbasen.

Wissenschaftliches Wissen wird gewöhnlich strikt vom Alltagswissen unterschie-


den und abgegrenzt. Doch geht es in der Regel von diesem aus und bleibt auch
immer darauf bezogen. Denn der größte Teil des Alltagswissens ist, jedenfalls im
Abendland, wissenschaftliches Wissen von ehedem. Wissenschaftliches Wissen
ist auch zu großen Teilen Bestätigung von Alltagswissen, wenn auch oftmals in
verfremdeter Terminologie und somit kaum wiedererkennbar. Zuweilen stellt es
sich aber gerade als dessen Widerlegung und Korrektur dar. Schließlich aber wird
das Wissen auch auf Erfahrungsbereiche ausgedehnt, das den Alltagserfahrungen
nicht zugänglich ist. Dieses wissenschaftlich erarbeitete Wissen wird oft mit
gehöriger zeitlicher Verzögerung allmählich in das Alltagswissen einspeist und
dieses dadurch bereichert.
Ganz verfehlt ist die Auffassung, wissenschaftliches Wissen sei - gerade im
Gegensatz zu Alltagswissen - durchweg wahres Wissen. Es teilt vielmehr mit
jenem die Eigenschaft, teils wahr und teils falsch zu sein. Während Alltagswissen
seiner Natur nach täglich auf dem Prüfstand hinsichtlich seiner Wahrheit und
Falschheit steht, hat wissenschaftliches Wissen vielerlei Formen und Gestalten
entwickelt, in denen es wahr und falsch zugleich ist. Die verbreitetste Gestalt
solcher „Wahr-Falschheit“ ist das, was in § 11 als „Wahrscheinlichkeitswissen“
behandelt wurde.
Wissenschaftliches Wissen besteht aus Kenntnissen und Erkenntnissen. Dies ist
eine Unterscheidung, die Aristoteles herausgearbeitet hat, und die seither festge-
halten worden ist.
Kenntnisse beziehen sich auf Fakten und Daten. Aristoteles bestimmte sie als
dasjenige Wissen, das durch Beschreibungen der „empirischen“ und „histori-
schen“ Erfahrungen gewonnen wird. Werden sie methodisch erhoben, so wird
dieses Faktenwissen in den „beschreibenden Wissenschaften“ („-Graphien“ und
„Historien“) konsolidiert. Diese Bezeichnung hat sich für einige Wissenschaften
bis ins 20. Jahrhundert erhalten, wie z. B. in „Historiographie“ und „Geographie“.
Faktenkenntnisse werden in der Regel mittels ihrer Eigennamen und/oder soge-
nannte Kennzeichnungen gewußt. Man „kennt“ die Namen bzw. Bezeichnungen
von Personen, Dingen, Ereignissen, Sachverhalten, Örtern und bedient sich ihrer,
um sich an sie zu erinnern und/oder sie sich vorzustellen. Oft braucht es einigen
Lernaufwand, um sie sich zu „merken“, wie bei den Eigennamen von Personen
und ihren „Daten“ oder bei bestimmten Ereignissen. Dieser Aufwand ist auch
beim Studium zu beachten, das grundsätzlich auf solchen Kenntnissen aufbaut.
177

Fachkenntnisse bestehen wesentlich aus Kenntnissen der Terminologie, der


Eigennamen von wichtigen Wissenschaftlern, insbesondere von Klassikern, den
Titeln ihrer Hauptwerke und ihren Publikationsdaten, von wichtigen historischen
Ereignissen und ihren „Daten“, von Formeln und inhaltlichen „Merksätzen“ (evtl.
Zitaten oder Argumenten). Jede Prüfung von Studienerfolgen fragt zuerst nach
solchen Daten. Erst im Anschluß an solche Kenntnisse kann man nach „Erkennt-
nissen aus und über“ diese Daten weiterfragen. Mancher Studierende bleibt bei
solchen Kenntnissen stehen. Als diplomierter Absolvent mag er sogar mit sol-
chem Faktenwissen glänzen, das er wie ein Papagei vortragen und ausbreiten
kann. Was man gelegentlich „falsche Kenntnisse“ nennt, bezeugt aber Unkennt-
nis. Sie sollte nicht mit falschen Erkenntnissen verwechselt werden.
Erkenntnisse beziehen sich auf Beziehungen und Verknüpfungen von Kennt-
nissen untereinander. Sie werden daher, im Unterschied zum „empirischen und
historischen Faktenwissen“, gewöhnlich auch „theoretisches Wissen“ genannt.
Aristoteles sah darin das eigentliche „szientifische“ (griech.: epistematische) Wis-
sen derjenigen Wissenschaften, die über die empirisch-historische Stufe hinaus-
gewachsen sind. Sie erklären die einzelnen Daten und Fakten aus Ursachen (vgl.
seine Lehre von den „vier Ursachen“). Im Unterschied zu den „graphischen Wis-
senschaften“ nannte er sie „-Logien“ oder auch „Techniken“.
Auch das ist – unter mancherlei Veränderungen der Ursachentheorien – im
allgemeinen erhalten geblieben. Noch jetzt benennt man einige Wissenschaften
mit der Endung „-logie“ (wie Ontologie, Theologie, Kosmologie, Biologie, Sozio-
logie, Psychologie), andere mit der Endung „-ik“ (wie Logik, Mathematik, Rhe-
torik, Ethik, Ökonomik, Politik, Pädagogik, usw.). Ursprünglich zeigte die En-
dung „-ik“ (von griech.: „-iké téchne“) an, daß ihr Gegenstand Handlungsbezüge
aufwies. Neuere Wissenschaftbezeichnungen benutzen diese Endungen jedoch
eher nach dem Wohlklang (wie z. B. Germanistik, Sinologie).
Einfachste Formen solcher Erkenntnisse sind schon die Definitionen wissen-
schaftlicher Begriffe, die die Termini mit anderen Termini in geregelte logische
Beziehungen setzen. Sie zeigen (wie in Prüfungen oft erfragt wird), daß die Daten
und Fakten nicht nur bekannt, sondern auch verstanden worden sind. In weiteren
Zusammenhängen werden diese Erkenntnisse zu „Argumenten“. Sie können in
mehr oder weniger schlichter und konziser Form niedergeschrieben, vorgetragen
und diskutiert werden, aber ebenso auch in hochformalisierter Gestalt. Fachliche
Kompetenz und ggf. Brillanz zeigt sich darin am meisten. Vor der sich ausbrei-
tenden Manie, Argumente nur als „Intuitionen“ vorzutragen, haben wir allerdings
schon eingangs gewarnt.
Die elaboriertesten Formen der Erkenntnisse sind die wissenschaftlichen Theo-
rien. Sie verknüpfen im Idealfall nur wohldefinierte Begriffe zu einem systema-
tischen Gesamt („hard core“ im „non-statement-view“). Gelingt dies, so ist ihr
pyramidaler Zusammenhang auch in Sätzen (logischen Urteilen), Argumenten und
Schlüssen formulier- und lesbar.
178

Es sei auch hier betont, daß neben den Argumenten auch und gerade Theorien,
und erst recht Teile von Theorien, wahr, falsch und auch wahr-falsch sein können.
Ebenso sei hier nochmals auf die merkwürdige Tatsache hingewiesen, daß in der
neueren Wissenschaftstheorie der Mathematik und Naturwissenschaften die Mei-
nung vertreten wird, daß insbesondere die Grundbegriffe bzw. „Prinzipien“ (axio-
matische Grundbegriffe) einschlägiger Theorien gerade „undefinierbar“ seien. Es
handelt sich dabei jedoch um die ersichtlich wahr-falsche These, daß solche
Grundbegriffe zugleich Begriffe und auch keine Begriffe seien.
Alles Wissen ist grundsätzlich Wissen lebendiger Menschen. Es besteht daher
wesentlich im Vollzug sogenannter geistiger Handlungen. Da diese privater Natur
und von anderen Menschen nicht unmittelbar erfaßbar sind, kann man ein Wissen
nur auf Grund seiner Verlautbarungen in sprachlichen und anderen symbolischen
Zeichen erschließen. Man nennt dies gewöhnlich „Objektivierung“ des Wissens.
Sprachliche Äußerungen auf Tonträgern, Texte, Bilder und Schemata gelten all-
gemein als solche Objektivierungen und sind die Grundlage für alle öffentlichen
Institutionen des Wissens.
Die Tatsache solcher Objektivierungen des Wissens führt allerdings zu der ver-
breiteten irrigen Auffassung, Wissen selbst bestünde in diesen Objektivierungen.
Daher spricht man heute allgemein von Texten, Dateien u. ä. als „Wissensbasen“.
Von da ist es nur ein kleiner Schritt, Dokumentationen, Bibliographien, Bücher,
Bibliotheken, Archive insgesamt als „objektives Wissen“ anzusehen und ihre Ord-
nungsapparaturen als „Expertensysteme“ zu bezeichnen. Besonders die Computer
mit ihrer ungeheuren Leistungsfähigkeit für die Speicherung und Zur-Verfügung-
stellung solcher Objektivationen haben diese Meinung verbreitet, so daß man
wegen der Verbreitung der Computer auch die sie benutzende Gesellschaft gerne
„Wissensgesellschaft“ nennt.
Hinter allen solchen Bezeichnungen verbergen sich aber nur Halbwahrheiten. Es
ist wahr, daß solche Apparate Wissen dokumentieren und den Zugang zu ihm
erleichtern und ordnen können. Aber es ist eine falsche Meinung, daß die Doku-
mentation von Wissen schon selber Wissen sei. Wie oben schon betont, kommt
Wissen nur (privat und individuell) zustande, wenn die Dokumentation zur Kennt-
nis genommen, gelesen, verstanden und „bedacht“ wird, und zwar eben durch
einen lebendigen Menschen in seinen (privaten) geistigen Kenntnis- und Erkennt-
nisakten.
Frühere Zeiten haben die platonische Einsicht kultiviert, daß Reden, Texte, Do-
kumentationen stumm und tot bleiben, wenn sie nicht in einem lebendigen Be-
wußtsein verarbeitet werden. Man war sich darüber im klaren, daß die (mate-
riellen) Formen sprachlicher Verlautbarungen von Texten, Bildern, Schematen ein
Mittel waren, geistige Akte zu evozieren und diesen selbst eine bestimmte Form
zu geben. Daher nannte man sie „Informationen“ (wörtlich: In-Form-Bringen).
Heute spricht man zwar noch in diesem alten Sinne davon, man „informiere sich“,
wenn man sich aus Dokumenten ein bestimmtes Wissen verschafft. Aber die
Information wird mehr und mehr mit dem Dokument als solchem, dem In-Form
179

Gebrachten, identifiert. Das erzeugt den Anschein, als ob das Dokument selber
schon ein Stück Wissen wäre. Man glaubt, Wissen ließe sich im Computer spei-
chern.
Abgespeicherte Information ist dann aber nicht mehr die gelesene, aufgenom-
mene, verstandene oder auch unverstandene, und gewußte Botschaft, sondern die
materielle Zeichenhülle selbst. Kein Wunder, daß Menschen, die sich auf solches
„dokumentiertes Wissen“ verlassen und die Information in Bits und Bytes quan-
tifizieren und sich dabei vom eigenen Erfassen und Denken entlasten, dabei in
Gefahr geraten, immer dümmer zu werden. Da dies jedoch eine sehr weit ver-
breitete Tendenz in den modernen Gesellschaften ist, muß es falsch und irre-
führend sein, die gegenwärtige Gesellschaftform eine „Wissensgesellschaft“ zu
nennen.

§ 14 Die Bestimmung von Wissenschaft


Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und
informationstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung.
Wissensbasen und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und
Zusammenhang von Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die
Aufgaben der Forschung

Nach dem bisher Gesagten müssen wir darauf bestehen, daß Wissenschaft wesent-
lich auf wissenschaftlichem Wissen beruht. Vieles andere kommt noch hinzu, aber
es ist nicht mit diesem Wesentlichen zu verwechseln, noch, wie es in der Wissen-
schaftstheorie häufig geschieht, an seine Stelle zu setzen.
Wissenschaft wesentlich auf das Wissen zu gründen, heißt keineswegs, es auf
ein anthropologisches oder psychologisches Wissen über das Wissen zu gründen
und damit einem reduktionistischen Anthropologismus oder Psychologismus zu
huldigen. Denn solches philosophisches Bereichswissen oder einzelwissenschaft-
liches Wissen, wie es auch das psychologische Wissen selbst ist, könnte allenfalls
ein Beispiel, ein Fall von wissenschaftlichem Wissen sein, das selber schon ge-
wußt werden muß.
Betonen wir beiläufig: Menschen haben auch vor der Entstehung oder Erfindung
von Wissenschaft mancherlei gewußt, und erst recht weiß jeder Mensch vieles,
ohne Anthropologe oder Psychologe zu sein und über spezielles Wissen aus
diesen Disziplinen zu verfügen. Wenn also die Wissenschaft darauf warten müßte,
bis eine besondere Wissenschaft geklärt hätte und „weiß“, was Wissen selber ist,
so gäbe es sicherlich noch keine Wissenschaften. Ebenso beiläufig sei gesagt:
Wenn Sokrates behauptete, daß er „wisse, daß er Nichts (genauer: nicht) wisse“
und Descartes, daß er „wisse, daß er wisse“, so verdanken diese Sprüche ihre
180

Notorietät offensichtlich gerade der Tatsache, daß sie auf ein Wissen hinweisen,
das sich in keiner Weise „objektivieren“ läßt.
Ein ebenso falscher Reduktionismus liegt der Denkfigur und der darauf beru-
henden Bestimmung des wissenschaftlichen Wissens als „Wissen von...“ zugrun-
de. Man setzt dabei voraus, dasjenige, von dem oder über das etwas gewußt wer-
de, sei die sogenannte objektive Wirklichkeit, also schlechthin der Gegenstand des
Wissens und der Wissenschaft. Diese wissenschaftlichen Objekte müßten unab-
hängig von allem Wissen erst einmal „gegeben“ und somit dem Wissen von ihnen
vorgegeben sein.
Diese Denkfigur ist in unseren Zeiten ein Grundgedanke des herrschenden
Realismus in den meisten Wissenschaften geworden. Es wird dabei aber nicht
bedacht, daß man das „Wovon“ und „Worüber“ des Wissens immer schon erkannt
haben und davon wissen muß, um überhaupt darüber reden zu können. Deshalb
verweist auch diese „realistische“ Denkfigur nur wiederum auf ein vorgängiges
Wissen, das dann weiteres „nachgängiges“ Wissen erzeugt, hinter das aber nicht
zurückgegangen werden kann.
Da nun Wissenschaft wesentlich auf Wissen beruht und dieses grundsätzlich ein
(privater) und bewußter Besitz lebendiger Menschen ist, sollte man sie am ehesten
bei den Wissenschaftlern selbst vermuten. In der Tat hat man diejenigen, bei
denen man Grund zu dieser Vermutung hatte, seit jeher als „Weise“ geehrt und
ausgezeichnet. Dieser Sitte verdanken sich noch immer alle Wissenschaftspreise
und Ehrungen.
Das alte Wissen darum, daß die Wissenschaft wesentlich vom Wissen der Wis-
senschaftler getragen wird, ist zwar heute sichtlich im Schwinden begriffen zu-
gunsten der Meinung und Erwartung, „objektiviertes“ Wissen stelle sich in den
wissenschaftlichen Institutionen mehr und mehr von selbst und gleichsam auto-
matisch in der oben genannten informationstechnischen Weise her. Aber man
wird auf das „lebendige“ Wissen zurückkommen müssen, wenn man Wissen-
schaft wirklich haben und erhalten will.
Wissen erwirbt man bekanntlich durch Lernen aus der Lebenserfahrung oder
durch Unterricht. Das gilt natürlich auch für wissenschaftliches Wissen. Ein guter
Wissenschaftler hat wie andere Menschen auch schulichen Unterricht genossen
und Lebenserfahrungen angesammelt. Wie gut die Schule und sein wissenschaft-
liches Studium war und wie tief und vielfältig seine Lebenserfahrungen sind, das
bestimmt auch nachhaltig die Qualität seines Wissens. Im übrigen lernt er im
besten Falle ständig hinzu und unterrichtet sich selbst weiter. „Life long learning“
war immer ein Spezifikum der Wissenschaftlerexistenz. Es nun jedermann zuzu-
muten kann nur bedeuten, alle Menschen zu Wissenschaftlern bilden zu wollen.
Dabei wäre es viel wichtiger, darauf zu achten und Sorge dafür zu tragen, daß und
wie schon einmal erlangte Wissensstandards in allen Bereichen des Lebens und
der Wissenschaft erhalten, vermittelt und womöglich verallgemeinert werden
könnten.
181

Obwohl wissenschaftliches Wissen an allgemeines Schul- und Alltagswissen


anknüpft, unterscheidet es sich doch auch von diesem in mancher Hinsicht. Die
Wissenschaften haben, so lange es sie gibt, Vermittlung und Erweiterung des wis-
senschaftlichen Wissens durch besondere Institutionen zu sichern versucht, näm-
lich durch Lehre und Forschung.
Hier ist zunächst zu betonen, daß Lehre und Forschung Hilfsmittel zur Ge-
winnung, Vermittlung und Erweiterung des wissenschaftlichen Wissens sind, kei-
neswegs aber das Wesentliche der Wissenschaft selber darstellen.
Sie sind nächst dem wissenschaftlichen Wissen zwar das Auffälligste und daher
am meisten Sichtbare an der Wissenschaft, gehören aber doch nur zum äußer-
lichen Apparat des wissenschaftlichen Betriebes. Und nur deshalb kann damit
herumexperimentiert werden, können Lehre und Forschung ständig verbessert
oder verschlechtert, revolutioniert, reformiert oder restituiert werden; kann Lehre
schulischem Unterricht angenähert oder auch davon abgehoben werden; können
sowohl Lehre als auch Forschung als handwerkliche Praxis, als Technik oder auch
als Kunst betrieben werden. Wichtig ist nur, ob sie ihrem Zweck genügen, näm-
lich wissenschaftliches Wissen aufrecht zu erhalten, zu perennieren, zu gewähr-
leisten, ständig zu kontrollieren und zu überprüfen und es gegebenenfalls zu er-
weitern.
Wissenschaftliche Lehre unterscheidet sich vom schulischen Unterricht nicht
nur durch die verschiedenen Lebensalter, in denen Schüler der gesetzlichen Schul-
pflicht unterliegen und Studierende sich mehr oder weniger zwanglos einem
Studium widmen.
Die wissenschaftliche Lehre tradiert ein wissenschaftliches Wissen, von dem
wir oben schon sagten, daß es wahres, aber auch falsches, und auf weite Strecken
wahr-falsches Wissen enthält. Was an diesem Wissen wahr, falsch oder beides
zugleich ist, festzustellen, ist gerade dasjenige, was die Lehre mit der Forschung
verknüpft, wie es Wilhelm von Humboldt mit seinem Diktum von der „Einheit
von Forschung und Lehre“ an Universitäten sehr richtig ausgesprochen, wenn
auch nicht erfunden hat. Kurz, die berühmte Wahrheitsfrage ist das ständige Prob-
lem der Wissenschaft, und ihre Lösung das Ideal, dem sie nacheifert.
Schulischer Unterricht hält sich im Unterschied zur wissenschaftlichen Lehre an
sogenannte ausgemachte Wahrheiten und im praktischen Bereich an effiziente und
erprobte Kulturtechniken, die dadurch vermittelt werden. Und diese werden daher
in den meisten Staaten von Bürokraten unter mehr oder weniger Beratung durch
Wissenschaftler in den Schulkurrikula festgeschrieben und kanonisiert.
Das ist im optimalen Fall derjenige Teil wissenschaftlichen Wissens, auf den
sich die Mehrheit der Fachwissenschaftler als wahr und sicher geeinigt hat. Inso-
fern handelt es sich oft um älteres und insofern etwas abgestandenes Wissen. In
anderen Fällen kann es sich aber auch um Wissen von wissenschaftlichen Min-
derheiten handeln, die ihre für wahr gehaltene Meinung über die Schulkurrikula
im Bewußtsein nachwachsender Generationen verankern möchten, ohne daß sie
dem Test längerer wissenschaftlicher Auseinandersetzung ausgesetzt gewesen
182

wäre. Dieses „avantgardistische“ Wissen kann sich zwar als wahr bewähren, es
kann sich aber auch als (falsche) „Ideologie“ erweisen.
Gegenwärtig kann man eine so eingeimpfte Gewißheitserwartung in weiten
Kreisen der Studierenden feststellen. Sie sind geschockt, enttäuscht und oft em-
pört, wenn sie an den Hochschulen einer forschungsnahen Lehre konfrontiert wer-
den, in der das meiste vorgetragene Wissen mehr oder weniger unsicher, disku-
tabel, problematisch erscheint. Gerade auf diese Unsicherheit des wissenschaft-
lichen Wissens hätte sich ein guter Schulunterricht immer auch propädeutisch im
Hinblick auf das wissenschaftliche Studium auszurichten und insofern mit aller
Vorsicht auf manche Ungesichertheit und Vorläufigkeit des wissenschaftlichen
Wissens vorzubereiten.
Begegnet man nun häufig bei den Studierenden und auch in weiten Kreisen der
Öffentlichkeit der Meinung, Wissenschaft sei als solche schon der Hort der
Wahrheit und eine „richtige“ Lehre vermittle daher lauter(e) Wahrheiten, so ist es
anderseits bei den Wissenschaftlern selbst geradezu eine Mode geworden, mit K.
R. Popper davon auszugehen daß alles in der Wissenschaft grundsätzlich unsicher
sei, daß alles Wissen der Wissenschaft nur vermutendes bzw. hypothetisches
„Wahrscheinlichkeitswissen“ sei, und daß sich Wissenschaft in und durch For-
schung nur allmählich und „asymptotisch“ der Wahrheit annähere, ohne sie je
erreichen zu können.
Dem Philosophen mag es zwar schmeicheln, darin eine alte Bescheidenheit wie-
derzuerkennen, die auf den Titel „Weiser“ (besser: Wissender) zugunsten der
„Liebe zur Weisheit“ (besser: zum Wissen) verzichtete - und damit auch auf das
Wahrheitsmonopol. Aber die Meinung, daß alles wissenschaftliche Wissen nur
wahrscheinlich sei, ist eine falsche Bescheidenheit und erst recht eine ganz falsche
Ansicht vom Wesen des wissenschaftlichen Wissens.
Das zeigt sich schon daran, daß man, um von einer „Annäherung an die Wahr-
heit“ (K. E. Popper) auch nur zu reden, schon wissen muß, was die Wahrheit ist.
Und wenn man das weiß, wie Popper natürlich voraussetzt, so hat man schon
wenigstens ein Stück wahren Wissens, von dem aus sich andere Stücke falschen
Wissens als falsch und als abständig von der Wahrheit einschätzen lassen.
Die wissenschaftliche Forschung stellten wir als Hilfsmittel zur Erweiterung
und Bereicherung des wissenschaftlichen Wissens heraus. Das Wort „Forschung“
(investigatio, auscultatio, scrutatio, skepsis, zetesis)107 verweist auf die Bedeutung
des Ausspähens, Herumblickens, Weitersehens, Suchens. So denkt man in erster
Linie daran, daß das wissenschaftliche Wissen durch Forschung neue Bereiche an
Kenntnissen und ihre erkennende Durchdringung erschließt.
Das ist in der Tat so. Die Erschließung ganz neuer Wissens- und Wissenschafts-
bereiche besonders in den Naturwissenschaften mit Hilfe neuer technischer
Experimentier- und Beobachtungsinstrumente hat diesen Forschungsbegriff ver-
festigt. Aber zur Forschung gehört neben der Erweiterung auch die Konsoli-
107
Vgl. L. Geldsetzer, Der Begriff der Forschung im 19. Jahrhundert. In: Jahrbuch der Universität Düsseldorf 1975/76,
Düsseldorf 1977, S. 135 – 146.
183

dierung und ständige Revision des wissenschaftlichen Wissens, also das, was wir
oben schon Prüfung der Wahrheit und Falschheit dieses Wissens genannt haben.
Man darf hier schon sagen: diese Art von Forschung steht heute weit hinter der
anderen, ständig auf Neues ausgerichteten - auch in der öffentlichen Wertschät-
zung - zurück. Der Zustand des kritischen Rezensionswesens in allen Wissen-
schaften zeigt es an. Es ist überall in vollem Verfall befindlich, und zwar zugun-
sten übersprudelnder „Informationen“ über neues Wissen, das nur noch darauf hin
geprüft wird, ob es nach „wissenschaftlichen Methoden“ erarbeitet, nicht aber ob
es wahres oder falsches Wissen ist.
Hinzu kommt ein in der Neuzeit sich immer mehr verbreitendes Fortschritts-
bewußtsein, das dazu neigt, alles schon vorhandene Wissen für überholt und daher
für „falsch geworden“ anzusehen. In gleichem Maße hält man es dann auch der
Mühe nicht mehr für wert, sich dieses Wissens überhaupt zu versichern, es zu
kennen und das vorgeblich Neue mit ihm zu vergleichen. Gerade dies aber ist die
einzig denkbare Probe für tatsächlich Neues. Man kann es auch so sagen: In
vielen Bereichen der Wissenschaft wird Amerika ständig neu entdeckt und das
Rad immer neu erfunden. Es wird nur anders benannt, und das erzeugt dann den
Anschein der Erschließung immer neuer „möglicher Welten“.
Forschung zur Erreichung und Verbesserung des Wissens gab und gibt es
natürlich auch außerhalb der Wissenschaft. Daher gilt von ihr ebenso wie von der
Lehre, daß sie vielfältige Gestalten annehmen kann. Sie kann sich auf handwerk-
liche Tricks und sogenanntes „know how“ stützen, sie kann als hohe Kunst
betrieben werden, und nicht zuletzt ist sie in neueren Zeiten immer mehr mit der
Technik verschmolzen worden. Das hat K. R. Poppers Schüler Paul Feyerabend
wohl mitgemeint und gesehen, als er für die Forschung die Parole ausgab:
„Anything goes“ (Alles geht) 108. Er hat mit dieser Parole aber viel zu weit ge-
griffen, indem er der Durchmischung aller Methoden und Tricks in der Wissen-
schaft ziemlich Vorschub geleistet hat. Wir haben aber schon genügend Gründe
aufgezählt, die es nahelegen sollten, zwischen wissenschaftlichen und außerwis-
senschaftlichen Forschungsmethoden zu unterscheiden.
Gerichtsprozessuale und „kriminalistische“ Verfahren zur Gewinnung (oder Her-
stellung) von wahrem Wissen und Entlarvung von Lüge, Täuschung und Betrug
sind wohl so alt wie die Kultur überhaupt. Sie haben in vielfältiger Weise Muster
und Modelle auch für die wissenschaftlichen Forschungsmethoden vorgegeben.
Gleichwohl ist die Forschung für die Wissenschaften derjenige Bereich geworden,
auf dem am meisten sichtbare und lehr- und lernbare Methoden entwickelt wur-
den, die daher im Mittelpunkt der Aufmerksamkeit der Wissenschaftstheoretiker
stehen. Angesichts der diesen Methoden gewidmeten Literatur könnte man den
Eindruck gewinnen, Wissenschaftstheorie sei fast nur Methodenlehre der For-
schung. Das ist bei der Wichtigkeit der Sache kein Wunder. Aber es besteht doch

108
P. K. Feyerabend, Against Method. Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the
Philosophy of Science IV, 1970, S. 117 – 130, 2. erw. Ausgabe: Against Method, London 1975; dt. erw. Übers.: Wider den
Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M. 1976.
184

Grund sich daran zu erinnern, daß auch Forschungsmethoden nur ein Mittel zum
Zweck der Wissensgewinnung und Wissenskonsolidierung sind, auf welche in der
Wissenschaft schlechthin alles ankommt.

II. Zur Geschichte der Disziplin Wissenschaftsphilosophie

§ 15 Aufkommen der Bezeichnung Wissenschaftphilosophie und die Tendenzen


zur Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschafts-
theorie

Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien,
der Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Archi-
tektoniken und Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der
Wissenschaften. Die Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften.
Die Philosophie als Verunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die
Vorbilder der klassischen Methodologien.

Die Disziplin wird - wie viele andere auch - durch eine gräzisierende Namen-
gebung in der deutschen Schulphilosophie des frühen 17. Jahrhunderts etabliert.
Dies geschieht in der kleinen Schrift von Clemens Timpler: „Wissenschaftswis-
senschaft oder allgemeine Abhandlung über das Wesen und die Unterschiede der
freien Künste bzw. der wissenschaftlichen Disziplinen“ von 1604 109, das auch als
Einleitung in sein „Systema metaphysicum“ öfter aufgelegt wurde.
Hier steht das griechische Wort „téchne” für das lateinische „artes” bzw. artes
liberales, d. h. die freien Künste oder wissenschaftlichen Disziplinen der „Arti-
stenfakultät”, d. h. der Philosophischen Fakultät. Die „Logie” der „technai” ver-
steht sich also als eine neue Wissenschaft von den Wissenschaften der Philoso-
phischen Fakultät, d. h. der „trivialen” (oder „sermocinalen“, auf Reden bezoge-
nen) „Geisteswissenschaften” (Logik, Rhetorik, Grammatik) und der „quadri-
vialen“ (oder „realen”, auf Sachverhalte bezogenen) „mathematischen“ Naturwis-
senschaften (Arithmetik, Geometrie, Astronomie bzw. Naturwissenschaft,, musi-
kalische Harmonielehre). Sie ist als Wissenschaft vom Wesen und den Unter-
schieden der Einzelwissenschaften konzipiert. Damit hat Timpler der Wissen-
schaftsphilosophie ihre früheste Programmschrift geliefert.
Freilich ist eine solche Programmschrift nur sichtbarer Ausdruck von Tenden-
zen, die zur Konstitution der Disziplin zusammenliefen. Und diese erstrecken sich
über längere Zeiträume, z. T. kommen sie erst in der Gegenwart zum Tragen.
Dafür seien vor allem die Bestandsaufnahmen des Wissens und der Wissen-
schaften hervorgehoben, die eine leichte Übersicht erlaubten und zur Reflexion

109
Clemens Timpler, Technologia, seu tractatus generalis de natura et differentiis artium liberalium, Hanau 1604.
185

über diese Materie herausforderten. Sie bringen sich zur Geltung in mehreren
Literaturgattungen.

Universalenzyklopädien der Wissenschaften.110 Unter diesen sind die bedeutend-


sten die folgenden:

Vincent von Beauvais, Speculum quadruplex (verf. um 1260), 4 Bände Douai 1624, ND Graz
1965
Gregorius Reisch, Margarita Philosophica, Freiburg 1503, 4. Aufl. 1517, ND in Instrumenta
philosophica Series Thesauri I, hgg. von L. Geldsetzer, Düsseldorf 1973
Joh. Heinr. Alsted, Scientiarum omnium Encyclopaedia septem tomis distincta, Herborn 1630, 2.
Aufl. Leyden 1649
J. Th. Jablonski, Allgemeines Lexikon der Künste und Wissenschaften, 2 Bde Königsberg-Leipzig
1721, 3. verm. Aufl. hgg. v. J. J. Schwaben, Königsberg u. Leipzig 1767
J. Harris, Lexikon technicum, or an Universal English Dictionary of Arts and Sciences, London
1704, 1708, 1710, 1736, Supplement 1744, ND New York 1967
Ephr. Chambers, Cyclopedia, or a Universal Dictionary of Arts and Scienes, 2 Bde London 1728,
6. Aufl. hgg. von A. Rees, 5 Bde London 1788 – 1791
J. H. Zedler (Hg. u. Verleger), Großes vollständiges Universal-Lexikon aller Wissenschaften und
Künste, 64 Bde und 4 Suppl.-Bde (A bis Cag), Halle u. Leipzig 1732 – 1754, ND Graz 1961- 1964
D. Diderot und J. LeRond d„Alembert (Hg.), Encyclopédie ou Dictionnaire raisonné des Sciences,
des Arts et des Métiers, 35 Bde Paris bzw. Neuchâtel-Amsterdam 1751 - 1780 (mehrere
Ausgaben), ND Stuttgart-Bad Cannstatt 1969 ff.- Umarbeitung und Erweiterung durch Ch. J.
Pankouke und H. Agasse zur Encyclopédie méthodique ou par ordre des matières, 166
Bände, Paris-Liège 1781 – 1832, Ausgabe in 184 Bänden, Padua 1791
J. G. Krünitz (Hg. u. Verleger), Ökonomisch-technologische Enzyklopädie der Wissenschaften
und Künste, 242 Bände Berlin 1773 - 1858
Deutsche Enzyklopädie oder allgemeines Real-Wörterbuch aller Künste und Wissenschaften, von
einer Gesellschaft von Gelehrten (sog. “Frankfurter Enzyklopädie”), 23 Bde Frankfurt 1778 –
1807
J. G. Gruber und J. S. Ersch (Hg.), Allgemeine Encyclopädie der Wissenschaften und Künste, 167
Bde (in 3 unvollständigen Serien), Leipzig 1818 – 1889, ND Graz 1969 ff.
A. Rees (Hg.), The Cyclopaedia or universal Dictionary of Arts, Sciences, and Literature, 45
Bände London 1819 ff.
M. N. Bouillet (Hg.), Dictionnaire universel des Sciences, des Lettres et des Arts, Paris 1854, 12.
Aufl. Paris 1877
La Grande Encyclopédie. Inventaire raisonné des sciences, des lettres et des arts, 31 Bände Paris
1885 – 1902.

2. Die Literar- und Wissenschaftsgeschichte im Sinne einer Faktenkunde des


Bereichs, wie z. B.

110
Vgl. G. Tonelli, A Short-Title List of Subject Dictionaries of the Sixteenth, Seventeenth and Eighteenth Centuries as
Aids to the History of Ideas (Warburg Institute Surveys IV), London 1971.- Vgl. zu den folgenden Materialien und weite-
ren Literaturgattungen L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissen-
schaftliche Institutionen, Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München 1971.
186

Dan. Georg Morhof, Polyhistor literarius, philosophicus et practicus, 1688, 4. Aufl. Lübeck 1747,
ND Aalen 1970 in 2 Bänden
Gottl. Stolle, Anleitung zur Historie der Gelahrtheit denen zum besten, so den freien Künsten und
der Philosophie obliegen, 1718, 4. Aufl. Jena 1736
V. Ph. Gumposch, Die philosophische Literatur der Deutschen von 1400 bis auf unsere Tage,
Regensburg 1851, ND in Instrumenta Philosophica Series Indices Librorum II, hgg. v. L.
Geldsetzer, Düsseldorf 1967
J. Andr. Fabricius, Abriß einer allgemeinen Historie der Gelehrsamkeit, 3 Bände, Leipzig 1752 –
1754
L. Wachler, Handbuch der allgemeinen Geschichte der literarischen Cultur, 2 Bände Marburg
1804, 2. Aufl.: Handbuch der Geschichte der Litteratur, 3 Teile in 2 Bänden Leipzig 1822 – 1824
W. T. Krug, Handbuch der Philosophie und der philosophischen Literatur, 2 Bände, Leipzig 1820
– 1821, 2. Aufl. 1822, 3. verm. Aufl. 1828, ND in Instrumenta Philosophica Series Thesauri III,
hgg. v. L. Geldsetzer, Düsseldorf 1969; schwedische Übers. von A. A. Bäckström, Stockholm
1831
W. T. Krug, Allgemeines Handwörterbuch der philosophischen Wissenschaften nebst ihrer
Literatur und Geschichte nach dem heutigen Standpunkt der Wissenschaften, 4 Bände nebst
Supplementband, Leipzig 1827 - 1829, 2. Aufl. in 6 Bänden 1832 – 1838
F. X. v. Wegele (Hg.), Geschichte der Wissenschaften in Deutschland, 22 Bde, München 1864 –
1913. Darunter Bd.VII Geschichte der Ästhetik von H. Lotze, 1886; XIII Geschichte der
Philosophie seit Leibniz von Ed. Zeller, 1873; XVIII (in 6 Teilbdn) Geschichte der deutschen
Rechtswissenschaft von R. Stintzing und E. Landsberg, 1880 – 1910; XIX (1-2) Geschichte der
klass. Philologie von C. Bursian, 1883; XX Geschichte der deutschen Historiographie von F. X.
von Wegele, 1885
F. Wagner und R. Brodführ (Hg.), Orbis Academicus, Problemgeschichte der Wissenschaften in
Dokumenten und Darstellungen, 3. Abteilungen in 59 Bänden, Freiburg i. Br. 1950 - 1987.
Darunter J. M. Bochenski, Formale Logik, 1956, 6. Aufl. 2002
L. Geymonat (Hg.), Storia del pensiero filosofico e scientifico, 9 Bände Mailand 1970, 2. Aufl.
1975

3. Bibliographie und Wissenschaftskunde:

C. Gesner, Bibliotheca universalis, sive catalogus omnium scriptorum, Tomus 1 - 3 nebst


Appendix, Zürich 1545 – 1555. ND Tom. 1 und Appendix mit der “Epitome” des Gesamtwerks
von J. Simler von 1555, Osnabrück 1966
M. Lipenius, Bibliotheca realis universalis omnium materiarum, rerum et titulorum in theologia,
iurisprudentia, medicina et philosophia occurrentium, Frankfurt 1679 - 1685, ND Hildesheim 1965
Burkh. Gotthelf Struwe, Bibliotheca Philosophica, Jena 1704, 5. stark erw. Aufl. hgg. v. L. M.
Kahle, Bibliothecae Philosophicae Struvvianae emendatae continuatae atque ultra dimidiam par-
tem auctae, 2 Bände Göttingen 1740, ND in Instrumenta Philosophica Series Indices Librorum,
hgg. v. L. Geldsetzer, Düsseldorf 1970
J. G. Sulzer, Kurzer Inbegriff der Wissenschaften und anderer Teile der Gelehrsamkeit, Leipzig
1745, 6. Aufl. 1786
J. M. Gessner, Primae lineae isagoges in eruditionem universam, Göttingen 1757 - 1760, 3. Aufl.
1786
J. S. Ersch, Handbuch der deutschen Literatur seit der Mitte des 18. Jhs. bis auf die neueste Zeit, 6
Bde Leipzig 1822 – 1840, ND Hildesheim 1969
J. S. Ersch und Christian A. Geissler, Bibliographisches Handbuch der philosophischen Literatur
der Deutschen von der Mitte des achtzehnten Jahrhunderts bis auf die neueste Zeit, 3. Aufl.
Leipzig 1850, ND in Instrumenta Philosophica Series Indices Librorum, hgg. mit Vorwort und
Registerbearbeitung von L. Geldsetzer, Düsseldorf 1965
187

J. Joach. Eschenburg, Lehrbuch der Wissenschaftskunde, Berlin 1792 - 1800, 2. Aufl. 1800, 3.
Aufl. 1809
K. Chr. Erh. Schmid, Allgemeine Enzyklopädie und Methodologie der Wissenschaften, Jena 1810
A. M. Moschetti und A. Padovani u. a. (Hg.), Grande Antologia Filosofica, 8 Abteilungen,
Mailand 1954 ff.
W. Schuder (Hg.), Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955

4. Die Architektoniken und Klassifikationen der Wissenschaften, welche den Blick


auf ihre Zusammenhangsprinzipien, ihre Voraussetzungsstruktur und ihre Unter-
schiede lenkt, die auch schon Timpler behandelte. In dieser Hinsicht sind be-
achtlich:

F. Bacon, Novum organum scientiarum (= Instauratio magna I), London 1620, dt. Übers. v. S.
Maimon, Neues Organon, Berlin 1793, dt. Übers. von A. T. Brück, Neues Organ der Wissen-
schaften, Leipzig 1830, ND Darmstadt 1974
J. LeRond d„Alembert, Vom Ursprung, Fortgang und Verbindung der Künste und Wissenschaften
(Discours préliminaire zur Encyclopédie, übers. v. J. Wegelin), Zürich 1761, franz. Ausg. Paris
1965
von Berg, Versuch über den Zusammenhang aller Teile der Gelehrsamkeit, Frankfurt a. M. 1794
W. T. Krug, Über den Zusammenhang der Wissenschaften unter sich und mit den höchsten
Zwecken der Vernunft, nebst einem Anhang über den Begriff der Enzyklopädie, Jena-Leipzig
1795
Töpfer, Encyklopädische Generalcharte aller Wissenschaften (gestochen von W. v. Schlieben),
nebst Kommentar, Leipzig 1806 – 1808
G. B. Jäsche, Grundlinien zu einer Architektonik der Wissenschaften nebst einer Skiagraphie und
allgemeinen Tafel des gesamten Systems menschlicher Wissenschaften nach architektonischem
Plane, Riga 1817
J. M. Ampère, Essai sur la philosophie des sciences, 2 Bände, Paris 1834 - 1843 (hier wird aus
seinem Klassifikationsversuch der Wissenschaften eine „Mathésiologie“)
J. Bentham, Essai sur la nomenclature et la classification des principales branches d‟ art et science,
1823 (in : J. Bentham, Engl. Works, Band 8, 1843)
H. Spencer, The classification of Sciences, 2. Aufl. New York 1870
W. Schuder, Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955
B. M. Kedrow, Klassifizierung der Wissenschaften, aus dem Russischen übersetzt von L. Keith
und L. Pudenkow, 2 Bände Köln 1975 – 1976

5. Die Reflexion auf Nutzen und Relevanz der Wissenschaften für Gesellschaft und
Staat. Diese ist immer zugleich eine Reflexion auf ihr Wesen. Sie ist freilich selte-
ner positiv als negativ (Zensur) betrieben worden. Hier sind zu nennen:

G. W. Leibniz, Grundriß eines Bedenkens von Aufrichtung einer Sozietät in Teutschland zu


Aufnehmen der Künste und Wissenschaften, 1671
Fontenelle, Préface sur l‟ utilité des Mathématiques et de la Physique et sur les travaux de l‟
Académie des Sciences, in: Œuvres, Band V, Paris 1758
Friedrich II., De l‟ utilité des sciences et des arts dans un état, in: Werke, Berlin 1878 ff.
I. Kant, Der Streit der Fakultäten, Königsberg 1798
Auguste Comte, Prospectus des travaux scientifiques nécessaires pour réorganiser la société, Paris
1822, dt. : Plan der wissenschaftlichen Arbeiten, die für eine Reform der Gesellschaft notwendig
sind, München 1973
188

6. Die Philosophie als Grundwissenschaft im Sinne der Fundamental- oder Be-


gründungswissenschaft für alle anderen Wissenschaften oder gar als “System der
Wissenschaften”:

Philosophie bzw. eine ihrer Disziplinen so aufzufassen, ist eine aus der Transzendentalphilosophie
des deutschen Idealismus erwachsende Tendenz, die auch in vielen Konzeptionen moderner
Wissenschaftstheorie eingeht. Unter anderem ist das auch eine Reaktion auf die Verselbständigung
der Disziplinen der „philosophischen” Fakultät zu Einzelwissenschaften in der Neuzeit, denen die
Philosophie dadurch ein gemeinsames Band und Zusammenhalt verschafft.

G. F. W. Hegel, System der Wissenschaft, Band 1: Die Phänomenlogie des Geistes, Bamberg 1807
J. A. Brüning, Anfangsgründe der Grundwissenschaft oder Philosophie, Münster 1809
F. L. Fülleborn, Materialien zu einer Grundwissenschaft (proté philosophia), Berlin 1845
W. T. Krug, Fundamentalphilosophie oder System des transzendentalen Synthetismus, Züllichau-
Freistadt 1803, 3. Aufl. 1827
G. W. Gerlach, Grundriß der Fundamentalphilosophie zum Gebrauch bei Vorlesungen, Halle 1816
J. Thürmer, Fundamentalphilosophie, Wien 1827
Fr. X. Biunde, Fundamentalphilosophie, Trier 1838
J. J. Tafel, Die Fundamentalphilosophie in genetischer Entwicklung, Tübingen 1848
In neueren Zeiten haben Joh. Rehmke, Philosophie als Grundwissenschaft, Leipzig - Frankfurt
1910, und sein Schüler Johs E. Heyde, Grundwissenschaftliche Philosophie, Leipzig - Berlin 1924,
diese Tendenz gepflegt. Nicht zuletzt kam sie auch in M. Heideggers Konzeption einer Fundamen-
talontologie zum Ausdruck.

7. Die Philosophie als Vernunftkritik und Wissenstheorie:

Sie hat seit Kant im deutschen Idealismus im Zentrum der philosophischen Forschung gestanden.
Hier sind wesentliche Klärungen erarbeitet worden, die auch heute noch die Vorverständnisse
bezüglich des Wissensbegriffs der Wissenschaften steuern. Sie werden jedoch z. Z. nicht mit der
wünschenswerten Intensität weiterbetrieben.
I. Kant, Kritik der reinen Vernunft, Riga 1781; ders., Kritik der praktischen Vernunft, Riga 1788;
ders., Kritik der Urteilskraft, Berlin und Libau 1790
J. F. Fries, Wissen, Glaube und Ahndung, Jena 1805; ders., Neue oder anthropologische Kritik der
Vernunft, 3 Bde Heidelberg 1807, 2. Aufl. 1828, in: Sämtl. Schriften hgg. v. G. König u. L.
Geldsetzer, Aalen 1968 ff, Bd. 3 und Bde 4 - 5
E. Stiedenroth, Theorie des Wissens, mit besonderer Rücksicht auf Skeptizismus und die Lehren
von einer unmittelbaren Gewißheit, Göttingen 1819
J. A. Voigtländer, Eine Untersuchung über die Natur des menschlichen Wissens, mit
Berücksichtigung des Verhältnisses der Philosophie zum Empirismus, Berlin 1845
W. Rosenkrantz, Wissenschaft des Wissens und Begründung der besonderen Wissenschaften
durch die allgemeine Wissenschaft. Eine Fortbildung der deutschen Philosophie mit bes. Rücksicht
auf Platon, Aristoteles und die Scholastik des Mittelalters, 1. Bd. München 1866, 1. u. 2. Bd.
Mainz 1868

Im vergangenen Jahrhundert hat Edmund Husserl die „Phänomenologie“ als eine neue Theorie des
Wissens konzipiert. So in: Ideen zu einer reinen Phänomenologie und phänomenologischen Philo-
sophie, Freiburg 1913, 3. Aufl. 1928. Neben ihm vgl. A. Nordenholz, Scientologie, Wissenschaft
von der Beschaffenheit und Tauglichkeit des Wissens, München 1934; dazu W. Schingnitz, Scien-
tologie, in: Minerva 7, S. 65 - 75 und 110 - 114. Derartige Studien gewinnen auch heute noch viel
durch sorgfältige Interpretation und Aneignung der „klassischen” Erkenntnistheorien Lockes,
189

Berkeleys, Humes, Leibniz„„ u. a. mit ihren „realistischen“ oder „idealistischen” Erkenntnis- und
Wissenskonzeptionen.

8. Die Philosophie als Wissenschaftslehre:

Philosophie so aufgefaßt, ist sowohl in terminologischer wie sachlicher Hinsicht die genuine Früh-
gestalt moderner Wissenschaftstheorie. In ihr laufen die erkenntnistheoretischen ontologischen,
praxeologischen und anthropologischen Errungenschaften der Aufklärung und des deutschen
Idealismus in der Weise zusammen, daß daraus das Konzept einer philosophischen Disziplin von
der Natur des Wissens als menschlicher „Tathandlung” und dem Entwurf ihrer Gegenstands-
bereiche entsteht. Auch hierin bringt sich eine Tendenz zur Geltung, der Philosophie in der Nach-
folge der „Logik” des Triviums der alten philosophischen Fakultät eine verbindende und begrün-
dende Funktion gegenüber den verselbständigten trivialen und quadrivialen Wissenschaften zu
verschaffen. Im 20. Jahrhundert wird diese Tendenz in der Gesamtdarstellung der philosophischen
Grund- und Bereichsdisziplinen in „philosophischen Enzyklopädien“ und Handbüchern weiterge-
führt

J. Chr. Gottsched, Erste Gründe der gesamten Weltweisheit, darinnen alle philosophische Wissen-
schaften in ihrer natürlichen Verknüpfung in zwei Teilen abgehandelt werden, 1734, 5. Aufl. 1748
- 1749
J. G. Fichte, Über den Begriff der Wissenschaftslehre oder der sog. Philosophie, Weimar 1794;
ders., Grundlage der gesamten Wissenschaftslehre, 1794, neu hgg. v. W. G. Jacobs, Hamburg
1970
B. Bolzano, Wissenschaftslehre. Versuch einer ausführlichen und größtenteils neuen Darstellung
der Logik, 4 Bände, Sulzbach 1837
H. M. Chalybäus, Entwurf eines Systems der Wissenschaftslehre, Kiel 1846
G. Biedermann, Die Wissenschaftslehre, 3 Bde Leipzig 1845 - 1860
R. Graßmann, Die Wissenschaftslehre in der Philosophie, 4 Teile 1884
W. Wundt, Logik, I. Bd.: Erkenntnislehre, II. Bd.: Methodenlehre, Stuttgart 1880 - 1883, 4. Aufl.
in 3 Bänden : I. Allgemeine Logik und Erkenntnistheorie, 1919, II. Logik der exakten
Wissenschaften, 1920, III. Logik der Geisteswissenschaften, 1921
A. Baeumler und M.Schröter (Hg.), Handbuch der Philosophie, 4 Bände, München-Berlin 1925 -
1934
F. Heinemann, Die Philosophie im XX.Jahrhundert. Eine enzyklopädische Darstellung ihrer
Geschichte, Disziplinen und Aufgaben, Stuttgart 1959, 2. Aufl. 1963
S. Daval und B.Guillemain (Hg.), Philosophie. 6 Bände in 3 Abteilungen, Paris 1962 u. ö.
A. Diemer, Grundriß der Philosophie. Ein Handbuch für Lesung, Übung und Unterricht. Band I:
Allgemeiner Teil, Band 2: Die philosophischen Sonderdisziplinen, 2 Bände, Meisenheim 1962 –
1964

9. Die klassischen Vorbilder der wissenschaftlichen Methodologie:

Gewisse Werke waren und bleiben prägende Vorbilder auch für moderne wissenschaftstheoreti-
sche Konzeptionen. Einige Theorien über das, was Wissenschaft sei, explizieren nichts anderes als
dasjenige, was sie als vorbildlich in dem einen oder anderen Werk eines der Klassiker ausgeführt
finden und empfehlen es als Exempel bzw. Paradigma für jede ernstzunehmende Wissenschaft.
Neben den immer bekannt gebliebenen und vielzitierten Klassikerwerken gibt es jedoch zahlreiche
„apokryphe“ wissenschaftliche Arbeitsinstrumente, die zu ihrer Zeit oder noch einige Zeit nach
ihrem Erscheinen Aufsehen erregt haben, die jedoch gerade wegen ihrer Verbreitung nicht mehr
190

genannt und zitiert wurden, dafür umso mehr ausgeschrieben und als selbstverständliches öffent-
liches Gedankengut behandelt wurden.111
Zu solchen Klassikerwerken gehören die folgenden:
Aristoteles, Organon (Kategorien, Hermeneutik, Analytiken, Topik, Sophistische Widerlegungen)
Euklid, Die Elemente, Buch 1 – 13, dt. Ausgabe Darmstadt 1971
Galenus, Einführung in die Logik, dt. v. J. Mau, Berlin 1960
Porphyrios, Isagoge (Einführung in das Organon des Aristoteles), dt. v. A. Busse, Berlin 1887
Petrus Hispanus, Summulae logicales, Venedig 1572, ND Hildesheim-New York 1982
R. Lullus, Ars generalis ultima, Palma de Mallorca 1645, ND Frankfurt 1970; Ars brevis, Palma
1669, Nachdr. Frankfurt 1970; Logica nova – logica parva – De quinque praedicabilibus et decem
praedicamentis, Palma 1744, ND hgg. v. C. Lohr, Frankfurt 1971; R. Lullus, Die neue Logik, lat.-
dt. übers. von W. Büchel und V. Hösle, Hamburg 1985
Nikolaus von Kues, De docta ignorantia – Die belehrte Unwissenheit (1440), lat.-dt. hgg. v. P.
Wilpert u. H. G. Senger, 3. Aufl. Hamburg 1977 – 1979.
J. Aconcio, De Methodo, hoc est de recta investigandarum tradendarumque artium ac scientiarum
ratione (1558), dt.-lat. Parallelausgabe nach der 2. Aufl. 1582 hgg. v. L. Geldsetzer in: Instrumenta
Philosophica Series Hermeneutica IV, Düsseldorf 1971
Fr. Bacon, Novum Organum Scientiarum, 1620; ders., De Dignitate et Augmentis Scientiarum,
1605, dt. Darmstadt 1966
G. Galilei, Discorsi e Dimostrazioni matematiche intorno a due nuove scienze, Leiden 1638, dt.
1891
R. Descartes, Discours de la méthode pour bien conduire la raison et chercher la vérité dans les
sciences, Leiden 1637, dt. Hamburg 1969
G. W. Leibniz, Dissertatio de arte combinatoria, in qua ex arithmeticae fundamentis
complicationum et transpositionum doctrina novis praeceptis exstruitur, Leipzig 1666
I. Newton, Philosophiae naturalis principia mathematica, 1687, (ND London 1960), 2. Aufl. 1713,
3. Aufl. 1726, dt. Übers. v. J. P. Wolfers, Berlin 1872, ND Darmstadt 1963
G. Vico, De nostri temporis studiorum ratione, Neapel 1708, dt. Übers., Vom Wesen und Weg der
geistigen Bildung, Godesberg 1947, ND Darmstadt 1974
G. F. Meier, Versuch einer allgemeinen Auslegungskunst, 1757, neu hg. v. L. Geldsetzer in: In-
strumenta Philosophica Series Hermeneutica I, Düsseldorf 1965; auch hgg. von A. Bühler und
Luigi Cataldo Madonna, Hamburg 1996
I. Kant, Metaphysische Anfangsgründe der Naturwissenschaft, 1786; ders., Prolegomena zu einer
jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können, 1783
C. Chr. E. Schmid, Erste Linien einer reinen Theorie der Wissenschaft, in: Phil. Journal für
Moralität, Religion und Menschenwohl 3, 1794 (neu in: Studien zur Wissenschafttheorie, hg. v. A.
Diemer, Meisenheim 1968)
G. F. W. Hegel, Die Wissenschaft der Logik, 2 Bde, Nürnberg 1812 – 1816, hgg. v. G. Lasson,
Leipzig 1951
Aug. Comte, Cours de philosophie positive, 6 Bde Paris 1830 – 1842
J. St. Mill, A System of Logic, rationative and inductive, 2 Bde London 1843, 9. Aufl. 1875
W. St. Jevons, The principles of science. A Treatise of Logic and scientific Method, 1874, 2. Aufl.
1877

111
Einige davon wurden in Nachdrucken wieder zugänglich gemacht in: L. Geldsetzer, Instrumenta Philosophica, 17
Bände in vier Serien, Series hermeneutica (G. F. Meier, A. F. J. Thibaut, M. Flacius Illyricus, Jac. Aconcio, J. M. Chlade-
nius); Series Lexica (J. Micraelius, St. Chauvin, H. A. Meissner); Series Indices Librorum (J. S. Ersch und Chr. A.
Geissler, Ph. V. Gumposch, B. C. Struve, J. H. M. Ernesti; Series Thessauri (Gr. Reisch, K. G. Hausius, W. Tr. Krug), Düs-
seldorf (Stern-Verlag) 1965 -1972.

.
191

A. Cournot, Essai sur les fondements de nos connaissances et sur les caractères de la critique
philosophique, 2 Bde, Paris 1851
R. H. Lotze, Mikrokosmus. Ideen zur Naturgeschichte und Geschichte der Menschheit, 3 Bände
Leipzig 1856 – 1864, 6. Aufl. 1923
H. v. Helmholtz, Über das Verhältnis der Naturwissenschaften zur Gesamtheit der Wissenschaften,
1862
G. Frege, Begriffsschrift. Eine der arithmetischen nachgebildete Formelsprache des reinen Den-
kens, Halle 1879, ND Darmstadt 1974
W. Dilthey, Einleitung in die Geisteswissenschaften. Versuch einer Grundlegung für das Studium
der Gesellschaft und der Geschichte, 1883
H. Poincaré, La science et l‟ hypothèse, Paris 1902; ders., Science et méthode, Paris 1909
P. Duhem, La Théorie Physique. Son Objet - Sa Structure, Paris 1906
B. Russell und A. N. Whitehead, Principia Mathematica, 3 Bände Cambridge 1910 – 1913
Edm. Husserl, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Frei-
burg 1913, 3. Aufl. 1928
L. Wittgenstein, Tractatus logico-philosophicus, 1921, engl. London 1922; ders., Philosophische
Untersuchungen / Philosophical Investigations, deutsch-engl. Ausg. Oxford 1953 u. ö.
M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre, 1922, u. a. über “Kategorien der
verstehenden Soziologie”, die “„Objektivität„ sozialwissenschaftlicher Erkenntnis” und den “Sinn
der ‚Wertfreiheit„ der Sozialwissenschaften”
E. Cassirer, Philosophie der symbolischen Formen (I. Die Sprache, II. Das mythische Denken, III.
Phänomenologie der Erkenntnis), 1923 - 1929, 6. Aufl. Darmstadt 1964
R. Carnap, Der logische Aufbau der Welt, Berlin 1928, 3. Aufl. Hamburg 1966
K. R. Popper, Logik der Forschung, Wien 1935, 10. Aufl. Tübingen 1994, engl., The Logic of
Scientific Discovery, London 1959, 10. Aufl. 1994
W. V. O. Quine, From a Logical Point of View, Cambridge, Mass. 1953; dt., Von einem logischen
Standpunkt, Frankfurt a. M. 1979
H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübin-
gen 1960 u. ö.
E. Betti, Die Hermeneutik als allgemeine Methodik der Geisteswissenschaften, Tübingen 1962, 2.
Aufl. 1972; ders., Teoria generale dell‟interpretazione, Mailand 1955
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie,
Berlin-Heidelberg-New York 1969 - 1984. Vol. I: Wissenschaftliche Erklärung und Begründung,
1969, 2. ed. 1974, 3. ed. 1983; Vol. II/1: Theorie und Erfahrung: Begriffsformen, Wissenschafts-
sprache, empirische Signifikanz und theoretische Begriffe, 1970, 2. ed. 1974; Vol. II/2: Theorie
und Erfahrung: Theoriestrukturen und Theoriendynamik, 1973, 2. ed. 1985 (Engl.: 1976); Vol. III
(mit M. Varga von Kibéd): Strukturtypen der Logik, 1984; Vol. IV/1: Personelle und Statistische
Wahrscheinlichkeit: Personelle Wahrscheinlichkeit und Rationale Entscheidung, 1973; Vol. IV/2:
Personelle und Statistische Wahrscheinlichkeit: Statistisches Schließen, Statistische Begründung,
Statistische Analyse, 1973.

Die Wissenschaftsphilosophie hat im 20. Jahrhundert und zumal in dessen zweiter


Hälfte einen erstaunlichen Aufschwung genommen. Sie hat sich hauptsächlich aus
der traditionellen Grunddisziplin „Erkenntnistheorie“ heraus entwickelt, und da-
her auch in Deutschland von dieser die Bezeichung „Theorie“ , nämlich „Wissen-
schaftstheorie“ übernommen, obwohl es sich naturgemäß nicht um eine einzige
Theorie, sondern um Lehre und Forschung mittels vieler und über viele Theorien
der Wissenschaft handelt.
Vielerorts in der Welt werden heute philosophische Lehrpositionen mit dem
Forschungs- und/oder Lehrschwerpunkt „Wissenschaftstheorie“ ausgeschrieben
192

und besetzt. Zunehmend verschwindet dabei auch jeder Hinweis auf die Philoso-
phie als Fach, zu dem die Wissenschaftsphilosophie gehört. Dadurch verbreitet
sich der Eindruck und die Meinung, es handele sich dabei schon um eine beson-
dere Einzelwissenschaft. Dies umso mehr, wenn sie als Abteilung philosophischer
Institute oder sogar als eigene Institute begründet oder ausgestaltet werden.
Diesen Ausgründungen kommen dann auch die Forschungen von Einzelwissen-
schaften entgegen, die sich irgend einem Aspekt der Wissenschaften widmen. Ein
enges Verhältnis besteht vor allem zur Wissenschaftsgeschichte, die früher teils
als Forschungs- und Lehrschwerpunkt einzelner Einzelwissenschaftler als Ge-
schichte ihres Faches, meist jedoch im Rahmen der Medizingeschichte und damit
im Rahmen der Medizinischen Fakultäten gepflegt wurde. Sie hat sich inzwischen
an mehreren Standorten als selbständige Wissenschaft etabliert und schließt dann
auch die Wissenschaftsphilosophie ein.
Die Psychologie, heute mehr und mehr in enger Verbindung zur Gehirnphy-
siologie, hat sich unter mehreren Aspekten – wie vor allem Intelligenz- und Krea-
tivitätsforschung – den Wissenschaften und ihren hervorragenden Repräsentanten
gewidmet und profitiert dabei naturgemäß vom politischen und populären Interes-
se am Wachstum der wissenschaftlichen Leistungen und Produkte, die sie zu
effektuieren verspricht.
Wissenschaftssoziologie, Wissenschaftsökonomie und Wissenschaftsstatistik
sind ebenfalls längst etablierte Spezialdisziplinen der entsprechenden Einzelwis-
senschaften, die auf breites Interesse der Öffentlichkeit und der politischen
Instanzen treffen. Besonders die ökonomische Betriebswirtschaftslehre ist dabei
so erfolgreich gewesen, daß im letzten Dezennium die wissenschaftlichen Ver-
waltungs- und Betriebsstrukturen auf dem Wege gesetzlicher Vorgaben gänzlich
nach den Mustern industrieller und dienstleistender Großbetriebe ausgerichtet
worden sind. Darüber wurde im Vorangehenden schon mehrfach gehandelt.
Zwei Tendenzen zeichnen sich hier ab. Einerseits die Ersetzung der Philosophie
als eigenständiges Lehrfach an Hochschulen durch die Wissenschaftsphilosophie.
Andererseits das Verschwinden der Philosophie aus dem Fächerkanon der Hoch-
schulen zugunsten der interdisziplinär vernetzten einzelwissenschaften Forschun-
gen über das Wissenschaftsphänomen.
193

III. Zur Geschichte der Wissenschaftsphilosophie

A. Die Antike

§ 16 Die Vorsokratiker

Die Erfindung der Arché als ursrpung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und
Subjekt und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen
zum SubjektDie Enttdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des
dialektischen (widersprüchlichen) Begriffs. Der pythagoreische Zahlbegriff als dialektische Ver-
mittlung von Denk- und Sinnesobjekt. Das Sein der Atome und das Nichts des leeren Raumes bei
Demokrit und seine Erfindung der Denkmodelle. Das Nichts des Gorgias.

Im Gedanken der „Arché” (ἀή) setzen die Vorsokratiker das Grundschema


abendländischer Erklärungsweise von Realität fest. Arché ist Grund, Ursache,
Erstes, Anfang, Ausgang, Bedingung, aber auch Wesen, Beherrschendes, Eigent-
liches, wahres Sein, ja Absolutes, lateinisch: principium. „Arché“ wird damit auch
das Denkmuster des „Begriffs“ in aller logischen Verwendung, insofern im Be-
griff das Wesen und die Einheit des vielfältig Erscheinenden gedacht werden soll.
Der Arché steht dadurch gegenüber Folge, Wirkung, Zweites, Abgeleitetes, Be-
dingtes, und entsprechend Erscheinung, Uneigentliches, scheinbare Natur, das
schlechthin Abhängige, das Nichtige, Nichtsein. Die Vorsokratiker teilen so alle
Realität in zwei wohlunterschiedene Sphären auf. Sie verleihen ihr eine Doppel-
bödigkeit, die für abendländisches Denken und seine Wissenschaft Leitthema
bleibt: Wesen und Erscheinung, Ursache und Wirkung, Grund und Folge, Sein
und Nichts.
Dieses Schema der Doppelbödigkeit der Objekte wird von den Vorsokratikern
tastend auf alle Bereiche der Forschung angesetzt: zunächst und vordringlich auf
die Natur (im heutigen engeren Sinne), dann auf den Menschen und die Kultur,
nicht zuletzt aber auch auf die Erkenntnis selber.
Von besonderer Bedeutung und für die einzelnen Denker spezifisch sind die
weiteren Bestimmungen, die sie für diese Sphären festsetzen. Die Arché als
eigentliches Sein ist notwendig, eines, ruhend (unbewegt), wahr, göttlich, nur im
Denken erfaßbar. Das Abgeleitete, Phänomenale, eigentlich Nichtige ist zufällig,
vielfältig, bewegt, „natürlich”, durch die Sinne erfahrbar, aber täuschend, behaup-
tet Parmenides.
Als Resultat dieser Forschungen ergibt sich für die anschließende klassische
Philosophie der Griechen folgendes ontologisch - anthropologische (Seins- und
Erkenntnis-) Schema:
194

Das erkenntnistheeoretische und ontologische Subjekt-Obejekt-Schema

Objekt Subjekt

Wesen <==> Denken,Vernunft


Phänomen, Erscheinung <==> Anschauung, Sinne

Aber ungeachtet der Dominanz dieses Subjekt-Objektschemas (bis in die gegen-


wärtige Philosophie) bleibt die Ausfüllung immer umstritten. Während die frühen
Jonier Thales, Anaximenes, z. T. noch Heraklit, dann Xenophanes ein phänomenal
Gegebenes: Wasser, Luft, Feuer, Erde, Empedokles dann sämtliche vier „Ele-
mente” Erde, Wasser, Luft und Feuer als Arché ausgeben und so ein Sinnliches
unter anderen als das eigentliche Sein auszeichnen, schlagen andere eine Richtung
der Erklärung ein, die man eine transzendente Dimension nennen könnte. Sie
präludiert dem, was die Aristoteliker später das „Metaphysische” („hinter der
sinnlichen Natur Liegende”) nannten.
Anaximander nennt seine Arché „Apeiron” (ἄ), d. h. das Grenzenlose,
Unbestimmte, Gestaltlose, lateinisch das Infinite (Aristoteles wird es reine
Materie und Nicht-Sein nennen), aus dem „nach der Ordnung der Zeit” und nach
notwendigem Gesetz Entstehen und Vergehen aller Dinge geschieht. Für Anaxa-
goras ist Arché der „Nous” (ῦς), das Geistige; für Heraklit der „Logos”, Welt-
gesetz und Geistiges zugleich; für Parmenides das Sein schlechthin, welches zu-
gleich Geist und Denkkraft ist. Demokrit aber faßt die Bestimmungen des Ana-
ximander und des Parmenides zusammen, indem er aus dem „Kenon”, dem
Leeren und Unbestimmten, und aus dem Seienden, das er als vielgestaltig Unteil-
bares (Atome) und gleichwohl sinnlich nicht Erfaßbares bestimmt, zusammen die
phänomenale Welt der Dinge erklärt. Empedokles „dynamisiert” das Erklärungs-
schema, indem er die vier Elemente durch Liebe und Haß (philia kai neikos
íìῖς), Anziehung und Abstoßung, Verbindung und Trennung zu
allem Erscheinenden gefügt sein läßt.
Heben wir das für die Wissenschaft Bedeutsame heraus: Schon bei diesen
Vorsokratikern geht es um die Rolle von Denken bzw. Vernunft und von
Anschauung und Beobachtung bzw. Sinnlichkeit in der Erkenntnis und um den
eventuellen Vorrang des einen vor dem anderen. Das liefert die erste Wei-
chenstellung für die beiden Wege, die später als Rationalismus und Empirismus in
der Philosophie und in wissenschaftlichen Forschungsstrategien eingeschagen
werden. Anaxagoras prägt mit dem „Nous“ (Vernunft, Geist, Pneuma, Ratio,
Spiritus) auch schon den Titelbegriff für alle späteren Rationalismen.
Indem Anaximander (um 610 – um 550 v. Chr) die Arché als Apeiron, ein
Unendliches und Grenzenloses faßte, bestimmte er aller Forschung ein unend-
liches, nie zu erreichendes Ziel und lenkte sie damit auf den Weg des end- und
grenzenlosen Fortschreitens in immer tiefere Tiefen und umfassendere Weiten.
195

Noch Poppers „asymptotische Annäherung an die Wahrheit“ (die nie erreichbar


sein soll), ist ein aktueller Nachhall dieser Programmatik.
Heraklit (um 544 – 483), der schon zu seiner Zeit als „dunkel“ (skoteinos
ός) galt und es geblieben ist, gibt aller späteren Logik den Begriff des
Begriffs, den Logos (ός), vor. „Dunkel“ war an seinem Logos, daß darin Wort,
Sprache, eigentlicher Begriff und „Verhältnis“ ungeschieden beieinander lagen
und erst später genauer unterschieden wurden. Aber klar war daran jedenfalls, daß
sein „Begriff“ als „Einheit des Gegensätzlichen“ zu denken war, wie er an vielen
Beispielen demonstrierte.
Sein „Logos“ wurde daher nicht, wie üblicherweise angenommen wird, zum
Prototyp des regulären logischen Begriffs, bei dem man die Einheit als Identität
des Gemeinsamen (der sog. generischen Merkmale) und keineswegs die Einheit
des gegensätzlich Verschiedenen (der sog. spezifischen Differenzen) zu denken
hat. Er wurde vielmehr zum Prototyp der logischen Figur der Contradictio in
adjectis bzw. in terminis, also des in sich widerprüchlichen Begriffs, bei dem man
sowohl die generischen Merkmale wie zugleich die spezifischen Differenzen von
dihäretisch unterschiedenen Artbegriffen als Einheit zu denken hat. Der eine Fluß,
in den man zum zweiten Mal zum Bade hineinsteigen möchte, ist zugleich der-
selbe, und er ist auch nicht derselbe wie beim ersten Male. Und das „alles ver-
nichtende Feuer“ ist zugleich die wohltätige Grundlage aller Zivilisation, wie es
der Mythos von Prometheus besagt. Hegel hat es spät, aber klar erkannt und
Heraklit deshalb den ersten Dialektiker genannt. Wie man mit solchen wider-
sprüchlichen Begriffen umgeht, zeigt eine große Geschichte des „dialektischen
Denkens“ bis zur Gegenwart. Aber für zünftige Logiker ist alles Dialektische
Anathema, und deshalb ist der Umgang mit solchen „dialektischen Begriffen“ und
überhaupt mit dem Widerspruch ein recht unterbelichtetes Kapitel der Logik
geblieben.
Demokrit (2. Hälfte des 5. Jhdts) behauptet schon dadurch eine ausgezeichnete
Stellung, daß sein „Atomismus“ - durch die Schulen der Stoa und des Epikur zu
materialistischen Denksystemen ausgebaut - bis heute die Grundlagenmetaphysik
des herrschenden Weltbildes der Moderne geblieben ist. Auf seine Lehre vom
Leeren (kenon κενόν) bzw. vom leeren Welt-Raum (als Behälter des Vollen der
Atome, pléres πλήρες) ist man erst im 20. Jahrhundert wieder zurückgekommen
(nach dem negativen Ausgang der Versuche von Michelson und Morley, einen
raumfüllenden „Äther“ und damit die Nichtexistenz des leeren Raumes nachzu-
weisen). Von großem Einfluß, nicht zuletzt bei Platon, wurde auch seine Lehre
von der symbolischen Erkenntnis mittels der Modelle.
Ausgehend von der genannten Unterscheidung von sinnlicher Anschauung und
unanschaulichem Denken in der Erkenntnis, hält er die Archai des Vollen und
Leeren (wegen der Kleinheit der Atome und der Ungreifbarkeit des Leeren) für
etwas, das nur im Denken zu erschließen sei. Da das Denken auf diese Weise
keinen Inhalt hat, muß es sich anschaulicher Bilder bedienen, die in der sinnlichen
Erfahrung gewonnen werden. Demokrit nennt sie geradezu „Bildchen“ (eidola
196

ἴ). Als Bilder für die Atome stellt er sich Buchstaben vor, die sich in ihren
verschiedenen Gestalten zu Komplexen der Wörter und Sätze „verhakeln“ - und
für das Leere mag er an einen Behälter oder an die Leerstellen zwischen den
einzelnen Wörtern gedacht haben, was er freilich nicht sagt. Anschauliche Buch-
staben werden somit zu anschaulichen „Symbolen“ für das unanschaulich zu Den-
kende. Ersichtlich sind seine Eidola die Muster aller „Modelle“ und „Symboli-
sierungen“ geworden, mit denen die Wissenschaft auch heute noch arbeitet.
Demokrit hat damit auch das Unanschauliche und nur Denkbare „auf den Begriff“
gebracht. Aber es ist ein - im herakliteischen Sinne – dialektischer Begriff. Wenn
die Atome (hier nach dem Modell von Buchstaben, in unseren Zeiten nach dem
Modell kleiner Sonnen, um welche die Elektronen wie kleine Planeten kreisen)
gedacht werden sollen, so weiß man doch zugleich, daß sie keine Buchstaben (und
keine kleinen Sonnen) sind: man stellt sie sich als Buchstaben vor und denkt sie
zugleich als Nicht-Buchstaben!
Die extremen, für die Wissenschaftsgeschichte folgenreichsten Positionen wer-
den allerdings in Unteritalien von den Pythagoräern und von Parmenides ent-
wickelt.
Parmenides (geb. um 540 v. Chr.) überwindet schon im Prinzip die Subjekt-
Objekt-Spaltung, die seine vorsokratischen Zeitgenossen aufgerissen hatten: Den-
ken und Sein ist ihm dasselbe (to gar auto noein estin te kai einai ò
γὰρὐòῖἐíεìἶ). Dies zu sagen und zu erforschen ist der eine
Weg der Wissenschaft (hier kommt das Thema der Methode, griech.: methodos
auf, hodos ὁός = Weg), der zur Wahrheit führt. Und ebenso ist ihm Nicht-Sein,
Erscheinung und sinnliche Erfahrung dasselbe. Dies zu sagen und zu erforschen
ist ihm der Weg des Irrtums und der Täuschung. Aber unterstreichen wir dies:
auch dieser Weg des Irrtums und der Täuschung ist ein Weg der Forschung, und
so gehört er auch zur Wissenschaft! So liefert Parmenides die erste Theorie des
Irrtums (wir besitzen bis heute keine unumstrittene) und das erste Beispiel einer
idealistischen Theorie der Wahrheit. Was hier zu denken ist (und dazu nicht auf
anschauliche Modelle zurückgreifen soll), ist die Identität von Sein, Einheit und
Unbewegtheit bzw. Ruhe und Wahrheit. Betonen wir das idealistische Moment an
dieser These: Es gibt hier nicht ein Denken auf der einen Seite, welches ein
einheitliches ruhendes Sein auf der anderen Seite sich gegenüber hätte - und daher
auch dann noch Denken bleibe, wenn es nicht (oder Nichts) denkt, vielmehr ist
Denken selbst Sein, und Sein ist Gedachtes. Spätere Gestalten des Idealismus sind
selten auf der Höhe dieses Gedankens geblieben, und alle Rationalismen haben
ihn verleugnet, indem sie die Vernunft und das Denken vom Sein unterschieden
und trennten. Von Parmenides haben sie - bis zum heutigen Tag - nur festge-
halten, daß mathematisches und logisches Denken nur ruhende Einheiten zu
denken vermag.
Die Pythagoräer (die Schule des Pythagoras, um 582 – 496 v. Chr.) versuchen
gegenüber diesem Ansatz auch die „Phänomene zu retten” (sozein ta phainomena
ῴὰό) ein dann beständiges Thema griechischer und abend-
197

ländischer Wissenschaft) um die Dignität der sinnlichen Erkenntnis zu wahren.


Für sie ist Grund und Wesen aller Realität die gerade auch sinnlich wahrnehmbare
Harmonie (von Tönen, Farben, Gestalten) als eine dialektische Einheit in der Viel-
heit, die denkend in den Zahlenverhältnissen erkannt wird. Die Zahlen selbst sind
daher die mustergültigen Denkformen, die Archai aller Dinge, in denen das Viel-
fältige dem jeweils Einen verbunden und damit „gerettet“ wird. Wie im musi-
kalischen C-G-C„ Quint-Oktav Akkord dem Ohre wohlklingend verschiedene
Töne einheitlich zusammenstimmen, so dem „geistigen“ Auge die Vielheit der
Dinge, Bewegungen und menschlichen Verhaltensweisen in den Gesetzen der
Mathematik.
So werden die Pythagoräer die Väter der abendländischen messenden und meß-
bar machenden Wissenschaft, die in der Mathematik ihre einzige Methode sucht.
Aber ihr Zahlbegriff (arithmos ἀό) ist ein Begriff des herakliteischen Typs,
also ein dialektischer Logos, indem er die Einheit zusammen mit der Vielheit und
umgekehrt die Vielheit in der Einheit zu denken lehrt. Gerade dies zeigt die
sinnliche Anschauung nicht, und das macht ihren Unterschied zum Denken aus:
Was gedacht wird, ist Zahl und Zahlenmäßiges, und dieses ist (nach herakli-
tischem Logos) zugleich und in gleicher Hinsicht Einheit und Vielheit. Man
beachte, wodurch sich nun bei den Pythagoräeren die Unanschaulichkeit des
mathematisch zu Denkenden vom Anschaulichen der sinnlichen Wahrnehmung
unterscheidet: es ist der Unterschied zwischen dem Widerspruch im unanschau-
lichen Begriff (der Zahl) und der widerspruchslosen anschaulichen Vorstellung.
Indem aber die sinnlich wahrnehmbaren Dinge jeweils entweder Einheiten oder
Vielheiten (Mengen) sind, werden sie Anwendungsfälle für die Anwendung der
Zahl auf sie, da diese beides, Einheit und Vielheit zugleich ist. Es wurde zur
Katastrophe für ihr Zahlendenkprogramm, als sie bei solchen Anwendungen auf
die Proportionen von Kreisumfang und Kreisdurchmesser oder von Seiten und
Diagonalen im Quadrat auf Verhältnisse stießen, bei denen das Verhältnis von
genau abzählbaren Vielheiten zur Einheit und umgekehrt nicht auf eine Zahl zu
bringen war. Sie entdeckten, daß das anaximandrische Apeiron, das Infinite, nicht
nur ein unendlich Großes oder ein unendlich Kleines sein konnte, das man eben
deswegen nicht mehr überschauend wahrnehmen oder bemessen konnte, sondern
daß es sich auch gleichsam mitten im (geometrisch) genau Überschaubaren und
Meßbaren zur Geltung brachte. Auch diese Proportionen nannten sie noch Zahlen,
aber da sie zugleich kein Verhältnis (logos, ratio) von Vielheit und Einheit auf-
wiesen, nannten sie sie „irrationale Zahlen“ (alogoi arithmoi ἄλογοι ἀοί).
Genau besehen handelt es sich aber um potenzierte Widersprüchlichkeit im
Zahlbegriff. Denn was sie damit denken wollten, mußte zugleich Zahl und Nicht-
Zahl sein. Wie man weiß, hat die Mathematik diese Wendung mitgemacht und
später noch oft wiederholt. Von den Pythagoräern lernten dann Platon und das
Abendland, daß alle dingliche Veranschaulichungen und alle zeichenhaften
Symbole niemals das zur Anschauung bringen können, was als Zahl und Zahl-
verhältnis nur zu denken ist.
198

Zenon von Eleia (1. Hälfte des 5. Jahrh. v. Chr., zu unterscheiden von den
beiden späteren Stoikern namens Zenon), der große Schüler des Parmenides,
kritisiert diese pythagoräischen Weiterungen, die das Denken mit der Anschauung
verknüpfen und anschauliches Denken lehren wollen. Alle seine berühmten para-
doxalen Argumente beziehen sich darauf, daß dabei dialektische Begriffe als
Denkmittel benutzt werden müssen, mittels derer sich bezüglich des tatsächlichen
Denkens der unbewegten Einheit Wahres, bezüglich des anschaulich Vielfältigen
und Bewegten aber Falsches aussagen lassen muß.
Auch den Zahlbegriff der Pythagoräer hat er dabei kritisiert, denn für ihn und
seinen Meister Parmenides konnte die Zahl nur als unbewegte Einheit gedacht
werden und nicht zugleich auch als Vielheit, da ja die Vielheit und Veränderung
nur der sinnliche Anwendungsbereich dieser Zahleneinheiten beim Zählen sein
konnte. Sein durch Zitat überliefertes Argument lautet: „Wenn Vieles ist (wäre),
müßte dies zugleich groß und klein sein, und zwar groß bis zur Grenzenlosigkeit
und klein bis zur Nichtigkeit“.112
Seine Paradoxien vom fliegenden Pfeil, der ruht; von Achill, der die Schildkröte
im Wettlauf nicht überholen kann etc. sind durchweg Scherze, die er über die
Erklärungsweise der Pythagoräer macht, wenn sie die Gegebenheiten der sinn-
lichen Beobachtung zu denken versuchen. Sie sind noch jetzt Herausforderungen
an die mathematische Theorie physikalischer Bewegung, der noch heute Abhand-
lungen und Widerlegungen gewidmet werden. Und gewöhnlich wird dabei der
Witz der Sache verfehlt. Denn man hält die zenonischen Paradoxien für schlicht-
weg falsch und sucht sie zu widerlegen. Tatsache aber ist, daß er damit das
faktische Denken der mathematischen Physiker auf den Punkt bringt, das noch
immer Wahrheit und Falschheit in widersprüchlichen Denkkonzepten verschmilzt.
Soll die Bewegung eines fliegenden Pfeiles mathematisch gedacht und kon-
struiert werden, so konstruiert ihn auch jetzt noch die Mathematik als einen Pfeil
an (jeweils) einem Punkt - und das ist nach Zenon und Parmenides das wahre
Denken dessen, was da ist: daß der eine Pfeil ruht! Zugleich aber summiert die
mathematische Konstruktion die Vielheit der Punkte zur ballistischen Linie, auf
denen viele Pfeile nacheinander sind und auch nicht sind. Genau das macht nach
Parmenides und Zenon die illusionäre Falschheit der Anschauung aus.
Aristoteles wird den gordischen Knoten zerhacken, indem er zwischen Sein und
Nichts eine mittlere ontologische Sphäre ansetzt, in der Bewegung, Vielheit und
Veränderung angesiedelt werden: das Werden bzw. die Veränderung. Dieser
Gedanke aber lag den Vorsokratikern gänzlich fern, und es ist noch eine offene
Frage, ob er zum Segen oder zum Schaden der abendländischen Wissenschaft
ausschlug.
Sicher waren Parmenides und Zenon zu rigoros und sparsam mit dem Denken,
wenn sie es nur auf einheitliche stabile Gegenständlichkeit bezogen und alles
andere auf täuschende Anschauung zurückführten. Aber dieser Sparsamkeit

112
O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl., Freiburg / München 1964, S. 42.
199

verdankt die Philosophie und Wissenschaft die Festlegung dessen, was ein
regulärer logischer Begriff ist - im Gegensatz zum dialektischen heraklitischen
Logos.
Dabei ist ja durch Zenon, wie wir dartun wollten, auch sehr deutlich festgestellt
worden, was ein dialektischer Logos, nämlich ein widersprüchlicher Begriff ist.
Daß Zenon dabei die heiligen Kühe der Pythagoräer und der griechischen Mathe-
matik, nämlich die Zahlen, als widersprüchliche Denkgebilde schlachtete, die man
doch schon damals allgemein als paradigmatische Archai und als widerspruchs-
lose Denkgebilde ansah, hat dazu geführt, daß man seine Paradoxien insgesamt als
falsch einschätzte. Und so hält man auch bis heute die Zahlen für wider-
spruchslose Denkgebilde und die Paradoxe und Widersprüche für begriffliche
Falschheiten. Und das kann nach allem, was darüber schon ausgeführt wurde, nur
selber falsch sein. Der Tatbestand ist selber ein Beispiel für Parmenides‟ These,
daß der Weg der Falschheit selbst zur Wissenschaft gehört.
Vergessen wir aber auch nicht den Sophisten Gorgias (ca. 480 - 380 v. Chr.)
den man gewöhnlich nur als den Erzvater des Nihilismus und der Leugnung aller
wissenschaftlichen Erkenntnis hinstellt. 113 Er hatte behauptet, es sei überhaupt
Nichts (Me on ὴὄnicht-sein, und wenn Etwas (Sein: on ὄ) sei, so könne
es nicht erkannt werden, und wenn es erkannt werden könne, so könne es nicht
ausgesprochen werden. Hinsichtlich des Arché-Problems ist seine Stellung eine
unabweisbare Konsequenz der Diskussionslinie Anaximander - Parmenides -
Zenon. Es ist die Einlösung der These des Sophisten Protagoras, daß es vom
Menschen abhängt, ob er das Sein oder das Nichts als „Arché“ behauptet.
Wenn die Arché aller vordergründigen Realität mit Anaximander als „unbe-
stimmt” gilt, so kann sie (wie es später Aristoteles von der absolut form- und
gestaltlosen Materie sagte) auch das Nichts genannt werden. Daß somit das Ziel
aller Forschung die Erkenntnis des Seins als eigentlich Nichts sein muß, das
haben später alle Mystiker behauptet, zu jener Zeit aber auch die Buddhisten in
Indien, von denen mancher auch damals schon als „Gymnosophist“ in Grie-
chenland aufgetreten sein und für die neue Lehre geworben haben mag. Jedenfalls
deuten auch die stammelnden Ausdrucksformen der Mystiker darauf hin, daß dies
Nichts schwerlich auszusprechen ist.
So sollte man auch Gorgias lesen: Es ist überhaupt das Nichts; wenn aber
Etwas wäre, so müßte es als Nichts erkannt werden; wenn aber Etwas als Nichts
erkennbar wäre, so müßte es als das Nichts ausgesprochen werden.
Nimmt man aber Georgias wörtlich und damit ernst, so kann auch seine
angeblich skeptische These nur ein Beitrag zur „Rettung der Phänomene“ sein, die
sich gegen die parmenideische Lehre vom falschen Weg der Forschung richtete
und dessen Lehre über das Nichts nicht mehr als falsche, sondern als wahre Lehre
propagierte. Wenn Parmenides im reinen Denken nur die Einheit und Unbe-

113
Vgl. W. Capelle, Die Vorsokratiker. Die Fragmente und Quellenbericht übers. und eingeleitet, Stuttgart 1968, S. 345 –
353.
200

wegtheit erfaßte, und wenn sein Schüler Zenon das, was da gedacht werden sollte,
schon an sinnlichen Phänomenen auswies: daß der eine Pfeil jeweils an einem Ort
ruht, so war es konsequent, die Einheit und Unbewegtheit auch einmal gänzlich
sinnlich zu demonstrieren.
Was aber wäre einheitlicher und unbewegter als die sinnliche Erfahrung der
absoluten Stille bei angestrengtestem Horchen, oder der absoluten Finsternis bei
angestrengstem Schauen und Spähen, oder gar der reinsten Luft bei ange-
strengtestem Schnüffeln und Riechen. Was man in diesen Fällen jederzeit sinnlich
wahrnimmt, das nennt man schlicht - Nichts.
Ersichtlich ist auch das, was man so das Nichs nennt, ein sinnlicher Erfahrungs-
gegenstand neben vielen anderen. Aber er erfüllt sehr genau die Kriterien, die
Parmenides als Wahrheitskriterien der Arché vorausgesetzt hatte, nämlich ein-
heitlich und unbewegt (unveränderlich) zu sein. Gorgias zeichnet es - eben wegen
der parmenideisch-zenonischen Wahrheitskriterien, als Arché aller sonstigen
vielfältigen und veränderlichen Sinnesgegebenheiten aus und begründet damit den
abendländischen Nihilismus. Er hat nicht nur die Phänomene, sondern das Nichts
selber als Phänomen „gerettet“.
Gewiß hätte ohne diese Rettung des Nichts als Phänomen durch Gorgias auch
die Lehre des Demokrit vom Leeren (oder leeren Raum) wohl kaum später solche
Fortüne bei den Naturwissenschaftlern machen können. Denn der leere Raum galt
nachmals bis auf Newton als ein einheitliches ruhendes Nichts, in dem alles
vielfältige und bewegliche Sein „erscheinen“ konnte. Und verhehlen wir uns
nicht, daß auch die gegenwärtige kosmische Physik mit ihrer Bilanzierung positi-
ver und negativer Weltmaterie zu einer großartigen kosmischen Null durchaus in
den Bahnen dieser Vorstellungen wandelt. So darf auch dieser „sophistische” An-
satz als ein wesentliches und propulsives Moment abendländischer Wissenschafts-
geschichte angesprochen werden.

§ 17 Platon (437 - 347)


Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die
Begriffe, Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken
als Noesis und Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw.
Modellen. Die Entdeckung des regulären Begriffs: Dihairesis und Negation. Das Wissenschafts-
konzept als Begründungszusammenhang und als Institution der „freien Künste“. Der Zeitbegriff
als „stehende Zahl“ und die Konstitution des Vergangenen in der Wiedererinnerung.

Platon hat die parmenideischen und pythagoräischen Tendenzen in seiner Ideen-


lehre vereinigt und dabei immer wieder mit dem Hilfsmittel des „dialektischen
Logos“ des Heraklit gearbeitet. Es ging ihm darum, die Einheit und Unbewegtheit
des Seins als „Idee“ zu gewährleisten und trotzdem die „Phänomene zu retten”, d.
201

h. auch der Welt der Sinne und ihren vielfältigen und bewegten Phänomenen
gerecht zu werden.
Ersteres versuchte er mit Hilfe der sokratischen Entdeckung des Abstraktions-
und Verallgemeinerungszusammenhanges der Begriffe, der Induktion (epagoge
ἐή: Wie der Allgemeinbegriff das Gemeinsame und Eine im Verschiede-
nen der Unterbegriffe zusammenfaßt und darstellt (er ist hier gleichsam die „Har-
monie” der Pythagoräer), so stellt auch die Idee des Guten (und zugleich Schönen
und Wahren) als oberster aller denkbaren Begriffe die Einheit in der Verschie-
denheit des ganzen Ideenreiches dar. Sie wird nur im reinen Denken erfaßt. Platon
bedient sich allerdings zur „Veranschaulichung“ der demokriteischen Modell-
Metaphorik, wenn er dies denkerische Erfassen eine „Schau mit dem geistigen
Auge“ nennt, dabei doch voraussetzend, daß der Geist kein Auge hat und deshalb
auch nicht „schaut“. Diesem Ideenreich sind auch die pythagoräischen Zahlen-
und Gestaltverhältnisse zugeordnet, gleichsam die Vorhalle zum Tempel des
Ideenreiches, in den man nur Zugang findet, wenn man sich durch das Studium
der Mathematik mit dem „abstrakten Denken” vertraut gemacht hat.
Anders als bei Parmenides wird die Sphäre der Phänomene, der sinnlich wahr-
nehmbaren Dinge gefaßt. Freilich gibt es über Sinnliches auch bei Platon nur
Meinung, Glaube (doxa ό und pistis í), aber diese sind nicht durchweg
Irrtum und Täuschung, sondern enthalten auch Wahrheit. Soviel ist allerdings
richtig: die Dinge sind nicht das, als was sie erscheinen. Sie „scheinen” etwas zu
sein, nämlich wahre Realität, was sie doch nicht sind. Ihre Seinsart ist eine
geborgte, nämlich von den Ideen und mathematischen Gebilden. Sie sind deren
Abbilder und haben an deren Sein teil (methexis é, participatio = Teilhabe).
Platon erläutert dieses Teilhabeverhältnis, indem er auf das analoge Teilhabe-
und Abhängigkeitsverhältnis von Spiegelbildern und gemalten Bildern von diesen
sinnlichen Dingen hinweist. So ergibt sich gemäß dem Teilhabeverhältnis zwi-
schen allen Seins- und Phänomenbereichen eine ontologische Hierarchie. Sie wird
durch die Neuplatoniker und die frühchristliche Philosophie fest im abendlän-
dischen Denken verankert. Dies hat das pythagoräische Motiv in der Wissen-
schaftskonzeption verfestigt und die Ideen und Begriffe mit einbezogen: For-
schung ist danach die Erkundung der Idee, des begrifflichen Wesens, das in allen
vordergründigen Phänomenen nur „zum Ausdruck” kommt.
Neben der ontologischen Hierarchie verdankt man Platon eine dieser entspre-
chende Hierarchie der (anthropologisch begründeten) Erkenntnisvermögen. Dem
Bereich der Ideen und mathematischen Gebilde ist die Vernunft zugeordnet. Im
reinen Denken „schaut” sie die Idee des Guten, von ihr absteigend über die allge-
meinen Begriffe, die Zahlen und Proportionen bis zu den geometrischen Formen
und wieder aufsteigend zur Einheit, erkennt und erkundet sie begrifflich-diskursiv
das Reich der Ideen und der Wahrheit. Dies erzeugt eigentliche Wissenschaft
(episteme ἐή).
Im Reich der sinnlichen Dinge und ihrer Spiegel- und Abbilder aber orientieren
uns die Sinne, vorzüglich das Auge. Leicht sind sie der Täuschung und dem
202

Irrtum zugänglich. Daher ist, was sie liefern, nur Glaube und Meinung, nicht mehr
eigentliche Wissenschaft. Auf den Weg der Wahrheit führen sie nur, wenn sie zur
„vernünftigen” Erfassung der Urbilder, Ideen und Begriffe Anlaß geben, wenn die
Seele sich anläßlich sinnlicher Anschauung der Phänomene der geistigen Schau
der Idee „erinnert” (anamnesis ἀά).
So steht bei Plato die Erinnerung (man übersetzt anamnesis gewöhnlich mit
„Wiedererinnerung“) zwar für die Ideenschau, die das Einheitliche und Stabil-
Ruhende in der Vielfältigkeit und bewegten Veränderlichkeit der Phänomene
erfaßt. Aber Platon entdeckt und thematisiert damit genau die Leistungsfähigkeit
des Gedächtnisses, das Vergangene, nicht mehr Seiende und damit zum Nichts
Gewordene in ein geistiges Sein, eine seiende Gegenwärtigkeit zu verwandeln, die
in aller empirisch sinnlichen Anschauung als Folie des Einheitlich-Ruhenden, auf
dem sich das Vielfältig-Bewegte abheben kann, miterfahren wird. Aristoteles wird
es in seine Bestimmung der Substanz als des „Ge-Wesens“ (to ti en einai
ìἦἶ), als desjenigen aufnehmen, das historisch und zugleich empirisch
als in der Zeit „Durchständiges“ aufweisbar ist.
So erweitert und verfestigt Platon das vorsokratische Subjekt-Objektschema der
Erkenntnis und Wirklichkeit und macht es zum festen Besitz abendländischer
Wissenschaft:
OBJEKT SUBJEKT

kosmos noetos, geistige Welt Denkvermögen, Vernunft


(mundus intelligibilis
Wahres, Idee des Guten <==> Noesis, Intuition
Sein, Begriffe <==> Dianoia, begriffliches Denken
Zahlen und Zahlverhältnis <==> Dialektik, mathemat. Denken
geometrische Gebilde <==> strukturelles Denken

kosmos aisthetos, sinnliche Welt Sinnesvermögen


(mundus sensibilis)
täuschender Schein, Phänomene <==> sinnliche Anschauung
Abbilder ==> sinnl. Ansch. u. Erinnerung
Schatten <==> sinnl. Ansch. u. Erinnerung

Kritisch ist darauf hinzuweisen, daß Platon trotz allem Bestreben, „vernünftige”
Erkenntnis als das ganz andere und höhere gegenüber der sinnlichen Anschauung
auszugeben, gleichwohl nicht umhin kann, dies nach demokriteischem Vorbild in
der Sprache der sinnlichen Anschauung zu verdeutlichen. Nicht nur sind die
„Ideen” und zumal die geometrischen Gestalten und Figuren als „Bilder” und
sinnliche Formen konzipiert, sondern auch ihre Erfassung gilt ihm als „Schau“,
Betrachtung, „Theorie” (griech.: í Schau). Man interpretiert diese Tatsache
als notwendige Metaphorik, als Akkomodation an beschränkte menschliche Vor-
stellungskraft. Und entsprechend interpretiert man die Tatsache, daß sich Platon
zur Darstellung der höchsten und wichtigsten Einsichten der Gleichnisse und
203

Mythen bedient 114, als Verbildlichung der „unanschaulichen“ Denkgebilde durch


Modelle der sinnlichen Anschauung. Wir können aber hier schon vorausgreifend
darauf hinweisen, daß diese platonische Metaphorologie der Erkenntnis im frühen
18. Jahrhundert durch den irischen Platoniker und Bischof George Berkeley
gründlich revidiert wurde. Berkeley leugnet die unanschauliche Denkerkenntnis
und begründet die Ideenschau direkt in der sinnlichen Wahrnehmung („Esse =
Percipi“; „Sein und Wahrgenommenwerden sind dasselbe). Das platonische Meta-
phernverhältnis wird ihm dadurch zu einem Verhältnis zwischen den Sinnes-
leistungen der einzelnen Sinne. Was man mittels des Auges sieht, wird nach Ber-
keley in einer metaphorischen „Natursprache“ gefaßt und auf die Sinneserfahrung
des Tastsinnes angewendet.
Von Platons Ideenlehre stammen eine Reihe von Grundkonzeptionen der ganzen
späteren Wissenschaftsentwicklung ab, die bei vielen Wissenschaftlern als pure
Selbstverständlichkeiten gelten. Als solche lassen sich nennen:

1. Die Grundunterscheidung zwischen „unanschaulichem (wahrem) Denken“


und fehlbarer (täuschungsanfälliger) empirisch-sinnlicher Wahrnehmung. Sie hat
als parmenideisches Erbe den Vorrang des rationalen Denkens gegenüber empi-
rischer Anschauung und Beobachtung für die Erkenntnis befestigt und zugleich
dieses angeblich unanschauliche Denken - da offensichtlich solches „Denken“
überhaupt keinen Inhalt haben kann – nachhaltig mystifiziert. Die Prätention,
unanschaulich denken zu können, ist seither eine Domäne besonders von Mathe-
matikern, Physikern und nicht zuletzt Theologen geblieben, die dadurch vorgeb-
lich „geniale Einsichten“ und mystische Partizipation am Göttlich-Geistigen jeder
nachvollziehenden Kontrolle entziehen.

2. Die Modell- bzw. Paradigmentheorie. Sie wurde als demokriteisches Erbe ein
unentbehrliches Komplement der rationalistischen These vom reinen unanschau-
lichen Denken. Modelle, Metaphern, Gleichnisse, Analogien, Symbolisierungen
sind bisher - nach Wittgensteins eigener Metapher - die „Leitern“ gewesen, auf
denen man zum nur noch rein zu Denkenden aufsteigen müsse, um sie nach
Erreichung solcher Denkziele „wegwerfen“ zu können.
Kritisch wird man bemerken, daß sich so erreichte schwindelnde Einsichtshöhe
regelmäßig als Schwindel entlarven läßt. Die vorgeführten Modelle sind stets
anschauliche „Sachen selbst“, über welche nicht hinausgegangen werden kann.
Gerade deswegen sind sie nicht das, was durch sie vermittelt bzw. symbolisiert
werden soll (vgl. dazu das in § 12 Gesagte).

114
Vgl. Platon, Politeia (Staat), 6. Buch, 508 a - 509 b: Sonnengleichnis; 6. Buch 509 d - 510 b: Liniengleichnis; 7. Buch,
514 a - 517 a: Höhlengleichnis. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band
6, Hamburg 1958, S. 220 - 222 und S. 224 - 226. – S. auch Platon, Phaidros 246 a - d: Wagenlenker-Modell des Menschen.
In: Platon, Sämtliche Werke Band 4, Hamburg 1952, S. 27f. Es dürfte aus dem indischen Kathaka-Upanishad des Yayur-
Veda 3, 7, Vers 3 - 9 übernommen worden sein, vgl. P. Deussen, Sechzig Upanishads des Veda, 4. Aufl. Darmstadt 1963,
S. 276f.
204

Die platonische Modelltheorie ist seither auch die Unterlage geblieben für alle
hermeneutischen Unterscheidungen zwischen vordergründigem Literal-Sinn und
Hintersinn in den interpretierenden Geisteswissenschaften. Aber auch davon gilt,
daß jeder metaphorische Hintersinn sich nur als anschaulicher Sachverhalt wirk-
lich verstehen läßt. Ebenso liegt diese Modelltheorie noch allem semantischen
Verständnis von logischen und mathematischen Formalismen zugrunde, insofern
die Formalismen als sinnlich-metaphorische Veranschaulichung eines nur zu
denkenden eigentlichen „Ideengehaltes“ aufgefaßt werden.
Hier ist die Lage jetzt dadurch verunklart worden, als man gewöhnlich den
Sachverhalt, auf den ein Formalismus „angewendet“ werden soll, als Modell
bezeichnet, welches den angeblich „unanschaulichen Formalismus“ veranschau-
liche bzw. „erfülle“ oder gar „verifiziere“. Abgesehen davon, daß auch Forma-
lismen keine leeren Denkformen sein können (da es dergleichen nicht geben
kann), die erst durch Anwendung auf Sachverhalte einen Inhalt gewinnen
könnten, sind sie gerade besonders hartnäckige Anschauungsevokationen von
Laut- und Bildgestalten, die sich bei Anwendungen mit deren Anschauungsgehalt
verknüpfen.

3. Die Definition des (regulären, d. h. widerspruchslosen) Begriffs. Platon ent-


deckt als Erbe der sokratischen Dialektik das Allgemeinheitsgefälle der Begriffe
und die dihäeretische (bzw. dichotomische, d. h. zweiteilende) Einteilungsfähig-
keit der Arten und Unterarten der Gattung. Jeder unter ein Allgemeines fallende
reguläre Begriff enthält dieses Allgemeine partizipierend als „generisches“ Merk-
mal in sich und verknüpft es mit einem durch das Wortzeichen besonders bezeich-
neten Merkmal (von Aristoteles dann „Idion“ ἴ, lat. proprium d. h Eigentüm-
liches genannt).
Am Beispiel der Definition des „Angelfischers“ im Dialog „Sophistes“ 115 zeigt
Platon, daß die Merkmale von dihäretisch unter eine gemeinsame Gattung fallen-
den Artbegriffen außer durch das (positive) spezifische Merkmal (Idion) auch
durch die Negation des spezifischen Merkmals der Nebenart bezeichnet werden
können. Z B. ist der „mit der Angel fischefangende Beutemacher“ zugleich ein
„nicht mit dem Netz fischefangender Beutemacher“, wobei der „mit dem Netz
fischefangende Beutemacher“ die Nebenart zum Artbegriff des Anglers darstellt.
Platons Begriffsdefinition besteht demnach in der (intensionalen) Angabe (soweit
möglich) aller über diesem Begriff stehenden Gattungen, an denen er „teilhat“,
und dem hinzutretenden Eigenmerkmal (aristotelisch: „Idion“, „Proprium“, „dif-
ferentia specifica“).
Die wesentliche logische Einsicht Platons liegt in der Entdeckung der Substitu-
ierbarkeit von eigentümlichen (spezifischen) Merkmalen einer Art durch negativ
bezeichnete spezifische Merkmale der dihäretischen Nebenart. Sie begründet den

115
Platon, Sophistes 219 d - 221 a. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a.,
Band 4, Hamburg 1958, S. 189 – 191.
205

Unterschied zum heraklitischen widersprüchlichen Logos, in welchem das jewei-


lige spezifische Merkmal eines Begriffes zugleich und in gleicher Hinsicht positiv
und negativ bezeichnet wird: Der heraklitische „Angelfischer“ wäre zugleich auch
ein „Nichtangelfischer“ (z. B. wenn er gerade schläft und deswegen nicht angelt).
Man bemerke, daß Aristoteles den heraklitischen „nichtangelnden Angelfischer“
zum „potentiellen Angelfischer“ erklären wird.

4. Das Wissenschaftskonzept Platons. Es bezieht sich einerseits auf den Begrün-


dungszusammenhang des Wissens überhaupt, andererseits auf die institutionelle
Seite der Wissensvermittlung.
a. Der Begründungszusammenhang des Wissens schließt an die Hierarchie der
Erkenntnisvermögen und der ihnen zugeordneten Wirklichkeitsbereiche an. Die
„intuitive“ Einsicht in das, was die oberste Idee (des Guten, Wahren und Schönen)
zu denken geben soll, wird Grundlage für jede spätere sogenannte Axiomatik. Sie
begründet insgesamt das Logische als entfalteten Begriffszusammenhang in der
Gestalt dihäretischer Begriffspyramiden. Dieser logische Begriffszusammenhang -
in logischen Urteilen und Schlüssen expliziert – begründet seinerseits die arithme-
tischen Ideen von Zahlen und Proportionen. Auf ihnen beruhen die geometrischen
Konstruktionen, die ihrerseits die unmittelbare ideelle Strukturerfassung der Er-
scheinungswirklichkeit begründen.
Man bemerke, daß dieser Begründungszusammenhang, der zugleich ein Rang-
gefälle der wissenschaftlichen Disziplinen ausdrückt, bis in die Gegenwart wirk-
sam ist. Moderne Platoniker halten es noch immer für selbstverständlich, daß alle
eigentlich wissenschaftliche Phänomenerkenntnis in mathematischen Formen
stattzufinden habe (wobei insbesondere seit Descartes geometrische Konstruk-
tionen grundsätzlich nur als „Veranschaulichungen“ der analytischen, d. h. arith-
metischen Proportionen aufgefaßt werden), die Mathematik insgesamt logisch zu
begründen sei, die Logik aber auf letzten selbstevidenten Axiomen beruhe.
b. Die institutionelle Seite der Wissensvermittlung hat Platon im „Staat“ als
Konzept der „Enzyklopädie der sieben freien Künste“, die jeder Gebildete zu
durchlaufen habe, ausgeführt. Das sogenannte „enzyklopädische Wissenschafts-
system“ (es handelt sich in der Tat allerdings um eine Klassifikation) etabliert
sieben Einzelwissenschaften. Platon trägt der sophistischen Entdeckung des
grundlegenden Unterschiedes zwischen Natur und Kultur Rechnung, indem er
drei dieser Wissenschaften auf die Kultur und das Wesensmerkmal der Sprache
des Menschen, das ihn zum Kulturschöpfer macht, bezieht, die vier übrigen aber
auf die Natur und (nach pythagoräischem Vorgang) auf die Grundmethode der
Naturerforschung, die Mathematik.
Die ersteren drei nannte man später in didaktischer Absicht „Trivium“ (d. h.
Dreiweg). Es handelt sich um Grammatik, Rhetorik und Dialektik (bzw. Logik),
durch die der freie Bürger den richtigen (wissenschaftlichen) Umgang mit der
Schriftsprache, mit der öffentlich gesprochenen Rede sowie mit dem logischen
Denken lernen sollte. Die letzteren vier hießen später „Quadrivium“ (Vierweg).
206

Dieses umfaßte Arithmetik, Geometrie, Astronomie (auch im weiteren Sinne Na-


turwissenschaft) und musikalische Harmonielehre, welche seit den Pythagoräern
ja als mathematische Proportionenlehre der „Sphärenklänge“ benutzt wurde. Der
„Dreiweg“ und der „Vierweg“ als Richtungsausweisung der Wissenschaften
haben nachmals die beiden pamenideischen Wege der Wahrheit und der Falsch-
heit abgelöst und aus der Erinnerung getilgt.
„Triviales“ Kulturwissen und „quadriviales“ Naturwissen der sieben freien
Künste bzw. Disziplinen wurden - angereichert durch die Ergebnisse aristote-
lischer und stoischer Forschungen - durch die Enzyklopädisten der Spätantike und
der beginnenden Scholastik zum Kurrikulum der abendländischen Bildung kon-
solidiert. In den islamischen Hochschulen (Medresen) und etwas später in den
mittelalterlichen Universitäten wurden sie zum Kurrikulum für das Grundstudium
(bzw. Propädeutikum) in der „Philosophischen Fakultät“, das man vor der Zulas-
sung zum „praktischen Berufsstudium“ der sogenannten Höheren Fakultäten
Theologie, Jurisprudenz und Medizin zu absolvieren hatte.
Ersichtlich wurden die sprachlich-historisch orientierten Fächer des Triviums
mit ihrer Nähe zum Problembestand der Theologie und Jurisprudenz zum Aus-
gangspunkt der dann sogenannten Geisteswissenschaften, während das Quadrium
mit seiner Nähe zum Problembestand der Körpermedizin zur Grundlage der
modernen Naturwissenschaften wurde. Die immer weiter forcierte Arbeitsteilung
führte dann im Laufe des 19. Jahrhunderts genau an der Nahtstelle zwischen
Trivium und Quadrivium zur Teilung der einstigen „Philosophischen Fakultät“ in
die neue rein geisteswissenschaftliche „Philosophische Fakultät“ und die neue
„Mathematisch-Naturwissenschaftliche Fakultät“.

5. Das Zeitverständnis Platons soll hier besonders hervorgehoben werden, da es


- meistens unterschätzt und „mythologisch“ verharmlost - abendländische Wissen-
schaft und Weltanschauung nachhaltig geprägt hat. Im „Timaios“ wird die Zeit in
allegorischer Weise als „ein bewegliches Bild der Unvergänglichkeit“ und ge-
nauer als ein „in Zahlen fortschreitendes unvergängliches Bild der in dem Einen
verharrenden Unendlichkeit“ eingeführt.116 Was hier „unanschaulich“ als Zeitbe-
griff zu denken ist, ist die stehende Einheit. Spätere nannten es ein „nunc stans“,
d. h. eine stehende Gegenwärtigkeit der unendlichen vom Demiurgen geschaf-
fenen Welt. Das Modell zur Veranschaulichung dieses Zeitbegriffs aber ist die
nach zenonischem Vorgang in Zahlenfolgen gemessene und „festgestellte“ Ab-
folge der Stadien der Veränderung und Bewegung aller Vielheiten und Teile die-
ser Welt, maßgeblich aber der Bewegungen der Himmelskörper auf fixierten
Ruhepunkten.
Dieses Modell bestimmt die Messung der Bewegung und Veränderung der
Phänomene durch Reduktion auf stehende „Zeitpunkte“, denen Zahlfolgen ent-
sprechen. Heute ist diese Darstellungsweise durch die Digitaluhren technisch
116
Platon, Timaios 37 d. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band 5,
Hamburg 1958, S. 160.
207

realisiert worden, insofern man auf ihnen nur stehende Zahlen (für Stunden,
Minuten und ggf. Sekunden) sieht. In diesen stehenden Zahlen aber sieht man
keinen Hinweis auf vergangene oder zukünftige Zu-Stände. Auf den klassischen
Analoguhren, die das aristotelische Prinzip der Anschaulichkeit der Zeit als Bewe-
gung des Früheren über das Jetzt zum Späteren hin zugrundelegen, sieht man auf
dem Ziffernblatt die Bewegung der Zeit selbst an den Zeigern. Und man sieht
jederzeit hinter den Zeigern eine Vergangenheitsfläche und vor den Zeigern eine
Zukunftsfläche auf dem Zifferblatt.
An Platons Zeitkonzept zeigt sich zweierlei: einerseits die „Nichtigkeit“ der je-
weiligen phänomenalen Gegenwärtigkeit - insofern sie sich auf einen unausge-
dehnten (Null-)Punkt einschränkt, und andererseits das wahre (ideelle) Sein alles
ins phänomenale Nichts hinabgeglittenen Vergangenen, insofern es durch die
zahlenmäßige (chronologische) Wiedererinnerung zu einer geistigen Präsenz ge-
bracht wird. Entsprechendes - bei Platon allerdings unthematisiert - muß für alles
phänomenal Nichtige der Zukunft gelten, das in der denkenden und planenden
Antizipation ebenfalls zu einer ideellen Präsenz gebracht wird.
Man wird bemerken, daß dieser platonische Zeitbegriff die logische Struktur
eines heraklitischen Logos besitzt. Er ist die Einheit der Gegensätze von Sein und
Nichts und damit der ruhende Begriff des Werdens und der Veränderung selbst.
Er liegt auch jetzt noch - undurchschaut in seiner logischen widersprüchlichen
Struktur - dem Verfahren der physikalischen Mechanik und überhaupt der Na-
turwissenschaft zugrunde, die mittels des Zeitbegriffs grundsätzlich unerfahrbare
Vergangenheiten und Zukünfte vergegenwärtigt (als ob sie vor Augen lägen) und
zugleich die jeweils beobachtbaren gegenwärtigen Naturphänomene in der zeit-
lichen Bestimmung selbst „vernichtet“, indem sie sie in „Zeit-Punkten“ zu berech-
nen versucht.
Über den Kult der Erinnerung in den historischen Geisteswissenschaften ist dies
Verfahren auch zur Grundlage der Geisteswissenschaften geworden, insofern hier
die chronologisch bestimmten Daten und Fakten, denen ja ontisch-phänomenal
Nichts entspricht, zur geistigen „Realität“ aller Sinngebilde gemacht wurden. Um
dies zu bemerken, muß man aber die abendländischen Denkgewohnheiten anhand
der in anderen Kulturen entwickelten Denkmuster zu relativieren gelernt haben.
208

§ 18 Aristoteles (384 – 322 v. Chr.)


1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien
als Fragen nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklä-
rende Wissenschaft: Das Vier-Ursachen-Schema der Erklärung. Die metaphysischen Letztbegrün-
dungen. Nachwirkungen des Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der
Wissenschaften, a. die Begrifflehre, b. die logischen Axiome, c. die Urteilslehre, d. die Schluß-
lehre oder Syllogistik. 3. Die Architektonik der Wissenschaften: theoretische und praktische Wis-
senschaften und ihre Ziele und Zwecke

Aristoteles ist der große Systematiker, der alle vorsokratischen Motive in sorg-
fältiger Sichtung und Kritik zusammenfaßt. Da er zwanzig Jahre lang Schüler
Platons war, wiegt dessen Einfluß bei weitem am meisten. Dies so sehr, daß man
bis ins hohe Mittelalter, ja noch in der Renaissance die Unterschiede zwischen
beiden Anschauungen kaum zu unterscheiden wußte und sich umso mehr ihrer
„concordantia“ widmete. Und gewiß sind auch die Ähnlichkeiten und Gemein-
samkeiten ihrer Philosophien größer, als man annehmen möchte, wenn man Pla-
ton zum Begründer des Idealismus, Aristoteles zum Begründer des Realismus
stilisiert.
Soviel ist freilich wahr und von ausschlaggebender Bedeutung: daß Aristoteles
das Auseinanderreißen von Vernunft und Sinnlichkeit, von Idee und Erscheinung
nicht billigt und somit die beiden Reiche wieder zusammenführt, ohne sie jedoch
zu verschmelzen. Er „rettet die Phänomene”, indem er dem Sinnlichen und den
Dingen ihr Recht einräumt, Etwas, Seiendes, Realität zu sein und nicht nur
bildhafter Abglanz höherer eigentlicher Wirklichkeit. Er nennt sie Substanzen,
genauer erste Substanzen. Was Platon die Idee genannt hatte, die Bilder und
Formen solcher substanziellen Dinge, die ihr Wesen ausmachen, nennt er zweite
Substanzen.
So wird die Zwei-Substanzen-Lehre des Aristoteles die Theorie, in welcher der
platonische Dualismus überwunden erscheint, während er doch zugleich peren-
niert ist. Nur gewinnen dabei die ersten Substanzen, die sinnlich erfahrbaren
Dinge, an ontologischem Rang, was die zweiten Substanzen, die „bloßen“ Ideen
und Begriffe vom „Wesen” der Dinge einbüßen. Auch die Sinnlichkeit als Er-
kenntniskraft gewinnt dabei an Schätzung. Sie wird Grundlage aller wissen-
schaftlichen Empirie, nicht mehr nur Medium des Meinens und der Vermutung
wie bei Platon.

1. Das Wissenschaftskonzept des Aristoteles

a. Die empirisch-historische Grundlage. Alle Wissenschaft beginnt mit der


sinnlichen Gewißheit der Erfahrung über das „Daß” von Substanzen (Hóti ὅ),
mit der Kenntnis vom Einzelnen, Besonderen, sinnlich Bestimmten. Dies ist Em-
pirie (Empeiria ἐμπειρία). Aber jede sinnliche Erfahrung von Gegenwärtigem
wandelt sich ständig um in gedächtnismäßigen Besitz von Vergangenem. Dies ist
209

Historia (Historie ἱζηορίη). Die Entfaltung von Empirie und Historie als Wis-
senschaft ist Faktenkunde und Geschichte. Ihre gemeinsame Methode ist die sorg-
fältige und genaue Beschreibung dessen, was sich sinnlich beobachten und ge-
dächtnismäßig behalten läßt.
Was sich so beschreiben läßt, sind die ersten Substanzen. Die Beschreibung
beruht, wie gesagt, auf sinnlicher Beobachtung und Erinnerung an Beobachtetes.
Aristoteles bringt das in die Definition der Substanz ein: Die Substanz (Ousia,
ủíeigentlich: „Seiendheit“) ist ein „To ti en einai“ (òíἦἶ), „etwas,
das war und (noch) seiend ist“. Wir können es mit „Ge-Wesen“ übersetzen. Es ist
ein in der Zeit von der erinnerten Vergangenheit her in die Gegenwart identisch
Durchständiges.
Zur vollständigen Beschreibung gehören aber auch die Eigenschaften und
Verhältnisse, die die Substanzen aufweisen und in denen sie stehen. Für die
vollständige Deskription hat Aristoteles eine ingeniöse Methode entwickelt. Sie
besteht darin, sich am Leitfaden aller möglichen Fragen über das vor Augen
Liegende zu orientieren und diese Fragen jeweils durch die Beschreibung zu be-
antworten.
Die Fragenliste liefert das, was man seither seine Kategorienlehre genannt hat.
Kategorien sind, wie Aristoteles in der Kategorienschrift des Organons ausführt,
allgemeinste Begriffe. Er macht in seiner Kategorienlehre allgemeinste Fragen
selbst zu solchen obersten Begriffen und behält die Fragewörter als Begriffs-
namen bei. Seine Liste variiert in den bezüglichen Texten, und er wird selbst
bemerkt haben, daß sich manche möglichen Fragen überschneiden. Als Haupt-
kategorien stehen jedoch folgende im Vordergrund, und sie wurden nachmals
auch die Grundlage aller weiteren Kategorienlehren, nicht zuletzt bei Kant. Wir
geben sie in doppelter Reihe als Fragen und (allgemeine) Antworten wieder:

Frage Antwort

1. Was? (Ti, í) „Et-Was“, Substanz


2. Wie beschaffen? (Poion, ό) Eigenschaft, Qualität
3. Wie bemessen? (Poson, ό) Maß, Quantität
4. In welcher Beziehung? (Pros ti, ό Verhältnis, Relation
5. Wo? (Pou, ῦ) Ort (Raum)
6. Wann? (Pote, é) Zeitbestimmung (Zeit)

Was als vor Augen liegend beschrieben werden soll, wird demnach zunächst
gemäß der ersten Frage als „Gegenstand“ (eine Substanz) benannt. Alle mög-
lichen Antworten können nur in der Angabe einer sprachlich verfügbaren Benen-
nung des Gegenstandes bestehen. Die anschließenden Fragemöglichkeiten faßt
Aristoteles als Fragen nach den „hinzukommenden“ (symbebekota, 
όlat.akzidentellen) Bestimmungen (daher der Ausdruck „zufällig“) zusam-
men. Sie werden durch Prädikationen in beschreibenden Urteilen mit dem Subjekt
verknüpft.
210

Es ist bemerkenswert, daß Aristoteles ausdrücklich davor warnt, die Was-Frage


nun ihrerseits auf die akzidentellen Bestimmungen anzuwenden, also etwa nach
der Substanz von Qualitäten, Maßen, Relationen, ja auch von Raum- und
Zeit(bestimmungen) zu fragen. Und das muß ja auch über das Verhältnis aller Ka-
tegorien untereinander gelten. Gerade das aber hat man in späteren Katego-
rienlehren immer wieder getan. Und das führte zu den Logomachien über die
„Substantialität“ von Raum, Zeit und Relationen, die „Zeitlichkeit“ von Substan-
zen, Räumen, Qualitäten und Quantitäten, die „Relationen“ von substanziali-
sierten Zeiten und Räumen und anderes mehr.
Kompliziert wird die Lage durch den offensichtlichen Fehler des Aristoteles,
die Überschneidung der Relationskategorie mit den übrigen Akzidenzkategorien
nicht durchschaut zu haben. Ersichtlich lassen sich ja ein Wann und Wo und alle
Maßangaben nur selbst als Relationsverhältnisse bestimmen. Ebenso muß auf-
fallen, daß Aristoteles eine wichtige Frage nicht in die Kategorienliste auf-
genommen hat, die er doch in seinem Werk immer wieder gestellt und beant-
wortet hat. Es ist die Frage nach der Wirklichkeit, Notwendigkeit, Möglichkeit
oder gar nach der „Nichtigkeit“.
Seine Antworten auf diese Frage, die er in der Logik als Modallehre ausführlich
behandelt, sind klar genug und maßgebend geworden: Alles, was vergangen ist
(und nur durch Erinnerung gegenständlich werden kann), wird als „notwendig“
(anankaion ἀí, das gegenwärtig vor Augen Liegende wird als „wirklich“
(energeia on ἐéὄ„aktuell“), alles als zukünftig Vorgestellte wird als
„möglich“ (dynamei on άὄ„potentiell“) beschrieben. Was es aber damit
auf sich hat, wurde schon bei ihm zu einer Grundfrage der Logik und ist es in der
Weiterentwicklung seiner „Modallogik“ und in der Anwendung derselben beson-
ders in den Naturwissenschaften, aber auch in der Alltagssprache geblieben.
Aristoteles wie seine Schule (besonders Theophrast von Eresos ca. 372 - 288 v.
Chr.) haben auf der Grundlage dieser Kategorienlehre dem Abendland auf Jahr-
hunderte hinaus durch ihre beschreibenden „Naturgeschichten” (von Aristoteles„
Verfassungsgeschichten ist nur wenig erhalten) Kenntnis von den Realien ver-
schafft, die als so genau und vollständig galten, daß auf lange Zeiten kaum jemand
sie zu überprüfen für nötig fand. Diese Revision wurde erst seit der Renaissance
in großem Stil in Angriff genommen und brachte die Blüte neuzeitlicher empi-
rischer und historischer Natur- und Kulturwissenschaft hervor, von der die neuere
Historiographie im engeren Sinne ein integrierender Bestandteil ist.

b. Die theoretisch-erklärende Wissenschaft. Auf der Basis empirisch-historischer


Kenntnisse, die dann zu deskriptiven „Historien“ (oder „-Kunden“) der einzelnen
Wirklichkeitsbereiche entfaltet wurden, erhebt sich der Bau der „theoretischen”,
erklärenden Wissenschaft, die aus (empirisch-historischen) Kenntnissen „episte-
mische“ bzw. szientifische Erkenntnis macht. Sie hat das platonische Renommee,
die eigentliche und jedenfalls höhere Wissenschaft zu sein, immer behalten. Und
211

doch führt sie nicht über den Bereich der Dinge, die ersten Substanzen hinaus,
sondern stiftet nur zwischen ihnen Zusammenhänge.
Auch zur Auffindung dessen, was als Erklärung gelten kann, verwendet Aristo-
teles die Fragemethode. Hier ist sein Leitfaden die Frage nach dem „Warum” (di„
hoti ҅ὅ Und auch diese Erklärungsfrage wird nach vier speziellen Frage-
möglichkeiten „kategorisiert“. Es sind die Fragen nach den berühmten „Vier Ur-
sachen“ (aitiai αỉí, causae): nach der (begrifflichen) Form (eidos ἶ causa
formalis), nach dem (materiellen) Stoff (hyle ὕ causa materialis), nach der
Wirkursache i. e. S. (causa efficiens) und nach dem Zweck bzw. Ziel (telos
écausa finalis). Wir können ins Deutsche übersetzen: es geht um das Wo-
durch (Formbestimmung), das Woraus (materielle Verkörperung), das Woher (das
Aristoteles sehr genau mit: „Woher der Ursprung der Bewegung bzw. Verände-
rung“ ὅἡἀὴῆήumschreibt und das Weshalb bzw. das Wo-
rumwillen (bei Aristoteles hou heneka ὗἕoder auch telos έge-
nannt).117
Durch jede der in diesen vier Fragerichtungen erstrebten Antworten wird eine
Ursache für das vorher beschriebene und dadurch gegebene Ding bzw. eine
Substanz angegeben. Jede dieser Ursachen aber muß vorher schon selber als
beschriebene Substanz festgestellt sein. Dies ist „Episteme“ (lat.: scientia), Wis-
senschaft im eigentlichen und engeren Sinne. In ihr findet die vorsokratische
„Archelogie” ihre fortwirkende Ausgestaltung, und sie gibt zugleich die vier Di-
mensionen weiterer Ursachenforschung bezüglich der Ursachen von Ursachen bis
auf erste (oder letzte) Ursachen vor.
Im Zentrum dieser Wissenschaftslehre steht somit das aristotelische Vier-Ursa-
chen-Erklärungsschema. In ihm werden die Richtungen der vorsokratischen und
platonischen Ursachenforschung wie in einem Fadenkreuz vereinigt. Ursachen-
(„Kausal-“) Forschung bleibt nicht eindimensional, sondern wird vierdimensional.
Erklärende und ableitende Forschung heißt: das durch historisch-empirische
Kenntnis gesicherte Faktum mit vier Arten ebenso und schon vorgängig ge-
sicherter Fakten in einen Zusammenhang zu bringen. Dieser Zusammenhang
„erklärt” das je Einzelne und Besondere aus anderem Einzelnen und Besonderen.
So ergibt sich folgendes Schema:

Formursache
Eidos

Wirkursache Herkunft Substanz Telos Zweckursache

Hyle
Materieursache

117
Aristoteles, Metaphysik 983 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 15.
212

Es ist gegenüber einer späteren und üblich gewordenen Neigung zur Mysti-
fizierung dieser Ursachen von größter Wichtigkeit zu bemerken, daß diese Erklä-
rung durch die vier Ursachen ihrerseits die Kenntnis und Gesichertheit derjenigen
Fakten und Substanzen, die als Ursache in Frage kommen, voraussetzt. Diese aber
bedürfen, wie gesagt, zu ihrer eigenen Erklärung selber der kausalen Ableitung
von wieder anderen Fakten. So ist in jeder Forschung weitere Forschung angelegt,
die das je Erkannte in weitere Netze der Erkenntnis einbettet.
Geben wir ein Beispiel, das Aristoteles selbst in seiner „Metaphysik“ vorführt:
Wir sehen (sinnlich gesichert) ein Etwas vor uns stehen. Seine Form erinnert uns
an ein Haus (wir wissen schon, was ein Haus ist, oder wir müssen es uns erklären
lassen). Dies ist seine Formbestimmung durch seine Bezeichnung bzw. durch
einen Begriff. Wir prüfen (sinnlich), woraus es besteht und sehen Steine und Holz.
Dies ist seine Materie (wir geben uns damit zufrieden oder lassen uns weiter
erklären, was Holz und Steine sind). Wir fragen weiter, woher es stammt, und
erfahren (durch Berichte von Augenzeugen, oder wir erinnern uns, gesehen zu
haben), daß es von Bauleuten errichtet worden ist. Dies ist sein „Woher der Ent-
stehung”, bzw. die causa efficiens. Und wir vollenden die kausale Erkenntnis
dieses Hauses, wenn wir auch seinen Zweck – es ist ein Wohnhaus, ein Stall, ein
Tempel, ein Universitätsgebäude – erkundet haben, und falls wir nicht wissen,
was das ist, müssen wir uns das ebenso weiter erklären lassen.
Die Beispiele, die Aristoteles für das Weitererklären der Ursachen aus deren
Ursachen gibt, entstammen den Vorschlägen anderer Philosophen. Daß „Fleisch
aus Erde, und Erde aus Wasser, und Wasser aus Feuer“ als Materieursachen, oder
„daß der Mensch von der Luft bewegt werde, diese von der Sonne, die Sonne vom
Streite“ als Wirkursachen; daß die Zweckursache des Gehens „um der Gesundheit
willen, diese um der Glückseligkeit, diese wieder um eines anderen willen“
geschehe, und entsprechend auch bei der Formursache des „Wesenswas“ (To ti en
einai òíἦἶ), 118 gibt ersichtlich nicht des Aristoteles„ eigene Meinung
wieder. Die Beispiele dienen ihm aber zur Begründung der These, daß die Vier-
Ursachen-Erklärungen nicht ins Unendliche fortgeführt werden können, sondern
jeweils zu einer letzten bzw. ersten Ursache führen. Dies ist sein Thema für das,
was man seither seine Metaphysik nennt, was Aristoteles selbst aber als eine gött-
liche Wissenschaft und als Ontologie (theologike episteme ὴἐή-
ὀíbezeichnet
Aber diese Leistungsfähigkeit des Erklärungsschemas nach den vier Ursachen
hätte sicher nicht genügt, ihm im Abendland auf Jahrhunderte kanonische Geltung
zu verschaffen, wenn Aristoteles ihm nicht durch weitere Ausgestaltung versucht
hätte, gerade das mitzuerklären, was seit Heraklit, Zenon von Eleia und besonders
Platon als Wesensmerkmal der Phänomene und sinnlichen Dinge galt: Verän-
derung, Wandelbarkeit, Bewegung. Wer die Phänomene retten wollte, mußte sich
mit Zenons Paradoxien der Bewegung („der fliegende Pfeil ruht!“), mit dem

118
Aristoteles, Metaphysik 994 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 41f.
213

Logos des Heraklit („Logos als Einheit des kontradiktorisch Entgegengesetzten“)


und Platons These, daß man hinsichtlich der Phänomene nur Glaube und Meinung
(pistis und doxa), aber kein begriffliches Wissen erlangen könne, auseinander-
setzen.
Wir wollen nicht behaupten, daß es bis heute befriedigend gelungen sei, phäno-
menale Bewegung und Veränderung auf den Begriff zu bringen. Aber die von
Aristoteles vorgeschlagenen Begriffe und seine Theorie zu diesem Problem be-
friedigte jedenfalls viele Jahrhunderte. Sie war zum Teil eine Grundlage der
klassischen Mechanik in der Physik und ist in die landläufigen Vorstellungen über
„Bedingungsgefüge“ von Sachverhalten auch der Gegenwart eingegangen.
Das obige einfache Vier-Ursachenschema stellt die uns geläufig gewordene
strikte Unterscheidung zwischen den jeweiligen Ursachen und Wirkungen als je-
weils ontologisch getrennte Dinge dar. Später hat man das als „extrinsisch“ be-
zeichnet. Wer gemäß den vier Ursachen etwas erklärt, muß die äußere (extrin-
sische) Umgebung des Interpretandums kennen. Er muß bei einem Gebäude schon
wissen, was ein Haus, was das Bauzeug, was Bauleute und was die Verwen-
dungszwecke von Gebäuden sind. Aber nicht diese sollen erklärt werden – da man
sie als schon erklärt und bekannt voraussetzt – sondern was und wie sie in dem
Interpretandum „wirken“.
Dieses „intrinsische“ Wirken wird durch eine der Bedeutungen von „Arché“,
nämlich „Herrschaft“ ausdrückt. Die Herrschaft durchwest und bestimmt das Be-
herrschte ganz und gar. Diese Bedeutung hat Aristoteles ebenfalls berücksichtigt
und durch besondere Begriffe gemäß den vier Dimensionen ausgedrückt.
Daß die „Form“ in der Substanz als ihr „Wesen“ enthalten ist, dürfte auch nach
heutigem Verständnis von Wesensbegriffen noch nachvollziehbar sein. Die Form
als „Begriff der Sache“ muß schon „extrinsisch“ bekannt sein, um ihn auch als
„Wesen“ der zu erklärenden Sache wiederzuerkennen. Wer die Form als Begriff
der Sache kennt, erklärt dadurch das, was Aristoteles die „Energie“ (ἐέ, lat.
actus, „wörtl.: beim Werke sein“, dt. „aktuell“, „Wirklichkeit“) der Sache genannt
hat.
Ebenso ist leicht verständlich, daß die Materieursache voll und ganz zur „Ver-
körperung“ der Form in und für die Sache dient und somit in der Sache „intrin-
sisch“ aufgeht. Man muß jedoch das Baumaterial auch extrinsisch schon kennen
um zu erklären, zu welcher Gestaltung in einem Gebäude es geeignet ist. Die in
der Sache verkörperte Materie wird von Aristoteles definiert als das zur Auf-
nahme und Verkörperung von Formen Fähige. Und das wird speziell „Kraft“ (Dy-
namis ύ, lat. potentia, dt.: Anlage, Fähigkeit, Vermögen, Disposition zu...,
Möglichkeit) genannt.
Wer also die Materie einer Sache kennt, der erklärt durch sie, welche Mög-
lichkeiten zur Verwirklichung (Formaufnahme) in ihr liegen. Das „seiner Mög-
lichkeit nach Seiende“ (to dynámei on  ά ὄ) ist jedoch ein hera-
klitischer Logos, nämlich der Begriff von etwas, was zugleich ist und nicht ist.
Die Sache existiert jeweils als bestimmt geformte Materie, zugleich existiert sie
214

nicht in derjenigen Form und Gestalt, die sie aufnehmen kann aber noch nicht auf-
genommen hat.
Damit erweist sich die intrinsische Kraft oder Potenz als eine Ursache, die nur
als heraklitischer Logos, also als widersprüchlich vorgestellt werden kann, wie
das auch schon vorn in § 5 gezeigt wurde.
Dasselbe Enthaltensein im zu erklärenden Gegenstand muß nun aber auch für
die Wirk- und Zweck-Ursachen gelten, die man später nur als getrennte („extrin-
sische“) ansah.
Die intrinsische Zweckursache wird, wie es Aristoteles mit dem von ihm ge-
prägten Terminus klar ausdrückt, als „Entelechie“ (ἐέentelechia, Ten-
denz zu …, „das Ziel bzw. den Zweck in sich habend“) bezeichnet. Um mittels
der Entelechie etwas zu erklären, muß man die Zwecke und Ziele schon kennen,
z. B. beim Hausbau, welchem Zweck es dienen soll. Vermutlich hat Aristoteles
diesen technischen Begriff nach dem Beispiel des „Strebens“ (ὁή, hormé, Nei-
gung zu…, Bestreben bei beseelten Lebewesen, deutsch noch in „Sehnsucht“
erhaltengebildet. Bei den beseelten Körpern, die sich „von selbst“ bewegen
können, wird die Hormé selbst als „Anfang der Bewegung“ (arché tes kineseos
ἀὴῆήdefiniert.
Daß die Wirkursache außen vor (extrinsisch) bleibt, dürfte auf der Hand liegen
und ist in allen späteren Kausaltheorien festgehalten worden. Aristoteles nennt
ihre Wirkung „Schlag“ bzw. „Stoß“ (plegé ήDer Schlag oder Stoß ist eine
äußere Berührung durch einen bewegten Körper, die man sinnlich wahrnimmt. Er
bewirktdie Bewegung (kinesis íals Ortsbewegung oder als innere Ver-
änderung der Sache. Erst diese Bewegung oder Veränderung ist die intrinsische
Wirkung, z. B. daß ein Steinblock durch Behauen die Form und einer Statue an-
nimmt. Dazu muß man die Arbeiter und ihre Handwerke (technai, artes) kennen,
um zu erklären, was sie durch ihre Arbeit intrinsisch bewirken. Im Hinblick auf
die erwünschte Form und Gestalt beschlagen und behauen sie Steine und bewegen
sie zu ihren vorgesehenen Örtern. Der Schlag oder Stoß einer Waffe mag eine
Verwundung verursachen, die den lebendigen Organismus gänzlich verändert.
Alle Substanzen stehen nach Aristoteles in steter Berührung untereinander, denn
es gibt keinen „leeren Raum“ zwischen ihnen, wie sein Argument vom „horror
vacui“ gegen die demokritische Lehre vom „Leeren“ (kenón ó) der ganzen
Natur zeigt. Ein Schlag ändert deshalb alle vorher bestehenden Kontakte der
Substanz mit ihrer Umwelt. Das zeigt Aristoteles bei seinem Paradebeispiel des
Steinwurfs, bei dem nicht nur der Stein, sondern auch die ihn umgebende Luft in
Bewegung versetzt wird.
Bei den Bewegungen der vier materiellen Elemente Erde, Wasser, Luft und
Feuer unterscheidet Aristoteles grundsätzlich die „natürlichen“ und die „erzwun-
genen“ Bewegungen. Die natürlichen Bewegungen sind jederzeit am Fallen von
Erdhaftem und von Flüssigkeiten in gerader Richtung auf den Erdmittelpunkt hin
zu beobachten. Ebenso bewegen sich Luft und Feuer in gerader Richtung nach
oben. Das hatte schon Empedokles gesehen und die vier Elemente durch „Liebe“
215

und „Haß“ sich gegenseitig anziehen und abstoßen lassen. Es war eine Verall-
gemeinerung der Erfahrungen mit Magneten. Von ihm hat Aristoteles sowohl die
Theorie der vier Elemente wie auch die Theorie, daß Gleiches zu gleichem strebt,
übernommen.
Aristoteles hat wohl deswegen Leichtigkeit und Schwere (koupha oῦ und
baria ί) als „natürlich“ angesehen. Schwere und Leichtigkeit sind bei ihm
Bezeichnungen für ihre spezifischen „Entelechien“, die sie auf geradem Wege zu
ihrem „heimatlichen Ort“ (oikeios topos ἰĩó) hinführen. Z. B. Erd-
haftes und Flüssiges zum Erdmittelpunkt hin, Luft und Feuer in entgegengesetzter
Richtung nach oben. Ebenso wächst ein Lebewesen durch seine Entelechie zur
vollendeten Gestalt etwa der ausgereiften Pflanze oder des erwachsenen Tieres
und des Menschen.
Erzwungene Bewegung zeigen sich in allen Bewegungsrichtungen, die von den
natürlichen abweichen. Das bedeutet in erster Linie, daß sie die vier Elemente
daran hindern, ihren natürlichen Bewegungsrichtungen zu folgen. Der Stein auf
dem Tisch und das Wasser im Krug fällt nicht nach unten (und natürlich auch
nicht nach oben!), sondern es wird zum Liegenbleiben bzw. zur Ruhe gezwungen.
Aufsteigender Luft und dem Feuer wird an der Zimmerdecke eine Ausweich-
richtung aufgezwungen. Und nur diese Abweichungen sind es, die durch die
Wirkursache (causa efficiens) erklärt werden sollen. Es wird also nicht eine Be-
wegung oder Veränderung selbst erklärt, sondern die von den natürlichen abwei-
chenden Richtungen dieser erzwungenen Bewegungen.
Aristoteles diskutiert das beispielhaft an der Wurfbewegung.
Der Wurf eines Steines durch eine werfende Hand bewegt nicht nur den Stein,
sondern auch das umgebende Medium der Luft in die aufgezwungene Richtung.
Wie die Erfahrung lehrt, verwirbelt sich die mitgeführte Luft alsbald in alle an-
deren Richtungen. Wäre das nicht der Fall, würde sie den Stein weiter mit sich
nach oben führen. Die Erfahrung zeigt, daß der geworfene Stein die ihm „aufge-
zwungene“ Richtung nicht beibehält, sondern allmählich in einer ballistischen
Kurve (die der damaligen Geometrie als Parabel-Kegelschnitt längst bekannt
war), zur natürlichen Richtung auf den Erdmittelpunkt zurückkehrt. Hätte es
Aristoteles schon mit befeuerten Ballonen zu tun gehabt, hätte er wohl erklärt, daß
das Feuer den luftgefüllten Ballon durch und über die Luft zu den Sternen ent-
führen würde.
Wie wird nun dieses komplexere Vier-Ursachen-Schema zur Erklärung von
Bewegungen und Veränderung der beobachtbaren Dinge in der Welt eingesetzt?
Aus dem Schematismus der vier Ursachen ergibt sich, daß Potenz und aktuelle
Wirklichkeit (dynamis und energeia) in umgekehrt proportionalem Verhältnis zu-
einander stehen müssen. Je mehr Potenz, Dynamis, Möglichkeit, Kraft, Macht,
Anlage (zu Beginn einer Bewegung oder Entwicklung), desto weniger Akt, Ener-
gie, Wirklichkeit. Und umgekehrt: je mehr Wirklichkeit, Energie, „Reife” (gegen
Ende einer Entwicklung), desto weniger Potenz, Möglichkeit, Kraft. Aristoteles
hat auch einen Begriff für den „Abstand”, die „Beraubung” (steresis έ,
216

privatio), der die jeweilig erreichte Form und Gestalt vom vollendeten Zustand
oder Ziel trennt. Dieser „Abstand” muß gemäß der Proportionalität eine negative
Größe für die Energie (deshalb der negative Ausdruck „Beraubung”) und eine
positive Größe für die Potenz sein. Denn bei großem Abstand von Ziel ist die
Dynamis bzw. Potenz, dahin zu gelangen, noch größer als bei jeder weiteren
Annäherung.
Aristoteles hat es vermieden, bei seinen Erklärungen mittels der vier Ursachen
die auch von seinen Vorgängern, erst recht aber von den Nachfolgern ins Spiel
gebrachten Begriffe von Raum und Zeit und von quantifizierten Strecken und
Längen oder zeitlichen Dauern zu verwenden. Und so stellten sich in seiner Be-
wegungslehre auch keine zenonischen Paradoxien ein, die sich erst in der Be-
ziehung von Bewegungen auf quantifizierte Strecken und Punkte und ihre zeit-
liche Bemessung ergeben, wie sie für die neuzeitliche mathematische Physik kon-
stitutiv geworden sind.
Fügen wir hinzu, daß für den Bereich mechanischer Ortsbewegungen diese Ter-
minologie trotz aller antiaristotelischen Purgatorien der neuzeitlichen Physik
speziell in der Mechanik und „Dynamik” erhalten geblieben ist. Man kann es noch
an den physikalischen Begriffen „Impuls“ (als Wirkursache) und „Entropie“ (als
richtungsgebende Finalursache von physikalischen Prozessen in abgeschlossenen
Systemen, Vorgängerbegriff war der von Joh. Buridan eingeführte Begriff im-
petus, d. h. „inneres Streben“) erkennen. Für den Bereich der Organismen und für
das Wachstums hat sich die Rede von den „entelechialen” Kräften und Tendenzen
und aristotelischer Teleologismus fast bis zur Gegenwart erhalten. Um die Jahr-
hundertwende erhielt die entelechiale Theorie durch die evolutionsgenetischen
Befunde großen Auftrieb (wie z. B. bei Hans Driesch).
Fassen wir auch diese Modifikationen des Vier-Ursachen-Schemas zur Erklä-
rung bewegter und sich verändernder Dinge zu einem Schema zusammen, so
ergibt sich folgende Figur:
Form
eidos

informatio Wesens-Begriff
Wirkursache plegé Bewegung Veränderung Substanz hormé u. entelechia Tendenz Telos
Dynamis, Potentia, Anlage

hyle
Materie

Es ist hervorzuheben, daß diese Theorie der Bewegung und Veränderung ihrem
teleologischen Charakter gemäß jeweils die reife Gestalt bzw. die Ruhe als Ziel
einer Bewegung privilegiert. Jede Bewegung kommt zur Ruhe, wenn sich ihre
Entelechie erschöpft hat, wenn also ihr Ziel erreicht ist. Die Relativität von
Bewegung und Ruhe ist in diesem Schema undenkbar. Erst recht ist es der
217

neuzeitliche Gedanke einer unendlichen ungestörten geradlinigen Bewegung (seit


Newton). Ebenso enthält die Theorie keine Aussage über Verfall und Auflösung
bei Veränderungen, die doch auch natürliche Prozesse sind. Nicht Verfall und
Tod, sondern Vollendung und reife Gestalt sind die ideellen und konzeptuellen
Muster, unter denen Aristoteles die lebendige Natur betrachtet hat: eine schwere
Hypothek bis in unsere Tage, wo man weithin noch immer fassungs- und gedan-
kenlos vor diesen Phänomenen des Verfalls steht.
Einzig und allein die Kreisbewegungen des Firmaments und aller Himmels-
körper, die aus reinem Feuer bestehen und deshalb leuchten, sind bei Aristoteles
ohne Anfang und Ende. Die Kreisbewegungen sind daher für Aristoteles vollkom-
mene Bewegungen mit stets gleichbleibender „Energie“. Auf den Kreisen und
Epizyklen der aristotelisch-ptolemäischen Astronomie läßt sich kein Anfangs-
oder Endpunkt ausmachen. Vielmehr sind diese Kreisbewegungen selbst die erste
Ursache aller Bewegungen im „sublunarischen“ meteorologischen Bereich der
Wettererscheinungen und auf der Erdoberfläche, wie z. B. von Flut und Ebbe. Die
Kreisbewegung des Mondes um die Erde zieht die Wassermassen der Meere mit
sich, bis sie an den erdhaften Küsten zurückprallen und zu ihren heimatlichen
Örtern zurückkehren. So entstehen Flut und Ebbe an den Küsten.

c. Die metaphysische Letztbegründung. Es dürfte klar sein, daß die Frage nach
den letzten Ursachen nicht mehr im Bereich erklärender Forschung liegen kann,
die von solchen Ursachen zur Erklärung des Einzelnen Gebrauch macht. Letzte
Ursachen haben definitionsgemäß keine Ursachen, wenn es überhaupt letzte
Ursachen gibt. Ihre Behandlung ist das Thema der Metaphysik bzw. Theologie)
oder einer „ersten Philosophie”. Sie stellt die Frage, ob es in den vier Kausaldi-
mensionen letzte Ursachen geben könnte, die für die von ihnen verursachten Sub-
stanzen „erste Gründe“ sein müßten, für den forschenden Wissenschaftler und die
Wissenschaft insgesamt aber nur als „letzte Ursachen“ erkennbar sein könnten.
Die aristotelische Metaphysik postuliert bekanntlich gemäß den vier Kausaldi-
mensionen vier letzte Ursachen. Es muß einen „ersten Beweger” geben, der selbst
unbewegt ist und bleibt, ebenso ein letztes Ziel, einen Endzweck der Welt, was
Aristoteles (mit Platon) das höchste Gute nennt. Die Reihe der Formen als
allgemeiner Begriffe kann nur durch einen allgemeinsten und höchsten Begriff
abgeschlossen werden, den Aristoteles Sein (On ὄ) nennt. „Sein“ bezeichnet die
allgemeinste Form ohne jede Beimischung von Materie und wird deshalb auch
reine Energie (ἐέlat.actus purus) genannt.
Diese drei ersten Ursachen sind das, was alle den „Gott“ nennen.
Ebenso muß jedoch die Stufung der Materien mit einer letzten gänzlich form-
losen Materie enden. Aristoteles nennt sie „prima materia“ (óὕoder
auch „Nichts“ (bzw. Nicht-Sein ὴὄ)..

d. Schließlich ist ein Blick auf die Wirkungsgeschichte des aristotelischen Vier-
Ursachen-Schemas zu werfen. Die ersten drei Letztursachen haben der aristote-
218

lischen Theologie der Hochscholastik als metaphysische Argumente für den trini-
tarischen Gottesbegriff gedient. Die vierte Letztursache der reinen (formlosen)
Materie (als Nichts) erlangte in der sogenannten negativen Theologie, dann aber
auch bei allen Satans- und Teufelsvorstellungen eine bedeutende Nachwirkung.
Die moderne Naturwissenschaft seit Galilei bleibt auch dann noch im Rahmen
des aristotelischen Vier-Ursachen-Schemas, wenn sie Erklärungen aus Ziel- und
Form-Ursachen ablehnt und die Natur ausschließlich aus Wirkursachen (causae
efficientes) als Kräften im modernen Sinne und Materie (Masse) erklärt. Damit
überließ sie die Form- und Ziel-Ursachen dem nicht-natürlichen Bereich der
Wirklichkeit, der Kultur- und Geisteswelt, als Erklärungsprinzipien, dessen sich
die modernen Geisteswissenschaften angenommen haben.
Diese, konservativer als die Naturwissenschaften, verzichten zwar nicht darauf,
ihre Gegenstände auch aus Materie und Wirkursachen zu erklären und sich so der
naturwissenschaftlichen Erklärungsmuster zu bedienen, ihr Schwerpunkt liegt
jedoch in der Erklärung aus Formen („Sinn“, Ideen, Begriffen, Gestalten) und
Zielen bzw. Zwecken („Bedeutung“). Und dies grenzen sie methodologisch als
„Verstehen” gegen das „kausale” Erklären der Naturwissenschaften ab. Will man
also verstehen, was hier geschieht, so ist der Rückgriff auf das aristotelische Vier-
Ursachen-Schema noch immer von großer Bedeutung. Es ist selbst eine Form, in
welcher wissenschaftliche Tätigkeit, Forschung als Erklären und Verstehen, Ge-
stalt gewonnen hat. Darauf ist später nochmals genauer einzugehen.

2. Die formale Logik als Instrument (Organon) der Wissenschaften

Zu den bemerkenswertesten Leistungen des Aristoteles gehört die Begründung der


formalen Logik als Lehre von Begriff, Urteil und Schluß und ihren Gesetzen bzw.
Axiomen. Sie ist in den „ersten und zweiten Analytiken”, den „Kategorien”, der
„Topik”, den „sophistischen Widerlegungen” und in der „Hermeneutik” niederge-
legt, welche Schriftengruppe die Späteren zum „Organon” (= „Werkzeug”, Hilfs-
mittel der Wissenschaften, nicht selber Wissenschaft) zusammengestellt haben. In
ihr gewinnt eine der Hauptmethodologien abendländischer Wissenschaft - neben
der Mathematik - ihre erste, frühreife und bis heute verbindliche Gestalt.
Da Aristoteles keine eigene Sprachphilosophie vorgelegt hat, wohl aber Platon
schon (im Dialog „Kratylos“) viele einschlägige und nachwirkende Gedanken
über die Sprache entwickelt hatte, kann man davon ausgehen, daß die aristo-
telische Logik zu einem gewissen Teil seine Sprachphilosophie enthält. In der Tat
ist sie ein Unternehmen, dasjenige in der (griechischen) Sprache genauer zu unter-
suchen und aufzubereiten, was sich für die oben geschilderten beschreibenden und
theoretisch-forschenden und erklärendenVerfahren der Wissenschaft eignet.
Logisch relevant aus dem umfassenderen Sprachmaterial sind zunächst die der
Beschreibung dienenden Wörter für Substanzen (Subjekte der Aussage) und für
die akzidentellen näheren Bestimmungen (Satzaussagen, Prädikationen), wie es
219

die Kategorienlehre vorordnet. Sie werden zu logischen „Begriffen“ stilisiert und


zugleich durch Buchstaben „formalisiert“. Dabei wird ausdrücklich vor sprach-
lichen Homonymien (dasselbe Wort für verschiedene Dinge) und Synonymien
(verschiedene Wörter für dasselbe Ding) wie auch vor Paronymien (als Bedeu-
tungsübertragungen von einem Ding auf ein anderes) gewarnt.
Das sogenannte Identitätsprinzip der aristotelischen Logik fordert das Festhalten
eines und desselben Begriffes in thematischen Argumentationen. Und zwar eben
deswegen, weil wegen der sprachlichen Synonymien, Homonymien und Parony-
mien oft schwer festzustellen ist, um welchen Begriff hinter der sprachlichen
Bezeichnung es sich handelt. Die beschreibenden „Begriffe“ sind, wie Aristoteles
in der Hermeneutikschrift betont, psychische Abbilder von sinnlich beobachtbaren
Gegenständen, die von allen Menschen in gleicher Weise vorgestellt bzw. erinnert
werden. Nur ihre Laut- und Schriftdarstellung in den verschiedenen Sprachen sind
verschieden.119 Offensichtlich entspringt aus dieser sprachlichen Verschiedenheit
der Benennungen das Bemühen um die „Formalisierung“ dieser „begrifflichen“
Elemente, die insofern der Versuch einer Neutralisierung der Sprachverschieden-
heiten ist.
Während die logischen Begriffe etwas zu denken und vorzustellen geben,
drücken sprachliche Sätze Verknüpfungen der „kategorialen“ Bestimmungen mit-
tels sprachlicher Verknüpfungswörter aus. Auch hier wählt die Logik einen Teil
von Sätzen aus den grammatisch unterscheidbaren Satzformen aus, nämlich sol-
che, die einen Behauptungssinn enthalten und dadurch Wahrheit und/oder Falsch-
heit zum Ausdruck bringen. Der logisch relevante Satz ist für Aristoteles der ent-
weder wahre oder falsche Behauptungssatz. Befehle, Wünsche, Fragen, Vermu-
tungen u. a. sind insofern nicht „wahrheits- bzw. falschheitsfähige“ grammatische
Satzformen.
Als logisch relevante Verknüpfungswörter in Behauptungssätzen benutzt Aristo-
teles „zukommen“ (tygchanein ά „ist“ (esti ἐísog. Kopula“nicht“
(ouk ὔegation in Verbindung mit dem „Zukommen“ oder der Kopula),
„wenn ... dann“ (ei ... ἶ, in Verbindung mit den vorigen oder auch ohne diese
Verbindung).
„Und“ (kai í), „oder“ (eite ἶ) und gelegentlich das einfache „nicht“ (me
μή) verknüpfen innerhalb eines Behauptungssatzes mehrere Subjekt- oder Prädi-
katbegriffe zu komplexen begrifflichen Ausdrücken, die als solche (wie auch die
selbständigen Begriffe) keinen Wahrheits- bzw. Falschheitswert besitzen. Aristo-
teles hat diese Funktion der Ausdrucksbildung von „und“, „oder“ und der ein-
fachen Verneinung nicht beachtet, was sich bis heute als Lücke in der Logik
bemerkbar macht. Deswegen ist die Natur solcher Ausdrücke, zu denen etwa die
negativen Begriffe und die durch mathematische Rechenarten verknüpften Aus-

119
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 16 a. in: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 86.
220

drücke (Summe, Produkt, Differenz, Quotient) gehören, bisher unterbelichtet ge-


blieben (vgl. dazu, was darüber in § 9, 4 gesagt wurde).
Die später sogenannten Quantifikatoren „alle“ (tauta ύAllquantor, oder
auch katholou óvom Ganzen gesagt), „einige“ (tines íPartikulari-
sator, oder auch en merei ἐέauf einen Teil bezogen) und „ein“ (tis í
Individualisator) werden von Aristoteles als Bedeutungsmodifikationen aus-
schließlich von Substanzbegriffen behandelt (erst die neuere Logik hat versucht,
auch die „Prädikate“ zu quantifizieren). Daneben spricht er auch von „unbestimm-
ten“ (ahoristoi ἀὁíBegriffen bzw. Ausdrücken, die also keine Quantifi-
kation aufweisen. Auch hierbei hat Aristoteles übersehen, daß die Quantifika-
tionen ihrer logischen Funktion nach komplexe Ausdrücke bilden, indem sie einen
Begriff mit einem oder mehreren anderen Begriffen im Rahmen eines Begriffs-
umfanges verknüpfen. Diese Verkennung hatte gravierende Folgen für seine
Schlußlehre, die sogenannte Syllogistik, die bei ihm in wesentlichen Teilen auf
der Struktur dieser quantifizierten Ausdrucksverknüpfung beruht.
Von allen diesen Verknüpfungswörtern, später Junktoren (in der mathemati-
schen Logik auch Funktoren oder Operatoren) genannt, meint Aristoteles, daß sie
erst in der Satzverbindung selbst und in Abhängigkeit von den kategorialen Be-
griffen eine eigene - logische - Bedeutung erhielten. Daher nennt er sie „Synkate-
goremata“ (ήlatconnotationes, „Mitbedeuter“). In der Tat
hat er aber ihren gemeinsprachlichen Sinn in die Logik mitübernommen, ohne daß
dies von ihm und späteren Logikern durchschaut wurde. Eine eigene Junkto-
renlehre hat Aristoteles nicht aufgestellt, und er hat die Junktoren auch nicht
„formalisiert“ d. h. durch eigene logische Zeichen dargestellt.
Aus den sprachlichen Satzverbindungen, den „Reden“, läßt Aristoteles als
logisch relevant nur die behauptenden Aussagen zu, durch die sich Wahres oder
Falsches darstellen läßt. Daneben behandelt er jedoch als Kernstück seiner Logik
auch die aus mehreren behauptenden Sätzen bestehenden Argumente. In diesen
stehen die einzelnen Urteile in einem solchen Verhältnis zueinander, daß aus
einigen von ihnen („Prämissen“) ein einzelner Behauptungssatz hinsichtlich seiner
Wahrheit oder Falschheit abgeleitet bzw. „bewiesen“ wird. Wichtig ist hier die
thematische Einheit des Sinnzusammenhangs dieser Satzverbindung (die später
von einigen Stoikern und von der modernen Logik aufgegeben wurde). Die argu-
mentative und beweisende Rede wird in der Syllogistik auf gewisse Standard-
formen der Schlüsse gebracht. Es liegt auf der Hand, daß bei den Behaup-
tungssätzen besonders die Wenn ... dann-Verknüpfungen und darüber hinaus alle
Syllogismen das logische Instrumentarium für die Artikulation der theoretischen
Erklärungen und der Ursachenforschungen darstellen sollen. Die Syllogismen
gelten Aristoteles grundsätzlich als Beweisformen.
Die aristotelische Logik greift aus dem Sprachmaterial diejenigen Elemente
heraus, die sich für die Darstellung von Wahrheit und Falschheit eignen. Was
diese sind, ist offensichtlich auch bei Aristoteles vom parmenideischen Denkan-
221

satz her vorgegeben. Wahrheit wird mit dem Denken des Seins und Falschheit mit
dem Denken des Nichts identifiziert.
Für Aristoteles ergibt sich Wahrheit, wenn über Seiendes behauptet wird, daß es
ist, und über Nichtseiendes, daß es nicht ist. Und umgekehrt ergibt sich Falsch-
heit, wenn über Seiendes behauptet wird, daß es nicht ist, und über Nichtseiendes,
daß es ist. Diese etwas schlichte Bestimmung (aus der Hermeneutikschrift) wurde
zur Grundlage des seither berühmten „aristotelisch-realistischen Wahrheitskon-
zeptes der Korrespondenz“ oder kurz zum „Korrespondenzprinzip der Wahrheit“.
In der Scholastik wurde es als „Adäquationstheorie der Wahrheit“ formuliert.
Man versteht dies so, daß im wahren Denken die Realität (der seienden Dinge und
ihrer Verhältnisse) abgebildet werde. Das wahre Denkbild „entspreche bzw. kor-
respondiere“ dem Sein schlechthin („adaequatio rei et intellectus“ bei Thomas von
Aquin). Dann muß das falsche Denken dem Nichts entsprechen, und falsche
Behauptungen sind grundsätzlich Reden über Nichts, die das Nichts als ein Seien-
des „erscheinen“ lassen.
Das setzt nun allerdings voraus, daß man vor und unabhängig vom Behaupten
jeweils schon weiß, was Sache ist und wie die Realität beschaffen ist, um das
wahre Denkbild mit dem realen Vorbild vergleichen zu können. Wie derartiges
möglich sein könnte, hat weder Aristoteles erörtert, noch ist es von den „rea-
listischen“ Vertretern dieser Wahrheitskonzeption jemals befriedigend gezeigt
worden.
Eine Reaktion auf diese Lage war die Weiterentwicklung des „idealistischen“
platonischen Ansatzes zur sogenannten Kohärenztheorie der Wahrheit, in der alle
Wahrheit auf den inneren Zusammenhang (Kohärenz) des Denkens selbst und alle
Falschheit auf Inkohärenzen, gleichsam Brüche, im Denken zurückgeführt wer-
den. Inkohärent war und bleibt es, die sogenannte objektive Realität bzw. Kants
„Dinge an sich“ (in der 2. Auflage der Kritik der reinen Vernunft) realistisch als
etwas ganz anderes (aber „wie anders“ konnte nie erklärt werden!) zu behandeln
denn als sinnlich wahrgenommene und gedanklich verarbeitete Erfahrung. Und
kohärent war und bleibt es, diese sinnlich erfaßte Erfahrungswelt und ihre gedank-
liche Vereinheitlichung im Idealismus auszuarbeiten (so in Berkeleys Esse =
Percipi-Prinzip und in Kants Lehre vom „Ding an sich als Noumenon“ in der
ersten Auflage der Kritik der reinen Vernunft).
Als Schüler Platons hat auch Aristoteles diesen kohärentistischen Ansatz für die
Ausgestaltung seiner Logik weiterverfolgt. Das zeigt sich darin, daß er sich
bemühte, rein logisch-formale Kriterien für die Auszeichnung von Wahrheit und
Falschheit aufzustellen - gewissermaßen ohne Hinblick auf die Realität. Er fand
sie in dem, was man seither als die drei Grundprinzipien - „Axiome“ - der forma-
len Logik herausstellt: Identität, Widerspruch und Drittes.
Auch auf sie stieß er sicherlich durch genaue Beobachtung der Sprachgebräuche
und ihrer Folgen für wahre und falsche Überzeugungen: Man denkt nicht dasselbe
(Identische), wenn man sich durch gleichlautende (homonyme) Wörter verführen
läßt, Unterschiedliches als dasselbe zu denken. Und man soll sich auch nicht
222

durch verschiedene Benennungen desselben Sachverhaltes (Synonyme) verführen


lassen, Identisches als Unterschiedliches zu denken. Man kann und soll auch nicht
zugleich und in gleicher Hinsicht etwas bejahen und verneinen, denn eines von
beidem muß wahr und deshalb das andere falsch sein, auch wenn man nicht weiß,
welches von beidem jeweils wahr oder falsch ist. Bejaht und verneint man
dennoch etwas bezüglich einer Substanz zugleich, so ergibt sich ein „Wider-
spruch“, und dieser ist die auffälligste Gestalt einer logischen Inkohärenz. Und
wenn man von Beliebigem nur entweder etwas behaupten oder dasselbe verneinen
kann, dann kann es daneben kein „Drittes“ (oder wie Spätere es auch nannten: ein
Mittleres) mehr geben, jedenfalls nicht in demjenigen, was für Wahrheiten und
Falschheiten in Frage kommt. Was es damit auf sich hat, wurde schon vorn in den
Paragraphen 3 und 9 erörtert und bleibt auch im folgenden genauer zu betrachten.

a. Die Begriffslehre. Begriffe sind - abgesehen von dem, was durch sie und mit
ihnen gedacht und vorgestellt wird (nämlich erste Substanzen und ihre Eigen-
schaften, auf die die „formale“ Logik anzuwenden ist) – mehr oder weniger
komplexe Denkformen, die wir schon als „zweite Substanzen“ kennengelernt
haben. Aristoteles hat die Begriffe grundsätzlich als Einheiten behandelt und sie
deshalb in seiner Formalisierung durch einfache Zeichen (griechische Buchstaben,
die zugleich auch Zahlzeichen sind) dargestellt.
Es liegt auf der Hand, daß er dadurch eine wesentliche Einsicht Platons für die
Formalisierung ungenutzt läßt, nämlich gerade die Einsicht in die Zusammen-
setzung der Begriffe aus Merkmalen und Umfängen. Man kann hier schon darauf
hinweisen, daß der große Aufwand, den er mit der formalen Syllogistik treibt, nur
eine Kompensation dieses Defizits an Durchschaubarkeit der Komplexionsver-
hältnisse der in den Urteilen und Schlüssen verwendeten Begriffe ist. Diese wird
durch eine formale Notation dieser „internen“ Begriffsstrukturen in Begriffspyra-
miden überflüssig. Wohl aber hat er von Platon gelernt und vorausgesetzt, daß die
Merkmale von allgemeinen Begriffen voll und ganz (d. h. identisch) auch zu
sogenannten generischen Merkmalen aller unter sie fallenden Art- und Unter-
artbegriffen werden, wobei bei den Art- und Unterartbegriffen zusätzliche Merk-
male, die sogenannten spezifischen Differenzen, hinzutreten. Aber auch diese Ein-
sicht hat er nicht für die Formalisierung genutzt, wohl aber für sein Definitions-
schema der Begriffe.
Durch die von den Allgemeinbegriffen zu den „spezielleren“ Begriffen zuneh-
mende Komplexheit der Merkmale ergibt sich nun auch das, was man das
Allgemeinheitsgefälle der Begriffe nennen kann. Je allgemeiner ein Begriff, desto
weniger Merkmale weist er auf. Umgekehrt vergrößert sich sein Anwendungsbe-
reich, der sogenannte Umfang. Diese umgekehrte Proportionalität von Merkmalen
(Begriffsgehalt, Intensionen) und Umfängen (Anwendungsbereiche, Extensionen)
der Begriffe wurde erst im 17. Jahrhundert (in der Logik von Port-Royal) klar
herausgestellt. Aristoteles hat sie nicht durchschaut. Wohl aber hat er es für
selbstverständlich gehalten, daß von einem Begriff nur die Rede sein kann, wenn
223

er überhaupt Merkmale, und mindestens ein Merkmal aufweist. Es blieb dagegen


der modernen Logik vorbehalten, auch dann noch von Begriffen zu reden, wenn
gar kein Merkmal vorhanden ist, was dann zur Entwicklung der sogenannten rein
extensionalen Logik (Typ: „Klassenlogik“ und Mengenlehre) führte.
Das Allgemeinheitsgefälle der Begriffe nach Gattung, Arten und Unterarten, das
man sich nach dem Vorbild der platonischen Begriffspyramide im Dialog
„Sophistes“ vorstellen kann, bestimmt nun auch, was man obere und untere
Begriffe oder auch abstrakte und konkrete Begriffe nennt. Obere oder abstrakte
Begriffe mit größtem Umfang (Kategorien genannt) werden durch das Hinzutreten
weiterer Merkmale näher bestimmt, „konkretisiert” (von lat. congresci, zusam-
menwachsen, nämlich von Merkmalen). Damit werden untere Artbegriffe ge-
bildet, deren Umfang gegenüber dem oberen Gattungsbegriff eingeschränkt ist.
Die Hinzufügung von Merkmalen kann im Prinzip beliebig weit fortgesetzt wer-
den, so daß die „konkretesten“ Begriffe „unendlich“ viele Merkmale besitzen
können. Deren Umfang bezieht sich dann nur noch auf einen einzigen Anwen-
dungsfall, und sie sind daher Begriffe für einzelne Dinge und werden durch deren
Eigennamen bezeichnet.
Die Scholastik brachte den Sachverhalt auf die Formel: „individuum est inef-
fabile” („Die einzelnen Dinge können nicht ausgesprochen werden“). Gemeint ist,
daß sie nicht logisch analysiert werden könnten, weil sie „unendlich“ viele
Merkmale besitzen. In der Tat werden sie ja gerade durch ihre Namen „ausge-
sprochen“). Wie es nun nach aristotelischer Begriffslehre keine merkmalslosen
obersten Begriffe gibt, so auch keine umfangslosen untersten, die sich auf gar
keinen Gegenstand beziehen würden. Derartige „leere Begriffe“ nimmt erst die
moderne extensionale Logik in Betracht, um mathematischen Vorstellungen von
der Null bzw. der „leeren Menge“ eine logische Grundlage zu geben.
Bestehen nun die Begriffe in der geschilderten Weise aus der Vereinigung von
Merkmalen und Umfängen, so lassen sich auch Methoden angeben, wie sie daraus
gebildet werden. Aristoteles hat sich sehr darum bemüht, solche Methoden aus-
zuarbeiten. Sie sind als „Analyse“ (Analysis ἀάdihairesis αἵ, lat.:
resolutio) und „Synthese“ (Synthesis ύoder Epagogé ἐφ, lat.: in-
ductio und constructio) bzw. als Induktion und Deduktion bekannt.
Jedoch sind die später in der logischen Methodologie der Begriffsbildung so
grundlegenden Verfahren der Analysis und der Synthesis bei der Begriffsbildung
doppeldeutig, je nachdem, ob man damit Begriffe aus Merkmalen (Intensionen)
oder aus Umfängen (Extensionen) bildet. Entsprechend werden auch die Verfah-
ren der Induktion und Deduktion doppeldeutig.
Synthetisiert man Umfänge spezieller Begriffe, so bildet man ihren gemeinsa-
men Oberbegriff (die Gattung). Dies nennt man üblicherweise Induktion des
Allgemeinen aus dem Besonderen. Analysiert man den Umfang einer Gattung, so
kommt man auf ihre Art- und Unterartbegriffe zurück, und das nennt man ge-
wöhnlich Deduktion. Gerade umgekehrt verhält es sich aber bei der Merkmals-
synthese und -analyse. Synthetisiert man die wenigen Merkmale allgemeiner
224

Begriffe zu merkmalsreichen „konkreten“ Begriffen, so bildet man „deduktiv“


spezielle Begriffe. Und analysiert man die Merkmale merkmalsreicher spezieller
Begriffe, so kommt man „induktiv“ auf allgemeinere (merkmalsärmere) Begriffe.
In dieser Doppeldeutigkeit von Synthesis und Analysis bzw. von Induktion und
Deduktion scheint jedenfalls der Grund für die später notorische Dunkelheit und
Problematizität dieser Verfahren zu liegen.
Es wurde schon gesagt, daß Aristoteles die Begriffe durch Buchstaben (bzw.
Zahlzeichen) „formalisierte“. Dadurch ergab sich zwangsläufig das Bedürfnis, bei
der Verwendung solcher formaler Platzhalter bzw. „Variablen“ vorzuschlagen
oder auch gelegentlich daran zu erinnern, für welche inhaltlichen Begriffe sie in
einem bestimmten Kontext stehen sollen. Auch daraus machte er ein logisches
Lehrstück, nämlich die Definitionslehre.
Eine Definition (Horismos ὁólat. definitio, Abgrenzung oder Begren-
zung) definierte Aristoteles als eine „erläuternde Rede über den Sinn einzelner
Begriffe oder auch ganzer Reden“. Er vermied es offensichtlich mit Sorgfalt, von
solchen Reden oder Definitionen anzugeben, ob er sie für behauptende Urteile
(die wahr oder falsch sein müßten) oder für eine nicht wahrheits- bzw. falsch-
heitsfähige Satzart hielt. Und diese Frage ist auch bis heute ein dunkler Punkt der
ganzen Logik geblieben. Daß wir die Definitionen grundsätzlich für nicht-
behauptend und somit nicht für wahrheitswertfähig halten, wurde schon in den
Eingangsparagraphen, bes. § 9, dargetan.
Ersichtlich ist der erste Zweck einer Definition die Einführung der formalen
Variablen für inhaltliche Begriffe selber; z. B. für „Mensch“ stehe das Zeichen
„A“, und daher auch umgekehrt die Erläuterung: „A“ steht für „Mensch“, so oft es
in einem bestimmten logischen Zusammenhang vorkommt. Aber dieser grundle-
gende Zweck der Definition wurde und wird in der Logik bis heute wohl seiner
Trivialität wegen übersehen.
Der nächste Zweck, auf den auch Aristoteles insistiert, ist dann die Erläuterung,
aus welchen sinnvollen Merkmalen (Intensionen) sich ein Begriff zusammensetzt.
Und da er von Platon gelernt hatte, daß die Merkmale einer Gattung sämtlich
zugleich auch als generische Merkmale in allen zur Gattung gehörenden Art- und
Unterartbegriffen enthalten sind, und daß darüber hinaus jeder Begriff besondere
zusätzliche „spezifische Merkmale“ aufweist, die ihn von sogenannten Neben-
arten und auch von der Gattung unterscheiden, verwendete er diese Begriffsei-
gentümlichkeit zu dem, was seither die Standard-Definition überhaupt geworden
ist.
Eine zünftige Begriffsdefinition besteht nach Aristoteles in der Angabe der
nächsthöheren Gattung eines Begriffs nebst der Angabe der „spezifischen Dif-
ferenz“. Hierzu sei nochmals betont, daß Aristoteles die interne Vernetzung der
Merkmale und Umfänge in den Begriffen nicht durchschaute und deshalb in
dieser Definitionenlehre davon ausging, ein Begriff werde durch die Angabe
anderer (ganzer) Begriffe definiert. Er übersah, daß dabei nicht ganze Begriffe,
sondern nur Merkmale (gelegentlich auch nur Umfänge) angeführt werden. Die
225

Logik ist ihm darin bis heute gefolgt, wenn sie etwa die „spezifischen Diffe-
renzen“ (oder das sog. „Proprium“, d. h. eine individuelle Eigentümlichkeit) als
ganze Begriffe zu fassen sucht.
Verdeutlichen wir dies durch einige Hinweise auf Voraussetzungen, die auch
von erfahrenen Logikern leicht übersehen und vernachlässigt werden.
1. Die Angabe der „nächsthöheren Gattung“ besteht im Hinweis auf einen
allgemeineren Begriff, unter den der zu definierende Begriff fällt. Das ist aber
zugleich das Mittel, alle Merkmale sämtlicher über einem zu definierenden
Begriff stehenden Allgemeinbegriffe mitanzugeben, da sie alle als „generische
Merkmale“ in die Merkmale auch aller Unterbegriffe eingehen. Ließe man die
„nächsthöhere“ Gattung aus und würde die über-nächsthöhere Gattung angeben,
so würde man nur einen Teil der generischen Merkmale benennen können. Wer z.
B. erläutern wollte: „Hunde, d. h. lebendige Geschöpfe“, der hätte nicht deutlich
gemacht, daß Hunde zunächst Tiere - und nicht etwa Pflanzen - sind, wobei
„Tiere“ ihrerseits als bestimmte lebendige Geschöpfe zu definieren wären.
2. Da man die generischen Merkmale in der Definition durch den zugehörigen
Gattungsbegriff erläutert, hat man fast immer angenommen, auch die spezifischen
Differenzen seien als eigenständige Begriffe anzuführen, und Begriffe seien
insgesamt daher so etwas wie „Durchschnitte“ oder gemeinsame Knotenpunkte
verschiedener sonst eigenständiger anderer Begriffe. In der Tat hätte Aristoteles
auch schon von Platons Umgang mit Ideen lernen können, daß sich Merkmale
bzw. spezifische Differenzen ganz ohne Umfänge handhaben lassen, wie er es in
der Tat auch praktizierte, ohne sich davon Rechenschaft zu geben. Dies läßt die
Frage nach den Umfängen solcher vermeintlicher „Begriffe“ von spezifischen
Differenzen gar nicht erst aufkommen. Wichtig ist allerdings die Bemerkung, daß
die Wortbezeichnungen der Begriffe in der Regel nur diese spezifische Differenz
benennen bzw. von daher gebildet sind, während sie auf den nächsthöheren Gat-
tungsbegriff keinen Bezug nehmen. Aus dem Wort „Tier“ selbst kann man nicht
entnehmen, daß in dem dadurch Bezeichneten das Merkmal des Lebewesenhaften
mitzudenken ist. Hat man allerdings einen Begriff vom „Tier“, so denkt man es
immer schon mit.
3. Da nun Aristoteles die formgerechte Definition auf diesen Typ der Angabe
der nächsthöheren Gattung nebst der spezifischen Differenz beschränkte, mußte er
grundsätzlich die Definierbarkeit der Begriffe auf einen Begriffsbereich zwischen
den höchsten Gattungen (Kategorien) und den untersten Arten (Eigennamen)
beschränken. Oberste Gattungen haben naturgemäß keine Gattungen über sich,
aus denen ihre Merkmale erläutert werden könnten. Und unterste Arten, die durch
Eigennamen bezeichnet werden, haben unüberschaubar viele (wie der scholasti-
sche Satz behauptet: unendlich viele) Merkmale, die nicht alle erläuternd an-
geführt werden können. Dieser Sachverhalt wurde in der späteren Logik kano-
nisiert mit der Folge, daß man Kategorien und „Individuen“ grundsätzlich für
undefinierbar hielt und ihre Behandlung aus der Logik weitgehend ausschloß.
226

4. Gleichwohl ist dies falsch, wie schon vorn in § 9 gezeigt wurde. Denn
ersichtlich lassen sich die in einem Begriff implizierten Merkmale auch auf andere
Weise angeben. Und erst recht kann man die Begriffe auch durch extensionale
Erläuterungen sehr klar definieren. So lassen sich höchste Gattungen (Kategorien)
sehr wohl durch Aufweis des gemeinsamen generischen Merkmals ihrer Arten
(und zusätzlich durch die extensionale Festlegung ihres Umfangs) definieren.
Ebenso kann man sich bei der Definition von untersten Artbegriffen (die für
Individuen stehen sollen), auf die Angabe der „wesentlichen“ spezifischen Diffe-
renzen beschränken, wie es in der Praxis (und auch in Beispielen des Aristoteles)
immer wieder geschieht.
5. Nicht definiert und auch nicht durchschaut hat Aristoteles diejenige Begriffs-
art, die wir vorn als heraklitischen Logos bzw. als kontradiktorischen Begriff
(contradictio in adiecto bzw. contradictio in terminis) erwähnt haben, und die
Aristoteles in seiner Modallogik faktisch verwendet.
Es handelt sich hierbei um einen Begriff, der zusätzlich zu einer spezifischen
Differenz auch deren Negation als Merkmal enthält, welches seinerseits als „posi-
tive“ spezifische Differenz eine dihäretische Nebenart unter derselben Gattung
defniert.
Was z. B. mit „Raucher“ und mit „Nicht-Raucher“ gemeint ist, dürfte bekannt
und verständlich sein. Der „nichtrauchende Raucher“ ist dann ein widersprüch-
licher Begriff. Damit meint man Personen, die man jetzt häufig in öffentlichen
Räumen antrifft, wo den Rauchern das Rauchen verboten ist. Er besagt aber (we-
gen der Symmetrie der Negationen) nichts anderes als „rauchender Nichtraucher“.
Und erst in dieser Formulierung „spürt“ man die Widersprüchlichkeit dieses Be-
griffs. Gleichwohl ergab sich aus diesem widersprüchlichen Begriff die Haupt-
begründung für die neue Anti-Rauchergesetzgebung. Gemeint war nämlich der-
jenige Nichtraucher, der in verrauchten Kneipen zum Mitrauchen gezwungen
wurde. Wir erwähnen das Beispiel, um darauf aufmerksam zu machen, daß wider-
sprüchliche Begriffe keineswegs „unsinnig“, „sinn- und bedeutungslos“ und Aus-
druck des „Absurden“ sein können, wie man gewöhnlich voraussetzt.
Ersichtlich ist Aristoteles„ Begriff der „Möglichkeit“ auf diese Weise aus den
spezifischen Differenzen „seiend“ und „nichtseiend“ und einem von ihm für nicht
angebbar gehaltenen generischen Gattungsmerkmal einer gemeinsamen Gattung
über dem Seienden und dem Nichtseienden konstruiert. Da er dies selbst nicht
durchschaute, hat er den Begriff der „Möglichkeit“ (als Prototyp aller späteren
Begriffe von Kraft, Anlage, Disposition, Vermögen) als dritte höchste Gattung
neben „Sein“ und „Nichtsein“ behandelt, worin ihm die meisten Logiker bis heute
gefolgt sind (vgl. dazu § 10 über den Möglichkeitsbegriff).

b. Die logischen Grundsätze (Axiome). Wie bei den später anzuführenden


Wissenschaften i. e. S. hat sich Aristoteles bemüht, auch für die Logik Grundsätze
zu entwickeln, die beim Argumentieren zu beachten sind. Er nennt sie Axiome,
was man seither mit „Grundsätzen“ übersetzt. Zu seiner Zeit war „Axioma“
227

(ἀíWertvolles, Wichtiges) aber auch gleichbedeutend mit „Arché“, wonach


in aller Forschung als „Grund“, „Ursache“ oder „Prinzip“ gesucht wurde. Solche
Gründe oder Bedingungen wurden aber in der Regel nicht als Sätze formuliert,
sondern als Begriffe. Und so ist es auch bis heute eine offene Frage, ob seine
logischen Grundsätze nur logische Kategorien, also Grundbegriffe der Logik, oder
allgemeinste Sätze der Logik sind. Im letzteren Falle ist umstritten, ob es sich um
behauptende Grundurteile, um Definitionen oder um nichtbehauptende Sätze, z.
B. Imperative, Normen oder Regeln für Handlungsvollzüge handelt.
Je nach dem, was man hier annahm, ergaben sich später recht verschiedene
Logikkonzepte. Die übliche Darstellung als 1. Satz (oder Prinzip) der Identität, 2.
Satz (Prinzip) vom zu vermeidenden Widerspruch, und 3. Satz (Prinzip) vom aus-
geschlossenen Dritten läßt nicht erkennen, ob es sich um Urteile über die Begriffe
Identität, Widerspruch und Drittes (wobei Identität ein Erstes, Widerspruch ein
Zweites wäre) handelt oder um Definitionen derselben. Das „zu vermeiden“ bzw.
„ausgeschlossen“ beim Widerspruch und beim Dritten klingt eher nach norma-
tiven Festsetzungen. Aristoteles äußert sich an verschiedenen Stellen im Organon
und in der Metaphysik über diese Axiome - allerdings ohne sie zu numerieren. Er
läßt dabei erkennen, daß er das Axiom über den Widerspruch für das „stärkste“
und wichtigste im argumentativen Gebrauch hielt. Er nennt es geradezu die
„Arché auch der anderen Axiome“.
Die logischen Axiome haben sämtlich einen Bezug zur Frage der Wahrheit und
Falschheit, wie aus dem Kontext der Formulierungen bei Aristoteles hervorgeht.
Und daß er mittels der Axiome über Wahrheit und Falschheit redet, läßt wiederum
erkennen, daß er die Logik insgesamt für ein Instrument der Prüfung von Wahr-
heit und Falschheit, ihrer argumentativen Herstellung und zugleich auch ihrer
Dissimulierung hielt.
Die herrschende Meinung in der Logik geht seither davon aus: Hielte man sich
strikt an die Beachtung der Identität, vermeide Widersprüche und lasse ein Drittes
(was als etwas, das nicht auf Wahrheit oder Falschheit festzulegen sei, inter-
pretiert wird) nicht zu, so könne man nicht irren noch täuschen und befinde sich
auf dem sicheren Weg der Wahrheit. Dissimuliere man aber die Identität, führe
Widersprüche offen oder versteckt ein und lasse das Dritte zu, so irre man sich,
täusche sich und andere und gehe den Weg der Falschheit oder des „sophisti-
schen“ Betrugs. Kurzum, diese drei Axiome begründen nach allgemeiner Auffas-
sung die sog. zweiwertige Logik von Wahrheit und Falschheit und ihrer genauen
Unterscheidung. Und da Aristoteles das Axiom vom (zu vermeidenden) Wider-
spruch erklärtermaßen für das stärkste Prinzip hielt, geht man sehr allgemein auch
davon aus, daß jede Argumentation, in der sich ein Widerspruch aufdecken läßt,
allein dadurch insgesamt falsch sein müßte. Aristoteles ging auch davon aus, daß
Wahrheit und Falschheit sich ausschließlich in behauptenden Urteilen zur Geltung
brächten, weshalb man diese Axiome in der Hauptsache nur auf seine Urteilslehre
bezog.
228

Dazu ist nun kritisch einiges zu sagen. Hierbei sei auf das schon vorn im § 9
Ausgeführte hingewiesen.
Nimmt man die drei Axiome als oberste Grundsätze im Sinne behauptender Ur-
teile über Wahrheit und Falschheit, so müßten sie formuliert werden: a. Alles
Identische ist wahr; b. alles Widersprüchliche ist falsch; c. alles Dritte ist weder
wahr noch falsch (und gehört daher nicht zur Logik).
1. Das ist Grundlage für eine herrschende Tendenz der ganzen Logikgeschichte
geworden Auf a gründet sich die Meinung, es gäbe überhaupt nur eine Wahrheit
(vgl. z. B. bei G. Frege), und alles genuin Logische sei tautologisch (vgl. z. B. L.
Wittgensteins „Tractatus logico-philosophicus“). Auf b beruft sich die entspre-
chende Meinung von der Falschheit. Daß es nämlich nur eine einzige und einheit-
liche logische Falschheit gebe, die sich ausschließlich im Widerspruch mani-
festiere. Dies begründet wiederum die Unterscheidung von formaler Logik im
Gegensatz zu inhaltlicher Argumentation, da man inhaltliche (und nicht-wider-
sprüchliche) Falschheiten (Lügen, Irrtümer, falsche Sätze) überhaupt nicht logisch
kennzeichnen könne. Auf c wird einerseits der Ausschluß der fiktiven Literatur
(Dichtung, oft auch der „metaphysischen Erörterungen“) aus der logischen Be-
handlung begründet. Andererseits aber auch die Erweiterung der klassisch-aristo-
telischen Logik um eine „dreiwertige“ Logik, in welcher nun das Dritte gerade
zugelassen wird. Dreiwertige Logiken sind - wozu freilich Aristoteles schon
Ansätze geliefert hat - spezielle Modallogiken, insbesondere die sog. Wahrschein-
lichkeitslogik.
Nun ist es allerdings die Frage, wie solche Axiome das leisten könnten, was
man von ihnen verlangt: Wenn jede Wahrheit mit sich selbst identisch sein soll,
(mit Leibniz und Frege wird auch behauptet, alle logischen Wahrheiten seien
untereinander identisch), so müßte das auch von der Falschheit gelten. Daß der
Widerspruch als solcher falsch wäre, hat nicht einmal Aristoteles behauptet. Er
behauptete nur, die in einem widersprüchlichen Satz verknüpften gegenteiligen
Behauptungen könnten weder zugleich und in gleicher Hinsicht wahr noch auch
zugleich und in gleicher Hinsicht falsch sein! Er sagt an einer Stelle sogar aus-
drücklich: „Notwendig muß das eine Glied des Widerspruches wahr sein. Ferner:
wenn man notwendig jedes bejahen oder verneinen muß, so kann unmöglich
beides falsch sein; denn nur das eine Glied des Widerspruchs ist falsch“.120
Was das sog. Dritte betrifft, so kann man darunter - wie oben erwähnt - das-
jenige verstehen, was weder wahr noch falsch ist. Man kann und sollte aber
darunter gerade auch dasjenige verstehen, was zugleich wahr und falsch ist. Dann
aber ist das Dritte selbst der Widerspruch. So gesehen, ist das Dritte eigentlich das
Zweite und es gibt daneben kein besonderes Drittes. Nimmt man das ernst, so
müssen sich die sog. dreiwertigen Logiken sämtlich als Logikkonzepte mit Zulas-
sung des Widerspruchs (als vermeintlichem Dritten) erweisen lassen. Und das

120
Aristoteles, Metaphysik IV. Buch 8, 1012b 10-13. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966,
S. 90. Vgl. dazu auch J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg i. Br.-München 1956, S. 73.
229

bedeutet nichts anderes, als daß solche dreiwertigen Logiken ausgearbeitete


Dialektiken sein müssen (vgl. dazu das schon in § 9 Gesagte).
2. Nimmt man die Axiome als Grundbegriffe, so sind sie für die Logik höchste
Gattungen (Kategorien). Man versteht dann zwar, daß sie nach Aristoteles‟
eigener Begriffslehre nicht definiert werden können, aber dies haben wir schon als
falsch bezeichnet. In der Tat hat er sich auch nicht um solche Definitionen
bemüht, und die Logiker sind ihm im allgemeinen darin gefolgt. Was er selber
darüber sagt, läßt sich gleichwohl zu klaren Definitionen benutzen, aber man wird
dabei über seine Andeutungen konstruktiv hinausgehen müssen.
Die Identität (Toiautes ύSelbigkeit) bezog er nur auf die Begriffe: sie
sollten in aller Kontextverwendung dieselben bleiben und nicht unter der Hand
(etwa als Homonyme) unter demselben Wort oder Zeichen verschiedene Bedeu-
tungen besitzen. Da er aber die Begriffe als Einheiten ansah, bemerkte er nicht,
daß sich im Gattungs-Art-Unterart-Gefälle die Merkmale der jeweils oberen
Gattungbegriffe in den zugehörigen Arten und Unterarten in der Tat identisch in
allen unteren Begriffen gerade unter und hinter den verschiedenen Begriffsbe-
zeichnungen durchhalten. Bemerkt hat er aber, wie sich in seiner Standard-
definition zeigt, daß alle Merkmale einer Gattung als „generische“ Merkmale in
den Merkmalsbestand eines definierten Artbegriffs eingehen. Die Identität läßt
sich in der Logik also gerade nicht auf ganze Begriffe beziehen, sondern nur auf
dieselben Merkmale in verschiedenen Begriffen. Und dies ist eine wesentliche
Bedingung dafür, daß das Spiel der Logik funktioniert. Wir können also definie-
ren: logische Identität, d. h. der gemeinsame Merkmalsbestand von Ober- und Un-
terbegriffen im Allgemeinheitsgefälle der Begriffe.
Was den Widerspruch (Antiphasis ἀí) betrifft, so sollte man sich daran
erinnern, daß er zunächst einmal eine „Einrede“ oder Bestreitung eines Arguments
bedeutet, also dessen Negierung (oder wenn das Argument selbst ein negatives
war, so dessen positive Behauptung, wie schon im griechischen und auch noch
heutigen Gerichtsgebrauch). Ist das Bestrittene falsch, so kann das nur durch die
Wahrheit der Einrede bewiesen werden. Aber es kann auch umgekehrt ausfallen
(was das Gericht zu entscheiden hat). Auf keinen Fall wird man davon ausgehen,
daß der „Widerspruch“ im Sinne einer „Einrede“ von vornherein falsch ist, wohl
aber davon, daß eines von beidem, entweder das Bestrittene oder die Einrede,
wahr und dann das andere falsch sein muß.
Von dieser Sachlage ist auch Aristoteles ausgegangen, wie seine Beispiele
zeigen, die fast wie Mahnungen an die Richter klingen, niemals Anklage und
(bestreitende) Verteidigung gleichzeitig für wahr oder gleichzeitig für falsch zu
halten. Was diesen - auch heute noch vorhandenen - juristischen Widerspruchsbe-
griff vom logischen unterscheidet, ist nun dies, daß Aristoteles beide wohlunter-
scheidbaren und selbständigen Argumente einer Rede und einer Gegenrede in ein
einheitliches Satzgebilde zusammenfaßte und dieses als ganzes „Widerspruch“
nannte. Als einheitliches Satzgebilde ordnete er ein solches - komplexes - Urteil
aber in die Klasse der „adjunktiven“ (durch „und“ verbundenen) Urteile ein, von
230

denen er annahm (s. u.), daß sie falsch seien, sofern mindestens ein Bestandteil
falsch sei. Der Widerspruch im Urteil ist daher im aristotelischen Sinne ein
Spezialfall eines falschen konjunktiven Urteils, und so wurde er seither in der
Logik auch behandelt und immer als formale Gestalt eines falschen Behauptungs-
satzes eingeschätzt. Diese Einschätzung ist aber selbst - als eine offensichtliche
Petitio principii - die Folge der aristotelischen Voraussetzung, daß Behauptungs-
sätze nur entweder wahr oder falsch sein könnten, und daß ein „Drittes“ in der
Logik nicht zugelassen sei.
Ohne diese Voraussetzung würde man derartige Behauptungen mit dem Volks-
mund schlicht „Halbwahrheiten“ oder auch „Halbfalschheiten“ nennen. Man hat
sicher auch ein entsprechendes Bewußtsein davon, daß es eine „logische Zumu-
tung“ darstellt, gemäß dieser Zweiwertigkeitsvoraussetzung den offensichtlichen
wahren Teilgehalt solcher Und-Sätze und Widersprüche einfach zu unterdrücken,
wegzuleugnen und das Ganze für falsch zu erklären.
Die Sache wird auch nicht besser durch den Hinweis auf (neuere) Meta-Theo-
rien der Semantik, die zwischen einer „objektiven Bedeutung“ (1. Semantische
Stufe) eines Prädikats und einer „Meta-Bedeutung“ (2. semantische Stufe) eines
aus zwei „objektiven Bedeutungen“ mittels Junktoren zusammengesetzten Prädi-
kates unterscheiden und den eigentlichen Sinn eines solchen komplexen Urteils
dann nur an der Behauptung der Meta-Bedeutung festmacht. Denn offensichtlich
ist auch diese Meta-Bedeutung nur zu verstehen und zu denken, wenn die
„objektive Bedeutung“ ihrer Bestandteile (der 1. semantischen Stufe) ebenfalls
verstanden und gedacht wird. Und das erfüllt genau den Tatbestand, daß man
sowohl die Wahrheit wie auch die Falschheit zugleich und in gleicher Hinsicht
denken muß, also genau das von Aristoteles ausgeschlossene „Dritte“ vorstellt.
Natürlich gilt das alles - spiegelbildlich - auch von einer Oder-Verbindung von
Prädikatsbestandteilen mit einem Subjekt, die unter denselben Voraussetzungen
immer für wahr gehalten werden, wenn einer der Bestandteile wahr, und der
andere falsch ist. Darauf wurde schon in § 9 bei der Urteilslehre kritisch einge-
gangen. Definieren wir nun den Widerspruch im Sinne des Aristoteles, so müssen
wir formulieren: Widerspruch, d. h. ein Urteil mit einem Prädikatsausdruck, der
aus einem Prädikatsbegriff und seiner Negation in Und-Verknüpfung besteht, und
das zugleich wahr und falsch ist.
Da dieser Sachverhalt eindeutig ist, aber selber nur in widersprüchlicher Weise
definiert werden kann, versteht man, warum so viele Logiker dem ausweichen
möchten und den Widerspruch lieber als konventionelle logische Norm formu-
lieren: Man soll ein (wie beschrieben komponiertes) Urteil, das zugleich wahr und
falsch ist, als falsches Urteil behandeln!
Wir entgehen allen diesen Schwierigkeiten, wenn wir uns erinnern, daß der
Widerspruch keineswegs nur an Urteilen mit Wahrheits- oder Falschheitsanspruch
auftritt, sondern auch an Begriffen. Aristoteles selbst hat dies wegen seiner
Annahme, Begriffe seien Einheiten, nicht bemerkt, wohl aber widersprüchliche
231

Begriffe verwendet und sogar formuliert. Aber heute gehören die „contradictiones
in adiecto bzw. in terminis“ zum festen Bestand logischer Elemente.
Niemand wird Begriffe als solche für wahr oder falsch halten, also auch nicht
widersprüchliche. Will man aber die Widersprüchlichkeit so allgemein definieren,
daß sie auch für Begriffe paßt, so muß man die Wahrheits- bzw. Falschheits-
relevanz dabei ganz aus dem Spiel lassen und zusehen, was sich daraus für die
Urteile ergibt. Wir können allgemein definieren: Widerspruch. d. h. logisches
Element, in welchem im bestimmten Negationsverhältnis zueinander stehende Be-
griffsmerkmale zu einem Begriff oder entsprechende Prädikationsbestandteile mit
einem Subjektsbegriff zu einem Urteil verknüpft werden.
Über das Dritte bräuchte eigentlich nichts mehr gesagt zu werden, wenn es mit
dem Widerspruch identifiziert bzw. gleichgesetzt wird. Identität und Widerspruch
beschreiben gewissermaßen binnenlogische Verhältnisse. Das Dritte könnte dann
allenfalls auf die ausdrückliche Abgrenzung der Logik von allem, was nicht der
logischen Betrachtung zugänglich ist, bezogen werden.
Der Spielraum dafür ist weiter, als man gewöhnlich denkt. Wenn die Logik sich
auf die Analyse von Wahrheit und Falschheit bezieht, so würde ersichtlich das,
was immer und nur wahr wäre und niemals falsch sein kann, nicht zur Logik
gehören. Und unterdrücken wir nicht die Feststellung, daß die meisten Logiker es
so mit den logischen Axiomen selbst gehalten haben, von denen sie seither
annehmen, sie seien immer wahr (und nach Kant „apriori“, was dasselbe bedeuten
soll), so daß sie weder logisch analysiert noch auch nur logisch diskutiert werden
könnten.
Ebenso würde das Immer-Falsche aus der Logik auszuscheiden haben. Und das
würde erklären, warum man „lauter Lügen“ und einem Lügengeflecht nicht allein
auf logische Weise beikommen kann. Auch ein so scharfsinniger Denker wie
Descartes hielt den „allmächtigen Lügengeist“ für ein Argument, das logisch nicht
zu hinterfragen sei. Im platonischen Sinne würden auch alle Dichtung und fiktive
Literatur (als Lügengeflecht) aus der Logik herausfallen, wenn sie nicht - wie
Aristoteles gelegentlich von der Dichtung sagte - als „höhere“ (und exempla-
rische) Wahrheit schon herausgefallen wäre. Aber dies Verdikt träfe die Dichtung
natürlich auch, wenn sie weder wahr noch falsch sein wollte oder sollte. Der
interessante Fall ist daher nur derjenige, der wiederum „wahr und falsch zugleich“
ist, der ja in widersprüchlichen Urteilen realisiert ist, wie gezeigt wurde.
Nun behauptet Aristoteles an einer Stelle in der Hermeneutikschrift (9, 19 a 39
- b 4), es sei klar, „daß es keineswegs notwendig ist, daß von den Gliedern eines
Widerspruchs gerade das eine wahr, das andere falsch sein müsse. Denn es verhält
sich bei dem, was schon ist, nicht ebenso, wie bei dem, was noch nicht ist“.121
Aristoteles begründet das damit, daß sonst alles „kausal“ determiniert sein
müsse. Z. B. müsse jetzt und heute schon feststehen, ob morgen eine Seeschlacht
bei Salamis stattfinden werde oder nicht. Diese „prognostische“ Determiniertheit
121
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 19 b. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 99.
232

lehnt Aristoteles ab, während die Stoiker im Anschluß an die Logikerschule von
Megara und insbesondere Diodoros Kronos - und in gewissen Grenzen auch
heutige Wissenschaft - sie behaupten. Es handelt sich in diesen Fällen um „Mög-
lichkeiten“, und insbesondere in der Zukunft liegende (scholastisch „possibilia
futura“ benannt).
Man hat in dieser Behauptung des Aristoteles eine beschränkte Zulassung des
sonst ausgeschlossenen Dritten gesehen und darauf seine Begründung einer über
die grundsätzlich von ihm vertretene zweiwertige Logik hinausgehende drei-
wertige Logik gestützt. Genau besehen handelt es sich aber um ein weiteres Argu-
ment des Aristoteles dafür, alle Aussagen über Möglichkeiten und insbesondere
die Prognosen über Zukünftiges aus der logischen Behandlung auszuschließen, da
sie nicht auf Wahrheit oder Falschheit hin entschieden werden könnten. Solche
Aussagen, das hat er sicher klar gesehen, sind zwar strukturell logische Wider-
sprüche, aber in ihnen, so meinte er gleichwohl, könnten beide Teilaussagen
zugleich wahr oder auch zugleich falsch sein (eine These, die Kant für die Be-
handlung der „Antinomien der reinen Vernunft“ übernommen hat, und die in der
modernen „Paralogik“ wieder aufgenommen wurde).
Betonen wir, daß Aristoteles offenbar genau gesehen hat, daß dieses „Dritte“
auch die Struktur des Widerspruches hat. Nur meint er, daß es nicht dessen Wahr-
heits- und Falschheitsbedingungen unterliege. Das ist nachmals nicht festgehalten
worden. Vielmehr bildeten sich gegenläufige logische Traditionen des Umgang
mit diesem „Dritten“ aus. Die einen hielten sich daran, daß das „Dritte“ immer
falsch sei, nannten eine es verwendende Logik „Dialektik“ und verstärkten da-
durch auch die Überzeugung derjenigen, die den Widerspruch überhaupt für
„immer falsch“ hielten. Sie versuchten seither, die Dialektik aus der Logik als
eine „Un-Logik“ auszuscheiden. Andere hielten sich daran, daß das Reden über
„Möglichkeiten“ und insbesondere eine Prognose „immer wahr“ sei (falsch nur
dann, wenn sie nicht logisch zünftig aus den wahren Prämissen abgeleitet wäre
und somit gar keine echte Prognose sei). Noch Kants Konzeption von den
„Möglichkeiten a priori“ zeugt von dieser Einstellung, und alle Transzen-
dentalphilosophie setzt seither noch deren „apriorische Wahrheit“ voraus.
Daß es sich bei den Möglichkeitsbegriffen und den „modalen“ Möglichkeitsur-
teilen (Wahrscheinlichkeitsurteilen, statistischen Prognosen) um echte Wider-
sprüche handelt, das wurde im Lauf der Zeit vergessen und verdient es heute
umso mehr, wieder in Erinnerung gebracht zu werden, um so manche Ungereim-
theit in den logischen Grundlagentheorien, insbesondere den Wahrscheinlich-
keitstheorien, aufzudecken (vgl. dazu das in § 10 und § 11 Gesagte).

c. Die Urteilslehre. Ein Urteil (behauptender Satz, Aussage, Protasis ó


Logos apophantikosóἀó) ist nach Aristoteles die Verbindung
von Begriffen mittels bestimmter Verbindungswörter (in der neueren Logik Junk-
toren bzw. Funktoren genannt).
233

Die Hauptverbindung stellen die Kopula „ist” (oder die Negation „ist nicht” im
Verhältnis eines Subjekts- zum Prädikatsbegriff) und das von Aristoteles bevor-
zugt verwendete „kommt zu“ (tygchanei ά, nämlich ein Prädikatsbegriff
kommt einem Subjektsbegriff zu) oder „kommt nicht zu“, her. Diese Art der
Begriffsverbindung macht diese im Unterschied und Gegensatz zu den Merk-
malsverknüpfungen in Begriffen selber „wahrheits- bzw. falschheitsfähig”.
Da alle Wissenschaft darin besteht, wahre Urteile zu fällen und falsche Urteile
auszuscheiden, ist die Urteilslehre gleichsam das Zentrum wissenschaftlicher
Methodologie. Wahrheit von Urteilen besteht für Aristoteles darin, daß in ihnen
bejaht wird, was ist (der Fall ist, Sein hat) oder verneint wird, was nicht ist.
Ersichtlich folgt er gerade in der Urteilslehre dem parmenideischen Forschungs-
programm: den Weg der Wahrheit und des Seins zu bahnen, und den Weg der
Täuschung und des Nichts kenntlich zu machen und zu vermeiden.
Um wahre oder falsche Behauptungen aufstellen zu können, muß man nach
Aristoteles wissen, was in der Wirklichkeit der Fall ist. Die Wirklichkeit wird, wie
oben schon gesagt, durch wahre Sätze „abgebildet“. Falsche Sätze aber stellen
Nichtwirkliches im Bilde des Wirklichen (täuschend, d. h. Abbilder vertauschend)
dar. Die Begriffe bilden selbst schon Substanzen und ihre Eigenschaften und
Verhältnisse ab, ohne daß damit eine Wahrheits- oder Falschheitsbehauptung
verbunden wäre. Diese kommt erst durch die verknüpfenden (satzbildenden)
Junktoren zustande. Wie dies geschieht, ist sowohl für Aristoteles wie für die
meisten Logiker seither rätselhaft oder gar ein mystisch zu nennendes Geschehen
geblieben. Denn die Junktoren sollen, wie Aristoteles ja meint, selber keine eigene
Bedeutung haben, vielmehr eine solche erst im Behauptungssatz erhalten.
Es dürfte dieses Mysterium der Junktoren gewesen sein, das moderne Logiker
wie Frege und Wittgenstein dazu geführt hat, sogar auch den Begriffen selbst jede
Bedeutung abzusprechen und zu behaupten, sie erhielten auch ihrerseits erst eine
Bedeutung durch den Satz, in dem sie vorkommen. Daß das blanker Unsinn ist
und die Logik mit schwersten Irrtumshypotheken belastet hat, dürfte auf der Hand
liegen. Wir sagten schon, Sinn und Bedeutung der Junktoren hat Aristoteles aus
dem sprachlichen Sinn dieser Sprachpartikel mit in die Logik übernommen. Nur
hat er nicht erkannt, worauf sie sich in den logischen Verhältnissen tatsächlich
beziehen. Und dies hängt wiederum mit seiner Behandlung der Begriffe als Ein-
heiten und der Verkennung ihres regulären Aufbaus aus Merkmalen und Um-
fängen zusammen.
Die Junktoren bedeuten in der Logik nichts anderes als die Verhältnisse, die
zwischen Merkmalen und Umfängen der Begriffe in Behauptungssätzen bestehen,
so wie sie mutatis mutandis auch die Verhältnisse zwischen sonstigen sprachlich
ausgedrückten Verhältnissen bedeuten. Aber diese Verhältnisse lassen sich in der
von Aristoteles erfundenen Formalisierung der logischen Verhältnisse nicht dar-
stellen (wohl aber in der eingangs vorgestellten pyramidalen logischen Notation,
in der sich zeigt, daß auch unter den Junktoren einige Synonymien und Homony-
mien bestehen).
234

Nicht einmal der Hauptunterschied zwischen einfachen wahren und falschen


Urteilen läßt sich in der von Aristoteles eingeführten und seither grundsätzlich in
Geltung gebliebenen formalen Notation darstellen: „A ist B“ (oder aussagen-
logisch: „p“ für ein positives Urteil) stellt nicht dar, ob damit ein wahrer oder fal-
scher Satz gemeint ist, ebenso wenig wie „A ist nicht B“ (oder: „ - p“ für ein
negatives Urteil). Gleichwohl ist es das Bemühen und später der Wunschtraum
aller Logiker gewesen, durch die formale Notation selber mitauszudrücken, ob
damit dargestellte Urteile wahr oder falsch sind (auch dies leistet erst die
pyramidale Notation). Man muß es in einfachen bejahenden und verneinenden Ur-
teilen zum Formalismus hinzusagen, ob mit solchen Formeln ein wahrer oder ein
falscher Behauptungssatz gemeint sei.
Dem Bemühen um die formale Notation wahrer bzw. falscher Sätze verdankt
sich aber offenbar der große Aufwand, den Aristoteles darauf verwendet hat,
wenigstens einige solcher logischen Figuren zu entdecken, die ohne Hinsicht auf
die Wirklichkeit und ein Wissen um diese aus „formalen logischen Gründen“
Wahrheit und Falschheit des notierten Urteils darstellen können. Im Zentrum steht
bei ihm und blieb seither die Figur des widersprüchlichen Urteils, das die ganze
spätere Logik für die formale Gestalt des falschen Urteils ausgab.
Wir haben eingangs schon über die Problematik dieser Festlegung gehandelt.
Sie besteht darin, daß der Urteilswiderspruch durch positive und negative Formu-
lierung eines allgemeinen Urteils immer Wahrheit und Falschheit der Teilsätze
zugleich notiert. Man kann jedoch dieser Formalisierung nicht entnehmen, wel-
cher Teilsatz der wahre und welcher der falsche ist, es sei denn, man wisse schon
vor der Formalisierung eines inhaltlichen Urteils um die wirklichen Verhältnisse,
die logisch formal dargestellt werden sollen. Nicht zuletzt ist auch in Betracht zu
nehmen, daß Aristoteles für die modalen Möglichkeitsurteile diese Funktion der
Wahrheits-Falschheitsdarstellung des Widerspruchs außer Kraft gesetzt hat, da
das Zukünftige eben nicht wirklich ist.
Daß das widersprüchliche Urteil in der ganzen Logikgeschichte als formale
Gestalt eines falschen Urteils behandelt wird, also die These von der „Falschheit
des Widerspruchs“, kann man bei dieser Sachlage nur als ein logisches Dogma be-
zeichnen. Es hat als nächste und verheerende Folge, daß bei logischer Kritik auf
Widersprüchlichkeit von Argumentationen in der Regel auch der wahre Teilbe-
stand solcher Argumentationen als „falsch“ angesehen wird.
Die eigentliche Bedeutung der aristotelischen Urteilslehre, wie sie vor allem in
der Hermeneutikschrift des Organons entwickelt wird, liegt nun keineswegs darin,
überhaupt die logischen Urteilsformen formalisierend darzustellen und zu klassifi-
zieren, wie es später zum Hauptgegenstand der Urteilslehre wurde. Vielmehr be-
steht sie darin, in einer sprachphilosophisch zu nennenden Weise sprachliche
Satzformen auf ihren Behauptungscharakter, der sie ja erst wahrheits- und
falschheitsfähig machen kann, zu überprüfen und sie von den nichtbehauptenden
Satzformen abzugrenzen.
235

Die Methode besteht darin, an inhaltlich-sprachlichen Beispielsätzen, die man


leicht als wahr oder als falsch anerkennen konnte, herauszuarbeiten, mit welchen
Junktoren sie gebildet wurden. Die interessanten Fälle waren natürlich diejenigen,
bei denen sich der „Wahrheitswert“ änderte, d. h. die Wahrheit in Falschheit und
umgekehrt vertauschte, wenn man dieselben Subjekt- und Prädikatsbegriffe durch
jeweils verschiedene Junktoren verknüpfte.
1. Die erste Einsicht war hier die Herausarbeitung der Rolle der Verneinung
bzw. Negation, die jedes allgemeine wahre Urteil in ein falsches verwandelt und
umgekehrt. Sie gab später Anlaß, die logischen Urteile unter der „Qualitäts-
kategorie“ in bejahende und verneinende (positive und negative) einzuteilen.
2. Die Entdeckung der Quantifikation der Urteile (alle..., einige..., ein..., kein...,
jeweils auf Subjektbegriffe bezogen) war eine zweite folgenreiche Leistung. Sie
führte dazu, eine zweite Einteilung der Urteile nach der „Quantitätskategorie“
vorzunehmen, nämlich allgemeine, partikuläre und individuelle Urteile zu un-
terscheiden. Die Urteilsform: „Kein...“ behandelte Aristoteles als bedeutungsiden-
tisch mit der Negation eines positiven allgemeinen Urteils.
Er bemerkte auch, daß sich bei den partikulären (und individuellen) Urteilen der
Wahrheitswert durch Negation nicht umkehren ließ. („Einige Lebewesen sind
Tiere“ erscheint als wahr, aber ebenso: „Einige Lebewesen sind nicht Tiere“,
nämlich auf Pflanzen bezogen, die ebenfalls „einige Lebewesen“ sind). Nach
seinen eigenen Voraussetzungen wären die partikulären Urteile wegen ihrer Un-
entscheidbarkeit eigentlich aus der Logik auszuscheiden gewesen. Das haben erst
die Stoiker bemerkt und sie deshalb auch konsequent aus der Logik heraus-
gehalten. Weil Aristoteles sie aber in seinen Syllogismen häufig benutzt, wurden
die partikulären und individuellen „Urteile“ überhaupt als Urteile behandelt. Sie
trugen wesentlich zur Komplexität seiner Schlußlehre bei.
Da Aristoteles die Quantifikation für eine Bedeutungsmodifikation des Sub-
jektsbegriffs hielt, durchschaute er nicht, daß man durch die Partikularierung (und
Individualisierung) tatsächlich den Subjektsbegriff durch einen unbestimmt blei-
benden Art- oder Unterartbegriff innerhalb seines Umfangs ersetzt und zugleich
dessen generische Merkmale angibt. Das Prädikat liefert dann die spezifische
Differenz hinzu und definiert so den quantifizierten Begriff. Und dies kann wie-
derum nur bedeuten, daß die partikulären und individuellen Urteile überhaupt
keine behauptenden Urteile, sondern Definitionen sind, die nicht mit der Kopula
„ist“, sondern mit einem Äquivalenzjunktor zu formulieren sind: „Einige Lebewe-
sen, d. h. Tiere / Einige Lebewesen, d. h. Nicht-Tiere“. Bei Definitionen aber
spielt der Wahrheitswert logisch deshalb keine Rolle, weil man bei ihrer Fest-
setzung frei ist.
Man kann hier schon anmerken, daß die Verwechslung der Kopula „ist“ mit der
logischen Äquivalenz (bzw. dem mathematischen Gleichheitszeichen, sprachlich
etwa durch „das heißt...“ wiederzugeben) seit Aristoteles in der Logik endemisch
geblieben ist und viele unnütze Logomachien nach sich gezogen hat.
236

3. Drei weitere von Aristoteles unterschiedene und erörterte Urteilsformen hat


man später unter der „Relationskategorie“ zusammengefaßt. Es sind die soge-
nannten konjunktiven (mit „und“-Verknüpfung zwischen den Subjekts- oder
Prädikatsbegriffen, auch Adjunktion genannt), die distributiven bzw. disjunktiven
(mit „oder“-Verknüpfung zwischen denselben) und hypothetischen bzw. implika-
tiven (mit „wenn ... dann …-Verknüpfung zwischen Subjekts- und Prädikatsbe-
griff) Urteile.
α. Die konjunktiven Urteile beziehen mittels der Kopula oder mittels des „Zu-
kommen“ mehrere Prädikatsbegriffe auf einen Subjektbegriff oder umgekehrt.
Subjekt oder Prädikat bestehen dann aus einem komplexen Ausdruck. Da Aristo-
teles komplexe begriffliche Ausdrücke als logische Elemente nicht eigens zum
Thema gemacht hat, berücksichtigt er dabei nicht, ob und inwiefern die im Prä-
dikats- oder Subjektausdruck vereinigten Begriffe ihrerseits in einem logischen
Gattungs-, Art- oder Nebenart-Verhältnis zueinander stehen. Hätte er neben den
eigentlichen Begriffen auch die (komplexen begrifflichen) Ausdrücke berück-
sichtigt, so hätte dies ihm und der späteren Logik viele Mühen und Aufwand
erspart. Wohl aber berücksichtigt er, ob es sich um positive oder negierte Begriffe
handelt, die in diese Ausdrücke eingehen. Dabei stellt er fest bzw. er dekretiert,
daß ein konjunktives Urteil insgesamt falsch sei, wenn mindestens einer der durch
„und“ verknüpften Begriffe in ihnen, würde er alleine stehen, zu einem falschen
Urteil führen würde.
Wir haben uns hier vorsichtig ausgedrückt. Es sei aber bemerkt, daß man
anhand eines inhaltlichen Beispiels wissen muß, daß die Urteilsbehauptung auf
eines der Und-Glieder nicht zutrifft. Dann weiß man natürlich auch, daß alle
anderen im komplexen Ausdruck stehenden Begriffe „zutreffen“, d. h. zu einem
wahren Urteil führen. Man weiß also, daß ein konjunktives Urteil mit (min-
destens) einem falschen (unzutreffenden) Gliede bezüglich der anderen Glieder
wahr ist. Und weiß man das (bei einem empirischen Beispiel), so weiß man
natürlich auch, in welchem Bestandteil solche konjunktiven Urteile wahr und/oder
falsch sind. Im üblichen inhaltlichen Sprachgebrauch würde man diese Be-
standteile sofort unterscheiden, und eine dieses nicht unterscheidende Rede als
Halbwahrheit oder halbe Lüge bezeichnen. Dieses wird aber durch das aristo-
telische Dekret, daß konjunktive Sätze insgesamt als falsch zu gelten haben, wenn
mindestens ein Glied „falsch“ sei, in der Logik verhindert. Offensichtlich war es
eine Vorsichtsmaßnahme, die dann auch als Maxime: „Wer einmal lügt, dem
glaubt man nicht, und wenn er auch die Wahrheit spricht“ populär wurde. Durch
die Formalisierung aber wird gerade unsichtbar gemacht, welches gegebenenfalls
das falsche Glied ist. Und so wird auch dadurch vieles Wahre zum Falschen
erklärt.
Die Logik enthält jedoch keine Regeln, sich auch gegen halbe Lügen und halbe
Wahrheiten zu wappnen. An deren Stelle setzte Aristoteles das stärkere Prinzip
der Vorsicht, lieber die Wahrheit zu opfern, wenn sie mit noch so wenig
Falschheit gleichsam befleckt ist. Der Fall hat, wie man sieht, Ähnlichkeit mit
237

dem Widerspruch. Formal kann man die konjunktiven Urteile auch leicht als
Widersprüche konstruieren, wenn man ein Ausdrucksglied mit seiner Negation
verbindet. In diesem Falle wird zwar rein formal darstellbar, daß der falsche
Bestandteil des Urteils entweder im positiven oder negativen Glied (aber auch hier
ist logisch nicht entscheidbar, in welchem) liegt, gleichwohl gilt es insgesamt als
falsch.
Alles Gesagte aber setzt wiederum voraus, daß ein konjunktives Urteil sicher
dann wahr ist, wenn alle Glieder in gleichem Sinne als „wahr gelten“, und das
wiederum muß empirisch gewußt werden, so daß auch sein formales Notat als
wahres Urteil gilt. Und ebenso wird allgemein vorausgesetzt, daß ein konjunktives
Urteil falsch ist, wenn alle seine Glieder in gleichem Sinne als „falsch gelten“.
β. Die distributiven bzw. disjunktiven Urteile verbinden zwei oder mehrere
Glieder im Subjekt oder Prädikat mittels des „oder“ zu komplexen Ausdrücken.
Wie in der üblichen Sprache hat das „oder“ in vielen Fällen dieselbe Bedeutung
wie das „und“ und ist insofern mit ihm synonym. Deshalb kann man sehr oft
Sätze mit der Verbindungsfloskel „und/oder“ bilden. Die Sinnidentität bezieht
sich auf die Fälle, wo alle Glieder gemeinsam zutreffen und dann Wahres
ausdrücken, und wo alle Glieder gemeinsam nicht zutreffen und dann Falsches
ausdrücken. Spitzt man nun aber das einfache „oder“ (später lateinisch als „vel“
bezeichnet) zum „entweder ... oder“ (lateinisch „aut“) zu, so ergibt sich eine Sinn-
differenz zum „und“.
Diese Art der Disjunktion nannte man später vollständige Disjunktion oder
Alternative. Alternativen sind Ausdrücke, die nur aus zwei gegensätzlichen (in
„vollständiger Disjunktion“ bzw. im Negationsverhältnis zu einander stehenden)
Gliedern zusammengesetzt sind, die ihrerseits einen Widerspruch bilden. Von die-
ser Art des „alternativen Widerspruchs“ dekretierte Aristoteles nun gerade das
Gegenteil des durch „und“ gebildeten Widerspruchs, und dies möglicherweise der
schönen Symmetrie wegen.
Ein alternatives Urteil sei demgemäß insgesamt wahr, wenn das eine Glied als
wahr und das andere als falsch gelte. Auch dieses aristotelische Dekret von der
Wahrheit der Alternative wurde in der Logik zu einem Dogma. Und ersichtlich
sind die Folgen ebenso verheerend wie diejenigen der dekretierten Falschheit des
Widerspruches. Denn wenn eine Alternative mit einem falschem Glied wahr ist,
werden die falschen Satzbestandteile, wenn man nicht weiß, welches Glied der
Alternative wahr und welches falsch ist, leicht unbesehen ebenfalls zu Wahrheiten
erklärt.
Auch die Alternative hat unter den logischen Urteilsformen eine seither bevor-
zugte Stellung gefunden, weil sie nach aristotelischer Festsetzung eine Notation
aus rein logischen Gründen immer wahrer Urteile erlaubt, die man ohne Hinblick
auf und ohne Kenntnis der Wirklichkeit behaupten könne, ebenso wie der
Widerspruch aus rein logischen Gründen als immer falsch gilt.
Dazu muß allerdings bemerkt werden, daß die Stoiker später auch für die Alter-
nativen falsche Wahrheitswerte feststellten: sie seien dann falsche Urteile, wenn
238

beide Glieder zusammen wahr und auch wenn beide zusammen falsch seien (und
diese Festlegung ist in der neueren Logik kanonisch geworden). Abgesehen
davon, daß man dies wiederum empirisch am Beispiel wissen muß und die Alter-
native dadurch wieder ihren rein logischen Wahrheitsstatus verliert, wird man sich
fragen, ob das, was man hier für eine falsche Alternative hält, nicht vielmehr
keine Alternative ist.
Aristoteles hätte allenfalls den ersten Fall, daß beide Glieder zugleich wahr sind,
als möglichen Grenzfall zugelassen (man kann die oben zitierte Passage aus der
Hermeneutikschrift darauf beziehen), z. B. wiederum im Falle einer partikulären
Alternative: „Einige Lebewesen sind entweder Tiere oder nicht Tiere“, was offen-
sichtlich beides wahr ist. Aber in diesem Falle würde es sich nach unserem Vor-
schlag wiederum nicht um ein behauptendes Urteil, sondern um eine Definition
handeln: „Einige Lebewesen, d. h. entweder die Tiere oder die Nicht-Tiere (Pflan-
zen)“.
γ. Die sogenannten hypothetischen Urteile verbinden Subjekt und Prädikat
durch „wenn ... dann...“. Dies kann auch zusammen mit der Kopula (oder mit „es
gibt“, welches Aristoteles als Kopula ohne Prädikat behandelte: „A ist“) oder mit
dem „Zukommen“ geschehen und stellt eigentlich dann erst klar heraus, daß es
sich um behauptende Urteile handeln soll. Man bemerke aber, daß in diesem Falle
nicht ein Urteil gebildet wird, sondern zwei Urteile miteinander verbunden wer-
den, was dann schon zur Schlußlehre überleitet. Aristoteles hat reichlich davon
Gebrauch gemacht und wohl am meisten in dieser Urteils- bzw. Schlußform
argumentiert.
Werden nur Subjekts- und Prädikatsbegriff so verknüpft, so kann man sehr in
Zweifel sein, ob es sich um ein gemeintes Urteil oder um einen Ausdruck handelt,
der keinen Wahrheitswert hat. Wir sagten schon, daß Aristoteles selber logische
Ausdrücke als Begriffsverknüpfungen nicht thematisiert hat, und zwar, weil er das
Ineinandergreifen der Intensionen und Extensionen im Gattungs-Art-Unterart-
gefälle der Begriffe nicht durchschaut hat. In pyramidaler Notation wird dieses
sichtbar und erklärt unmittelbar anschaulich die Bedeutung der so gebildeten
Ausdrücke: „Wenn Gattung dann Art“ (Subsumption eines Artbegriffs unter seine
Gattung, formale Implikation), „Wenn Art, dann Gattung“ (Implikation des ge-
nerischen Gattungsmerkmals im Artbegriff, materiale Implikation) und „Wenn
Art dann Nebenart“ (Korrelation von Artbegriffen unter gemeinsamer Gattung
oder auch unter verschiedenen Gattungen). Man sieht hier, daß das „wenn ...
dann...“ dreierlei Bedeutung annehmen kann, die jeweils die Verbindung von Gat-
tung zur Art, von der Art zur Gattung und von einer Art zu einer Nebenart, d. h
die überhaupt möglichen Verhältnisse zwischen Begriffen, bezeichnen. Da
Aristoteles durch seine Formalisierung ganzer Begriffe (Wenn A dann B) diese
Strukturen geradezu verdeckt, erkannte er den logischen Grund dieser verschie-
denen Bedeutungen des „wenn ... dann“ nicht.
Ein weiteres kommt hinzu. Da er das „wenn ... dann“ als Urteilsverknüpfung be-
handelte, bemerkte er auch nicht den Unterschied zwischen grammatisch behaup-
239

tender Form des „(immer) wenn ... dann“ und grammatisch nichtbehauptender
Konjunktivform „falls ... so wäre...“. Diese Nichtunterscheidung hat ihren Grund
in seiner Modallehre von den „Möglichkeiten“. Denn hier redete er ja selber stän-
dig in hypothetischen Sätzen des „irrealen“ Typs: „Gesetzt den Fall daß..., so
wäre...“.
Erinnern wir uns nun daran, daß Aristoteles‟ Urteilslehre darauf abgestellt war,
durch wahre behauptende Urteile die Wirklichkeit abzubilden und falsche Urteile
als Abbildung von Scheinwirklichkeit (d. h. eigentlichem Nichts) kenntlich zu
machen und von den wahren Urteilen zu unterscheiden. Und das hätte dazu führen
müssen, die konjunktivischen Sätze, mit denen man Vermutungen formuliert, aus
der Logik auszuscheiden. Nur die (echten, behauptenden) Wenn ... dann-Urteile
(in Verbindung mit Kopula, Existenzjunktor „es gibt“ und „Zukommen“) kann
man auf ihre Wahrheit und Falschheit hin prüfen und unterscheiden.
Es ist klar, daß jede der oben unterschiedenen drei Implikationsformen jede für
sich in der geschilderten Anwendung wahre Urteile liefert, in jeder anderen aber
falsche. Aber diese Unterscheidung konnte Aristoteles nicht machen. Die unech-
ten (eigentlich im grammatischen Konjunktiv zu formulierenden) „hypothetischen
Urteile“ (mit: „falls ... so wäre ...“) sind aber in allen Gestalten als falsche Urteile
einzuordnen. Denn man weiß ja, wenn man sie als Sätze formuliert und gebraucht,
daß die Wirklichkeit sich gerade nicht so verhält, wie sie es darstellen. („Falls
Sokrates Flügel hätte, dann würde er fliegen“ lautet ein in der Antike verbreitetes
Beispiel). Es wird jedoch in logischen Lehrbücher meist in der Behauptungsform:
„Wenn Sokrates Flügel hat, denn fliegt er“ kolportiert. Aristoteles ließ die Ver-
mutungsform auch, ohne diesen grammatischen Unterschied zu beachten, als
falsche Urteile zu und übernahm von Philon von Megara (nicht mit dem späteren
Neuplatoniker Philon von Alexandria zu verwechseln) die Festlegung, „hypo-
thetische Urteile“ mit zwei falschen Teilsätzen seien wahr.
Das kann man einen der erstaunlichsten Vorschläge nennen, die in der Logik je
gemacht wurden. Er ist umso erstaunlicher, als er nachmals undiskutiert als
Dogma festgehalten wurde. Er erlaubte es seither, in der Logik über alles und
jedes als „logische Möglichkeiten“ zu spekulieren und sich zugleich bewußt zu
bleiben, daß man sich dabei über alle Wirklichkeit in luftige „mögliche Welten“
begab, die aus lauter „kontrafaktischen“ Falschheiten gesponnen waren. Die Ak-
zeptanz fiel den Logikern offenbar deshalb so leicht, als sie ja mit Aristoteles auch
den Widerspruch als falsch, wenn ein Teilsatz wahr, und die Alternative als wahr,
wenn ein Teilsatz falsch sei, angenommen haben. Warum also nicht auch die
implikative Urteilsform, in der beide Teilsätze falsch sind?
Da Aristoteles nun sowohl die aus wahren wie die aus falschen Teilsätzen zu-
sammengesetzten hypothetischen Urteile für wahr hielt, blieb die Suche nach der
Form falscher hypothetischer Urteile bei ihm auf die Kombinationsform von
wahren und falschen Teilsätzen beschränkt. Man kann nur feststellen: er entschied
sich dafür, die Form mit falschem Vordersatz und wahrem Hintersatz ebenfalls für
wahr zu halten. Aus Falschem läßt sich in der Logik seither auf beliebige Wahr-
240

heiten schließen! Einzig die Form mit wahrem Vordersatz und falschem Hinter-
satz erklärte er – wiederum mit den Megarikern - für falsch. Auf Falsches kann
man seither aus beliebigen Wahrheiten schließen! Daß es sich auch dabei um
Dogmen der Logik handelt, die von Aristoteles und auch von Späteren in keiner
Weise begründet wurden, dürfte auf der Hand liegen. Sie erlauben es seither den
Logikern, ganze Bücher voller „hypothetischer“ Lügen für pure logische Wahr-
heiten zu erklären, gleichgültig, ob nun auch der einzige Endsatz (als Resultat
bzw. Konklusion) falsch oder zufällig wahr ist (Vgl. dazu die Interpretation des
„ex falso sequitur quodlibet“ und „verum sequitur ex quolibet“ in § 9).
In den Überlegungen zu den Urteilen finden sich auch die Ausgangspunkte für
das, was später als Modallehre ausgestaltet wurde und in der modernen Logik
geradezu als selbständige Disziplin auftritt. In der Hermeneutikschrift bemerkt
Aristoteles – vorangegangene Überlegungen zusammenfassend – „Bei gegenwär-
tigen und vergangenen Dingen muß also Bejahung oder Verneinung immer ent-
weder wahr oder falsch sein ... Bei Einzelfällen ist es aber auch dann nicht mehr
ebenso, wenn sie in der Zukunft liegen. Denn wenn hier jede Bejahung oder
Verneinung entweder wahr oder falsch sein müßte, dann müßte auch alles mit
Notwendigkeit entweder eintreten oder nicht eintreten“.122
Man kann daraus entnehmen, daß Aristoteles die prognostischen Aussagen über
Zukünftiges (die possibilia futura) hinsichtlich ihrer Wahrheit oder Falschheit für
unentscheidbar gehalten hat. Das wäre eigentlich ein Grund gewesen, Prognosen
ebenso wie die konjunktivischen Vermutungen (was Prognosen in der Regel sind)
nicht für behauptende Aussagen zu halten und sie deswegen aus der Urteilslehre
auszuscheiden. Erst die Stoiker haben aber auf Grund ihres Universaldetermi-
nismus auch Prognosen für echte Urteile mit Notwendigkeitscharakter gehalten
und in den Chrysippischen „Indemonstrablen“, den Schlußformeln (besonders der
ersten als „modus ponens“ und in der zweiten als „modus tollens“) dargestellt.
Und so dürften sie es gewesen sein, die die Unterscheidung von Notwendigkeits-
und Möglichkeitsurteilen (sowie die Wirklichkeitsurteile als Beispielsfälle) zu
einer besonderen Modallogik ausgearbeitet haben.
Halten wir noch einmal fest, worauf es Aristoteles in der logischen Urteilslehre
ankam und womit er auch einige falsche Weichenstellungen in der Logikge-
schichte initiierte.
1. wollte er diejenigen sprachlichen Satzformen feststellen, die durch ihren Be-
hauptungscharakter Wahrheit und Falschheit - und nur diese - darzustellen er-
lauben. Das ist ihm nur teilweise gelungen. Zum einen blieb der Unterschied zwi-
schen nichtbehauptender Definition (später als Äquivalenz meistens als behaup-
tendes Urteil behandelt, so vor allem in der Mathematik der Gleichungen) und
eigentlichem Behauptungsurteil ungeklärt. Zum andern hat er unter der Form der
hypothetischen bzw. implikativen Urteile auch nichtbehauptende (im gramma-

122
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 18 a. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 94f.
241

tischen Konjunktiv auszudrückende) Satzformen in die Logik aufgenommen, wie


Vermutungen und kontrafaktische Hypothesen. Diese wurden seither auf seine
Autorität hin in der Logik als behauptende Urteile mit Wahrheits- bzw. Falsch-
heitscharakter behandelt.
2. wollte er durch seine „Formalisierung“ mittels der Vertretung sprachlicher
Begriffe durch Variablen in den Urteilen von der faktischen Wirklichkeit ab-
strahieren und so die logische Urteilslehre als „allgemeine“ Theorie wahrer und
falscher Behauptungen begründen. Diese sollte nicht mehr an inhaltlich-sprach-
liche Behauptungsbeispiele gebunden bleiben, wenn sie diese auch jederzeit zur
Begründung und Erläuterung der formalisierten Urteile und ihres Wahrheitswertes
heranziehen konnte und auch tatsächlich so verfuhr. Dabei übernahm er aus der
konventionellen Sprachpraxis auch die Voraussetzung, behauptende Urteile zu-
nächst und grundsätzlich als wahr zu behandeln, also ihnen einen Vertrauens-
vorschuß einzuräumen, es sei denn, daß ihre Falschheit (sprachlich: Lügenhaftig-
keit, Irrtum) nachgewiesen oder logisch formal festgesetzt wird.
3. war er bemüht, die rein logischen Funktionen der logischen Junktoren heraus-
zufinden, die es - ohne Rücksicht auf die Wirklichkeit und ihre Beispiele – erlau-
ben, wahre Urteile in andere wahre, wahre in falsche, falsche in andere falsche,
und falsche wiederum in wahre umzuwandeln bzw. vom einen zum anderen
überzugehen. Dabei erkannte er nicht den Unterschied zwischen den ausdrucks-
und den satzbildenden Junktoren.
4. Seine Hauptentdeckung bezüglich der Junktoren dürfte die Rolle der satz-
bildenden Negation gewesen sein, die allgemeine wahre in allgemeine falsche
Urteile und umgekehrt umwandelt.
5. Sodann sah er eine wichtige Rolle der Quantifikation (von Subjektbegriffen)
darin, von allgemeinen wahren auf partikuläre (und individuelle) wahre Urteile
überzugehen (sogenannte Subalternation). Dies war ein verhängnisvoller und in
der Logikgeschichte folgenreicher Irrtum. Er bemerkte nicht, daß die Partikula-
risierung und Individualisierung keine Form behauptender Urteile, sondern eine
Definitionsform darstellt (vgl. dazu § 9).
6. Insbesondere wendete er die Implikation („wenn ... dann ...“) neben ihrer
Behauptungsfunktion (in Korrelationen und Kausalurteilen) auch auf hypothe-
tische Urteile an. Sein Fehler dabei war es, die sprachlich-grammatische Vermu-
tung in eine Behauptung umzumünzen. Seither gab und gibt es in der Logik kei-
nen „Konjunktiv“. Und das bedeutet, daß in der Logik auch alle Hpothesen als
Behauptungen formuliert und mit Wahrheitswerten ausgestattet werden.
7. Um die Logik auch noch von jeder Rücksichtnahme auf empirische Beispiele
und deren Wahrheitswertvoraussetzung unabhängig zu machen, suchte Aristoteles
nach logischen Urteilsformen, die allein durch ihre Form einen bestimmten Wahr-
heitswert der Urteile darzustellen erlaubten. Er glaubte sie im Widerspruch als
Form reiner logischer Falschheit und in der Alternative als logische Form reiner
logischer Wahrheit gefunden zu haben. Manche seiner Ausführungen legen auch
die Vermutung nahe, daß er auch die sogenannten Äquivalenzurteile (und damit
242

die Definitionen bzw. die mathematischen Gleichungen) als Gestalten rein logi-
scher Wahrheit angesehen hat, denn sie kommen als Prämissen oder Schlußsätze
in seinen Syllogismen vor.
Offensichtlich verstand er selbst den Übergang von der Empirie der Beispiele zu
den rein logischen Urteilsformen als genügende Begründung dafür, die logische
Falschheit des Widerspruchs und die logische Wahrheit der Alternative grund-
sätzlich von der (durch Negation gebildeten) inhaltlichen Wahr-Falschheit der
Teilsätze zu unterscheiden und abzugrenzen.
Die Logiker sind ihm mit den Stoikern darin auch durchweg gefolgt, und in der
neueren Logik wurde die semantische Meta-Theorie der Sinnebenen geradezu da-
zu erfunden, diesen Unterschied herauszustellen. Sie erlaubt seither den Logikern
zu argumentieren, daß so manches inhaltliche Satzbeispiel sachlich falsch, aber
seine formale Gestalt rein logisch wahr und umgekehrt sein könne. Wir haben
unsere Bedenken gegen diese Sicht der Dinge (und somit gegen die Homonymität
der Wahrheitswertbegriffe) schon in § 9 deutlich gemacht.

d. Die Schlußlehre. In der Lehre vom Schluß gipfelt die aristotelische Logik.
Sie ist zugleich Beweistheorie für die Wahrheit von Urteilen (oder für ihre Falsch-
heit). So ist sie auch die Hauptmethodologie für die kritische Überprüfung sprach-
licher Kontexte und für die Gewinnung neuer Urteile aus dem Kontext schon
vorhandener.
Ein Schluß (syllogismos ó, lat.: ratiocinatio, ratiocinium, discursus)
ist eine Verbindung von Urteilen derart, daß daraus ein neues Urteil gebildet wer-
den kann.
Im einfachsten Fall gewinnt man nach Aristoteles aus allgemeinen Urteilen
durch Subalternation spezielle „partikuläre“ Urteile. Das hat man bis heutzutage
als „logisches Theorem der partikulären Urteile“ festgehalte. Es lautet: „Aus
einem allgemeinen Satz läßt sich ein partikulärer Satz ableiten, der dieselbe Quali-
tät sowie dasselbe Subjekt und Prädikat hat.“ 123 Ein Beispiel dafür wäre: “alle
Menschen sind sterblich”, daraus folge: “einige Menschen sind sterblich” (und
„Sokrates ist sterblich”).
Wenn die Partikularisierungen jedoch tatsächlich wahre Urteile wären, müßte
man (als Gegenprobe) ebenso „wahr“ schließen können: „einige Menschen sind
unsterblich bzw. nicht sterblich“ (und auch: „alle Menschen außer Sokrates sind
unsterblich“). Aber abgesehen davon, daß die „Sterblichkeit“ in Logiklehrbüchern
noch nie als „dialektisches Prädikat“ erkannt worden ist (die Tote und Lebendige
zugleich umfaßt), zeigt sich an der „Gegenprobe“, die bei einer Partikularisierung
ebenfalls gefolgert werden kann, daß es sich nicht um Urteile, sondern um Defini-
tionen dessen handelt, was als „einige“ und „ein“ nur unbestimmt ausgedrückt
wird und deshalb genauerer Bestimmung bedarf.

123
K. Ajdukiewicz, Abriß der Logik, Berlin 1958,S. 117. – „Qualität des Urteils“ bedeutet bejahend oder verneinend.
243

Eine einfache Schlußform ist auch schon das hypothetische wenn … dann …-
Urteil. Wie oben dargelegt, erlaubt es einen einfachen Schluß von einem wahren
Satz auf einen anderen wahren Satz, und (die kontrafaktischen Vermutungen
einschließend) auch von einem falschen Satz auf einen falschen Satz, ja sogar von
einem falschen Satz auf einen wahren Satz. Nur der Übergang vom Wahren zum
Falschen wird dadurch als „unwahr“ bzw. unzulässig ausgeschieden.
Auch dazu ist zu bemerken, daß solche einfachen Schlüsse für praktische
Anwendungen gänzlich abwegig sind, wohl aber zu allen Zeiten einer phantasti-
schen Spekulation Tür und Tor geöffnet haben, weil durch Aristoteles dazu eben
eine logische Schlußform als „wahrheitsverbürgend“ zur Verfügung stand. Was
davon zu halten ist, wurde schon in § 9 bei Gelegenheit der Kritik der „Aussagen-
logik“ behandelt.
Interessanter und exemplarisch sind die syllogistischen Regelfälle, in denen aus
je zwei Urteilen ein neues drittes gebildet wird. Diese hat Aristoteles zum Gegen-
stand seiner Analysen gemacht und die Regel aufgestellt, nach denen dies zu
wahren oder falschen Urteilen führt. Die Hauptbedingung dabei ist, daß die
Ursprungsurteile (jeweils zwei Prämissen) einen Begriff gemeinsam haben (soge-
nannter Mittelbegriff). Und daraus erhellt schon, daß der „Schluß” im engeren
Sinne (conclusio), d. h. das daraus zu gewinnende Urteil aus den nicht gemein-
samen Begriffen der Prämissen-Urteile besteht. Charakteristisch für die aristote-
lische Syllogistik ist jedenfalls, daß in einem regelrechten Syllogismus nur drei
Begriffe vorkommen dürfen. Einer von diesen ist der Mittelbegriff, der im eigent-
lichen Schlußsatz herausfällt, so daß aus den beiden übrigen das Schlußurteil ge-
bildet wird.
Für die Übersicht der möglichen Verbindungsweisen zog Aristoteles grund-
sätzlich die Stellung des Mittelbegriffs heran, nämlich ob dieser als Subjekt in der
einen und Prädikat in der anderen oder als Subjekt in beiden oder als Prädikat in
beiden Prämissen steht. Die Anordnung der Prämissen selber (die erste Prämisse
heißt Maior, weil ihr Prädikatsbegriff den „größeren Umfang“ haben soll, die
zweite Minor, weil ihr Prädikatsbegriff den „kleineren Umfang“ haben soll) ge-
schieht so, daß die erste Prämisse immer das Prädikat zum Schlußurteil liefert
(falls es nicht als Mittelbegriff wegfällt); die zweite Prämisse das Subjekt (falls es
nicht als Mittelbegriff wegfällt). Es ist dabei zu beachten, daß Aristoteles meistens
die Formulierung mit „zukommen“ benutzte, z. B. „Sterblichkeit kommt allen
Menschen zu”. Die kopulative Formulierung wechselt aber Subjekt- und Prädi-
katstelle aus: „Alle Menschen sind sterblich”. Daher lassen sich seine sogenannten
Schlußfiguren sämtlich in beiden Formulierungen lesen: z. B.: „(alle, einige) M
sind P“ = „P kommt (allen, einigen) M zu“, usw. Legt man dies zugrunde, so
stehen I und II in spiegelbildlichem Verhältnis zu III und IV im Schema.

So ergeben sich die vier bekannten aristotelischen Schlußfiguren in der Anord-


nung gemäß der Stellung des Mittelbegriffs in den Prämissen:
244

Die vier aristotelischen Schlußfiguren

I. M-P II. P-M III. M-P IV. P-M (M= Mittelbegriff,


S-M S-M M-S M-S der im Schlußurteil
S-P S-P S-P S-P eliminiert wird).

In der logischen Literatur wird zwar allgemein angenommen, erst Galen habe die
IV. Figur herausgearbeitet. Aber das dürfte ein Irrtum sein, der auf der Nicht-
beachtung der doppelten aristotelischen Formulierungsweise (mit Kopula oder
„Zukommen“) beruht.
Unter Berücksichtigung dessen, daß nach Aristoteles jedes Urteil wiederum be-
jahend oder verneinend und zugleich allgemein oder partikulär sein kann, ergeben
sich in jeder Schlußfigur acht mögliche Verbindungen zu neuen Urteilen, insge-
samt also 256. Diese werden „Schlußmodus“ genannt. Von diesen fand Aristo-
teles 14 als gültige, d. h. aus wahren Prämissen immer zu wahren neuen Urteilen
führende heraus (noch heute ist jedoch die Zahl der gültigen Schlußmodi um-
stritten!). Diese abgeleiteten Schlußmodi, die auch einige Definitionen in der
Form partikulärer und individueller Urteile enthalten, durch Rückführung auf ihre
jeweilige Stammform, die o. a. Schlußfiguren, bewiesen zu haben, ist in diesem
Felde eine äußerst scharfsinnige Leistung des Aristoteles.
Die scholastische Logik hat nach dem Vorbild des byzantinischen Logikers
Michael Psellos (1018-1078 oder 1096 n. Chr.) für alle für gültig gehaltenen
Schlußmodi sehr sinnreiche Namen gebildet, aus denen man Bejahung und Ver-
neinung sowie die Quantifikation der Subjektsbegriffe in den Prämissen direkt
entnehmen konnte. Sogar die Reduktionsregeln sind (durch die Konsonanten) in
den künstlichen Termini für die gültigen Schlußmodi durch die Scholastiker
mitbezeichnet worden. So wurde die logische Prüfung von Argumentationen ein
technisches Spiel, den Kontext in Schlüsse aufzugliedern, für diese jeweils den
Schlußmodus zu bestimmen, und diesen wiederum durch Rückführung auf die
Stammform zu „verifizieren”. Als Hauptstammform gilt dabei der (von den
lateinischen Scholastikern sogenannte) Modus Barbara: „Wenn alle A B sind,
und wenn alle B C sind, dann sind alle A auch C“.
Bei Aristoteles gilt nun für die Schlüsse das nämliche wie für die Urteile: auch
sie sind letztlich Begriffsverbindungen. Da Aristoteles noch nicht über den Sche-
matismus der Begriffspyramide bzw. den porphyrianischen Baum verfügte, konn-
te er nicht sehen, daß alles Schließen auf einen Nachweis der Subsumtions-
fähigkeit oder Nicht-Subsumtionsfähigkeit von Begriffen hinausläuft. Durch den
Mittelbegriff aber fand er ein ingeniöses Mittel für die Sicherung, daß die in den
Syllogismen vorkommenden Begriffe sämtlich im Verhältnis von Gliedern einer
überschaubaren Begriffspyramide mit gemeinsamer Gattung und dihäretischen
(disjunktiven) Nebenarten sowie einer Unterart stehen.
Aristoteles durchschaute nicht, wie wir sagten, daß die Quantifikation der in den
Syllogismen stehenden Subjektbegriffe zugleich den Übergang zu speziellen Art-
245

begriffen bedeutet. Z. B. „Einige Lebewesen“ können nur entweder „Tiere“ oder


„Pflanzen“ sein, wobei das eine zugleich auch die Negation des anderen darstellt
(„Tiere“ sind „Nicht-Pflanzen“, und umgekehrt sind „Pflanzen“ „Nicht-Tiere“).
Daher ist auch die Negation in den aristotelischen Syllogismen immer eine „be-
stimmte Negation“, die nur einen bestimmten Nebenartbegriff zu einem positiv
benannten Begriff negativ bezeichnet. „Kein Tier ist Pflanze“ bedeutet hier des-
halb dasselbe wie: „alle Tiere sind nicht Pflanzen“. Man beachte, daß dies nur für
disjunktive bzw. dihäretische Beispiele gilt, was im Syllogismus vorausgesetzt
wird.
Wird nun ein solcher nur durch die Quantifikation (undeutlich) bezeichneter
Artbegriff unter der Gattung in einer der Prämissen auch explizit genannt, so
ergibt sich, daß im Schlußurteil (conclusio) nur festgestellt wird, welche von
beiden nur quantifizierend (extensional) bezeichneten Arten die zutreffende sein
kann. Z. B. wenn von „einigen Lebewesen“ in der einen Prämisse gesagt wird,
daß sie „nicht Tiere sind“, so muß das, was in der zweiten Prämisse über die
„Pflanzen“ gesagt wird, auch von diesen „einigen Lebewesen“ gelten, nicht aber
von den „Tieren“. Trifft das zu, so ist der Schluß wahr, wenn nicht, ist er falsch.
Aristoteles hat diese Formen offensichtlich durch langwieriges Erproben anhand
von Beispielen herausgebracht und sich dabei nur gelegentlich getäuscht. Und
offenbar immer dann, wenn er die Negation versteckterweise als unbestimmte
Negation benutzte und dadurch weitere undefinierte Begriffe (über die Zahl drei
hinaus) in einigen Syllogismen einführte.
Wie wir anderen Ortes herausgearbeitet haben 124 spielen alle syllogistischen
Modi in der Begriffspyramide derart, daß zwischen ihren bestimmten Teilen
(„Begriffspositionen in der Pyramide“) Urteilsverknüpfungen ausgesprochen bzw.
abgelesen werden. Hierbei lassen sich grundsätzlich nur drei Figurationen unter-
scheiden, die wir die „eigentlichen aristotelischen syllogistischen Figuren“ ge-
nannt haben.
Diese sind 1. Die Figur der „Leiter“, die ein Verhältnis von Unterart oder
Individuum-Art-Gattung bezeichnet.
2. Die Figur des „Risses“, die das (negative) Verhältnis zwischen zwei (dis-
junktiven) Nebenarten und der Unterart einer dieser beiden Nebenarten ausdrückt.
3. die Figur der „Spitze“, die das Verhältnis von zwei Nebenarten zueinander
und zur gemeinsamen Gattung thematisiert.
Notieren wir diese Verhältnisse als Ausschnitte aus einer dihäretischen Pyra-
mide in pyramidaler Notation, indem wir die Begriffe durch Angabe ihrer ge-
nerischen und spezifischen Merkmale am jeweiligen pyramidalen Ort eintragen,
so ergeben sich folgende Schemata, die wir schon in § 9 im systematischem
Zusammenhang vorgestellt haben:

124
L.Geldsetzer, Logik, Aalen 1987, S. 312 - 319.
246

Die drei Schemata der aristotelischen Syllogismen

1. Leiter 2. Riß 3. Spitze

A A

AB AB AC AB AC

ABD ABD

Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund

Liest man in diesen Schematen die Verbindungsstriche zwischen den Begriffs-


positionen von unten nach oben als Kopula („ist“, „sind“) und von oben nach
unten als „Zukommen“, die nicht bezeichneten Querverhältnisse aber als Nega-
tionen („ist nicht“, „sind nicht“), so wird man in allen Figuren alle wahren
Syllogismen-Modi ablesen. Bei Vertauschung dieser Lesungen aber jeweils fal-
sche Modi. Beweise erübrigen sich, da dies wegen der Identität der Merkmale und
der mit dargestellten Quantifikationen unmittelbar abzulesen ist. Nach unseren
Ermittlungen ergeben sich insgesamt sieben Modi in der Lesung mit Kopula und
entsprechend auch sieben mit „Zukommen“, was zusammen 14 „gültige“ bzw.
wahre Schlußmodi ergibt. Dies ist auch die von Aristoteles festgestellte Zahl.
Bei den Syllogismen gilt ebenso wie bei den Urteilen, daß man zu ihrer Forma-
lisierung schon ein inhaltliches Vorwissen über die wirklichen Verhältnisse be-
sitzt, die durch die involvierten Begriffe und Prämissen-Urteilen formalisiert aus-
gedrückt werden. Ist das der Fall, so wird man die vorkommenden Begriffe in die
richtigen Gattungs-Art-Unterartpositionen einsetzen und ihre generischen und
spezifischen Merkmale richtig notieren. Dann und nur dann ergeben sich aus
wahren Urteilen wahre Schlüsse, und die Modi können als Prüf- und Beweismittel
für die Wahrheit dieser Schlüsse benutzt werden.
In dieser Hinsicht ist die Syllogistik auch jahrhundertelang als Hauptinstrument
der Logifizierung von empirischen Theorien benutzt worden, indem alle in ihnen
vorkommenden Begriffe hinsichtlich ihrer Stellung in der pyramidalen Allge-
meinheitshierarchie geprüft und die urteilsmäßigen Verknüpfungsmöglichkeiten
zwischen ihnen expliziert wurden. In der Praxis geschieht dies auch heute noch
beim Ausbau von Theorien. Nur wird nach der neuzeitlichen Verschmähung alles
„Scholastischen“ streng vermieden, sich dabei auf die Syllogistik zu berufen. Sie
wird also eher untechnisch evoziert und benutzt.
Aber schon Aristoteles selbst und erst recht die Scholastiker verwendeten die
Syllogistik weit über den Bereich der Prüfung wissenschaftlicher Empirie auch
auf kontrafaktische Spekulation und ihre „Möglichkeiten“ an. Diese Verwendung
247

steht, wie wir schon bei den hypothetischen Urteilen zeigten, unter der Bedin-
gung, daß als Prämissen manifest falsche Urteile eingesetzt werden und daraus
wiederum nach dem Schlußschema der hypothetischen Urteile auch von Falschem
auf Falsches gültig (bzw. „wahr“) geschlossen werden sollte. Diese Spekulationen
wurden zusätzlich durch die zwei scholastischen Maximen: „Ex falso sequitur
quodlibet“ und „Verum sequitur ex quolibet“ unterstützt. Von diesen wurde aber
schon in § 9 klargestellt, daß sie nur unter der Voraussetzung gelten können, daß
„Quodlibet“ (Beliebiges, d. h. Wahres oder Falsches) nur bei dialektischen Ur-
teilen (die Wahres und Falsches zugleich enthalten) logischen Sinn macht.
Zweifellos war es eben diese spekulative Verwendungsweise der Syllogismen,
die sie in der Neuzeit in Verruf gebracht hat und auf Grund derer man ihnen, wie
Kant schrieb, eine „falsche Spitzfindigkeit“ unterstellt hat.

3. Die Architektonik der Wissenschaften

Nicht der geringste Beitrag des Aristoteles zur Wissenschaftsphilosophie war


seine Architektonik der Wissenschaften. Durch sie hat er zuerst auf die Voraus-
setzungszusammenhänge unter den Einzelwissenschaften und den philosophi-
schen Disziplinen aufmerksam gemacht und damit allen nachfolgenden Wissen-
schaftsklassifikationen ein Muster aufgestellt. Und ersichtlich liegt es auch der
hier vorgeschlagenen Einteilung der Bereichsdisziplinen und Einzelwissenschaf-
ten (vgl. vorne § 2) noch zugrunde. Sein Einteilungsprinzip ist die menschliche
Erkenntnis- und Handlungsfähigkeit. Nach ihren Gegenständen und Produkten
teilt er die ganze Realität auf und die Wissenschaften zu:

A. Eigentlich theoretische (“spekulative”) Wissenschaften, in denen es um die


„reine Erkenntnis” des Seins und seiner Prinzipien geht. Diese sind:
1. Erste Philosophie bzw. Theologie (später Metaphysik genannt) als Wissen-
schaft von den ersten (bzw. letzten) Prinzipien (Ursachen) alles Seins, d. h.
vom Göttlichen.
2. Mathematik als Wissenschaft von den Zahlen und geometrischen Gebilden,
d. h. vom einzelnen “unbewegten” Seienden.
3. Physik als Wissenschaft vom “bewegten” Seienden in der toten, lebendigen
und seelischen Natur. „Physik“ als Naturwissenschaft schließt also Physik i. e.
S., sowie Biologie und Psychologie ein.

B. Praktische Wissenschaften, genauer Wissenschaften vom reinen und produk-


tiven Handeln und seinen Bereichen. Diese sind:
1. Politik als Wissenschaft vom allgemeinen Guten im Staat bzw. in der Ge-
sellschaft.
2. Ökonomik als Wissenschaft vom besonderen Guten der Hausgemeinschaft,
insbesondere der Produktion und Verteilung der „Güter“.
248

3. Ethik als Wissenschaft vom „guten“ (glückseligen) Leben durch „tugend-


haftes“ Handeln des Einzelnen.

C. Schaffenswissenschaften (poietische Wissenschaften), genauer Wissenschaften


von den Produkten menschlichen Handelns. Dazu gehört alle Theorie des hand-
werklichen und künstlerischen Schaffens (heute allgemein „Technologie“ ge-
nannt). Aristoteles hat davon nur Umrisse der „Poetik” als Wissenschaft vom
dichterischen Schaffen, speziell der Tragödie, geliefert. Aber auch seine Rhetorik
als Technik der Herstellung und Manipulation von Meinungen und Überzeugun-
gen kann hier zugeordnet werden. Man kann nach seinen Andeutungen und
mannigfaltigen Beispielen sehr wohl die folgenden „poetischen“ (= produktiven)
Disziplinen unterscheiden:
1. Lehre vom Handwerk als Disziplin vom Nachahmen und Üben praktischer
Herstellungsprozesse von Gütern ohne explizite Einsicht in ihre Prinzipien.
2. Kunstlehre als Disziplin vermischt handwerklicher und technischer Pro-
duktion.
3. Techniklehre als Disziplin theoretischen Wissens um die Prinzipien
der allgemeinen Produktionsbedingungen von Gütern und Werken.

Man muß freilich hinzufügen, daß Aristoteles in seinem Werk nur verstreut Hin-
weise auf eine solche Architektonik gibt. Diese sind aber von seiner Schule
alsbald in Richtung auf das vorliegende Schema ausgestaltet worden. Dabei traten
die Schaffenswissenschaften nicht mehr als selbständige Gruppe auf, sondern
wurden den Handlungswissenschaften zugeschlagen. So hat die aristotelische Tra-
dition vor allem die Unterscheidung zwischen theoretischen und praktischen Wis-
senschaften verfestigt und an die Neuzeit überliefert. Vor allem durch Christian
Wolff ist sie im 18. Jahrhundert wieder geradezu populär geworden.
Die Logik erscheint hier nicht, obwohl doch gerade Aristoteles sie wie eine
Wissenschaft betrieben, aber nicht als Wissenschaft bezeichnet hat. Dies hat seine
Schule zum Anlaß genommen, sie als „Organon” (Hilfsmittel oder Methodologie)
allen Wissenschaften voranzustellen, was ebenfalls weite Nachfolge gefunden hat.
Ebensowenig erscheint Geschichte. Dies erklärt sich daraus, daß Aristoteles
einerseits das, was wir heute Historiographie nennen, unter die Poetik subsumiert
(sie liefert die Einzelheiten, aus denen die eigentliche Dichtung das Allgemeine
exemplarisch heraushebt). Andererseits hat er jeder Wissenschaft eine „Geschich-
te” (historia) als Faktenkunde der Einzelheiten ihres Bereichs zugeordnet, wie
vorne schon gezeigt wurde.
Auch für die Handlungswissenschaften bewährt sich das Vier-Ursachen-
Erklärungsschema. Denn jede Handlung hat eine (schon durch die Handlungs-
verben bezeichnete) Form; eine Materie im menschlichen Körper mit der ihm
eingeschriebenen Handlungspotenz bzw. Fähigkeit; einen dabei Wirkenden; und
ein Handlungsziel. Im Vordergrund stehen dabei jedoch die Ziele und Zwecke des
249

Handelns, die durch vernünftige Überlegung (Phronesis ó, später „prak-


tische Vernunft“ genannt) zu erkunden sind.
Im Falle der reinen Handlungen ergibt sich das Ziel der politischen Aktionen als
das Gemeinschafts- oder Staatswohl (bonum commune, „common wealth“); das
Handeln im familiären Haushalt (oikos ἶ) richtet sich auf die Prosperität der
Familiengemeinschaft; das individuelle „ethische“ Handeln auf das „gute Leben“
(Eu zen ὒῆ des Einzelnen. Dieses hängt wesentlich von der Kultur bzw.
Erziehung zum „theoretischen Leben“ ab, das erst in die Lage versetzt, die einzel-
nen Handlungsziele der „Mitte zwischen den Extremen des Zuviel und Zuwenig“
zu erforschen und sich diese als „Tugenden“(Arete ἀή durch Übung und
Gewohnheit zu eigen zu machen.
Die produktiven („poietischen“) Handlungen haben zum Ziel und Zweck die
Herstellung von Produkten und Werken, die den Reichtum und das zivilisato-
rische und Kulturniveau der politischen Gemeinschaft ausmachen.
Im Handwerk werden die darauf gerichteten Handlungen durch Nachahmung
(der Natur und des ausbildenden „Handwerksmeisters“) und ständige Übung
erworben.
In der Technik werden die Produktionsziele und die Mittel ihrer Erreichung
theoretisch erforscht und gelehrt. Die sonst schwer in die Handlungswissenschaf-
ten einzuordnende Rhetorik (Redekunst, rhetorike techne ῥὴέfindet
sachangemessen unter diesen produktiven Disziplinen ihren Platz. Denn sie
handelt nach Aristoteles über die Herstellung und Veränderungen von Meinungen
durch Reden, indem sie an Vergangenes erinnert, Gegenwärtiges beurteilt, und
Künftiges beratschlagt.
Die Kunst aber ergibt sich als offenes Feld der Kreation neuer Ziele und
Zwecke aus der Verbindung von handwerklichem Können und theoretischen Er-
wägungen.

Zusammenfassend kann man sagen, daß Aristoteles in großartiger Weise die Mo-
tive der vorsokratischen und platonischen Philosophie so zusammenfaßt, daß da-
raus ein für Jahrhunderte und z. T. bis heute tragfähiges Wissenschaftskonzept
entsprang. Es betont die Wichtigkeit und Unterscheidung von Empirie und Theo-
rie in jeder Einzelwissenschaft, die Ursachenforschung als zentrales Anliegen
theoretischer Forschung, den Voraussetzungszusammenhang der Wissenschaften
und philosophischen Grunddisziplinen untereinander und in diesem Zusammen-
hang die Unabdingbarkeit einer letztbegründenden „ersten Philosophie” oder
Metaphysik, die gerade die Voraussetzungen der Einzelwissenschaften, die diese
nicht selber reflektieren, zum Thema nimmt. Eine Besinnung auf dieses und die
kritische Auseinandersetzung mit diesem Konzept kann auch in der gegenwär-
tigen Lage der Wissenschaftstheorie mancherlei Klärungen über das erbringen,
was als „naturwüchsig” erscheinendes Erbe und Besitz in die heutige Praxis der
Wissenschaft eingegangen ist.
250

§ 19 Euklid (um 300 v. Chr), seine „Elemente” und das Vorbild der Mathematik
Der platonische Charakter der „Elemente“ des Euklid als „dialektische Logik“. Vermeintliche geo-
metrische Anschaulichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der
arithmetischen Gebilde. Die geometrischen und arithmetischen „Definitionen“. Die Gleichung als
Ausdrucksmittel der mathematischen Argumentation. Bekanntheit und Unbekanntheit der Zahlen
und die Rolle der Buchstabenzahlen (Variablen). Die „Axiome“ als Definitionen. Die Theoreme
als Behauptungssätze. Die „Probleme“ als praktische Konstruktionsaufgaben und als Methodenar-
senale. Die „Elemente“ und der philosophische „Mos geometricus“.

Die Mathematik war als Rechen- und Meßkunst in der antiken Welt schon zu
hoher Blüte gelangt, als die Philosophie noch in den Windeln lag. Doch haben
auch ihr die Vorsokratiker, besonders schon Thales und Pythagoras, wesentliche
Hilfestellung bei der Theoretisierung ihrer Praxis geleistet und Platon ihr eine
wesentliche propädeutische Funktion für die Philosophie und jede Wissenschaft
eingeräumt und zumal jede Naturwissenschaft auf sie verpflichtet.
Aristoteles hat ihr zwar unter den theoretischen Wissenschaften, die um ihrer
selbst willen zu pflegen sind, nach der Metaphysik den zweiten Rang eingeräumt,
ihr jedoch keine methodologische Bedeutung für andere Wissenschaften zugemes-
sen. Nach seiner Auffassung gewann sie ihre besonderen Gegenstände durch
Abstraktion aus der sinnlichen Erfahrung: Zahlen und ihre Verhältnisse sowie die
geometrischen Gebildeverhältnisse sind für ihn Eigenschaften sinnlicher Dinge,
und zwar nur, soweit diese als unbewegte betrachtet werden, denn die Bewegung
und Veränderung (als Gegenstände der Physik) seien nicht mathematisch zu
erfassen. Da sie es mit einfachen und unveränderlichen Gegenständen zu tun habe,
könne die Mathematik nicht zur darstellenden Beschreibung und Erklärung der
veränderlichen Weltverhältnisse dienen. Und dafür konnte er sich wohl auf Zenon
von Eleia berufen, der ja paradigmatisch gezeigt hatte, wie die Anwendung der
statischen quantitativen Denkformen auf qualitative Sachverhalte und insbeson-
dere auf Bewegungen zu unauflöslichen Paradoxien führt, die Aristoteles seiner-
seits zu „lösen“ sucht. Nicht zuletzt dieser Überzeugung verdankt sich wohl auch
der Eifer, den Aristoteles auf die Entwicklung der formalen Logik als einer
konkurrierenden Theorie qualitativer Denkformen – der Begriffe und ihrer urteils-
und schlußmäßigen Verbindung – verwendet hat.
Man kann vermuten, daß Euklid nicht nur die aristotelische, sondern auch die
stoische Logik kannte, da er den stoischen Grundbegriff der „gemeinsamen ange-
borenen Ideen“ (koinai ennoiai κοινὶ ἔννοιαι) verwendet. Und daß er die aristo-
telische Logik gekannt haben wird, kann man schon deswegen vermuten, weil sie
zu seiner Zeit das methodologische Werkzeug in allen antiken Wissenschaften
geworden ist.
Daß die Zahlen und geometrischen Gebilde „Ideen“ seien, das hatte schon
Platons Ideenlehre behauptet. Daraus ergab sich das Programm, die Mathematik
insgesamt aus der Logik – als der Theorie der Ideenformen – abzuleiten. Dies
bleibt ein Bemühen aller platonisch und neuplatonisch inspirierten Philosophie.
251

Zuletzt ist sie im 19. Jahrhundert im Zeichen eines Neo-Neuplatonismus mathe-


matischer Grundlagenforschung wieder verstärkt in Angriff genommen worden.
Aber solche Bestrebungen stehen auch jetzt noch weit hinter den umgekehrten
zurück, die Logik aus einer autonomen Mathematik zu begründen und herzuleiten,
wenn dieses Anliegen auch hinter oftmals gegenteilig lautenden Absichtserklä-
rungen nicht so leicht erkennbar ist.
Daß die Mathematik schon so früh in die Lage geraten ist, als Urbild und
Vorbild einer abgeschlossenen Wissenschaft von höchster Stringenz, Kohärenz, d.
h. eindeutiger Beweisbarkeit aller ihrer Sätze und Inhalte, zu gelten, hat sie Euklid
zu verdanken. Von ihm ist bekannt, daß er um 300 v. Chr. unter Ptolemäus Soter
in Alexandria ein mathematisches Institut gründete, welches nachmals gute tau-
send Jahre bestand. Aus ihm sind danach fast alle bedeutenden Mathematiker der
antiken Welt hervorgegangen. Sein Hauptwerk, die „Elemente” (griech.: Stoi-
cheiai í) ist das mathematische Lehrbuch des Abendlandes schlechthin
gewesen.125
Euklid faßte alle Errungenschaften der vorangegangenen griechischen Mathe-
matik zusammen und verdrängte dadurch auch alle vorher bestehenden Werke,
von denen wir fast nur die Verfasser, die Buchtitel und mehr oder weniger aus-
gedehnte Partien und Referenzen kennen. Sein Werk, die „Elemente“, hat noch im
19. Jahrhundert dem Gymnasialunterricht als Lehr- und Textbuch gedient.
Neben den „Elementen“ ist von Euklid noch ein Werkchen erhalten, das den
Titel „Data“ trägt Daneben existiert eine in arabischer Bearbeitung überlieferte
Schrift über Teilungen.126
Das Werk „Elemente” ist, wie schon gesagt, nicht ohne Kenntnis der aristoteli-
schen und auch der stoischen Logik entstanden. Darauf deuten neben den darin
vorkommenden Begriffen insbesondere die Anlage des Werkes, die - wie Aristo-
teles für alle Wissenschaften fordert - die Prinzipien als Voraussetzungen der
Disziplin streng von allem davon Abzuleitenden und von ihnen her zu Begründen-
den (als Theoreme) unterscheidet.
Der Haupthintergrund der „Elemente“ ist jedoch die Platonische Ideenlehre,
obwohl dies an keiner Stelle des Werkes explizit gesagt wird. Von ihr her müssen
wir voraussetzen, daß die genuin geometrischen und arithmetischen Gegenstände
als nur im Denken zu erfassende Gebilde aufgefaßt werden, die zwar durch sinn-
liche Symbolisierung „veranschaulicht“, aber niemals gänzlich und rein darzu-
stellen sind. Darüber hinaus zeichnet sich das Werk durch einige Züge aus, die
den antiken Wissenschaftsbegriff nachhaltig bereicherten. Es ist ein Lehrbuch
„praktischer Wissenschaft” (nicht im aristotelischen Sinne Theorie der Praxis!)

125
Euklid, Die Elemente, Buch I-XIII, hgg. und. ins Deutsche übersetzt von Clemens Thaer, Darmstadt 1962, 479 S.;
Euclid‟s Elements of Geometry. The Greek text of J. L. Heiberg (1883-1885), edited and provided with a modern English
translation by Richard Fitzpatrick (13 Bücher), Internet 2008. Im folgenden wird zitiert nach: Euklid‟s Elemente, 15
Bücher, aus dem Griech. übers. von Joh. Friedrich Lorenz, neu hgg. von Carl Brandan Mollweide, 5. Aufl. Halle 1824.
126
Clemens Thaer, Hg.: Die Data von Euklid. Nach Menges Text aus dem Griechischen übersetzt und herausgegeben, mit
89 Figuren, Berlin/Göttingen/Heidelberg 1962, 73 S. Zu Euklids mathematischen Leistungen und seine weiteren Schriften
Moritz Cantor, Vorlesungen über Geschichte der Mathematik, 1. Band, 3. Aufl. Leipzig 1907, S. 258 - 294.
252

und bringt ägyptisch-babylonische Meß- und Rechenkunst als Aufgaben- bzw.


Problemsammlung für geometrische Konstruktionen so zur Geltung, daß jeder-
mann den unmittelbaren Nutzen dieser Wissenschaft für das Leben sehen konnte.
Wie der Philosoph bei Platon von der sinnlichen Anschauung ausgehend zur
„Ideenschau“ aufzusteigen hat, verwendet auch Euklid die sinnliche Anschauung
als didaktischen Ausgang für sein Lehrbuch. Von daher versteht sich, daß die
Geometrie mit ihren noch am leichtesten zu veranschaulichenden Gegenständen
die Propädeutik für alles weiter Behandelte darstellt, insbesondere auch für die
Arithmetik.
In dieser Hinsicht, die als unanschaulich geltenden arithmetischen Verhältnisse
aus anschaulichen geometrischen Verhältnissen zu demonstrieren, ist es für die
Lehre der Mathematik im Abendland richtungsweisend geblieben bis zur Renais-
sance, ja teilweise bis heute. Ein besonderes Raffinement der Darstellungsweise
bis in die Formulierungen des Textes besteht jedenfalls darin, dem Leser - und
sogar dem unvorgebildeten Schüler - den Eindruck zu erwecken, diese Veran-
schaulichung genüge zum vollkommenen Verständnis des Gesagten. Eben darum
hat es sich vor allem so lange als Schullehrbuch gehalten. Was an stillschweigend
vorausgesetzten platonischen Ideen und Lehrmeinungen darüber hinaus enthalten
ist, erschließt sich gewöhnlich erst dem zweiten und dritten Blick - und manchem
Leser überhaupt nicht, ohne daß dieser den Eindruck gewinnen müßte, er habe die
Sachen bei sonst genügender Aufmerksamkeit und gutem Gedächtnis nicht voll-
ständig verstanden.
Der umgekehrte Weg, die Geometrie aus der Arithmetik herzuleiten und zu be-
gründen und damit die sinnliche Anschauung zugunsten des „reinen Denkens” in
Zahlenverhältnissen gänzlich aus der Mathematik zu eliminieren, war vordem von
den Pythagoräern schon versucht worden. Er hatte sich jedoch mit ihren „ratio-
nalen” Zahlbegriffen als nicht gangbar erwiesen. Schon die arithmetische Berech-
nung der Diagonale im Quadrat und des Kreisdurchmessers im Verhältnis zum
Kreisumfang hatte die Pythagoräer auf die „Irrationalzahlen” geführt, bei denen
die Frage, ob es sich bei ihnen überhaupt um Zahlen handeln konnte, in der An-
tike immer umstritten blieb. Und die Benennung dieser Zahlen als „alogoi“ (ἄ
, eigentlich: „kein Verhältnis aufweisend“ bzw. „nicht mit gemeinsamem
Maße berechenbar, „inkommensurabel“) zeigt noch, daß sie dies als vernichtende
Niederlage des rationalen arithmetischen Denkens gegenüber den Phänomenen
der geometrischen sinnlichen Anschauung empfanden, in der ja auch irrationale
Verhältnisse, wie z. B. die Diagonale im Rechteck oder ein Kreis mit seinem
Durchmesser, leicht darstellbar sind.
Euklid definiert im 10. Buch, was rational (griechisch: rheton ῥή) und irra-
tional (griechisch: alogon ἄ) bedeutet auf der Grundlage von Kommen-
surabilität und Inkommensurabilität von geometrischen Strecken. Derart entmu-
tigt, wurde der Versuch, Geometrie von der Arithmetik her zu begründen, auch
erst durch Descartes im 17. Jahrhundert mit Erfolg im Programm seiner „analy-
253

tischen Geometrie” wieder aufgenommen, nämlich als man sich im Abendland


daran gewöhnt hatte, das Irrationale im Rationalen selbst zu verankern.
Der Aufbau des Werkes „Elemente” zeigt überall die glückliche Verbindung
von Theorie und Praxis. Die dreizehn Bücher (denen zwei weitere aus der Schule
beigesellt sind) beginnen fast alle mit einem „faktenkundlichen“ Teil, der in der
Gestalt von Definitionen die Grundlagen der ganzen Disziplin liefert. Daran
schließt sich jeweils ein Hauptteil mit „Problemen” als Konstruktionsaufgaben an,
zu deren Lösung aus den theoretischen Grundlagen zu folgernde „Lehrsätze”
(Theoreme) gleichsam als intellektuelles Handwerkszeug mitgegeben werden. In
diesen „Problemen“ und „Lehrsätzen“ stellt sich nun der ganze Reichtum mathe-
matischen (geometrischen wie arithmetischen) Wissens dar, den man - nach
aristotelischer Wissenschaftslehre - als den eigentlich theoretisch-erklärenden Teil
der Mathematik ansehen kann.
Die meisten der Bücher (bzw. Kapitel) beginnen mit „Hypothesen” (wörtlich:
Unterstellungen, Voraussetzungen, in lateinischen Ausgaben als „Definitionen“
übersetzt). Sie benennen und definieren (im 1. bis 4. und 11. bis 13. Buch) die
geometrischen und (im 5. bis 10. Buch) die arithmetischen Gebilde. Darin darf
man gewiß den nach Aristoteles zu fordernden faktenkundlichen Teil dieser
Wissenschaft sehen. Nur handelt es sich dabei um Fakten, Elemente, Gebilde, die
- anders als die aristotelischen sinnlich-empirisch zu beschreibenden Substanzen -
gerade nicht sinnlich-anschaulich gegeben, sondern im Denken erfaßt werden
sollen.
Es sei betont, daß dies auch für die so anschaulich erscheinenden geometrischen
Gebilde gilt. Auch für diese, erst recht aber für die arithmetischen Gebilde, ist der
Ausgang von der Anschauung zwar „didaktisch“ notwendig, aber nicht hin-
reichend. Man hat ja später oft und in der Moderne ganz besonders die angeblich
allzu schlichten, ja ungenügenden und irreführenden „Definitionen“ bespöttelt und
sie durch „Beliebiges“ (wie D. Hilbert in seiner Axiomatik) ersetzen wollen. Und
dies vor allem in Verkennung eben dieser Voraussetzung, daß sie keineswegs „an-
schauliche“ Gegebenheiten beschreiben, sondern Hinweise für ihr über die
Anschauung hinausgehendes denkerisches Erfassen als „Ideen“ geben sollten.
Man hat sich hier wieder an die durch Platon von Demokrit übernommene Lehre
vom Denken in Modellen zu erinnern, die dabei zum Tragen kommt: Das Modell
gibt den sinnlichen Ausgang, aber das eigentlich zu Denkende ist gerade nicht im
Modell darstellbar. Wie dies eigentliche Denken dabei funktioniert, ist freilich
immer das große Geheimnis der Platoniker - und auch der „überanschaulich den-
kenden“ Mathematiker - geblieben. 127 Wir können dazu nur weiter unten einen
Erklärungsvorschlag machen. Betrachten wir das an den geometrischen und an-
schließend an den arithmetischen Beispielen etwas ausführlicher.

127
„Wenn wir heute in unseren besten Theorien die Grenzen unseres anschaulichen Denkens überwinden können, dann
nicht zuletzt deswegen, weil der Rückgriff auf die Anschauung so entschieden aus den Beweismethoden der Mathematik
verbannt wurde“. N. Froese, Die Entdeckung der axiomatischen Methode durch Euklid, im Internet, Stand 30. 8. 2015, S. 4.
254

Das erste Buch der Elemente beginnt mit seinen „Definitionen“ bzw. „Hypo-
thesen“ folgendermaßen:
„1. Ein Punkt ist, was keine Teile hat. 2. Eine Linie aber ist eine Länge ohne Breite. 3. Das
Äußerste einer Linie sind Punkte. 4. Eine gerade Linie (Strecke) ist, welche zwischen den
in ihr befindlichen Punkten auf einerlei Art liegt. 5. Eine Fläche ist, was nur Länge und
Breite hat. 6. Die Enden einer Fläche sind Linien. 7. Eine ebene Fläche ist eine solche, die
zu den geraden Linien auf ihr gleichmäßig liegt. 8. Ein ebener Winkel ist die Neigung
zweier Linien gegen einander, die in einer Ebene zusammentreffen, ohne in gerader Linie
zu liegen“. 9. - 12. definieren verschiedene Winkel. „13. Grenze heißt, was das Äußerste
eines Dinges ist. 14. Figur, was von einer oder mehreren Grenzen eingeschlossen wird.”
usw. über Kreis, Dreieck, Polygone bis zum berühmten Satz über Parallelen: „35. Parallel
sind gerade Linien, die in derselben Ebene liegen, und, soweit sie auch an beiden Seiten
verlängert werden, doch an keiner Seite zusammentreffen”.
Im 11. Buch definiert Euklid auf die gleiche Weise (und unter anderem) die geometrischen
„Körper” als das „was Länge, Breite und Tiefe hat”. Darunter kommt auch die „Kugel”
(Sphaera ĩ) vor, von der es heißt (Nr. 14:) „Eine Kugel ist der Körper, welchen ein
Halbkreis beschreibt, der sich um seinen unverrückten Durchmesser einmal ganz herum-
dreht”.

Bei diesen Definitionen der geometrischen Gebilde handelt es sich um dialek-


tische Bestimmungen. Unter deren spezifischen Merkmalen wird mindestens eines
in positiver und zugleich negierter Weise angegeben. Auf letzteres weist die
häufig explizite negative Formulierung hin. Wir sagten von ihnen, daß so definier-
ten Begriffen nichts in der Wirklichkeit entspreche (sie haben keine eigene
Extension). Wohl aber entspricht ihren Komponenten, nämlich getrennt den
positiven wie auch den negativen, etwas in der Wirklichkeit. Hier kommen sie
nun als Gegenstände des platonistischen „dialektischen“ Denkens wieder zur Gel-
tung. Zeigen wir das an den oben zitierten Definitionen.

1. „Punkt ist, von dem kein Teil (existiert)“ (Semeion estin, hou meros ouden
ζημεĩον ἐζηὶν οὗ μέρος οσδέν). Das läßt sich recht anschaulich verstehen, wenn
man den Punkt wörtlich als ein „Zeichen“ versteht, das dann kein Zeichen mehr
ist, wenn man ihm einen Teil wegnimmt. Das heißt, es muß „unteilbar“ sein. Das
„ist“ aber muß als Äquivalenzjunktor gelesen werden, also als Definitionszeichen
bzw. mathematisches „ist gleich“ („=“). Anders formuliert: „Punkt = nicht teil-
bares Etwas“.
Drückt man mit spitzem Schreibgerät einen Punkt auf eine Unterlage, so wird
man in der Tat keine Teile unterscheiden können. Das teillose Etwas hat dann
„keine Teile“, wie die sinnliche Beobachtung lehrt. Demokrit hat ein derartiges
Gebilde „Atom“ (ἄηομον, Unteilbares, lat. individuum) genannt“, und jeder Grie-
che mußte das verstehen. Aber derselbe Demokrit nennt seine Atome auch ins-
gesamt „das Volle“ (pléres πλήρες) im Gegensatz zum „Leeren“ (kenón κενóν).
Um das Leere zu füllen, müssen die Atome eine gewisse Ausdehnung besitzen.
Demokrit spricht deshalb von unterschiedlichen „Größen“ der Atome. Und gerade
dies geht aus Euklids Sätzen Nr. 3, 4 und auch 7 hervor. Punkte liegen „in der
255

Linie“, „begrenzen Linien“ und „liegen in Linien in der Fläche“. Liegen Punkte in
den Linien, so müssen sie zumindest an deren Ausdehnung in einer Richtung
„teilhaben“ (wie Platon dies nannte). Und das wird in der Geometrie als Schnitt-
punkt von Linien dargestellt. Diese Ausgedehntheit der Punkte wird in der Eukli-
dischen Definition unterschlagen, aber beim geometrischen Umgang mit Punkten
vorausgesetzt, wenn die genannten Sätze einen verständlichen Sinn haben sollen.
Beide anschaulichen, aber sich ausschließende Sachverhalte sind nun im geo-
metrischen Begriff des Punktes zusammengeführt und machen seinen dialektisch-
widerspruchsvollen Charakter aus. Was aber die „Idee“ des Punktes ausmacht, so
ist sie im platonischen Sinne nur zu denken. Sie drückt sich keineswegs in einem
graphischen Bilde aus. Dasselbe Verfahren der kontradiktorischen Begriffsdefini-
tion kommt nun auch, wie gezeigt werden soll, bei den meisten übrigen Defini-
tionen zum Tragen. Konzentrieren wir uns bei den übrigen Gebilden aufs Wesent-
liche:
2. Die „Linie“ (γραμμή) hat als „breitenlose Länge“ sowohl Breite - um als ge-
zeichneter Strich oder gespannte Schnur gesehen zu werden - als auch Nicht-
Breite - um als Strich zwar veranschaulicht, aber nicht eigentlich dargestellt zu
werden. Was Nicht-Breite anschaulich bedeuten kann, sieht man an flachen Din-
gen wie Blättern und Häuten, wenn man sie von der Seite betrachtet, aber nicht an
Linien.
3. „Endpunkte“ von Linien haben als Teile der Linie Längenausdehnung, als
Punkte zugleich auch nicht.
4. Die „Geradheit“ einer Linie ist ein „Gleichmaß“ der Längen-Erstreckung
zwischen allen Punkten in ihr: Die Linie enthält also interne „Endpunkte“ und
zugleich auch nicht. Was „Gleichmaß“ ist, wird gerade nicht definiert. Ersichtlich
gilt diese Definition auch für gleichmäßig gekrümmte Linien, etwa einer Kreis-
linie, die zu allen Punkten auf ihr „gleichmäßig liegt“.
Es ist daher ein falsches Argument der sog. nichteuklidischen Geometrien gegen
den Euklidismus, dieser habe die „Geradheit“ als „Nichtkrümmung“ voraus-
gesetzt. Gerade die Dialektik der euklidischen Definition von Geradheit erlaubt es
- und hätte es auch den antiken Geometern schon erlaubt - die „Geradheit einer
Linie“ als „stetige bzw. gleichmäßige Krümmung“ zu verstehen. Galilei hat die
„horizontale Linie“ (die mit der Erdoberfläche gleichmäßig gekrümmt ist) als
„gerade Linie“ bezeichnet. Und daß Bolyai, Lobatschewski, Gauß und Riemann
gerade dieses Krümmungs-Verständnis der Geraden als Erweiterung und Verall-
gemeinerung der Geometrie durch die „nichteuklidische Geometrie“ entwickelten,
erweist die Fruchtbarkeit des Euklidischen Verfahrens der dialektischen Defini-
tionen und seine in der Mathematik fortwirkende Aktualität.
5. Eine „Fläche“ sieht man an jedem flachen Gegenstand von vorn und hinten.
Daß sie „nur“ Breite und Länge, d. h. „keine Tiefe“ hat, sieht man nicht, wenn
und solange man die Fläche betrachtet. Wohl aber sieht man, was gemeint sein
kann, wenn man den flachen Gegenstand von der Seite betrachtet. Dann aber sieht
man eben die Fläche nicht. Zusammen kann es nur „gedacht“ werden.
256

6. Die Begrenzung einer Fläche gehört als Linie sowohl zur Fläche als auch
nicht, denn als Flächenbegrenzungslinie hat sie sowohl Breite (als zur Fläche
gehörend) als auch nicht (als nicht zur Fläche gehörend).
7. Die ebene Fläche enthält zugleich Linien als auch nicht. „Gleichmäßig
liegen“ (der Linien) wird aber wie im Falle der Geraden gar nicht definiert und
gilt daher auch für sogenannte nichteuklidische Flächen, die daher ebenfalls auf
den euklidischen Begriff der Flächen rückführbar sind.
8. - 12. Für die Winkeldefinition wird nur auf das Verhältnis („Neigung“) sich
schneidender Linien abgestellt, nicht aber auf die sich zwischen den Schenkeln
erstreckende Fläche, die gar nicht genannt und auch später nicht definiert wird.
Man muß sie „hinzudenken“. Bei der Bestimmung der Winkelgröße (rechter
Winkel, stumpfer und spitzer Winkel) ist es umgekehrt. Schenkelneigung und die
eingeschlossene Fläche – wohlgemerkt, sie wird nicht definiert und muß doch
vorausgesetzt werden, denn ohne sie kann nicht von Winkelgrößen die Rede sein -
können nur getrennt gesehen, müssen aber als Einheit gedacht werden.
13. „Grenze“ - ein schon vorsokratischer Begriff (péras έdas Gegenteil
von ápeironἄInfinites, Unendliches)mit weit über die Mathematik hin-
ausreichender Bedeutung - gehört als das, „worin etwas endet“ zugleich der be-
grenzten Sache an und auch nicht, wie schon bei den Endpunkten der Linie und
den Begrenzungslinien der Flächen gesagt wurde.
14. Umgekehrt ist daher auch jede „Figur“ das von ihrer Grenze Umschlossene.
Die Grenze gehört jeweils dazu und zugleich auch nicht.
Der Leser mag die übrigen geometrischen Figuren auf ihre Dialektik hin selbst
überprüfen. Sie spielt vor allem damit, daß die bisher definierten Begriffe
wiederum als Merkmalsbestände in diesen verwendet werden.
Betrachten wir aber auch noch die berühmte Parallelendefinition (Nr. 35).
Abgesehen von der Unklarheit der Merkmale „gerade“ und „in derselben Ebene
liegen“, was ja auch für die sogenannten nichteuklidischen Ebenen paßt, wird das
„nicht einander Treffen, soweit sie auch an beiden Seiten verlängert werden“ als
spezifisches Merkmal der Parallelen ausgewiesen. Was „gleicher Abstand zwi-
schen geraden Linien“ bedeutet, sieht man ohne weiteres in der Nähe (etwa an
geraden Eisenbahn-Gleisen). „Verlängern“ lassen sich solche Linien auf dem
Papier oder auf einer Landebene, soweit es eben praktisch geht. Aber was man auf
einige Entfernung an solchen Verlängerungen sinnlich wahrnimmt, ist, daß sie je
weiter desto mehr zusammenlaufen. Das „in der Verlängerung“ gerade nicht
Wahrzunehmende (daß die Parallelen gleichen Abstand bewahren) ist also so zu
denken, wie es in der Nähe gesehen wird und nicht, wie es in der Ferne gesehen
wird. Der dialektische Witz bei der späteren Diskussion des Parallelenbegriffs
liegt nun gerade darin, daß die weitere Entwicklung der Parallelentheorie dies
„Nichttreffen“ im unendlich Entfernten genau nach der sinnlichen Erfahrung des
„Treffens im entfernt Wahrnehmbaren“ behandelt: Die Parallelen, die sich im
Endlichen nicht treffen, treffen sich gerade und nur im Unendlichen!
257

Daß hier die geometrischen Grundsachverhalte „dialektisch“ definiert werden,


kann nur aus der Voraussetzung der platonistischen These erklärt werden.
Nämlich daß durch die Veranschaulichung gerade nicht das ideelle Wesen dieser
Gebilde darstellbar sei. Denn es liegt ja auf der Hand, daß etwa die aristotelische
oder stoische Sicht dieser Gebilde ausschließlich auf ihre schlichte Anschau-
lichkeit verweisen würde und sie durchweg „nicht-dialektisch“ definiert hätte.
Es wären Definitionen dabei herausgekommen, die George Berkeley später für
den „Punkt“ mittels seines „Minimum sensibile“ vorgenommen hat, und die
durchaus für die Praxis genügen und dem Verständnis nach herkömmlicher logi-
scher Begriffsbildung entsprechen. Dann ist nämlich der Punkt eben das gerade
noch Sichtbare einer minimalen Fläche (was jedermann als den berühmten Flie-
gendreck kennt), und die Linie der Rand einer Fläche, die von der Seite her gese-
hen wird; die Fläche selbst aber das, was man von einem bestimmten Standpunkt
aus an Körpern sieht, während Körper ihrerseits überhaupt nicht als solche gese-
hen werden, sondern nur sinnlich ertastete Erfahrungsgebilde sind.
Die epochale Erfolgswirkung der euklidisch-platonischen Definitionen besteht
aber gerade darin, daß sie diese Merkmale eben mitenthalten und durch sie an die
Anschauung (und Betastung) des Praktikers appellieren und sich ihr verständlich
machen können, während sie dem eingeweihten „Denker“ noch viel mehr und
zum einen oder anderen gerade das Gegenteilige vorzustellen aufgibt.
Dies zu bemerken ist schon deshalb wichtig, weil die herrschende Meinung in
der Mathematik spätestens seit der Neuzeit mathematische Definitionen grund-
sätzlich für widerspruchslos hält und deshalb auch im Rückblick bei den eukli-
dischen Definitionen allenfalls Schlichtheit, Fahrlässigkeit, Adaptation an das
Verständnis von Anfängern und alles mögliche andere eher annimmt als explizit
definierte Widersprüchlichkeit. Und da man nicht damit rechnet, setzt man eben
auch die Nichtwidersprüchlichkeit der mathematischen Begriffe in Euklids
Elementen voraus und hat sich längst daran gewöhnt, mit ihnen so umzugehen, als
ob sie tatsächlich widerspruchslos seien. Tauchen dann bei ihrer Verwendung in
Theorien und Theoremen Widersprüche auf - und sie sind in allen Teilen der
Mathematik eine immer wieder auftretende Herausforderung - so wird das nicht
auf die Dialektik der Begriffe, sondern auf ihre angebliche Unklarheit oder falsche
deduktive Satzbildung u. ä. zurückgeführt.
Kommen wir nun zu den arithmetischen Gebilden und weisen ihre „Dialektik“
bzw. ihren kontradiktorischen Charakter nach, der sie eben auch von den
regulären logischen Begriffen unterscheidet und zu reinen „Denkgebilden“ macht.
Und bemerken wir hier, daß das anschauliche Moment an diesen Gebilden durch
Euklid grundsätzlich an den eher anschaulichen Sachverhalten der Geometrie
verdeutlicht wird: Die Zahlen und Zahlverhältnisse wurden (und werden bis
heute) an sichtbaren Gegenständen demonstriert und gelernt. Das zeigen die
Psephoi, Rechensteine der Griechen, die Knöpfe auf dem Abacus, die Augen auf
einem Würfel, die zehn Finger, die Koordinaten als Zahlenstrahlen im cartesi-
schen Koordinatensystem und manch andere Veranschaulichung.
258

Die Einheit wird als Punkt dargestellt, die Größe einer Zahl durch eine kürzere
oder längere Punktreihe, die Anordnung von Punkten auf einer Fläche oder auf
den Flächen eines Kubus führt zu bestimmten Zahlarten. Gleichungen und Unglei-
chungen sowie Proportionsgesetze werden am Modell der Waage mit horizontalen
Waagebalken versinnlicht. Aber der platonische Denker weiß, daß dies das ideelle
Wesen der Zahlgebilde nicht darstellt, sondern nur zu ihrem Denken hinführt.
Dieses aber besteht - nach unserem Interpretationsvorschlag – keineswegs darin,
sich etwas mystisch Unbestimmtes zu „denken“ (was kein Denken wäre), sondern
solche Anschauung gerade festzuhalten und mit einem Anschauen von etwas dazu
Gegenteiligem „dialektisch“ zu verknüpfen.
Wenn Euklid von Zahlen spricht, so handelt es sich ausschließlich um das, was
in den neueren Zahlentheorien als „natürliche“ (positive ganze Zahlen) bezeichnet
wird. Das heißt speziell, daß es hier weder die Null noch negative Zahlen noch
echte Brüche gibt. Die Buchstaben des Alphabets in ihrer Anordnung waren für
die Griechen zugleich Zahlzeichen. Und wenn sie Gegenstände abzählten, so hat-
ten sie ebenso wie die meisten Sprachgemeinschaften besondere Wörter für kardi-
nale Größen und ordinale Anordnung des Gezählten bzw. des Bemessenen in
übersichtlichen Dimensionen der sinnlichen Anschauung.
Größen und ihre Unterschiede sind bei Ansammlungen von Dingen für jeden
Praktiker sinnlich wahrnehmbare Phänomene. So auch bei den geometrischen Ge-
bilden. Einige Strecken sind länger oder kürzer als andere, einige Flächen und
Körper größer oder kleiner als andere. Um diese Größenverhältnisse genauer zu
bestimmen, braucht man Maßstäbe. Diese liefert die Arithmetik bzw. die Zahlen-
lehre. Aber was dazu als Maßeinheit der Maßstäbe gelten konnte, blieb für die
Griechen (und bis in die moderne Technik) immer eine Sache der Konvention.
Was in der Geometrie „nur mit Zirkel und Lineal“ qualitativ konstruiert wird, das
wird mittels der Arithmetik gemäß stipulierten Einheiten quantitativ „bemessen“.
Daß nun jedoch die Zahlen selber „Größen“ seien oder „besäßen“, ist eigentlich
unvorstellbar. Niemand stellt sich große Zahlen als etwas Großes und kleine Zah-
len als etwas Kleines vor. Auch lange Zahlenreihen vor oder hinter einem Komma
in der Dezimalnotation veranschaulichen keine großen oder kleinen Zahlen. Und
doch ist gerade dies die dialektische Zumutung der platonischen Ideenlehre, die
Zahlen als Größen zu „denken“ und die Größenunterschiede in der Sinnenwelt
durch die „Teilhabe“ der sinnlichen Phänomene an den Zahl-Ideen zu erklären.
Die Zahlideen stehen jedoch in der platonischen Ideenhierarchie unterhalb der
logischen Begriffe, und so haben sie teil an diesen. Ihre „Größen“ ergeben sich
aus den Voraussetzungen der Logik zur Verknüpfung der logischen Begriffe
mittels der Junktoren zu komplexen Ausdrücken.
Die zweite dialektische Zumutung als Erbschaft der platonischen Lehre von der
„Gemeinschaft der Ideen“ (koinonia ton ideon κοινφνία ηῶν ἰδεῶν) ist die These,
daß die Zahlen sich selber durch sich selber nach ihren Größen im Rahmen der
logischen Begriffe Einheit und Allheit unterscheiden und bestimmen.
259

Beides zusammen bedeutet, daß die logische Maßeinheit aller Zahlen, die Monas
(μόνας), zugleich auch die erste Zahl „eins“ (henas ἕνας) ist. Aber damit beginnen
auch schon die Interpretationsprobleme dieser Zahlenlehre. Viele Mathematiker
unterscheiden die Monas als Einheit von der Eins und gehen davon aus, daß die
Eins gar keine Zahl sei, sondern erst die Zwei die erste Zahl. Die Folgen werden
wir sogleich näher betrachten.
Die Ausarbeitung der euklidischen Zahlenlehre ist von manchen Interpreten
eine „Zahlenlehre ohne Zahlen“ genannt worden. Ersichtlich ist außer von der
Monas kaum von bestimmten Zahlen die Rede, also auch nur gelegentlich von der
Eins (henas). Diese Behandlungsweise dürfte jedoch von der aristotelischen Kate-
gorienlehre inspiriert sein. Nicht die einzelnen Zahlen, sondern die Qualitäten,
Quantitäten und Relationen der Zahlbegriffe (als zweite Substanzen) werden
möglichst umfassend beschrieben und die Folgen daraus dargestellt.

Die Definitionen der Zahl und der Zahlbestimmungen lauten wie folgt:
„1. Die Einheit ist, nach welcher jedes Ding eins heißt. 2. Eine Zahl aber eine aus Einheiten
bestehende Menge. 3. Ein Teil ist die kleinere Zahl von der größeren, wenn sie die größere
genau mißt. 4. Ein Bruch aber, wenn sie, ohne die größere genau zu messen, Teile der
größeren enthält. 5. Ein Vielfaches ist die größere Zahl von der kleineren, wenn sie von der
kleineren genau gemessen wird. 6. Eine gerade Zahl ist, welche halbiert werden kann. 7.
Eine ungerade Zahl aber, welche nicht halbiert werden kann. 8. Gerademal gerade ist die
Zahl, welche von einer geraden Zahl nach einer geraden Zahl gemessen wird. 9. Gerademal
ungerade aber, welche von einer geraden Zahl nach einer ungeraden Zahl gemessen wird.
10. Ungerademal ungerade ist die Zahl, welche von einer ungeraden Zahl nach einer
ungeraden Zahl gemessen wird. 11. Eine Primzahl ist, welche nur von der Einheit gemessen
wird. 12. Primzahlen zueinander sind Zahlen, welche nur die Einheit zum gemeinsamen
Maße haben. 13. Eine zusammengesetzte Zahl ist, welche von irgend einer von ihr
verschiedenen Zahl gemessen wird. 14. Zusammengesetzte Zahlen zu einander sind, welche
irgend eine Zahl zum gemeinsamen Maße haben. 15. Eine Zahl vervielfältigt eine andere,
wenn letztere so oft, als erstere Einheiten hat, zusammengenommen, eine Zahl (Produkt)
hervorbringt. 16. Wenn zwei Zahlen einander vervielfältigen, so nennt man das Produkt aus
denselben eine Flächenzahl, und Seiten (Faktoren) derselben die Zahlen, welche einander
vervielfältigen. 17. Wenn drei Zahlen einander vervielfältigen, so nennt man das Produkt
aus denselben eine Körperzahl, und Seiten (Faktoren) derselben die Zahlen, welche
einander vervielfältigen. 18. Eine Quadratzahl ist das Produkt aus zwei gleichen Zahlen,
oder unter zwei gleichen Zahlen enthalten. 19. Eine Kubikzahl aber ist das Produkt aus drei
gleichen Zahlen, oder unter drei gleichen Zahlen enthalten. 20. Proportioniert sind Zahlen,
wenn die erste von der zweiten und die dritte von der vierten entweder einerlei Vielfaches,
oder einerlei Teil, oder einerlei Bruch ist. 21. Ähnlich sind Flächen-, auch Körperzahlen,
welche proportionierte Seiten haben. 22. Eine vollständige (vollkommene) Zahl ist, welche
allen ihren Teilen zusammen gleich ist.“

1. „Einheit“ (monas μóνας) ist die logische Bedeutung des „ein“ (hen ἕν). Die-
ses „Hen“ wird als sprachliches Partikel benutzt und wurde von Aristoteles als
Quantifikationsjunktor („Individualisator“) in die Logik übernommen. Man
subsumiert damit einen beliebigen „seienden“ Gegenstand (jedes der Seienden
260

ἕκαζηον ηῶν ὄνηφν) als Einzelnes einem allgemeinen Begriff, in dessen Umfang
es fällt: „ein Hund“, „ein Tier“, „ein Lebewesen“. Aber auch: „eine Zahl“, „eine
Menge“, „eine Idee“, usw. Zugleich ist „Hen“ aber im griechischen Sprachge-
brauch auch das erste Zählwort in der Reihe „eins, zwei, drei …“
Hier zeigt sich die erste dialektische Bestimmung dieser platonischen Zahlen-
theorie. Die logische Einheit (Monas) ist zugleich die Maßeinheit aller Zahlen, die
gemäß Satz 2 von der Monas unterschieden werden. Also ist die Monas keine
durch Hen („eins“) bezeichnete „Zahl“. Nach einigen Interpreten muß daher die
Zahlenreihe mit der Zwei beginnen. Hen („eins“) bestimmt jedoch auch jeden
einzelnen Gegenstand, also auch jede Einheit (Monas). Und da im Griechischen
Hen durchweg zum Zählen verwendet wird, ist die Monas auch die erste Zahl
Eins. Sie wird im Euklidtext auch gelegentlich als solche benutzt.
2. Die Definition der „Zahl“ (arithmos ἀριθμóς) – im Unterschied zur „Einheit“
- benutzt den schon dialektisch definierten Einheitsbegriff und unterscheidet ihn
von der „Menge des aus Einheiten Zusammengesetzten“ (ek monadon synkei-
menon plethos ἐκ μονάδφν ζσνκείμενον πλῆθοϛ). Die kontradiktorischen Merk-
male der „Einheit“ bringen die Dialektik auch in den Zahlbegriff. Denn die
„Menge“ ist hier zusammengesetzt aus „Einheiten“. Gemäß Satz 1 ist aber die
Menge auch ein durch den logischen Individualisator zu bestimmendes „Eines“,
nämlich im Sinnes eines Gesamtes oder einer Ganzheit. Also ist die Menge als
Zahl zugleich „Eines“ und auch ein Ganzes von Einheiten.
Daß die Anfangszahl nicht die Eins, sondern die Zwei sei, wird daraus ge-
schlossen, daß die Zwei bei Platon und dann im Platonismus als „undefinierte
Zweiheit“ (ahoristos dyas ἀοριζηòς δύας) beizeichnet wurde. Es ist lange und
ziemlich ergebnislos darüber spekuliert worden, was damit gemeint sein könnte.
„Ahoristos“ bedeutet unbegrenzt bzw. undefiniert (horos ὅρος = Grenze, Defi-
nition).
Mit der undefinierten Zweiheit (als „Einheit“) lassen sich alle geraden Zahlen
definieren. Und dies ebenso, wie sich mittels der Einheit (monas μóνας) alle
Zahlen insgesamt definieren lassen. Die gerade Zahl heißt bei Euklid „ártios
arithmós“ ἄρηιος ἀριθμóς (eng gefügte, passende, auch vollständige Zahl). Die
ungerade Zahl, die Euklid als „nicht halbierbar“ = „nicht durch 2 ohne Rest
teilbar“ genau von den geraden Zahlen unterscheidet, heißt „perissós arithmós
περιζζòς ἀριθμóς“ = über das Maß hinausgehend, etwa „Überschußzahl“. Unge-
rade Zahlen sind sämtlich nicht halbierbar. Das wird bei der Definition der
Primzahlen (s. u.) eine wichtige Rolle spielen.
3. Jede größere Zahl als die Eins hat Teile (méros μέρος), d. h. die Einheit und
damit auch die Zahl Eins hat keine Teile. Die Zahlteile sind also keine Brüche der
Einheit, sondern nur ganzzahlige Einheiten, durch welche sich die jeweilige Zahl
„bemessen läßt“ (z. B. 4 von 8 heißt: 4 Teile der Menge von 8 Einheiten). Euklid
hält sich an die „Einheit“ in der Bedeutung von „ein Ganzes“ (eine Allheit).
Wenn aber auch die Eins eine Zahl ist, muß sie ebenfalls Teile besitzen. Das
zeigt sich bei jeder Teilung einer „Einheit“ in Hälften, Drittel usw. Spätere
261

Interpreten haben diese Teilungen auch auf die Zahl Eins bezogen. Damit läßt sich
die Teilung von Zahlen in „sie genau messende“ Komponenten gar nicht von der
Teilung der 1- Einheit in „sie genau messende“ Bruchteile (s. Satz 4), d. h. in
echte Brüche, unterscheiden.
4. Der Bruch wird als eine Zahl definiert, die aus Teilen einer größeren Zahl
gebildet wird, die die größere Zahl „nicht genau mißt“ und stets kleiner bleibt als
die größere (z. B. 6 bezüglich 7). Die Definition schließt also das aus, was man
heute echte Bruchzahl nennt, nämlich Teile der 1- Einheit. Versteht man aber
auch die 1- Einheit als Zahl, so sind zugleich auch alle echten Bruchzahlen ein-
geschlossen. Euklid vermeidet mit seiner dialektischen Definition, sich auf das
pythagoräische Problem der Inkommensurabilität bei den sog. periodischen und
unperiodischen „irrationalen“ Brüchen einzulassen.
5. Beim „Vielfachen“ wird der Multiplikator definiert, welcher als Zahl angibt,
wie viele Male eine kleinere Zahl in einer größeren enthalten ist, die sie „genau
mißt“. Offensichtlich ist jede ganze Zahl ein Vielfaches der sie genau messenden
Einheit. Das muß auch für die Eins, wenn sie die erste Zahl ist, gelten. Sie kann
als „einmal Eins“ dialektisch nur ein nicht-vervielfachendes Vielfaches ihrer
selbst sein.
6. Hier wird die „gerade Zahl“ durch das Merkmal ihrer Halbierbarkeit
definiert. Die Zweiteilung zeigt, aus welchen kleineren geraden oder ungeraden
Zahlen als ihren Hälften eine größere Zahl zusammengesetzt ist. Die Zwei als
kleinste gerade Zahl halbiert sich nur in zwei Einheiten bzw. Einsen, und dies im
Unterschied zu allen größeren geraden Zahlen als die Zwei. Diese Besonderheit
bzw. Singularität der Zwei bedingt das Problem, ob die Halbierung der Zwei
dasselbe bedeutet wie eine „Teilung durch sich selbst“, die wiederum für die
Definition der Primzahlen grundlegend ist (vgl. Satz 11). Beide Möglichkeiten
werden dialektisch offen gelassen.
7. Daß die „ungeraden Zahlen“ nicht halbierbar sind, wenn es sich dabei um
eine Zweiteilung ohne Rest bei natürlichen Zahlen handelt, ist eine ganz undia-
lektische Definition der ungeraden Zahlen. Sie wird erst im Licht der neueren
Bruchzahlentheorie dialektisch, da hier auch die Einheit bzw. die Zahl Eins hal-
biert wird.
8. – 10. definieren die Bildung der Zahlen aus graden und/oder ungeraden
Multiplikationsfaktoren. Damit werden gleichsam auf einen Streich auch die Mul-
tiplikation, die Division, das Potenzieren und das Wurzelziehen (aus den durch
Potenzieren gewonnenen Zahlen) definiert. Sie sind von großer Bedeutung für das
Durchschauen der Reihen- bzw. Folgenbildungen nach der Größenordnung der
Zahlen. Vermutlich hat Euklid die Kenntnis dieser Aufbaueigenschaften voraus-
gesetzt, um auch die Reihenbildung der Primzahlen zu erkunden, die ihm nicht
gelungen ist. Darauf läßt sich aus der Tatsache schließen, daß die nächste
Definition 11 direkt die Primzahlen thematisiert.
Die in Satz 10 liegende Dialektik (der gerademal geraden Zahl) besteht darin,
daß sie auch für alle vier Rechenarten bezüglich der Einheit bzw. der Eins gilt
262

(1mal 1 = 1; 1 geteilt durch 1 = 1; 1 in 2. Potenz = 1; Wurzel aus 1 = 1), zugleich


aber nicht gilt, weil dadurch keine größere Zahl erzeugt wird.
11. definiert die Primzahl (protos arithmos πρῶηος ἀριθμóς) als Zahl, „welche
nur von der Einheit gemessen wird“ (protos arithmos estin ho monadi mone me-
tromenos πρῶηος ἀριθμóς ἐζηὶν ὁ μονάδι μόνῃ μεηρούμενος). D. h., daß sie nur
als „x ∙ 1“ dargestellt werden kann, wobei x für jede Primzahl steht. Auf welche
Zahlen die Definition paßt, läßt sich bekanntlich bisher nur durch eine Prüfung
jeder einzelnen Zahl auf ihre Nicht-Teilbarkeit (ohne Rest) in Faktoren größer als
1 feststellen. Die Dialektik in dieser Definition besteht darin, daß sie einerseits auf
die Zwei zutrifft, andererseits auch nicht zutrifft.
Die Zwei wird – als gerade Zahl - nur in die Einheiten geteilt und gehört dadurch
zu den Primzahlen. Aber dies geschieht nur durch eine Halbierung. Alle geraden
Zahlen, die größer als zwei sind, werden aber durch eine Halbierung in größere
Zahlen als die Einheiten geteilt und sind deshalb keine Primzahlen. Also kann die
Halbierbarkeit der geraden Zahlen kein Primzahlkriterium sein, und die 2 gehört
deswegen nicht zu den Primzahlen.
Nikomachos, ein Neupythagoräer, hat die Zwei schon vor Euklid nicht als
Primzahl angesehen.128 Auch der Neuplatoniker Jamblichos tadelt Euklid, weil er
sie als Primzahl zugelassen hat, unter Berufung auf Nikomachos.129
Eine weitere Dialektik der Primzahlen liegt in der Zuordnung oder Nicht-Zuord-
nung der Eins bzw. der Einheit zu den Primzahlen. Sie ergibt sich aus der Dia-
lektik in den Sätzen 1 und 2. Ist die Einheit zugleich die kleinste Zahl 1, dann
gehört sie zu den Primzahlen (1 / 1 = 1). Ist die Eins keine Zahl sondern nur ein
anderer Name für die Einheit, dann gehört sie nicht zu den Primzahlen. Bekannt-
lich haben die Mathematiker bisher die Eins aus den Primzahlen ausgeschlossen.
Gleichzeitig rechnen sie durchweg mit der 1 als natürlicher Zahl, was offen-
sichtlich ein selber dialektischer Sachverhalt ist.
Das Votum der Mathematiker, die 2 als Primzahl anzunehmen und die 1
auszuschließen, dürfte der Grund dafür sein, daß bisher noch keine algorithmische
Primzahlformel vorgeschlagen werden konne.130
12. Diese Definition liest sich wie eine Bestätigung bzw. Wiederholung von
Satz 11. Wenn nach dem Votum des Euklid die 2 prim ist, so gibt es auch zwi-
schen geraden und ungeraden Zahlen prim-Verhältnisse, deren gemeinsame
Einheit die kleinste Primzahl 2 ist. Die Definition suggeriert, daß es auch unter
größeren geraden Zahlen als 2 Primzahlen geben könnte. Man hat allerdings noch
keine gefunden, sucht aber noch immer danach. Indem die Definition die 2 als
kleinste Einheit der Primzahlen zuläßt, widerspricht sie jedoch den Definitionen 1

128
Vgl. Cl. Thaer, Euklid, Anmerkung zu Buch VII, Def. 11, S. 439.
129
Vgl. Moritz Cantor, Vorlesungen über Geschichte der Mathematik, 3. Aufl. Leipzig 1907, S. 461.
130
Über eine Methode, die Primzahlen mit der 1 und unter Ausschluß der 2 zu berechnen vgl. L. Geldsetzer, Logik, Aalen
1987, S. 151 ff. sowie Elementa logico-mathematica, Internet der HHU Duesseldorf 2006; erweiterte engl. Übersetzung
mit Anmerkungen und Korollarien: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concepts: The Logical
and Mathematical Elements. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New
York-London 2013, S. 26 – 28 und S. 95f.
263

und 2. Ihre Dialektik liegt darin, daß sie nach Satz 2 die 1 als Einheit für alle Zah-
len annimmt und sie für die Primzahlen ausschließt.
13. - 19. definieren die Eigenschaften der Nicht-Primzahlen unter den natürli-
chen (ganzen) Zahlen. Sie zeugen von Euklids Bemühung, dadurch zu erklären,
was ihm bezüglich der Primzahlen nicht gelungen ist. Es handelt sich um Präzi-
sierungen der Definitionen der durch Teilungen und Vervielfältigungen gewon-
nenen Zahlen. Bemerkenswert ist hier, daß er bezüglich der Flächen- und Körper-
zahlen bzw. der Spezialfälle Quadrat- und Kubikzahlen explizit auf die geometri-
sche Veranschaulichung der arithmetischen Produktbildung zurückgreift.
20. definiert, was „Proportionen“ (Analogien ἀναλογίαι) zwischen den natür-
lichen Zahlen sind. Sie ergeben sich, wie aus einigen daraus gefolgerten Theore-
men hervorgeht, wenn größere (natürliche) Zahlen durch kleinere ohne Rest divi-
diert werden können. Alle derartigen Divisionsausdrücke, die denselben Quotien-
ten ergeben, lassen sich proportionieren. Deshalb können alle Divisionsausdrücke,
die denselben Quotienten ergeben, gleichgesetzt und in Größenordnungsfolgen
angeordnet werden.
Dahinter verbirgt sich ebenfalls eine Dialektik, die sich aus der Darstellungswei-
se mittels Division und Gleichheitszeichen ergibt. Bei Divisionen wird stets nur
eine der sich bei der Teilung ergebenden Quoten als Ergebnis („Quotient“)
beachtet (z. B. 6 : 2 = 3). Jede Anschaung und Erfahrung mit Teilungen lehrt
jedoch, daß bei einer Teilung das zu Verteilende in so viele Teile („Quoten“) zer-
legt wird, wie es der Verteilungsschlüssel („Divisor“) vorgibt. Euklid macht bei
der „Halbierung“ selbst darauf aufmerksam, daß sich dabei zwei Hälften ergeben,
also daß sich keineswegs nur eine einzige ergibt. Deshalb müßte die Division
eigentlich als 6 : 2 = 2 ∙ 3 notiert werden, um eine Gleichung darzustellen. Die
mathematische Division läßt jedoch die restlichen Quoten verschwinden und kann
deshalb keine Gleichung sein.
Nur mittels dieser dialektischen Verwendung der Gleichung können alle pro-
portionierten Zahlausdrücke durch „Gleichungen“ gleichgesetzt werden. Einer-
seits bleiben die Größen der proportionierten Zahlen ganz verschieden, so daß die
Gleichungen zugleich eine Ungleichheit zum Ausdruck bringen. Das griechische
Wort Analogie (Ähnlichkeit), das im Lateinischen als Proportion übersetzt wurde,
bringt diese Dialektik jedenfalls treffend zum Ausdruck. Was analog bzw. ähnlich
ist, ist stets in einer Hinsicht gleich, in anderer Hinsicht ungleich.
21. definiert die „Ähnlichkeit“ (Analogia ἀναλογíα) zwischen Flächen- und
Körperzahlen auf Grund ihrer geometrisch demonstrablen „proportionalen“ Sei-
tenverhältnisse. Auch hier formuliert Eulid dialektisch: „Gleiche Flächen- und
Körperzahlen sind diejenigen, die analoge Seiten haben“ (ὅμοιοι ἐπίπεδοι καὶ
ζηερεοὶ ἀριθμοὶ εἰζιν οἳ ἀνάλογον ἔτονηας ηὰς πλεσράς). „Analogie“ bedeutet
jedoch auch Ungleichheit, wie oben gezeigt wurde.
22. schließlich definiert die „vollständige (auch: vollkommene) Zahl“ (téleios
arithmós ηέλειος ἀριθμóς) als eine solche, die der Summe aller ihrer („allen
ihren“) Teilen gleich ist (ho tois heautou méresin ísos on ὁ ηοĩς ἑασηοῦ μέρεζιν
264

ἴζος ὄν). Man sieht hier aber nicht, daß außer der Zahl 3 als Summe von 1 + 2
(„aller ihrer Teile“) größere Zahlen die Definition erfüllen. Wohl deshalb hat man
den griechischen Text „verbessert“ und spricht statt von „Teilen“ von der Summe
der „echten Teiler“ (engl.: „factors“) einer Zahl. So hat man die Zahlen 6, 28, 496,
8128 und 33550336 durch Prüfung als solche „vollkommenen Zahlen“ gefunden.
Ob sich auch ungerade vollkommene Zahlen überhaupt finden lassen, ist noch ein
offenes Problem.

An diese Definitionen der arithmetischen Elemente und Verhältnisse, von denen


der Zahlbegriff selbst nur der geringste Teil ist, lassen sich einige logische Erwä-
gungen anschließen, die Mathematiker gewöhnlich nicht anstellen.
Mathematiker gehen davon aus, wie die Kommentare zu Euklid zeigen, daß
eine regelrechte Definition die „Existenz“ der definierten Sache anzuzeigen habe.
Sie machen sich in der Regel keine Gedanken darüber, was in diesem Bereich
Existenz bedeutet. Dies umso mehr, als sie bei der Geometrie ebenfalls voraus-
setzen, die Existenz der geometrischen Gebilde ergebe sich aus ihrer Kon-
struierbarkeit auf dem Papier. Das kann man aber nur eine halbe Wahrheit nen-
nen, wie sich ja aus der platonischen Voraussetzung ergibt, daß die sinnlichen
Phänomene die „Idee“ der Zahlen und geometrischen Gebilde selbst nicht adäquat
darzustellen vermögen.
Wenn es in diesem Bereich um Definitionen geht, so handelt es sich um das
Aufzeigen der intensionalen und extensionalen Komponenten eines Begriffs, der
nur „zu denken“ ist und allenfalls in diesem Gedachtwerden so etwas wie
Existenz besitzt.
Man sollte nun davon ausgehen, daß damit auch alle Zahlen, die auf solche
Weise definiert worden sind, auch bekannt sind und angegeben werden können.
Das ist bekanntlich nicht der Fall, wie man beispielsweise an den Primzahlen und
den „vollkommenen“ Zahlen sehen kann. Man kennt einige und hat sie errechnet
bzw. „ausprobiert“, aber man kennt auf keinen Fall alle und kann sie nicht als
bestimmte einzelne Zahlen benennen, obwohl jeder Grund zur Vermutung besteht,
daß es ihrer noch viele bisher unbekannte geben müßte. Euklid behauptet an
unerwarteter Stelle im Buch IX, Satz 20: „Die Menge der Primzahlen übersteigt
jede gegebene Anzahl derselben“.
Die Tatsache, daß man bei vorliegenden Definitionen bestimmter Zahlarten eini-
ge davon kennt und einige nicht, hat immer einen Grund dafür abgegeben, daß die
Mathematiker dieses Nichtwissen durch mathematische „Forschung“ in bestimm-
tes Wissen um immer mehr und größere (oder kleinere) Zahlen umzuwandeln
suchten. Dann wird natürlich gerechnet und „ausprobiert“, und die Resultate an
Wissen über noch mehr einzelne Zahlen, die die Definitionen „erfüllen“, gilt dann
als „Entdeckung“ und „Auffindung“.
Diese Meinung beruht aber auf der - gewiß nicht von Euklid gemachten - Vor-
aussetzung, daß man die Zahlen schlechthin schon kenne und um sie wisse, wenn
man weiß, daß und wie sie durch Summation von Einsen und ihre rekursive An-
265

ordnung im Dezimalsystem gewonnen werden können. Auf diese Weise gewußte


und gedachte Zahlen hat man später „natürliche“ genannt. Und nur von ihnen ist
bei Euklid die Rede. Weil man nach allgemeiner Erfahrung mit ihnen und im
Dezimalsystem am einfachsten gleichsam mechanisch rechnen kann, erst recht
aber im computergerechten dualen Zahlsystem, kam die Vorstellung auf, ihre
Definition sei zugleich die grundlegende für Zahlen schlechthin. Leopold Kron-
ecker (1823 - 1891) hat bekanntlich gesagt, „Die (positiven) ganzen Zahlen hat
der liebe Gott gemacht, alles andere ist Menschenwerk“ - was nur einen starken
Glauben an das Dezimalsystem und ein Verkennen der platonischen Methode des
mathematischen „Denkens“ verrät.
Wären die Zahlen reguläre logische Begriffe, so müßte ihre Definition ihre
sämtlichen Merkmale und Intensionen klar und deutlich bestimmen. Eine Zahl
wäre demnach nur dann bekannt und denkbar, wenn man alle ihre definierten
Eigenschaften bzw. alle ihre Definitionen kennt.
Das wird didaktisch insinuiert, wenn man lernt, wie sie überhaupt aus Einheiten
(nicht nur Einsen) zusammengesetzt sind. Die Lernart mittels des kleinen und
großen Einmaleins verleiht unmittelbar die Kenntnis ihres Zusammengesetztseins
aus solchen Einheiten ohne Rekurs auf die Dezimalkomposition. Und kennt man
Zahlen auf diese Weise, so weiß man im Bereich ihrer Größen auch durch pure
Aufmerksamkeit auf die sich ergebenden Lücken, welches etwa die Primzahlen
unter ihnen sein müssen.
Was aber die sogenannten großen Zahlen angeht, die man nach Belieben durch
Dezimalbenennungen angibt, so täuschen sie nur vor, bekannt zu sein, während
sie es in der Tat nicht sind. Und auch dies kann man eine Folge der Dialektik des
arithmetischen Denkens nennen.

Die logische Form der Definition ist in diesen Verhältnissen überall der Äquiva-
lenzjunktor, den man sprachlich durch „das heißt“ wiedergeben kann, keineswegs
aber durch die Kopula „ist“. In neuerer Ausdrucksweise stellt man die Äquivalenz
auch als doppelte Implikation „genau dann, wenn ...“ dar. Die Definition erklärt
ein Wort oder einen Ausdruck durch einen intensional-extensional strukturierten
Begriff oder einen durch nicht-satzbildende Junktoren gebildeten anderen Aus-
druck. Und bekanntlich ist man dabei frei, den Wörtern oder Ausdrücken recht
beliebige Begriffe definitorisch zuzuordnen bzw. umgekehrt (da es ja um umkehr-
bare Verhältnisse geht, wie die Gleichung es zeigt), die Begriffe beliebig mit
Worten zu benennen bzw. ihnen Termini beizulegen.
Die mathematische Gleichung ist ein logischer Äquivalenzjunktor. Das be-
deutet, daß alle echten Gleichungen nur logische Definitionen sein können. Die
Frage ist nun, ob diese logische Bestimmung der Definition auch für die mathe-
matische Definition bzw. die Gleichung gilt. Dies möchen wir nun gerade behaup-
ten und damit auch zugleich behaupten, daß alles, was in mathematischen Glei-
chungen ausgedrückt werden kann, keinen behauptenden Charakter haben und
damit auch nicht wahrheits/falschheitsfähig sein kann. Was auch immer links oder
266

rechts in einer Gleichung steht, definiert sich gegenseitig und liefert so nur
Ausdrücke, keineswegs Urteile bzw. Sätze.
Insofern wird man auch davon ausgehen müssen, daß die euklidischen Defi-
nitionen nur das Begriffs- und Ausdrucksmaterial liefern, das für die Geometrie
und Arithmetik gebraucht wird. Und dies gilt nun auch für das Verhältnis von
dezimalsystematisch oder dualsystematisch bekannten und benannten Zahlen, die
eine Definition der natürlichen Zahlen nur vortäuschen, in Wirklichkeit aber reine
Benennungen sind. Und es gilt auch von denjenigen Zahldefinitionen, die auf
andere Weise bestimmte Zahlarten definieren.
Bemerken wir zusätzlich, daß die von Euklid benutzte Notation für Zahlen-
größen, in der sie - wohl nach dem Vorbild der aristotelischen Notation der
Begriffe durch Buchstaben - durch Buchstaben „allgemein“ dargestellt werden
(die man in der Neuzeit Franciscus Viëta als neue Erfindung zuschreibt), sehr
dazu angetan war, diesen Unterschied von Wissen und Nichtwissen um die einzel-
nen Zahlen und ihre Definitionen unsichtbar zu machen.
Die Ausdrücke „die Zahl A“ oder „die Zahl B“ suggerieren als „formale“ Nota-
tion, daß die dadurch vertretenen Zahlen insgesamt bekannt seien oder bekannt
sein könnten. Und die Verwendung dieser Ausdrucksnotation in Gleichungen
verstärkt noch diese Suggestion, da man dann voraussetzt, sie definierten sich
gegenseitig. Erst recht gelten dann die auflösbaren Gleichungen, in denen einem
solchen formalen Zahlausdruck ein oder einige bestimmte Zahlenwerte zugeord-
net werden, als Bestätigung dieser Voraussetzung.
Aber die unauflöslichen Gleichungen, wie etwa „A = Wurzel aus 2“, definieren
„Zahlen“, die gänzlich unbekannt sind (sofern man die sog. Irrationalzahlen über-
haupt für Zahlen hält) oder die eben überhaupt keine Zahlen sind. Die mathe-
matische Rechenpraxis ersetzt solche Gebilde durch Näherungswerte, d. h. durch
bekannte Zahlen, während die mathematische Theorie ihre definierten „Zahlbe-
griffe“ um immer neue „Zahlarten“ erweitert. Von diesen kann man logisch nur
feststellen, daß sie sowohl Zahlen als auch Nicht-Zahlen sind. Und auch dies zeigt
von dieser Seite her die Dialektik des mathematischen Denkstils.

Die nächste Gruppe von Voraussetzungen für die Mathematik bilden die soge-
nannten „Postulate” (Forderungen, Aitémata ἰέ), die sich im ersten Buch
an die geometrischen Hypothesen anschließen. Es sind nur drei Forderungen für
die Ausführung von geometrischen Konstruktionshandlungen.
Läßt man sich durch die Terminologie nicht irreführen, so handelt es sich frei-
lich um die eigentlichen geometrischen Axiome, durch welche der Geometrie ihr
anschaulicher Konstruktionsbereich im Endlichen (Finiten) und zugleich ihr
unanschaulicher Denkraum im Transfiniten (oder Infiniten) eröffnet wird.
„Es sei ein für allemal gefordert, von jedem Punkt nach jedem anderen eine gerade Linie zu
ziehen; 2. desgleichen eine begrenzte gerade Linie stetig geradefort zu verlängern; 3. des-
gleichen, aus jedem Mittelpunkt und in jedem Abstand einen Kreis zu beschreiben”.
267

Hält man sich an die Anschaulichkeit des Geforderten, so handelt es sich um


dasjenige, was der Handwerker und Baumeister und auch der Landvermesser
ausführen können muß, erst recht natürlich der Mathematiker auf seinem Zettel
oder, wie bei den Griechen üblich, durch Striche auf dem Sandboden. Dies zu
betonen ist deshalb wichtig, weil es auf diesem sinnlichen Boden ganz unmöglich
gewesen wäre, solche Handlungen ins Unendliche zu erweitern und sich Gedan-
ken zu machen, ob oder ob nicht parallele Linien sich in unendlicher Ferne treffen
oder der Umfang eines unendlich großen Kreises eine gerade Linie wird. Im
sinnlichen Anschauungsbereich und damit im Endlichen ist dergleichen ohne wie-
teres zu „sehen” (die parallelen Eisenbahnschienen laufen in der Ferne gerade-
wegs aufeinander zu; der Meereshorizont, der doch ein endlicher Ausschnitt eines
Kreisumfangs ist, erscheint gerade), aber es ist nicht in Handlungen „auszu-
führen”.
Diese Kontrolle des Auges durch die Hand verhindert in der Praxis das Auf-
treten zenonischer Paradoxien, nach denen das Unterschiedene auch als dasselbe
(der Kreis ist Gerade, die Parallelen sind nicht parallel) und umgekehrt hätte
„gedacht” werden müssen. Aber gerade dies wird wiederum im platonischen Ver-
ständnis dieser Postulate gefordert und macht darum die „ins Unendliche erwei-
terte“ Anwendung dieser Postulate dialektisch.
Logisch gesehen haben diese sogenannten Postulate denselben dialektisch-kon-
tradiktorischen Charakter wie die übrigen Definitionen, der freilich dem auf
Machbares beschränkten Praktiker verborgen bleibt. Der platonische Mathemati-
ker aber weiß, daß es sich um zugleich ausführbare und auch nicht ausführbare
Handlungen handelt, wobei die ersichtlich nichtausführbaren eben so zu denken
sind, wie die ausführbaren. Aristoteles hat dergleich mit ebenso dialektischer
Bestimmung als „potentielle“ Handlung definiert.

An die Definitionen und Postulate schließen sich im ersten Buch noch die „Axio-
me” an. Im überlieferten Text des Euklid steht dafür der stoische Begriff Koine
ennoia (ὴἔlateinisch: notio communis,„gemeinsame Vernunftein-
sicht“) was üblicherweise als „evidenter Begriff“ verstanden wird. Man deutet die
Axiome als Beweisgrundsätze und letzte Voraussetzungen für mathematisches
Tun. Auch hier wird man logisch erkennen, daß es sich keineswegs um das
handelt, was man jetzt Axiome nennt, sondern um Definitionen der arithmetischen
Rechenarten und der Merkmale einiger geometrischen Gebilde. Es sind 12 Axio-
me, welche lauten:
„1. Was einem und demselben gleich ist, ist einander gleich. 2. Gleiches Gleichem zuge-
setzt, bringt Gleiches. 3. Von Gleichem Gleiches weggenommen, läßt Gleiches. 4. Unglei-
chem Gleiches zugesetzt, bringt Ungleiches. 5. Von Ungleichem Gleiches weggenommen,
läßt Ungleiches. 6. Gleiches verdoppelt, gibt Gleiches. 7. Gleiches halbiert, gibt Gleiches.
8. Was einander deckt, ist einander gleich. 9. Das Ganze ist größer als sein Teil. 10. Alle
rechten Winkel sind einander gleich. 11. Zwei gerade Linien, die von einer dritten so ge-
schnitten werden, daß die beiden innern an einerlei Seite liegenden Winkel zusammen
268

kleiner als zwei rechte sind, treffen genugsam verlängert an eben der Seite zusammen. 12.
Zwei gerade Linien schließen keinen Raum ein” (Euklid, Elemente, Buch I).

Bemerken wir zuerst, daß sie im 1. Buch gleich nach den geometrischen Defini-
tionen und Postulaten stehen und deswegen gewöhnlich als geometrische Axiome
aufgefaßt werden. Das trifft aber nur auf einen Teil von ihnen zu. Der andere Teil
ist so formuliert, daß man ihn sowohl auf geometrische wie auf arithmetische
Gebilde beziehen kann. Und da sie offensichtlich auch für die Zahlverhältnisse
gelten sollen, scheinen sie überhaupt von den Definitionen und Postulaten ab-
getrennt worden zu sein.
Bemerken wir sodann, daß in Nr. 1 - 8 und in Nr. 10 immer von „Gleichheit“
die Rede ist, in Nr. 4, 5, 9 und 11 aber (auch) von Ungleichheit. Nur die Nr. 12
fällt aus dem Rahmen. Daraus können wir entnehmen, daß es sich hier überhaupt
um die Definition der mathematischen Hauptjunktoren handelt, nämlich der Glei-
chung als Äquivalenz und der Ungleichung (die logisch nur eine negierte Äqui-
valenz sein kann). Die nächste Frage muß dann sein, ob auch an diesen „axioma-
tischen“ Definitionen eine Dialektik bzw. Kontradiktorik auszuweisen ist. Und
das ist offenbar der Fall und kann in einer platonistischen Mathematik auch nicht
anders sein. Zeigen wir dies an den einzelnen Definitionen (vgl. dazu auch das
schon im Paragraphen 9 Gesagte).
Nr. 1 definiert die Gleichung selbst. Klarer formuliert könnte diese Definition
lauten: Eine Gleichung besteht zwischen zwei Gegebenheiten, die beide einer
dritten Gegebenheit gleich sind. Die Dialektik liegt dabei im hier benutzten und
vorausgesetzten Begriff der Gleichheit. Diese ist hier logisch gesehen eine Ähn-
lichkeit bzw. Analogie. Sie gibt etwas Identisches und zugleich Verschiedenes zu
denken. Was das jeweils bei geometrischen und arithmetischen Verhältnissen ist,
bleibt in der Definition unerwähnt (wohl deshalb, damit der dialektische bzw.
kontradiktorische Charakter der Definition verschleiert wird). Aber es läßt sich
genau angeben. Bei der arithmetischen Gleichung besteht die Identität im
Zahlenwert der Ausdrücke links und rechts in der Gleichung, der Unterschied aber
in der Ausdrucksgestalt dieses Wertes (G. Frege hat eben diesen Unterschied als
identische „Bedeutung“ und verschiedenen „Sinn“ bei der Gleichungsdarstellung
bezeichnet).
Bei geometrischen Beispielen besteht die Identität in der Form und gegebenen-
falles in der Größe der verglichenen Gebilde, der Unterschied aber in der örtlichen
Festlegung bzw. in der numerischen Unterscheidung oder unterschiedlichen
Größe der Gebilde. Identität und Unterschied werden aber beide zusammen
„Gleichheit“ genannt. Nur deshalb können zwei verschiedene Gebilde überhaupt
verglichen werden, eben weil sie eine - als Drittes ausweisbare - identische Eigen-
schaft aufweisen.
Nr. 2 definiert mit Hilfe der Gleichung das Vergrößern von geometrischen
Gebilden bzw. die Addition (Summenbildung) bei Zahlen. Nimmt man die Defi-
nition wörtlich, so gilt sie anschaulich - z. B. für den kaufmännischen Praktiker -
für die Verhältnisse an einer Balkenwaage. Nur hier kann man an beiden Enden
269

der Balken (im gleichen Abstand von der Mitte) Gleiches zusetzen, so daß sich
Gleiches (wie der Ausgangszustand eines Gleichgewichts) ergibt. Der platonische
Mathematiker aber denkt und weiß natürlich, daß das „bringt Gleiches“ gerade ein
anderes Gleiches als die Gleichheit der Ausgangsverhältnisse meint - und damit
eben ein „ungleiches Gleiches“. Die Dialektik der Addition in der Gleichung liegt
also darin, daß dadurch die Gleichung als identische erhalten bleibt, aber die
Glieder der Gleichung sich „gleichmäßig“ verändern.
Nr. 3 definiert entsprechend das Vermindern oder Verkleinern geometrischer
Gebilde bzw. die numerische Subtraktion in der Gleichung. Bemerken wir hierzu,
daß Euklid noch nicht von „negativen Zahlen“ spricht und deshalb auch nicht von
einer Subtraktion einer größeren von einer kleineren Zahl. Dann gilt das oben
Gesagte wiederum von der Identität der Gleichung selbst und der Verschiedenheit
der sich ergebenden Zahlenwerte.
Nr. 4 und 5 definiert die Ungleichung so, daß sie durch die in 2 und 3 definier-
ten mathematischen Operationen nicht verändert, sondern erhalten bleiben. Und
auch dies sieht man beim Umgang mit einer Balkenwaage.
Nr. 6 und 7 definieren am Beispiel der Verdopplung und Halbierung, die ja ge-
rade in der Geometrie besonders wichtige Operationen sind, auch die numerische
Multiplikation und Division in der Gleichung. Auch davon gilt der dialektische
Vorbehalt, das das Resultat der Operationen ein „anderes Gleiches“ als das Aus-
gangsgleiche ist.
Nr. 8 ist eine speziell geometrische Definition der Deckungsgleichheit. Was
hierbei „decken“ bzw. „zur Deckung bringen“ heißt, ist praktische Routine beim
Darüberschieben gleicher Figuren in der Ebene, aber auch beim Überklappen von
spiegelbildlichen Figuren im Raume (z. B. beim Händeklatschen oder wie es
zusammengeklappte Schmetterlingsflügel zeigen).
Nun mag man logisch entweder die dazu geeigneten übereinandergeschobenen
Figuren gleich nennen, oder aber die spiegelbildlichen. Es geht jedenfalls ohne
Widerspruch nicht an, sie beide zugleich „gleich“ zu nennen, denn sie sind - die
einen am anderen gemessen - gerade ungleich. Und gerade darin liegt nun die
Widersprüchlichkeit dieser Definition, daß sie die Deckungsgleichheit sowohl auf
gleiche wie ungleiche Figuren bezieht. Der platonische Denker erhebt sich über
die sinnliche Anschauung des einen oder des anderen, indem er das sich deckende
Gleiche sowohl von der einen wie von der anderen Seite zugleich denkt, gleich-
sam von außen (wie auf dem Blatt vor ihm) und von innen (zwischen den
Blättern).
Dies betrifft aber nur die Spezialdialektik der Deckungsgleichheit. Die tiefer-
liegende besteht in der Verschmelzung von Identität und Unterschied in diesem
Begriff von „Deckung“. Denn was sich wirklich deckt, wird in aller sinnlichen
Anschauung eines und identisch dasselbe und ist nicht mehr unterscheidbar. Da es
aber nur „gleich“ sein soll, so wird es gerade unterscheidbar und unterschieden
sein.
270

Nr. 9 macht von der Definition der Ungleichheit Gebrauch und spezifiziert sie
als das Verhältnis von „größer ... kleiner“. Dieses hat in der Arithmetik als eigener
Junktor „ > “ („größer als...“, und spiegelbildlich dazu „ < “ „kleiner als...“) eine
bedeutende Anwendung, ebenso aber auch in der Geometrie im Verhältnis von
Figuren und Teilfiguren (z. B. Kreis - Halbkreis).
Die Verwendung der Wörter „Ganzes“ und „Teil“ wendet sich zweifellos wie-
der an den Praktiker, der nicht im Zweifel sein kann, was dies anschaulich be-
deutet. Der Arithmetiker wird sich das Verhältnis von Ganzem zu seinen Teilen
zunächst etwa an den Summen im Verhältnis zu ihren Summanden verständlich
machen, die immer größer sind als diese. Bei den Definitionen der arithmetischen
Verhältnisse im 5. Buch (Def. 1 und 2) und im 7. Buch (Def. 3) ist auch explizit
von größeren Zahlen und kleineren als deren Teile die Rede, nicht aber vom
Ganzen.
Der platonische Mathematiker muß hier aber das Ganze wiederum als ein
dialektisches Gebilde denken. Es enthält einerseits kleinere Teile, andererseits
enthält es sich selbst als seinen Teil und ist damit zugleich auch größer als es
selbst. Diese Denkform ist später in dem merkwürdigen Satz „das Ganze ist
größer als die Summe seiner Teile“ festgehalten worden. In der mengentheore-
tischen Mathematikbegründung wurde er weidlich ausgebeutet. Denn darin wurde
als selbstverständlich vorausgesetzt, daß Mengen sich selbst enthalten können.
Der kontradiktorische Charakter dieser Annahme hat sich in den mengentheoreti-
schen Paradoxien gezeigt.
Nr. 10 klingt wie eine Tautologie und ist deshalb in manchen Euklidausgaben
an dieser Stelle weggelassen worden. Man unterstellt dann, daß der Begriff
„rechter Winkel“ schon selbst die Bedeutung hat, daß „alle gleich“ seien. Und das
wäre ganz richtig, wenn es in dieser Definition nur auf den Begriff vom rechten
Winkel ankäme, deren einzelne wohlunterschieden und somit „gleich“ sein
können. Erinnern wir uns aber, daß die mathematische Gleichheit eine Äquivalenz
bedeutet, in der ein Identisches und ein Unterschiedliches zugleich ausgedrückt
wird, nicht aber nur eine intensionale Identität des generischen Merkmals in allen
unter das Genus fallenden Instanzen. Die Gleichheit unter den rechten Winkeln
meint also zugleich die Identität hinsichtlich der gemeinsamen Eigenschaft
„rechte“ zu sein als auch die Unterschiedlichkeit ihrer Lage und Stellung in den
geometrischen Gebilden. Und dies läßt sich nur in Gleichungen bzw. Äquivalen-
zen darstellen.
Nr. 11 wird gewöhnlich als „negative“ Präzisierung der Parallelendefinition
verstanden und deswegen in neueren Euklidausgaben an dieser Stelle wegge-
lassen. Gleichwohl scheint die Definition der Nicht-Parallelen an dieser Stelle
nicht überflüssig zu sein, da sie ja ein häufig auftretendes praktisches Problem be-
trifft, nämlich Parallelen von Nichtparallelen und die entsprechenden Winkelver-
hältnisse bei den Schnitten zu unterscheiden.
Die Dialektik der Nicht-Parallelendefinition liegt in der Bedeutung des Aus-
drucks „genugsam verlängern“. In der Praxis wird sich immer ein Schnittpunkt
271

der Nicht-Parallelen in endlichem Abstand ergeben. Aber es wird durch die


Formulierung (und das sog. Postulat Nr. 2) nicht ausgeschlossen, daß er im Un-
endlichen liegen könnte. Dann sind die Nicht-Parallelen zugleich auch Parallelen
und die nicht-rechten Winkel sind zugleich rechte.
Nr. 12 besagt wörtlich, daß „zwei gerade Linien keinen Raum einschließen“.
Neuere Übersetzungen geben hier statt „Raum“ „Flächenraum“. Angesichts der
Tatsache, daß zwei winkelbildende Geraden auch bei Euklid eine Fläche ein-
schließen (was, wie oben gesagt, vorausgesetzt werden muß, aber nicht definiert
wird), müßte man die Definition geradezu für „falsch“ (d. h. für eine „Nicht-
Definition“) halten. Dies ist aber bei Definitionen (als Äquivalenzen) auszu-
schließen und auch dem Euklid nicht zu unterstellen. Also wird doch wohl ge-
meint sein, daß sich durch zwei gerade Linien kein Raumgebilde einschließen
läßt. Man braucht - entsprechend den Winkelschenkeln des Dreiecks in der Fläche
- mindestens drei gerade Linien dazu. Euklid behandelt jedenfalls im 11. Buch der
Elemente unter der 11. Definition „körperliche Winkel“ bzw. Ecken. Es heißt da:
„Ein körperlicher Winkel (eine Ecke) ist die Neigung wenigstens dreier geraden
Linien gegen einander, welche, ohne in einerlei Ebene zu liegen, in einem Punkte
zusammentreffen. Oder: ein körperlicher Winkel wird von wenigstens drei ebenen
Winkeln eingeschlossen, welche, ohne in einerlei Ebene zu liegen, an einem
Punkte zusammengestellt sind“. Wenn es hierbei eine Dialektik gibt, so liegt sie,
wie auch schon bei den Winkelflächen, darin, daß diese Flächen bzw. Räume so-
wohl durch die Schenkellinien „eingeschlossen“ als auch (auf ihrer offenen Seite)
nicht eingeschlossen“ sind.

Wie man gesehen hat, gehen die „Elemente“ des Euklid in diesen „wissenschaft-
lichen” Teilen nicht über das hinaus, was auch schon Aristoteles für jede Wis-
senschaft gefordert hatte, was aber bei ihm nicht für den Bereich der Mathematik
geleistet war. (Genauer gesagt, man weiß es nicht, da evtl. einschlägige Schriften
von ihm verschollen sein können). Vermuten kann man, daß Aristoteles in mathe-
matischen Abhandlungen die beschreibende Definition der „zweiten Substanzen“
bzw. der mathematischen Ideen gegeben haben könnte, die in einer „Faktenkun-
de“ gewußt und beherrscht werden mußten, um mit und zwischen ihnen „theore-
tische“ Verknüpfungen vornehmen zu können. Mathematische Theorie mußte
dann in einer „erklärenden“ Urteilsbildung bestehen, in der die so definierten Ele-
mente als „Begriffe“ eingesetzt und in behauptenden Aussagen verbunden wur-
den.
Solche Erklärungen und Theorien liest man in den „Theoremen“ und überhaupt
in den Texten der mathematischen Abhandlungen und Lehrbücher, wenn man die
geometrischen Konstruktionen und die Gleichungen beiseite läßt. Wer diese Text-
partien aufmerksam und unter Ansetzung der logischen Sonde liest, wird be-
merken, daß in ihren Urteilen sehr bald alle diejenigen logischen Widersprüche,
Antinomien, Paradoxien auftauchen, die sich aus der Verwendung der definierten
kontradiktorischen Begriffe zwangsläufig ergeben müssen.
272

Sie wurden und werden in der Regel dadurch konterkariert, daß man je nach
Bedarf nur die eine der in den kontradiktorischen Bestimmungen gelegenen Be-
hauptungsmöglichkeiten exhauriert und die gegenteilige unbeachtet läßt. Aber es
dürfte geradezu das Gesetz des Fortschrittes in der mathematischen Theorie-
bildung darstellen, daß die andere Seite schließlich doch aufgegriffen und in
Konkurrenz zur vorher angenommen Interpretation als deren Alternative ent-
wickelt wird. In dieser Phase werden die definitorischen Kontradiktionen also
zum Ausgang alternativer Theoriekonzeptionen, die die früheren Theorien ver-
drängen oder diese als „klassische“ Vorstufen dem historischen Gedächtnis ein-
verleiben. Als Beispiel sei auf die Definition der geraden Linie und der ebenen
Fläche verwiesen, in denen die Punkte bzw. Linien „auf einerlei Art“ liegen
(Elemente, Buch I, Def. 4 und 7). Ersichtlich gilt das auch für die als gänzlich
modern und als nicht-euklidisch angesehene sphärische Geometrie, die als Alter-
native zur euklidischen Geometrie entwickelt wurde.
Aber neben den sprachlichen mathematischen Artikulationen gibt es die soge-
nannten formalen Artikulationen der arithmetischen Formeln und Gleichungen in
den Beweisen und in den geometrischen Konstruktionen. Zünftige Mathematiker -
wahrscheinlich aber nicht Euklid selber - haben sich angewöhnt, in ihnen eine
eigene besondere, ja „ideale“ Sprache für die Behauptung mathematischer Wahr-
heiten von unübertrefflicher Präzision zu sehen. Und im selben Maße, wie sie dies
taten, sahen sie in den tatsächlichen sprachlichen Texten nur unpräzise, didak-
tisch-hinführende und allenfalls erläuternde Paraphrasen zum exakten Formelsinn,
von dem sie - immer noch mit Platon - meinten, er ließe sich in gewöhnlicher
Sprache prinzipiell nicht ausdrücken.
Entsprechend nahmen sie ihre Fachsprache auch nicht mehr ernst und arbeite-
ten nicht mehr daran, sie als Teil einer gelehrten Bildungssprache, die auch
Außenstehenden zugänglich sein konnte, zu kultivieren. Und so schwand auch
allmählich das Bewußtsein davon, daß es gerade umgekehrt war und auch von
Euklid so gemeint war: Die Formeln sind - gleichsam als nur eine Seite des in
Gleichungen Definierbaren - entweder nur einfache mathematische Begriffe oder
komplexe aus einfachen Begriffen mit mathematischen Junktoren gebildete ma-
thematische Ausdrücke. Und die Gleichungen definieren ihrerseits, welche von
ihnen denselben Sinn und dieselbe Bedeutung wie andere haben sollen, die Un-
gleichungen aber definieren, welche Begriffe oder Ausdrücke nicht denselben
Sinn bzw. dieselbe Bedeutung haben sollen.
Was es dabei mit den speziell arithmetischen Junktoren (den Operationsanwei-
sungen für die Rechenarten) auf sich hat, und daß sie sich prinzipiell von den logi-
schen - nicht urteilsbildenden, sondern nur ausdrucksbildenden - Junktoren ablei-
ten lassen, das haben wir an anderer Stelle (vgl. Logik, 1987, S. 156 – 161 sowie
in den einleitenden Paragraphen, bes. § 9) gezeigt.

Was bisher dargestellt wurde ist in den „Elementen“ des Euklid thematischer Ge-
genstand weniger Seiten am Anfang einiger Bücher (bzw. Kapitel). Der Hauptteil
273

des Werkes von guten 400 Seiten aber besteht in praktischen Konstruktionsaufga-
ben der Geometrie, deren Lösung mit Hinweis auf die dazu nötigen Begriffe und
Ausdrücke und die anzuwendenden praktischen Operationen angegeben wird.
Hinzu treten „Beweise“, daß die erzielten Ergebnisse „richtig“ sind. Dieser Teil
bzw. diese Teile der „Elemente“ stellen den praktischen Teil des Werkes dar, und
was dabei dargestellt wird, nennt man gewöhnlich die Probleme.
Es hat unter den Auslegern des Euklid langwierige Auseinandersetzungen darü-
ber gegeben, was hier eigentlich Problem genannt werde, und ob und wie es von
den „theoretischen“ Partien zu unterscheiden sei: Proklos (410 – 485 n.Chr.),
einer der prominentesten Kommentatoren der „Elemente“, sagt darüber, „bald
gelte es, etwas Gesuchtes ausfindig zu machen, bald, ein bestimmtes Objekt her-
zunehmen und zu untersuchen, was es ist, oder von welcher Beschaffenheit, oder
was mit ihm vorging, oder in welchem Verhältnis es steht zu einem anderen”.131
Die Frage ist noch heute umstritten und bildet selber ein Problem. Und man
wird auch sagen können, daß es - angesichts einer recht dürftigen wissenschafts-
theoretischen Literatur zum Thema „Problem“ - eines der bis in die moderne Wis-
senschaftstheorie am meisten vernachlässigten und aufklärungsbedürftigen Prob-
leme darstellt. Während die einen alles problematisierten, schränkten die anderen
ein: Problem ist nur die Suche nach einem bestimmten von mehreren möglichen
Wegen zu einem bestimmten Ziel. Proklos drückt das so aus: „Wenn jemand in
der Formulierung, als handle es sich um ein Problem, sagen wollte, es sei in einen
Halbkreis ein rechter Winkel einzuzeichnen, so wird er sich den Ruf eines Laien
in der Geometrie zuziehen; denn jeder Winkel im Halbkreis ist ein rechter” (vgl.
O. Becker, a.a. O. S. 102).
Was also gar nicht anders zu machen ist als auf eine bestimmte Weise, kann
nicht Problem sein. So wird man in Proklos„ Sinne auch sagen dürfen, daß nicht
das Nichtwissen und auch nicht das Wissen die Probleme macht, sondern das je
bestimmte Wissen um das Nichtwissen. M. a. W.: Man muß schon wissen, was
man sucht, und muß den Umkreis kennen, wo es zu finden ist, so daß man bei ge-
nügendem Umherschweifen darauf stößt, daß es einem „einfällt”. Und so wird an
dieser Wissenschaft mit ihren so sparsamen und übersichtlichen Voraussetzungen,
Regeln, und Handgriffen klar, daß es auch in ihr nicht ohne Einfälle, Phantasie, ja
den „Zufall” geht, der einem nun diesen oder jenen Weg zur Lösung „eingibt”,
diese oder jene Hilfskonstruktion zu wählen half. Geben wir als Beispiel eine
solche geometrische „Aufgabe“. Sie lautet:
(Elemente, 1. Buch, Satz 1): „Aufgabe: Auf einer gegebenen begrenzten geraden Linie AB
ein gleichseitiges Dreieck zu errichten.“ - Eine beigegebene Figur zeigt die Strecke AB, um
deren Endpunkte zwei sich schneidende Kreise mit dem Radius AB geschlagen sind. Ein mit
C bezeichneter Schnittpunkt dieser Kreise, mit den Punkten A und B verbunden, liefert das
gleichseitige Dreieck. D und E (in der beigegebenen Zeichnung) bezeichnen Schnittpunkte
der verlängerten Strecke AB mit den Kreisen. - Die Problemlösung lautet: „Aus dem

131
Proklos, Kommentar zu Euklids Elementen, zit. nach O. Becker, Grundlagen der Mathematik in geschichtlicher Ent-
wicklung, Freiburg-München 1964, S. 101.
274

Punkte A beschreibe mit AB den Kreis BCD, und aus dem Punkte B mit BA den Kreis
ACE. Vom Punkte C, in welchem die Kreise einander schneiden, ziehe nach A und B die
Geraden CA und CB: So ist ACB das verlangte Dreieck“. - Es folgt der Beweis: „Denn da
AC = AB und BC = BA: so ist AC = BC. Demnach ist AC = AB = BC, folglich das auf AB
errichtete Dreieck gleichseitig.“ - Man beachte, daß die Gleichungen im Beweis die
definierte „Deckungsgleichheit“ der Strecken zum Ausdruck bringen.
In der Tat sind die in diesem praktischen Teil der „Elemente“ aufgelisteten geo-
metrischen Konstruktionsprobleme und gelegentlichen arithmetischen Probleme
sämtlich schon gelöste Probleme und insofern eben keine Probleme mehr. Sie sind
die von Euklid mit enormem Fleiß und gelehrtester Übersicht gesammelten Prob-
lemlösungen aller seiner Vorgänger in der Geometrie, zu denen er nur recht weni-
ge eigene hinzugefunden hat. Und diese Lösungen sind wiederum das gesammelte
Erbe einer ausgebreiteten und emsigen empirischen Such- und Probiertätigkeit
nach Lösungen von praktischen Problemen der Architektur und der Mechanik.
Gelöste Probleme aber werden von selbst zu Methoden und Techniken zur Bewäl-
tigung von Aufgabenstellungen. Insofern waren und blieben die „Elemente“ zu
allen Zeiten das autoritative Handbuch der Aufgabenbewältigung für die entspre-
chenden praktischen Herausforderungen. Und das auch noch in Zeiten, wo sich im
Verlauf des Kulturverfalls solche Aufgaben nicht einmal mehr stellten und die
„Probleme“ als rein theoretische Angelegenheiten behandelt wurden.
Gerade dadurch aber wurden die „Elemente“ auch zum abendländischen Lehr-
buch der Geometrie und späterhin zum Vorbild aller mathematischen Lehrbücher.
Diese enthalten noch immer Aufgabensammlungen, die dem Lernenden als Prob-
leme aufgegeben werden, deren Lösungen ihm aber vorenthalten werden, so daß
er sich zunächst - und manchmal auch mit Erfolg - an einer selbstgefundenen
Lösung erfreuen und damit als neuer Thales oder Pythagoras fühlen kann. Der
Lehrer aber, der sich früher selbst vielleicht in dieser Weise an „Problemen“ abge-
arbeitet hat, kennt die Lösungen (oder sollte sie kennen) und weiß daher, daß auf
diesem Gebiete schwerlich neue Lösungen gefunden werden können. Je weiter
darin fortgeschritten wird, desto mehr konzentriert sich das Lernen und Lehren
auf die Beweise der Richtigkeit der Lösungen bis es - in der akademischen Lehre -
fast nur noch in der Herleitung von Beweisen für Lösungsvorschläge besteht. Man
verkenne nicht, in welchem Maße diese akademische Lehrart der Mathematik
dann dazu beigetragen hat, der Mathematik den Nimbus zu verschaffen, in ihr
werde geradezu alles in beweisender Deduktion von evidenten Axiomen her ver-
mittelt.
Kein Wunder, daß die Platoniker, zu denen ja auch gerade Proklos gehörte, da-
rin eine Bestätigung der Anamnesislehre sehen konnten, die dem Mathematiker
ein „unbewußtes Wissen” vindizierte. Sie ist bis heute der Grund für die verbrei-
tete Überzeugung geblieben, daß die echten erstmaligen Problemlösungen der
Begnadung und der unvorgreiflichen Genialität verdankt werden und daher mit
Ehrenpreisen und unsterblichem Ruhm zu honorieren seien. Und so ehren die
Mathematiker (und Naturwissenschaftler) bis zum heutigen Tag die ingeniösen
275

Erfinder solcher Problemlösungen, indem sie diese mit deren Eigennamen be-
nennen.
An der Stelle, wo in den geometrischen Büchern der „Elemente“ Probleme als
Konstruktionsaufgaben aufgelistet sind, stehen in den arithmetischen Büchern die
„Lehrsätze“ bzw. Theoreme, und nur gelegentlich sind auch „Probleme“ als Auf-
gaben eingestreut. Diese Theoreme sind nun die eigentlich behauptenden Urteile
und Schlüsse in den „Elementen“ und damit auch der wahrheits- bzw. falschheits-
fähige Teil dieser Wissenschaft. In ihnen ist das „theoretische Wissen“ der ganzen
antiken Arithmetik gesammelt.
Bemerken wir zuerst und vorzüglich für Philosophen: Man findet hier keine der
vermeintlich banalen „mathematischen Wahrheiten“ wie etwa „2 mal 2 = 4“ oder
gar das kantische Beispiel für ein angeblich apriorisch-synthetisches Urteil, daß „5
+ 7 = 12“ sei, das naturgemäß und nach allem bisher Gesagten nur eine Äquiva-
lenz bzw. eine Definition eines bestimmten Summenausdrucks durch einen be-
stimmten Zahlenwert darstellt. Die „theoretischen Wahrheiten“ in diesem Bereich
lauten vielmehr etwa so (Elemente, Buch 10, Satz 1):
„Nimmt man bei zwei gegebenen ungleichen Größen AB und C von der größeren AB mehr
als die Hälfte weg, von dem Reste wieder mehr als die Hälfte, und so immer fort, so kommt
man irgend einmal auf einen Rest, welcher kleiner ist, als die gegebene kleinere Größe C.“
Hier ist zunächst wichtig, daß von „Größen“ die Rede ist. Dies können Zahlen
sein und der Lehrsatz muß dann von ihnen gelten. Es können aber auch geo-
metrische Größen wie etwa Strecken von bestimmter Länge sein. Und genau
solche werden nun im „Beweis“ des Lehrsatzes und in einer beigefügten Abbil-
dung solcher Strecken verwendet. Er lautet (und sei als Beispiel für solche
Beweise hier angegeben):
„Mache, was immer angeht, von C (der kleineren Größe) ein Vielfaches DE, welches
zunächst größer als AB (die Ausgangsgröße) ist und teile solches in seine der C gleiche
Teile DF, FG, GE. Von AB nimm mehr als die Hälfte BH, von dem Reste AH mehr als die
Hälfte HI, und dies so fort, bis in AB so viele Abschnitte AI, IH, HB (sind) als Teile in DE
sind. Da also DE größer als AB ist, und von DE weniger als die Hälfte EG, von AB aber
mehr als die Hälfte BH weggenommen wird, so ist der Rest GD größer als AH. Nun wird
von GD die Hälfte GF, von AH aber mehr als die Hälfte HI weggenommen. Folglich ist der
Rest DF größer als AI, oder, weil DF = C ist, C größer als AI, folglich der Rest AI kleiner
als C. - Auf ähnliche Art wird der Satz bewiesen, wenn in AB immer nur die Hälfte
weggenommen wird.“
Der Beweis demonstriert die Größenverhältnisse „ad oculos“ für den geome-
trischen Praktiker, aber nicht für den arithmetischen Denker. Ihm ist es sicher
plausibel, daß man jede Zahl durch fortgesetzte Subtraktion von Einheiten kleiner
machen kann als eine beliebige Zahl, die kleiner ist als die Ausgangszahl. Das
Problem dabei ist, ob der Rest bei solchen Subtraktionen immer überhaupt eine
Zahl ist. Offensichtlich ist das nicht immer der Fall, denn es können auch „irra-
tionale“ Restgrößen übrigbleiben, von denen es (wenigstens bei Euklid) offen
bleibt, ob sie Zahlen sind. Aber auch die irrationalen „Größen“ sind jedenfalls
276

Größen - und das 10. Buch der „Elemente“ handelt genau von diesen und definiert
sie. Deshalb impliziert der geometrische Beweis hinsichtlich der „Größen“ für die
Zahlenlehre, daß man die irrationalen Größen als Zahlen behandeln muß, wenn
das Theorem für die Arithmetik gelten soll. Und daß dies gemeint ist, geht wohl
schon aus dem nächsten Lehrsatz 2 hervor, welcher lautet: „Zwei ungleiche
Größen AB, CD sind, wenn bei wiederholter Wegnahme des Kleinern vom
Größern kein Rest das ihm nächst Vorhergehende genau mißt, inkommensurabel“.
Der 5. Satz aber lehrt unter deutlichem Hinweis auf die Verschiedenheit von
Zahlen und inkommensurablen Größen: „Kommensurable Größen A, B verhalten
sich wie Zahlen zu einander“.

Wir haben die „Elemente“ des Euklid als abendländisches Lehrbuch der Mathe-
matik so ausführlich im vorliegenden Kontext dargestellt und logisch betrachtet,
weil es stilbildend für eine bestimmte Methode des wissenschaftlichen Denkens
geworden ist. Und dies in offenbarer Alternative zur Logik des Aristoteles und der
Stoiker.
Von den Philosophen ist es immer stiefmütterlich behandelt worden, und zwar
ersichtlich aus einem gewissen Horror vor dem „Unlogischen“ oder jedenfalls der
Esoterik des mathematischen Denkens. Als in der Spätantike und Scholastik die
aristotelische Logik genauer studiert und auch in der Theologie verwendet wurde,
konnte man nicht umhin, auch die Widersprüche in der heiligen Schrift und bei
ihren patristischen Auslegern zu bemerken. Wir werden später zeigen, daß einige
Philosophen und Theologien die Widersprüchlichkeit bzw. Dialektik der Glau-
benswahrheiten (Credibilia) geradezu als Ausweis ihrer „höheren Wahrheit“ aus-
gegeben haben. Nicht jedem Philosophen blieb aber auch die Dialektik der Mathe-
matik verborgen. Und so wurde auch die Mathematik seit dem 13. Jahrhundert ein
methodisches Instrument, diese höhere Glaubenswahrheit zu artikulieren und zu
beweisen, wie man in den Schriften von Roger Bacon und von Nikolaus von
Kues sehen kann.
Im 17. Jahrhundert erfreuten sich die „Elemente“ als Nachhall der (vermeint-
lichen) „Wiederentdeckung“ des Euklid durch die Mathematiker der Renaissance
großer Bewunderung und vieler Versuche von Anwendungen. Sie sind unter der
Bezeichnung „Mos geometricus“ bekannt geworden. Aber dieser an die dominie-
rende Darstellung der Geometrie in den „Elementen“ erinnernde Titel wurde allzu
schnell als Methodentitel eines vermeintlich neuen „logischen“ Denkens auf-
gefaßt. Dieses bestand aber nur in der Übernahme der äußerlichen Gliederung der
„Elemente“ in Lehrbüchern der Disziplinen bzw. ihrer Theorien, d. h. im Ausgang
von Definitionen und Axiomen und der Deduktion von Theoremen aus ihnen.
In der Zeit der großen philosophischen Systembildungen des 17. Jahrhunderts
gab der Mos geometricus das maßgebliche Vorbild ab, die „Philosophien“ selbst
in dieser Gestalt aufzubauen. So hat etwa Descartes seine eigene Philosophie und
dann Spinoza das philosophische System des Descartes und auch seine eigene
„Ethik“ „more geometrico“ dargestellt. Kant brachte diese philosophische Haltung
277

auf die Formel, es gelte in den Systemen jeweils „ein nach Prinzipien geordnetes
Ganzes der Erkenntnis“ vorzustellen. Wie dergleichen aussehen sollte, dafür blie-
ben die Elemente des Euklid ein ständiges Vorbild.

§ 20 Der Epikureismus
Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomi-
stische und indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit
als Grundlage des guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der
Freundschaften. Epikureismus als Hausphilosophie der empirischen Ärzte.

Begründet von dem Demokriteer Epikur (341 – 270 v. Chr.),132 knüpft der Epiku-
reismus an die Atomlehre des Demokrit an und entwickelt sie zu einer materia-
listischen, indeterministischen und sensualistischen Welterklärungsdogmatik. Alle
Erkenntnis ist hier auf sinnlich ausgewiesene Begriffe (Prolepsis ῆ)
beschränkt und begründet, die nach logischen Regeln („Kanonik“) zu ordnen sind
und einer dem vernünftigen Lustgewinn gewidmeten Lebensführung dienen.
Dazu gehört vor allem die Abweisung alles Übersinnlichen, der Götter und der
Todesfurcht, die auf einem falschen Götter- und Jenseitsglauben beruhe. Von den
Göttern sagen die Epikureer, falls es sie gäbe, hielten sie sich weit enfernt von
unserer Welt in den „Zwischenwelten“ (Intermundien) auf und genössen dort
einer dauernden Glückseligkeit. Daher würden sie sich nicht um die hiesige
Menschheit kümmern. Sie greifen nirgends ein, und daher ist es zwecklos, etwas
von ihnen zu erbitten oder zu erhoffen, oder sie gar durch einen Kult geneigt zu
machen.
Die Welt ist bloß Natur. Sie besteht ewig. Alle ihre Bildungen sind zufällige Zu-
sammenballungen der Atome, so auch die menschlichen Körper und Seelen. In ihr
herrscht durchweg Zufall und somit das, was man für den Naturbereich Indeter-
minismus, für den menschlichen aber Freiheit nennt.
Durch des Lukrez (ca. 96 – 55 v. Chr.) Lehrgedicht „De rerum natura” (Von der
Natur der Dinge)133 hat dieses Weltbild eine großartige dichterische Ausgestaltung
erfahren und weite Bildungskreise erreicht. Durch den Arzt Asklepiades von Pru-

132
Epikurs Lehren sind in der Form eines kurzen ethischen Lehrbuchs (Kyriai Doxai), einer Schrift „Über die Natur“ (Peri
Physeos), in Briefen an seine Freunde sowie vor allem durch die „Fragmente“ im letzten Teil der Philosophiegeschichte des
Diogenes Laertios überliefert. Vgl. O. Gigon (Hg. und Übers.), Epikur. Von der Überwindung der Furcht. Katechismus
Lehrbriefe, Spruchsammlung Fragmente, Zürich 1949, auch München 1991. - R. D. Hicks (Hg.) Diogenes Lartius, Lives of
Eminent Philosophers, griech.-engl, 2 Bände, London-Cambridge, Mass. 1959- 1965, Bd. 2, S. 528 - 677.
133
M. F. Smith (Hg.), Lucretius, De rerum natura, lat.-engl., Cambridge, Mass.-London 1975.
278

sa (1. Jh. v. Chr.) ist es auch zu einem Grundbestand ärztlicher Überzeugungen


geworden.
Für die Wissenschaftstheorie sind der atomistische Materialismus, die sensua-
listische Erkenntnistheorie, die Verankerung der Freiheit in der Natur selber sowie
die Indienstnahme der Wissenschaft für das praktische Leben die wirksamsten
Beiträge des Epikureismus gewesen. Er ist in der Neuzeit gleichsam wiederent-
deckt worden und bildet seitdem einen festen Bestand forschungsleitender Hinter-
grundsideen.

Auch Epikur bemühte sich, eine Architektonik der Wissenschaften aufzustellen.


Sie ist, wie die stoische, dreiteilig und weist den einzelnen Teilen verschiedenen
Rang zu. Voran steht

1. die Logik. Sie wird von Epikur als Lehre von den Regeln der Begriffsbildung
behandelt und „Kanonik“ genannt. Eine besondere Urteils- und Schlußlehre hielt
er für entbehrlich, da sich das Urteilen und Schließen nur auf zuverlässige Begrif-
fe stütze und immer wieder auf sie zurückführe.
Begriffe sind dabei nichts anderes als die in der Seele - durch die Sinnesorgane -
aufgefangenen Bilder (eidola ἴ) der Wahrnehmungsinhalte, die sich durch
Wiederholung verfestigen und dann sprachlich benannt und erinnernd evoziert
werden können. Sie sind vor allem von den „Phantasmen“ (θά) zu un-
terscheiden, die - als Abflüsse der körperlichen Dinge - durch die Poren in die
menschlichen Körper einfließen und im Bewußtsein als defekte und verunstaltete
Bilder dieser Dinge auftauchen.
Der Mathematik sprach Epikur jeden methodischen und Erkenntniswert ab und
befaßte sich daher auch nicht damit.

Den 2. Rang nimmt die Naturlehre ein. Sie beruht auf der demokritischen Vor-
aussetzung, daß die Natur aus ewig bestehenden materiellen Atomen bestünden,
die im Leeren (dem Raum) chaotisch herumschwirren und sich gelegentlich durch
Zufälle zu komplexeren Gebilden zusammenfügen. Diese bilden ihrerseits die
toten und lebendigen Elemente und somit auch die tierischen und menschlichen
Körper. Auch die menschlichen Seelen sind nichts anderes als luft- und feuer-
artige Atomkomplexe, von denen sich ein Teil als „vernünftiger Seelenteil“ in der
Brust festsetzt, ein anderer „unvernünftiger Teil“ im ganzen Körper ausbreitet.
Der Tod wird als „Ausfall der Wahrnehmung“ (steresis aistheseos έ
ἰή) bezeichnet. Er kann deshalb auch nicht vom einzelnen Men-
schen selbst erfahren werden. Im Verfall des die Seele umgreifenden Körpers
vermischen sich auch die Seelenteile wieder mit den Atomen der Natur.
Die Natur selbst umfaßt unzählige sich immer wieder neu bildende und ver-
gehende Welten (kosmoi ó), von denen nur der uns umgebende Teil bis
zum Sternhimmel sichtbar ist.
279

Den 3. und Hauptrang nimmt sodann die Ethik ein. Die Logik der sinnlich
ausweisbaren Begriffe und die beschränkten Einsichten der Naturlehre nutzend,
stellt sie eine Lehre darüber dar, wie der Mensch als prekäres, aber freies (durch
keine Kausalität determiniertes) Körperwesen in einer grundsätzlich chaotischen
und letztlich undurchschaubaren Welt ein möglichst lustvolles, glückliches Leben
führen kann.
Der einzelne Mensch wird in seiner jeweiligen zufälligen Konglomeration von
Körper- und Seelenatomen solange er lebt als einmaliges und unverwechselbares
„Individuum“ angesehen. Er ist in diesem Komplexionsbereich der Atome selbst
ein Analogon des natürlichen „Atoms“ (wie der lateinische Ausdruck „indivi-
duum“ besagt). Um ein glückliches Leben zu führen, muß das Individuum eine
vernünftige Balance zwischen Genuß und Hinnahme unvermeidlicher Übel wie
Krankheiten und widrigen äußeren Lebensumständen zustande bringen. Jedes
Übermaß an Lust straft sich selbst durch nachfolgende Beschwerden, und einem
unerträglichen Übermaß an Übeln kann durch Selbstmord entgangen werden.
Diese Balance aber wird durch Vernunftgebrauch und Ausbildung vernünftiger
Tugenden wie Mäßigung und Unerschütterlichkeit (Ataraxie ἀí) aufrecht
erhalten. Wie die natürlichen Atome sich zu dem verbinden, was man heute Mole-
küle nennt, so gehört es auch zum Wesen der menschlichen Individuen, sich zu
„Freundschaften“ zu verbinden. Sie sind gleicherweise eine ständige Lust- und
Genußquelle wie auch eine Bedingung des Schutzes und der Hilfe in der sonst
unbeständigen Welt und werden von den Epikureern in den höchsten Tönen
gepriesen. Im „Garten“ des Epikur, der der Schule als Lehr- und Treffpunkt zur
Verfügung stand, wurde die Freundschaft praktisch gepflegt. Im Unterschied zu
den anderen philosophischen Schulen nahmen an den philosophischen Diskus-
sionen der „Gartenphilosophen“ auch die Frauen und Sklaven teil.
Von einer darüber hinausgehenden Einmischung in das öffentliche und staat-
liche Leben wird im allgemeinen abgeraten - es sei denn, aus der politischen
Betätigung könne im Einzelfall besonderer Lustgewinn gezogen werden. Maxime
der glücklichen Lebensführung bleibt in jedem Falle das „Lathe biosas“
(ῶ), das Leben in der „Eingezogenheit“, was man später mit dem der
stoischen Kritik entlehnten Wort „Privatleben“ (d. h. der öffentlichen Wirksam-
keit „beraubtes“ Leben) bezeichnete.

Die epikureische Lehre war wegen ihres vorgeblichen „Hedonismus“ und ihrer
„Gottlosigkeit“ fast zu allen Zeiten Gegenstand heftigster Kritik aller anderen
Schulen. Allerdings sprach Epikur sehr wohl von den Göttern, aber als von immer
glücklichen Wesen in den „Zwischenwelten“, die sich um die Menschen in dieser
Welt nicht kümmern. Deswegen sei es nutzlos, sich an sie zu wenden.
Gleichwohl ist seine Lehre im Abendland immer, wenn auch gleichsam unter-
gründig, wirksam gewesen. In der Renaissance erhielt sie mit dem Interesse an
allen Erbschaften der Antike erneuten Auftrieb. In den Naturwissenschaften des
17. und 18. Jahrhunderts war sie als indeterministische Körperlehre geradezu ein
280

Leitmodell der Naturerklärung, das auch in unserem Jahrhundert in der indetermi-


nistischen Mikrophysik nochmals aufgegriffen wurde.
In den Geisteswissenschaften und in der praktischen Philosophie wurde der Epi-
kureismus seit der Aufklärung Grundlage des individualistischen (egoistischen)
Lebensstils, des modernen „persuit of happiness“ der freien Persönlichkeit und der
antiinstitutionellen „anarchistischen“ Bewegungen.
Ihre Naturphilosophie erfreute sich zu allen Zeiten der besonderen Sympathie
der Ärzte, und unter diesen besonders der „Empiriker“. Über die Ärzteschaft ist
sie auch in den Zeiten tradiert worden, wo sie wegen der Kritik der herrschenden
anderen Schulen in der Philosophie als untergegangen galt.
Die Virulenz des epikureischen Denkens in der (empirischen) Ärzteschaft zeigt
sich überall da, wo man den menschlichen Organismus insgesamt als atomare
Konglomeration ohne alle weitere psychische oder gar geistige Ingredienzien
betrachtete. Noch der berühmte Chirurg R. Virchow stellte im 19. Jahrhundert in
diesem Sinne fest, daß ihm bei all seinen medizinischen Operationen „nie eine
Seele unters Messer gekommen sei“. Ärztliche Erfahrung beschränkt sich dabei
auf „zufällige“ - und daher niemals notwendige - Regularitäten der gesunden und
kranken Prozesse, die zwar mehr oder weniger genaue Diagnosen des aktuellen
Zustandes, doch niemals genaue Prognosen künftiger Verläufe erlaubt. Daher
rechnet der empirische Arzt, der sich heute in der Gestalt des Naturheilkundigen
präsentiert, immer auch mit unvoraussehbaren „wunderbaren“ Heilerfolgen, die er
weder voraussehen kann noch erklären will.

§ 21 Die Stoa
Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und prak-
tische Philosophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das
Wissenschaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modell-
denken in Anwendung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier
Kardinaltugenden des Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als unge-
schriebenes oder erkanntes Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen
Philosophie als Hausphilosophie der Juristen.

Benannt nach ihrem Lehrinstitut, der Stoa Poikile in Athen, ist diese Lehre von
Zenon aus Kition auf Zypern (ca. 336 – 264 oder 262 v. Chr.) begründet worden
und hat ihre umfassende Ausbildung durch Zenons Enkelschüler Chrysipp (ca.
281 – 208 v. Chr.) erfahren. Durch Panaitios von Rhodos (ca. 185 – 110 v. Chr.)
281

und Poseidonios von Apameia (ca. 135 – 51 v. Chr.) ist sie eine Art Staatsideo-
logie des römischen Reiches geworden, zu der sich als bedeutendste Anhänger der
Kaiser Mark Aurel (Marcus Aurelius, Regierung 161 – 180 n. Chr.), der Staats-
mann Lucius Annaeus Seneca (gest. 65 n. Chr.) wie auch der (freigelassene)
Sklave Epiktet (ca. 50 – 138 n. Chr.) bekannten.134
Durch ihre Gründer hat sie vor allem an die heraklitische Logoslehre, die Logik
der Megarer, die kynische Ethik und die aristotelische Wissenschaftslehre und
Logik angeknüpft und diese Motive zu einem in manchen Zügen dem epikure-
ischen ähnlichen Weltbild vereinigt.
Ähnlich wie bei den Epikureern ist ihre sensualistische Grundlegung der Er-
kenntnislehre ausgestaltet. Alle Erkenntnis beginnt in dem sonst leeren Bewußt-
sein („tabula rasa”) mit der Ansammlung sinnlicher Eindrücke: den Sinnesbildern
und Erinnerungsbildern. Diese werden durch die „zupackende Phantasie” (phan-
tasia kataleptiké íή, nach einer anderen Auslegung ist es
die „gepackte”, durch die Lebhaftigkeit der Sinneseindrücke überwältigte Phanta-
sie) so geordnet, daß die am häufigsten vorkommenden Sinneseindrücke, sich in
der Erinnerung ständig überlagernd, zu festen Begriffen (Prolepsis ῆ)
werden.
Diese sind zugleich Kriterien der Wahrheit gegenüber den flüchtigeren und
besonders den sinnestäuschenden Eindrücken. Die spätere Stoa hat großen Wert
darauf gelegt, diese an sich sensualistische Erkenntnistheorie auch ontologisch zu
untermauern, indem sie die Allgemeinbegriffe als eingewurzelte Vernunftbegriffe
(Emphytoi logoi ἔó, logoi spermatikoi óí) der
menschlichen Seele erklärte und damit die (aristotelische) Tabula-rasa-Theorie
des Bewußtseins zugunsten einer (platonisch inspirierten) Lehre von „einge-
borenen (besser aber als „angeboren“ zu bezeichnenenden) Ideen” aufgab.
Als Lehre von den allen Menschen „gemeinsamen Grundbegriffen” (koinai
ennoiai ὶἔ), Vor-Urteilen und Grundüberzeugungen wurde sie zum
festen Bestandteil aller späteren rationalistischen Erkenntnistheorien und der Leh-
ren vom „Apriori“. Insbesondere aber hat sie später oftmals sowohl Juristen wie
Theologen und Ärzten dazu gedient, den Verbrecher, Häretiker oder Verrückten
als dieser gemeinsamen Menschenvernunft nicht Teilhaftigen aus der mensch-
lichen Gemeinschaft auszuschließen.
In ihrer Naturauffassung gehen die Stoiker wie die Epikureer von einem ato-
mistischen Materialismus aus. Auch die Seelen erklären sie aus feinster und
feurigster „luftartiger“ Materie (Pneuma ῦ). Götter und eine oberste Gott-
heit nehmen sie an und erklären sie als Weltseele und Urfeuer, das in unendlichen
Kreisläufen (Aion ἰῶ) alle Wirklichkeit aus sich entläßt und wieder verbrennt.

134
Zur Stoa vgl. M. Polenz, Die Stoa. Geschichte einer geistigen Bewegung, 2 Bände, Göttingen 1949 - 1959, neue Aufl.
1972 – 1978. – Immer noch lesenswert F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 1: Die Philosophie
des Altertums, hgg. von K. Praechter, 12. erw. Aufl. Nachdr. Darmstadt 1957, S. 410 – 43; S. 475 – 483; S. 486 – 503.
282

Im Unterschied zu den Epikureern untersteht bei ihnen jedoch alles Geschehen


strengster Gesetzlichkeit oder Notwendigkeit (Anánke ἀά Die göttliche
Weltvernunft, oft als Heimarmene (ἱέ) bezeichnet, hat alles vorausbe-
stimmt (Pronoia ó) und zum besten gerichtet (Teleologia í), vor
allem zum besten des Menschen, der die Mitte des Naturreiches darstellt.
So ist auch Zufall und Freiheit, wie sie die Epikureer vertraten, nur Schein. Der
universale Determinismus (Anánke ἀά, lat.: fatum, daher Fatalismus) zwingt
den Widerstrebenden und leitet den Willigen (Seneca: nolentem fata trahunt,
volentem ducunt) unter das Naturgesetz (Lex naturalis). So wird alle Wissenschaft
Forschung nach den Naturgesetzen, alle Lebensführung „naturgemäßes Leben”
(physikôs zên ῶῆ gemäß der Einsicht in diese Naturgesetze. Der
„kleine Kosmos” Mensch wird nach der von ihnen propagierten Mikro-Makrokos-
mos-Entsprechung ein Abbild des großen Kosmos.
Demgemäß teilen die Stoiker auch die praktische ethische Indienstnahme der
Wissenschaft mit den Epikureern: Sie pflegen und erweitern die Logik vor allem
durch Hinzunahme der Rhetorik und Sprachwissenschaft, deren bis heute ver-
wendete grammatische Kategorien von ihnen stammen, als den „Zaun”, der den
„Garten” der Naturwissenschaft umgibt, in welchem die „Früchte” der Ethik und
praktischen Philosophie reifen. Letztere ist ihnen eine Ethik des öffentlichen, soli-
darischen Lebens der menschlichen Gemeinschaft, in welcher sie die Pflichten
und Verpflichtungen des Einzelnen für das Ganze und Allgemeine besonders
betonen. Sie richten sich damit besonders gegen die Epikureer und ihre indivi-
dualistische Ethik des Privatlebens und der intimen Freundschaftsverhältnisse.
Es liegt auf der Hand, daß eine solche Philosophie eine besondere Relevanz für
Juristen, Staatsmänner und Institutionenvertreter besitzt, die sie seither als ihre
Hausphilosophie kultivieren.
Die stoische Erkenntnistheorie von den gemeinmenschlichen Grundüberzeu-
gungen hat die römische Rechtsdogmatik begründet und ihren Anspruch auf An-
erkennung bei allen Völkern und zu allen Zeiten zu einer abendländischen Selbst-
verständlichkeit gemacht. Die inhaltliche Ausgestaltung des Rechts ist nichts
weniger als willkürlich. Sie folgt selber der Einsicht in die Notwendigkeiten der
Natur, deren Gesetze sie im „Naturrecht” nur aufzeichnet, keineswegs aber
erfindet oder erzeugt.
Naturgesetz und Naturrecht ist für die Stoa eines und dasselbe: „Das Naturrecht
ist das, was die Natur alle Lebewesen gelehrt hat; denn dieses Recht ist nicht nur
der menschlichen Gattung eigen, sondern allen Lebewesen, die im Himmel, auf
der Erde und im Meer geboren werden“.135 So gibt sie auch der Weiterentwick-
lung der juristischen Dogmatik und der Gesetzgebung wie der Rechtsauslegung
die wissenschaftliche Einsicht in die Gesetze der Realität als Richtlinie vor. Das
Naturrecht, wie mangelhaft es auch immer als Naturgesetz erkannt und ausge-

135
Ius naturale est, quod natura omnia animalia docuit, nam ius istud non humani generis proprium est, sed omnium
animalium, quae in coelo, quae in terra, quae in mari nascuntur. In: Institutionen des Justinian, Buch I, Titel 2.
283

sprochen werden kann, bleibt hier Maßstab aller Gerechtigkeit und Vor-Urteil des
richtigen und wahren Rechts.
Es sei aber hier schon bemerkt, daß die Stoiker weit davon entfernt waren, alles
menschliche Handeln unter ethische oder gar juristische Normen zu stellen, wie
das besonders in der Moderne unter der Maxime der „Verrechtlichung aller Le-
bensverhältnisse“ immer mehr der Fall ist. Sie betonen vielmehr mit Nachdruck,
daß es in allem Handeln und gegenüber allen Normierungen stets den Bereich des
„Gleichgültigen“ (adiaphoron ἀδιάθορον) gibt, der solcher Normierung nicht be-
darf.
Die gleichen Momente sind auch für die Wissenschaftstheorie von erheblicher
Bedeutung geworden. Der Gedanke des Universaldeterminismus in der Natur, auf
dessen Folie Freiheit nur ein objektiver Schein und allenfalls Anzeichen unserer
Unwissenheit über die zugrundeliegenden kausalen Zusammenhänge der Dinge
ist, hat die kausale Naturforschung selbst in ausweglos erscheinenden Lagen im-
mer wieder beflügelt und zu oftmals überraschenden Kausalerklärungen geführt.
Erst zu Beginn des 20. Jahrhunderts sind ihr in der indeterministischen Quan-
teninterpretation „epikureische“ Gegner entstanden. Das anfängliche Schwanken
zwischen Sensualismus und apriorischem Rationalismus hat sich bis heute in den
wissenschaftstheoretischen Grundlagentheorien repristiniert, wo Empiristen und
Rationalisten sich noch mit gleichem Recht auf die Stoa berufen können. Nicht
zuletzt knüpft die neuere Logik und Argumentationstheorie, insbesondere in ihren
Gestalten als Metatheorie der idealen und natürlichen Sprachen, wieder an die
stoische Dialektik und Grammatik an, deren Schätze sie wohl kaum schon aus-
geschöpft hat.

Ihre Auffassungen von einer Architektonik der Wissenschaften teilen die Stoiker
mit den Epikureern. Sie umfaßt
1. die Logik bzw. Dialektik, die sie - im Gegensatz zu Aristoteles - nicht als
Organon für die Wissenschaften, sondern als selbständige Wissenschaft ansahen
und in Verschmelzung mit den Sprachwissenschaften ausbauten.
2. die Naturwissenschaft, die sie - wiederum im Gegensatz zu Platon und Aristo-
teles gleichermaßen - als prognostische und „mantische“ Wissenschaft auffaßten,
welche auf Grund der vorausgesetzten Naturkausalität und Teleologie das den
Sinnen Verborgene aus dem Sichtbaren und künftige Naturereignisse aus dem
Gegenwärtigen vorauszusehen und technisch („mantisch“) zu manipulieren erlau-
ben sollte.
3. die praktische Philosophie mit dem Schwerpunkt in der Ethik, die - ähnlich
wie bei den Epikureern - ein glückliches sowohl individuelles wie aber auch so-
ziales und staatliches Zusammenleben garantieren sollte.
Wie im Bild vom Zaun, den Bäumen und ihren Früchten im Garten verglichen sie
diese Wissenschaften auch gerne mit der Schale, dem Eiweiß und dem Dotter
eines Eies. Und vielleicht war es dieses Bild, das noch heute in der Floskel vom
„Gelben im Ei“ als Bezeichnung des Wichtigsten an einer Sache fortlebt.
284

1. Die Logik bzw. Dialektik136 umfaßt, wie auch die aristotelische, besondere Leh-
ren von den Begriffen, von den Urteilen und von den Schlüssen und hat diese
Einteilung nachhaltig stabilisiert. Auch in ihr geht es wesentlich um die Fest-
stellung und Unterscheidung von Wahrheit und Falschheit in Urteilen und Schlüs-
sen. Diogenes Laertios (1. Hälfte des 3. Jahrh. n. Chr.) überliefert in seiner Philo-
sophiegeschichte als stoische Definition der Logik, sie sei die „Wissenschaft von
der wahren und falschen Rede, aber auch von der, die keines von beiden ist“.
Ersteres betont, daß es hier um eine zweiwertige Logik geht; letzteres, daß auch
alle sprachlichen Ausdrucksformen, die keinen Wahrheitswert besitzen, in den
Bereich der Betrachtung fallen. Die Wahrheit beruht dabei zunächst einmal auf
der Klarheit und Deutlichkeit der Begriffe (Enargeia ἐά die später Descar-
tes wieder besonders betonen wird), die ihrerseits das Ergebnis des „Zuflusses“
materieller Abbilder durch die Sinneskanäle und z. T. auch Ergebnis der „Ein-
wurzelung“ der allgemeinen Begriffe (der Logoi spermatikoi), die durch die Poren
und die Sinnesorgane in den eigenen Körper eingedrungen sind, darstellen.
Daß und wie die Wahrheit auch von der Verknüpfung in Urteilen mittels einzel-
ner Junktoren abhängt, das haben sie gerade durch Untersuchungen an Beispielen
wahrer „Reden“ herauszufinden gesucht. Diese Aufgabe der Logik, überhaupt an
Beispielen von sprachlichen Gebilden herauszufinden und diese Gebilde danach
zu klassifizieren, ob und unter welchen Umständen sie für wahr oder falsch ge-
halten werden, macht sie gerade zur forschenden Wissenschaft. Dabei wird im
wesentlichen anhand von Standardbeispielen inhaltlicher Art argumentiert, und
nur gelegentlich treten - in der Schlußlehre - Formalisierungen durch Großbuch-
staben auf, die hier als Ordnungszahlen (ein Erstes ... ein Zweites ...) für die
Anordnung von Ursache und Wirkung dienen.

A. Die Begriffslehre stellt fest, welche sprachlichen Elemente logisch relevant


sind. Es sind die Eigennamen (Onoma ὄ) und Substantive (Proshegoria
í) bzw. die sie vertretenden Pronomina und die Verben (Rhema
) in flektierten Formen als handlungsbeschreibende Behauptungselemente.
Die Verbindungspartikel (Syndesmos óbzw. Synkategoremata
ή bzw. die Junktoren werden wie bei Aristoteles nicht als Begriffe
behandelt. An der Standardsatzform „Sokrates geht“ (oder ähnlich) erkennt man,
daß auch das „ist“ (bzw. „sind“ an der Stelle eines Verbs) grundsätzlich als be-
hauptendes Verb verstanden wird, weshalb es nicht als „Kopula“ bei den stoi-
schen Synkategoremata vorkommt.
Die Begriffe sind bildhafte „Sinneseindrücke“ (Typosis ύ) und deren
Erinnerungsbilder (Phantasma ά) von wahrgenommenen Dingen und

136
Vgl. dazu K. H. Hülser, Art. Logik, stoische. In: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschafts-
theorie, Band 1, Mannheim-Wien-Zürich 1984, S. 687 – 689 (mit Bibliographie); J. M. Bochenski, Formale Logik, 3 Aufl.
Freiburg-München 1970, S. 121 – 153; B. Mates, Stoic Logic, 2. Aufl. Berkeley-Los Angeles 1961, Nachdr. 1973.
285

Sachverhalten in der materiell verstandenen Seele. Als in der Erfahrung immer


wiederholte „Abdrücke“ solcher „Eindrücke“ verfestigen sie sich zum „Denkbild“
(Lekton ó). Bei allen Menschen können diese Denkbilder durch Laut- und
Schriftzeichen (Semeion ĩ) zuverlässig in der Vorstellung bzw. Erinne-
rung evoziert werden und dadurch die Aufmerksamkeit auf die „äußeren“ Dinge
und Sachverhalte, die sie abbilden bzw. auf die die „zutreffen“ (Tygchanon ύ
), gerichtet werden.
Diese Lehre von der Dreiheit von (sprachlichem) Zeichen, der „Vorstellung“
und dem äußeren Gegenstand bei den Begriffen entspricht sehr genau der von
Aristoteles in der Hermeneutikschrift entwickelten Lehre und ist vermutlich daher
entnommen. Sie wurde zur Grundlage aller später entwickelten (realistischen) Se-
mantiktheorien, in denen sprachliche oder logische Zeichen eine Vermittlungs-
funktion zwischen innerem Denkakt und äußerem Sachverhalt übernehmen.
Die Zeichenlehre ist in der Stoa zugleich die Grundlage ihrer Auffassungen
über die Möglichkeit der Erkenntnis verborgener gegenwärtiger und der Prognose
künftiger Sachverhalte und Ereignisse. Indem die Stoiker davon ausgehen, daß die
Zeichen (Symbole) als sinnlich wahrnehmbare Dinge von sich aus und natürlicher
Weise (daher „natürliche Zeichen“ wie beispielsweise der Rauch bezüglich des
Feuers) auf andere Dinge verweisen, wird ihnen die Verweisungsgesamtheit der
Zeichendinge zugleich ein heuristischer Leitfaden für die Forschung als Auf-
deckung verborgener Kausalitäten und Teleologien. So erklären sie aus den natür-
lichen Krankheitszeichen („Signaturen“) verborgene Mechanismen der Krank-
heitsprozesse - aber auch aus den Sternkonstellationen menschliche Dispositionen
der einzelnen Organe für solche Krankheiten. Die sogenannte Astrologie und die
politische Prognostik der römischen Haruspices aus Vogelflug, Eingeweidebe-
schau von Opfertieren u. ä. erklären sich aus der Verallgemeinerung dieses „se-
mantisch-heuristischen“ Forschungsverfahrens.
Bei den Begriffen selbst haben die Stoiker hauptsächlich deren Intensionen
bzw. Merkmale beachtet. Einfache Namen und Substantiva standen ihnen für
einfache, durch Adjektive und Adverbien determinierte Ausdrücke für komplexe
Begriffe. Wobei die Denkbilder einfacher Begriffe ihrerseits wieder Bestandteile
von komplexen Begriffen sein konnten. Dies läßt sich freilich nur am Beispiel
ihrer Kategorienlehre ersehen, die sie wohl kritisch gegen die aristotelische
Kategorienlehre wandten. Von Gattungen, Arten und Unterarten und erst recht
von der Einteilung von Arten unter einer Gattung - was eine extensionale Be-
trachtung impliziert - ist bei ihnen nirgends die Rede. Wenn es bei ihnen so etwas
wie ein Allgemeinheitsgefälle der Begriffe gibt, so besteht es nur in der zuneh-
menden intensionalen Komplexheit derselben, nicht in den extensionalen Um-
fängen, die Aristoteles dafür mit in Betracht gezogen hatte. Ihr Kategorienbeispiel
weist daher nicht die Struktur einer Pyramide, sondern eher die eines astlosen
Baumes mit dickem Stamm und dünner Spitze auf. Die Kategorien als „allge-
meinste“ Begriffe werden folgendermaßen angeordnet:
286

Formalisierung von Begriffen anhand des stoischen Beispiels der Kategorien

A Substanz („Zugrundeliegendes“, Hypokeimenon ὑĩ)


I
BA Qualität („Wie beschaffen Zugrundeliegendes“, Poion hypokeimenon
ὸὑĩ)
I
CBA Verhalten („Wie sich verhaltendes wie beschaffenes Zugrundeliegendes“
ῶἔὸὑĩ 
I
DCBA Relation („In Bezug worauf wie sich verhaltendes wie beschaffenes
zugrunde Liegendes“ óῶἔὸὑĩ)

Da nun die Stoiker sehr wohl das Einzelne (durch Eigennamen Bezeichnetes) und
das Allgemeine (durch allgemeine Substantive der Pluralformen Bezeichnetes)
unterschieden, wie ihre Beispiele zeigen, so hat man in dieser Unterscheidung die
Grundlage für ihre implizite, aber nicht ausgearbeitete extensionale Begriffsbe-
handlung zu sehen.
Ihre Begriffsquantifikation besteht demnach ausschließlich in der Beachtung
von „alle“ (Allgemeines) und „ein“ (Einzelnes). Dies stellt gegenüber der aristo-
telischen Quantifikation der Begriffe (die ja noch das „Einige“ dazwischen an-
ordnet) eine bemerkenswerte Vereinfachung dar, die auch für die meisten logi-
schen Zwecke genügt.
Insbesondere aber vermieden die Stoiker damit das früher aufgezeigte Problem,
ob die „partikulären Urteile“ überhaupt als Urteile und nicht vielmehr als Defini-
tionen zu behandeln seien. Die moderne Logik hat in Verfolg dieser Betrachtungs-
weise die Quantifikationen „ein“ und „einige“ zur Spezialquantifikation „min-
destens ein...“ zusammengezogen.
Darüber hinaus gibt es gute Gründe zu vermuten, daß diese Art der stoischen
Quantifikation späterhin dazu führte, ihre Begriffsquantifikation direkt durch
genaue Zahlenwerte gleichsam aufzufüllen und dadurch die „Einzelheiten“ durch
zahlenmäßige Meßbestimmungen zu quantifizieren. Die in der modernen mathe-
matischen Logik verwendeten „metrischen Begriffe“ (W. Stegmüller), die vor
allem in der Physik Anwendung gefunden haben, können nur auf diese stoische
Begriffslehre zurückgeführt werden, da die aristotelische Quantifikation jede
zahlenmäßige Bestimmung ausschließt.
Dieser reduzierten Quantifikation entsprechend, haben die Stoiker auch die
Negation in ihrer Bedeutung für die Bildung negativer Begriffe und damit die
logische Bedeutung negativer Begriffe selbst herausgearbeitet, was man bei Ari-
stoteles gänzlich vermißt. Aus ihrem Beispielssatz „Niemand geht umher“ kann
man entnehmen, daß sie eine „absprechende“ (apophatikon ἀó) Nega-
tion zur Bildung eines regulären (positiven) Subjektbegriffes benutzten. Ebenso
eine „beraubende“ (arnetikon ἀóNegation für die Bildung negativer Ad-
jektive zur Subjektsdetermination (z. B. „menschenunfreundliches Verhalten“).
287

Schließlich kannten sie eine mangelanzeigende (steretikon ó) Negation


für Ausdrücke vom Typ „ohne ...“.

B. Die stoische Urteilslehre unterscheidet sich deswegen wesentlich von der


aristotelischen. Rein äußerlich zeigt sich dies schon daran, daß sie die Urteile in
der Regel nicht formalisiert, sondern sie als inhaltliche konkrete Sachverhalts-
beschreibungen behandelt, deren Wahrheit oder Falschheit man entweder unmit-
telbar kennt oder voraussetzen kann. Die Art von „Rede“, die als Urteil von ihnen
in Betracht genommen wird, hat daher den Charakter eines Zitates, über dessen
Wahrheit oder Falschheit im logischen Kontext geurteilt wird. Alles, was im Zitat
gesagt wird, bildet daher eine Einheit einer Sachverhaltsbeschreibung, die nur
insgesamt wahr oder falsch sein kann.
Das erklärt zunächst die Tatsache, daß sie solche zu beurteilenden Sätze nicht in
wahre und falsche Teilsätze zerlegten und diese einzeln auf Wahrheit und/oder
Falschheit hin prüften. Dabei waren sie offensichtlich vor allem daran interessiert,
die Aussageformen und die darin vorkommenden Junktoren darauf hin zu unter-
suchen, wie man durch sie Wahrheiten ausdrückt, nicht aber daran, wie man durch
falsche Sätze etwa lügen und betrügen kann. Und das wiederum erklärt, warum
bei ihnen die falschen Urteile als Fehlformen wahrer, nicht aber als selbständige
logische Elemente behandelt wurden.
Ein weiterer Unterschied zur aristotelischen Urteilslehre liegt darin, daß die stoi-
schen Elementarsätze in der Regel mit flektierten Verben gebildete Handlungs-
und Sachverhaltsbeschreibungen darstellen („Sokrates sitzt“), wobei das gelegent-
lich vorkommende „ist“ im verbalen Sinne auch als Existenzjunktor („Es ist hell“
= „es gibt Licht“) fungiert.
Die echte Kopula im aristotelischen Sinne einer Subjekt-Prädikatverknüpfung
kommt nicht vor, ebenso wenig wie die partikularisierende Quantifikation. Dies
sind Anzeichen dafür, daß es in der stoischen Logik nicht um die Darstellung von
Allgemeinheits- und Besonderheitsverhältnissen innerhalb von Begriffsstrukturen
ging, wie in der aristotelischen Logik. Im übrigen haben die Stoiker die Funktion
der dann übrigbleibenden Junktoren bei der Urteilsbildung, und dies vor allem
anhand zusammengesetzter Sätze, viel genauer betrachtet als Aristoteles.
Dieses - von ihnen aber keineswegs deutlich gemacht - vorausgesetzt, haben sie
folgende Urteilsformen für wahre Ausdrucksformen gehalten und erst an ihnen
die Fehlformen falscher Sätze gemessen:
1. Ein Satz mit doppelter Negation (hyperapophatikon ὑó)
drückt dieselbe Wahrheit aus wie der Satz ohne jede Negation: „Nicht: es ist nicht
Tag“ = „Es ist Tag“. Daß die doppelte Negation auf die nichtnegierte (positive)
Behauptung eines Satzes zurückführe, ist seither ein logisches Dogma geworden.
Es gilt allerdings nur bei bestimmter Negation in streng dihäretischen Begriffs-
lagen.
2. Einen durch ein oder mehrere „und“ (sympeplegmenon έ
Adjunktion bzw. Konjunktion) aus Teilsätzen zusammengefügten Gesamtsatz
288

hielten sie für wahr, wenn jede durch die Teilsätze beschriebene Situation zusam-
men mit den übrigen erfahrbar war: z. B. „Sokrates sitzt und (Sokrates) liest und
(Sokrates) denkt“. Paßt nur ein Teilsatz nicht in den Erfahrungskontext der Aus-
sage, so macht dies den ganzen Satz falsch: z. B. „Sokrates sitzt und liest und
schläft“. Von dem nicht in den Erfahrungskontext passenden Glied sagten sie, daß
es mit den übrigen „unverträglich“ sei. Es wird nicht, wie beim aristotelischen
Widerspruch, durch Negation eines verträglichen Gliedes konstruiert. Zur Begrün-
dung findet man das Beispiel, man nenne auch ein Kleid, das nur einen einzigen
Riß aufweise, ein „zerrissenes Kleid“, selbst wenn es im übrigen ganz unversehrt
sei.
3. Der letztere Beispielssatz bleibt wahr, wenn in ihm das nicht zum Kontext
passende Glied durch ein ausschließendes „oder“ (diezeugmenon έ)
angehängt wird: z. B. „Sokrates liest oder schläft“ (Sokrates kann erfahrungsge-
mäß nicht zugleich lesen und schlafen!). Er bleibt ebenfalls wahr, wenn in diesem
Falle alle Teilsätze durch ein nicht ausschließendes „oder“ (paradiezeugmenon
έ) verknüpft werden, z. B. „Sokrates sitzt oder liest oder
schläft“. Die Wahrheitsbedingung ist in beiden Fällen, daß wenigstens ein Teilsatz
einen erfahrbaren und im Behauptungssinn gemeinten Sachverhalt ausdrückt.
Wenn das nicht der Fall ist, ist der ganze Satz falsch.
4. Die Implikation eines Nachfolgesatzes in einem vorhergehenden, der mittels
„wenn ... dann ...“ (zeugmenon έ) mit ihm verknüpft ist, hielten die
Stoiker für einen wahren Gesamtsatz außer in dem Falle, daß der erste Satz wahr
und der zweite falsch ist. Diese merkwürdige, auf den Megariker Philon zurück-
geführte und bisher niemals plausibel gemachte, vielmehr als logisches Dogma
überlieferte Festlegung der Implikation brachte Chrysipp auf die Formel: „Ein
implikativer Satz ist wahr, in welchem der Gegensatz des Nachsatzes mit dem
Vordersatz unverträglich ist“. Ein Standardbeispiel dafür ist: „Wenn es Tag ist, ist
es hell“ - denn Dunkelheit ist mit Tagsein nicht verträglich.
Als eine weitere falsche Implikation sahen sie die Selbstimplikation an, in der
die Aussage des ersten Teilsatzes im zweiten nur wiederholt wird, z. B. „Wenn es
Tag ist, ist es Tag“. Offensichtlich gab es darüber Meinungsverschiedenheiten
unter den Stoikern. Da die Selbstimplikation aber unter den „falschen“ Formen
nicht weiter erwähnt wird, kann man davon ausgehen, daß sie diese überhaupt
nicht für einen sinnvollen Satz hielten mit dem Argument, „daß nichts in sich
selbst enthalten sein könne“.
Als Vorschlag für eine Erklärung für diese Implikationslehre möchten wir zu-
nächst auf den bei den Stoikern zugrunde liegenden Universaldeterminismus hin-
weisen, wonach alle implikativen Sätze eine Beschreibung von Kausalzusammen-
hängen sein müssen. Dies setzt - analog zu den aristotelischen Mittelbegriffen in
den Syllogismen - auch für diese implikativen Aussagen einen „Situationszusam-
menhang“ voraus, wie auch aus den Beispielen ersichtlich wird. Die Implikation
drückt also ein Ursache-Wirkungsverhältnis („kausal“ im seither üblichen Sinne)
oder auch ein Wirkungs-Ursacheverhältnis (in der „teleologischen“ Sicht dieses
289

Verhältnisses) aus, in welchem von einer Kausalursache auf eine Wirkung oder
von einer Wirkung (teleologisch) auf ihre Ursache geschlossen werden kann. Sie
drückt auf keinen Fall wie die aristotelische Implikation ein Verhältnis von
Allgemeinem zum Besonderen (also die sogenannte materiale und formale Impli-
kation) aus, da ersichtlich das Allgemeine nicht Ursache oder Wirkung von Be-
sonderem sein kann.
Ebenso wenig kann dann eine Ursache Ursache von sich selbst sein. Das
schließt die Selbstimplikation aus. Weiß man nun, daß ein Teilsatz oder auch bei-
de Teilsätze falsch sind - welches Wissen die Stoiker mit Philon und Diodor von
Megara ausdrücklich voraussetzen - so weiß man, daß entweder die in dem
Teilsatz gemeinte Ursache oder Wirkung oder auch beides nicht existiert.
Daraus ergeben sich die seither kanonisierten drei wahren und die eine falsche
Implikation. Es gilt als 1. wahre Implikation, wenn von einer gegebenen Ursache
auf eine gegebene Wirkung oder (teleologisch) umgekehrt von einer gegebenen
Wirkung auf eine gegebene Ursache geschlossen wird. Es gilt 2. als wahre Impli-
kation, wenn von einer nicht gegebenen („falschen“) Ursache auf eine gegebene
Wirkung oder von einer nicht gegebenen Wirkung auf eine gegebene Ursache
geschlossen wird. Und 3. gilt es als wahre Implikation, wenn aus nicht gegebener
Ursache auf eine nicht gegebene Wirkung oder aus nicht gegebener Wirkung auf
eine nicht gegebene Ursache geschlossen wird (nach der Maxime: Aus Nichts
wird nichts, und Nichts entsteht aus Nichts!).
In letzterem Sinne ist offenbar das Beispiel zu deuten: „Wenn die Erde fliegt,
dann hat die Erde Flügel (was beides nach Voraussetzung falsch, d. h. nicht
gegeben ist und somit zu einem wahren Implikationssatz berechtigt). Die Impli-
kation gilt demnach 4. nur dann als falsch, wenn aus einer gegebenen Ursache auf
eine nichtgegebene Wirkung oder aus einer gegebenen Wirkung auf eine nicht
gegebene Ursache geschlossen wird.
Unter Voraussetzung des gegenläufig kausal-teleologischen Determinismus der
Stoiker und der Tatsache, daß ein Wissen um die Falschheit von Sätzen zugleich
ein selber wahres Wissen ist, wird man diese Festlegungen gerade noch plausibel
finden. Die moderne aussagenlogische Formalisierung dieser Implikationsformen,
die sich offensichtlich stark an dieser stoischen Implikationslehre orientiert hat,
macht den ontologisch-deterministischen Hintergrund irrelevant und läßt damit
die (Wittgensteinsche) tabellarische Wahrheitswertdefinition als bloße Willkür er-
scheinen, die nur als Dogma fortgeschrieben wurde.
Es fällt auf, daß in der stoischen Urteilslehre nicht vom Widerspruch die Rede
ist, auch nicht bei Gelegenheit der „falschen“ Adjunktion. Dies läßt vermuten, daß
die Stoiker von der aristotelischen Widerspruchslehre nichts hielten, und daß sie
schon gar nicht die Meinung teilten, der Urteilswiderspruch könne ein (analy-
tisches) Kriterium für Falschheit eines Urteils sein. Da sie sich allerdings intensiv
- und aus megarischer Tradition - mit der Antinomie bzw. dem Paradox des
„Lügners“ (der von sich selbst sagt, daß er lügt, wenn er etwas sagt) befaßt haben,
mußten sie auch dazu einen Lösungsvorschlag vorlegen.
290

Daß es sich bei einer Paradoxie um einen wahren Satz handeln könnte, schlossen
sie von vornherein aus. Ebenso, daß eine Paradoxie in der Form einer Antinomie
einfach falsch sei (was man heute noch meistens glaubt). Daß sie zugleich wahr
und falsch sei (was Aristoteles wenigstens diskutiert hatte), konnten sie nach ihren
Voraussetzungen nicht zugestehen. Also blieb nur übrig, die Antinomie für weder
wahr noch für falsch zu halten. Und das scheint aus einem Papyrusfragment Chry-
sipps auch hervorzugehen.

C. Die stoische Schlußlehre unterscheidet sich ebenfalls in bemerkenswerter


Weise von der aristotelischen Syllogistik. Äußere Kennzeichen dafür sind, daß sie
die oben genannten Urteilsformen in ihren „wahren Formen“ als Prämissen zuläßt,
daß darüber hinaus jedoch in ihren Teilsätzen insgesamt nur zwei Begriffe zuge-
lassen werden. Mit der aristotelischen Schlußlehre hat sie die Gemeinsamkeit, daß
sie eine formale Schlußlehre ist, in deren Schlußfiguren wahre inhaltliche Urteile
derart eingesetzt werden können, daß auf Grund des Schematismus wiederum ein
wahres Urteil „erschlossen“ werden kann.
Erschließen bedeutet dabei zweierlei. Nämlich einerseits eine kausale Erklärung
offensichtlicher und bekannter Tatsachen, andererseits eine prognostische bzw.
heuristische Beweisführung für die Existenz verborgener (nicht sinnlich wahr-
nehmbarer) Ursachen oder Wirkungen.
Ein stoisches Beispiel für ersteres ist der Satz: „Wenn es Tag ist, ist es hell
(wörtlich: gibt es Licht). Nun ist es aber Tag, deswegen ist es hell“. Ein Beispiel
für letzteres ist der „Beweis“ für die Existenz von Poren in der Haut, die man
wegen ihrer Kleinheit nicht wahrnimmt: „Wenn Schweiß auf der Haut ausbricht,
so gibt es Poren. Nun bricht aber Schweiß aus der Haut aus. Also gibt es Poren“.
Die üblich gewordene Übersetzung formuliert die Prämisse als behauptende
Implikation. Wäre das so, dann wäre der Folgesatz jedoch eine Wiederholung
dieser Implikation, was zumindest seltsam klingt und auch als logische Form nicht
zugelassen wurde. Deshalb sollte die Prämisse in den stoischen Schlüssen als
konjunktivischer Vermutungssatz, d. h. als Hypothese, übersetzt und gelesen
werden. Umschreibend könnte man die Prämisse (Lemma) dann auch formulieren
mit „Gesetzt den Fall... (mit anschließender konjunktivischer Vermutung)“ oder
„Falls … wäre, so wäre …“.
In den sogenannten „Fünf Unbeweisbaren“ (nämlich Schlußfiguren) des Chry-
sipp hat die stoische Schlußlehre ihre klassische Gestalt gefunden. Die Bezeich-
nung „Unbeweisbare“ mag von den Stoikern in Analogie zur aristotelischen
„Axiomatik“ der unbeweisbaren logischen Grundsätze gewählt worden sein. In
der Tat kann sie sich nur auf die Nichtbegründbarkeit (also den hypothetischen
Charakter) ihrer Voraussetzung des kausal-teleologischen Determinismus bezie-
hen, der seinerseits ihre Schlußlehre begründet.
Die stoischen Schlußformen haben folgende Gestalt:
291

Schema der stoischen Schlußformen

a. Lemma (ῆ) =hypothetische Urteilsform eines zusammengesetzten Satzes,


wörtl. „Ertrag“ der Urteilslehre als 1. Prämisse im Schlußschema
b. Proslepsis (óηAnnahme) = empirische Konstatierung eines Sachverhalts
als Ursache oder Wirkung einer empirisch gegebenen oder gesuchten zugehörigen
Wirkung, oder Ursache als 2. Prämisse im Schlußschema
c. Epiphora (ἐάErgebnis) = Schlußsatz i. e. S. über eine empirisch gegebe-
ne oder gesuchte Ursache oder Wirkung

Wir vermuten, wie gesagt, daß die formale Bezeichnung „Erstes“ bzw. „Zweites“
für den ersten und zweiten Teilsatz des Lemmas in den implikativen Figuren (1
und 2) auf den kausalen Zusammenhang von Ursache und Wirkung oder auf den
teleologischen Zusammenhang von Wirkung und Ursache zu beziehen ist. In den
übrigen (verneint adjunktiv 3, und alternativen 4 und 5) Figuren aber beziehen
sich „Erstes“ und „Zweites“ auf die zeitliche Abfolge derselben, so daß hier das
„Erste“ die Existenz oder Nichtexistenz einer Ursache oder einer Wirkung zu
einem gegebenen „Jetzt“-Zeitpunkt, das „Zweite“ die Existenz oder Nichtexistenz
einer Wirkung oder einer Ursache zu eben demselben Zeitpunkt bezeichnet bzw.
anzeigt. Bei den hier gegebenen Beispielen und in der Erklärung ist nur die
„kausale“ Perspektive beachtet Der Leser kann sich leicht überzeugen, daß auch
„teleologische“ Beispiele und Erklärungen einsetzbar sind.

Die 5 „Unbeweisbaren“ Schlußfiguren nach Chrysipp lauten:


Formale Schlußfiguren Beispiele Erklärung
1. Falls das Erste, dann das Zweite Falls es Tag wäre, gäbe es Licht Falls Ursache, dann
(Lemma: Implikation) gäbe es eine Wirkung
Nun das Erste (Proslepsis) Nun ist es Tag Nun gibt es die Ursache
Also das Zweite (Epiphora) Also gibt es Licht Also gibt es die Wirkung

2. Falls das Erste, dann das Zweite Falls es Tag wäre, gäbe es Licht Falls Ursache, dann gäbe
(Lemma: Implikation) es eine Wirkung
Nun nicht das Zweite Nun gibt es kein Licht Nun gibt es keine Wirkung
Also nicht das Erste Also ist es nicht Tag Also keine Ursache

3. Nicht: das Erste und das Zweite Nicht: Tag und Nacht zugleich Nicht: Ursache und
(Lemma: negierte Adjunktion) Wirkung zugleich
Nun das Erste Nun ist es Tag Nun existiert Ursache
Also nicht das Zweite Also nicht Nacht Also (noch) nicht Wirkung

4. Entweder das Erste oder das Zweite Entweder wäre es Tag Entweder die Ursache oder
(Lemma: vollständige Disjunktion) oder es wäre Nacht die Wirkung wäre präsent
Nun das Erste Nun ist es Tag Nun (jetzt) Ursache
Also nicht das Zweite Also nicht Nacht Also (noch) nicht Wirkung

5. Entweder das Erste oder das Zweite Entweder wäre es Tag Entweder die Ursache oder
(Lemma: vollständige Disjunktion) oder es wäre Nacht die Wirkung wäre präsent
Nun nicht das Zweite Nun ist es nicht Nacht Nun nicht Wirkung
Also das Erste Also ist es Tag Also (jetzt) Ursache

Man kann davon ausgehen, daß diese stoischen Schlußfiguren auch die Haupt-
schemata der empirischen Forschung der Stoiker in allen Wissenschaften ge-
292

worden sind. Und dies in solchem Maße, daß die moderne Logik und Wissen-
schaftstheorie unmittelbar daran anknüpfen konnte, nachdem sie sie (durch Luka-
siewicz in den dreißiger Jahren des 20. Jahrhunderts) geradezu wieder entdeckt
hatte.
Es ist dabei nur zu beachten, daß die neuzeitliche Wissenschaftstheorie es für
den entscheidenden Fortschritt gehalten hatte, die teleologische Erklärungsweise
(von der Wirkung auf Ursachen zu schließen) ein für allemal aus der seriösen
Wissenschaft ausgeschieden zu haben. In der Scholastik waren beide Erklä-
rungsweisen noch allgemein verbreitet. Den Kausalschluß von der Ursache auf die
Wirkung nannte man damals „a priori ad posteriorem“ (vom Vorausgehenden
zum Folgenden), den umgekehrten von der Wirkung auf die Ursache „a posteriori
ad priorem“ (von der Folge auf das Vorausgehende).
Daß freilich die Ausscheidung des teleologischen Schließens aus den Wissen-
schaften konsequent durchgeführt und jemals gelungen sei, dürfte zu den Mythen
neuzeitlichen Wissenschaftsselbstverständnisses gehören. Die selbstverständliche
Voraussetzung eines eindimensionalen Zeitpfeiles (von der Vergangenheit in die
Zukunft), der zweite Hauptsatz der Thermodynamik (Machsches Gesetz der
Entropiezunahme in abgeschlossenen Systemen), die kosmologische Spekulation
über den Anfangszustand des Weltalls, schließlich das Evolutionsdenken in allen
möglichen Wissenschaftsbereichen und erst recht das „wirkungsgeschichtliche“
Rückschließen von späteren Wirkungen auf vorausliegende Ursachen in allen
historischen Geisteswissenschaften bezeugen allzu deutlich die faktische Anwen-
dung teleologischer Denk- und Schlußweisen auch in der modernen Wissenschaft.
Nehmen wir die moderne Einschränkung der stoischen Erklärungsschemata auf
die kausale Perspektive als gegeben hin, so erkennen wir in der 1. Unbeweisbaren
(in der o. a. Darstellung) den klassischen Modus ponens und zugleich das von
Hempel und Oppenheim aufgestellte „hypothetisch-deduktive“ Erklärungsschema
der empirischen Forschung (daher „HO-Schema“ bzw. „HD-Schema“ genannt)
wieder. In die Stelle des Lemmas wird ein gesetzlicher Ursache-Wirkungszu-
sammenhang eingesetzt, der allgemein von sogenannte „Antezedenzbedingungen“
(Ursachenkomplexe) auf „Konsequenzen“ (Wirkungen) zu schließen erlaubt.
„Hypothetisch“ wird dieser Gesetzeszusammenhang aus purer Vorsicht und mit
Rücksicht auf die angeblich „unvollständige Induktion“ des hier zum Gesetz
erhobenen Allgemeinen genannt. Eigentlich wäre er nach dem hier vorge-
schlagenen stoischen Verständnis (als vermuteter Kausalzusammenhang) im Kon-
junktiv zu formulieren: „Falls die Antezedensbedingungen vorlägen, so würde
sich die Konsequenz ergeben, daß ...“.
„Deduktiv“ versteht sich gemäß noch immer kantischem Hintergrunddenken so,
daß der Schluß von „apriorischen Bedingungen der Möglichkeit“ auf die faktische
aposteriorische Wirklichkeit deduktiv sei. Logisch gesehen handelt es sich aller-
dings nicht um eine Deduktion vom Allgemeinen aufs Besondere, sondern vom
Besonderen auf anderes Besonderes (wie im stoischen Beispiel von Tag und
Nacht). Als Proslepsis wird im HD-Schema die empirische Konstatierung des
293

Vorliegens der Antezendensbedingungen eingesetzt, als Epiphora folgt die Pro-


gnose des erwarteten und insofern abzuwartenden Eintretens der Konsequenz.
Tritt diese prognostizierte Konsequenz ein, so hat sich die HD-Prognose und das
sie tragende Gesetz bestätigt. Die eingetretene Konsequenz gilt als „Verifikation“
des allgemeinen Gesetzes.
Tritt die prognostizierte Konsequenz nicht ein, so handelt es sich um den Fall
der 2. Unbeweisbaren. Sie stellt den logischen „Modus tollens“ dar und zugleich
das von R. Popper formulierte Falsifikationsschema der empirischen Forschung.
Als Lemma wird wiederum eine mittels einer „kühnen Idee“ vermutete Gesetz-
lichkeit mit prognostischer Relevanz eingesetzt. Die Proslepsis gibt auch hier
empirische „Anfangsbedingungen“ vor, und die Epiphora prognostiziert wiede-
rum eine gesetzliche Wirkung. Tritt diese nicht ein, wie die 2. Unbeweisbare es
ausdrückt, so hebt dies auch die Antezedenzbedingungen auf.
Bei Popper gilt allerdings das Nichteintreten einer prognostizierten Wirkung als
„Falsifikation“ des allgemeinen (hypothetischen) Gesetzes. Daß Poppers Falsifi-
kationstheorie nicht damit rechnet, daß es trotz Gültigkeit des Kausalgesetzes am
Nichtvorliegen bestimmter Antezedenzbedingungen (Kausalgründe) liegen könn-
te, wenn die Prognose falsifiziert wird, macht ersichtlich eine Schwäche der pop-
perschen Theorie aus.
Die übrigen Unbeweisbaren 3 - 5 haben in der späteren Wissenschaftpraxis je-
denfalls für das Kausaldenken keine Rolle mehr gespielt. Wir vermuten aller-
dings, daß sie in der sogenannten scholastischen Methode bzw. der „Sic-et-non-
Methode“ (auch Quaestionenmethode genannt) zum Tragen gekommen sind.
Hierbei geht es um die Argumente zur Lösung vorgegebener Probleme bzw. um
die Gewinnung von Antworten auf Fragen (Quaestionen). Nennt man hierbei die
Argumente „Pro...“ (positive Lösungsargumente im Sinne der Fragestellung) „das
Erste“ und die Contra-Argumente „das Zweite“, so stellen sie die Schemata für
die Bewertung der Argumente dar und schließen es jedenfalls aus, daß sowohl die
Pro- wie auch die Contra-Argumente zugleich zur Problemlösung ins Spiel ge-
bracht werden.
Insgesamt wird man also die logische Arbeit der Stoiker sehr hoch veran-
schlagen müssen, jedenfalls scheint sie erheblich mehr bewirkt zu haben als nur
die Begründung einer rudimentären Aussagenlogik, für die man die Stoiker auch
in der neueren Logik noch schätzt.

2. Das Wissenschaftskonzept der Stoa. Ist von stoischer Wissenschaft die Rede, so
denkt man meist an die „Naturwissenschaft“, da die ältere Stoa sich dieser neben
der Logik fast ausschließlich widmete. Diese reicht in der Tat vom ewigen Kreis-
lauf der Gestirne (Astronomie) bis herab zu den im leeren Raum sich bewegenden
Atomen, die sich zu sichtbaren Körpern (und chemischen Stoffen) sowie zu
Lebewesen zusammenfügen. Aber der stoische Naturbegriff ist dabei derjenige,
der auch heute noch in zahlreichen Wendungen über die „Natur der Sache“ als
dem Wesen der Dinge vorkommt. Und er schließt deshalb neben der Natur (im
294

heutigen Verständnis) auch den Kulturbereich ein, soweit dessen Thematik nicht
zum Gegenstand der Praktischen Philosophie gehört. Diese Kulturwissenschaft
wurde vor allem in der mittleren Stoa durch Panaitios von Rhodos und Poseido-
nios bearbeitet. Natur und Kultur zusammen bilden den Kosmos, das „ge-
schmückte“ und unter ewigen Gesetzen stehende Weltganze.
Das stoische Wissenschaftskonzept enthält drei metaphysisch zu nennende Vor-
aussetzungen.
1. die demokriteische Voraussetzung, daß der gesamte Kosmos aus leerem
Raum und darin bewegten materiellen Atomen bestehe. Selbst das, was bei Ihnen
als „Götter“ bezeichnet wird, gehört zu diesem Kosmos und besteht nur aus der
feinsten luftartigen - pneumatischen - Atomart.
2. die universaldeterministische Voraussetzung, daß alle Bewegungen und Ver-
änderungen im Kosmos strengen und ausnahmslosen Gesetzen unterliege. Diese
Gesetze nannten sie für die Natur im engeren Sinne „Naturgesetz“ (Lex naturalis),
im weiteren - die Kultur und den Menschen einschließenden - Sinne aber
„Naturrecht“ (Ius naturae).
3. die „phänomenologische“ Voraussetzung, daß die sinnliche Erkenntnis sich
auf Makroerscheinungen der kosmischen Gegebenheiten beschränke, da deren
atomare Mikrobedingungen nicht wahrgenommen werden könnten.
Daraus ergeben sich ihre Forschungsansätze.
Aus 1 folgt, daß alle Erklärungen mit äußerster Sparsamkeit der Prinzipien letzt-
lich nur auf bewegte Atome im leeren Raume zurückgreifen dürfen. Aus 2 folgt,
daß jede Erklärung eine Kausalerklärung sein muß, und zwar entweder in der
Form der Angabe von erschlossenenen Ursachen für manifeste Wirkungen (Kau-
salerklärung im engeren Sinne) oder der Angabe von erschlossenen Wirkungen zu
manifesten Ursachen (teleologische Erklärung, insbesondere Prognosen), wozu
die ersten zwei „Unbeweisbaren“ als methodische Schlußformen dienen. Aus 3
folgt, daß die Erklärungen, soweit sie die Bewegung von Atomen im leeren Raum
implizieren, nach demokritischem Vorbild mit anschaulichen Modellen bzw. mit
Metaphern aus dem sinnlichen Anschauungsbereich arbeiten müssen, da ja die
Atome selbst und das Leere als nicht sinnlich beobachtbar gelten. Der dominie-
rende Ausdruck dieser Modellerklärungen ist der bekannte stoische Rückgriff auf
das Mikro-Makrokosmos-Verhältnis.
Es liegt auf der Hand, daß die Himmelsphänomene unter solchen Vorausset-
zungen die Ausgangsbasis aller deterministisch-gesetzlichen Einsichten und Er-
kenntnisse abgeben mußten. In der Astronomie konnten schon damals mit großer
Sicherheit der jeweils aktuelle Stand der Himmelskörper beobachtet und von ihm
aus künftige Konstellationen prognostiziert und zurückliegende Konstellationen
„retrodiziert“ werden.
Aus den beschränkten Zyklen der Konstellationen von Sonne, Mond, Planeten
und der Fixsterne in den Rhythmen des Tages, der Monate und Jahre schlossen
die Stoiker alsbald auf den Zyklus einer kosmischen Gesamtkonstellation, der
berühmten „Apokatastasis panton“ (ἈάάWiederherstellung
295

aller Dinge), den sie den Aion (ἰῶWeltenjahr) nannten und auf ca. 20 000
Sonnenjahre berechneten. Er sollte in einer vollkommenen Verbrennung aller an-
deren Atome durch das Pneuma, den „Weltenbrand“ Ekpyrosisἐύ
daher später auch „Holokaust“) beginnen und enden. Zwischen diesen Punkten
sollte sich dann immer erneut eine Neubildung und Differenzierung der gröberen
Atome zu den Elementen der Luft, des Wassers und der Erde und dieser wiede-
rum zu Atomgruppierungen aller Gestalten der toten und lebendigen Natur und
der menschlichen Kultur nach ebenso ehernen Gesetzen wie sie die Himmels-
phänomene zeigten, abspielen. Die dominierende Rolle des Feuers als Urelement
und zugleich als pneumatisch-geistiger Urstoff im Kosmos (als „logoi sperma-
tikoi“ óí) verrät ihre Anknüpfung an die Lehre des Heraklit.
Die phänomenologische Erfahrung der Himmelsmechanik wurde in der mittle-
ren Stoa zum makroskopischen Modell der Erklärung der Kulturzyklen der
Menschheit. Auch in diesem Bereich setzten die Stoiker eine gesetzlich-zyklische
Entwicklung von den primitiven Anfängen nomadischer, ackerbauender, dann
städtischer Zivilisation und ihres Niederganges voraus und suchten diagnostisch
den aktuellen Stand ihrer eigenen Gegenwart in diesem Zyklus zu bestimmen. Da
sie die Kulturzyklen als Unterzyklen der astronomischen Zyklen und als von
diesen kausal bestimmt ansahen, ergab sich ihnen ein weiter Bereich für die
Verwendung der Himmelszeichen zur Deutung und Prognose irdischer Vorgänge.
Es ist das, was man seither als „Astrologie“ und „Horoskopie“ kennt. Damit
lieferten sie die (pseudo-) „wissenschaftliche“ Grundlage für das Auguren- und
Divinationswesen, das im römischen Reich institutionalisiert war.
Nicht zuletzt war es dann eine Anwendung dieses Erklärungsmusters, wenn die
Himmelszeichen auch auf die Zyklen des einzelnen Menschenlebens von der
Zeugung und Geburt bis zum Tode bezogen wurden. Auch im einzelnen
Menschenleben sollte alles streng determiniert und durch das Schicksal - Ananke
bzw. Fatum - festgelegt und vorausbestimmt sein. Darauf gründete sich der seither
nicht nur im Abendland nicht mehr abgerissene Brauch der Horoskope und
Nativitäten, in denen dem Einzelnen sein persönliches Schicksal gedeutet, seine
Vergangenheit erklärt und seine Zukunft prognostiziert wird. Von alledem gilt der
bekannte Spruch Senecas: Volentem fata ducunt, nolentem trahunt (Den Willigen
geleitet das Schicksal, den Widerspenstigen zwingt es).
Gewiß wird man diese auch heute noch populäre Schicksalsberechnung in den
Bereich von Pseudowissenschaft verweisen. Nicht zu verkennen ist aber, daß sie
die Grundlage für die noch fortbestehende Überzeugung und Erwartung geblieben
ist, es gäbe so etwas wie die „Natur“ des einzelnen Menschen, aus deren Diagnose
man sein biographisches Schicksal prognostizieren könne. Die frühkindliche Be-
gabungsdiagnostik, vielerlei psychologische Testverfahren und die kriminalisti-
sche Veranlagungsdiagnostik, neuerdings die mechanistisch-physiologische Hirn-
forschung, setzen nicht nur diese unveränderliche Natur des Menschen voraus,
sondern stellen durch sanktionierende Maßnahmen meist auch die notwendigen
Folgen im Lebensgang der entsprechenden Personen selbst her.
296

Damit gipfelt die stoische „Naturphilosophie“ in einem eigentümlichen Men-


schenbild. Der Mensch steht hier „in der Mitte der ganzen Natur“, weil er von
allen körperlichen Gebilden das am meisten durch Vernunft bzw. Geistespneuma
durchweste Gebilde ist. Alles andere ist vom Schicksal teleologisch auf ihn und
die Dienlichkeit für sein Dasein ausgerichtet. Wie auch schon bei Platon und
Aristoteles enthält er „mikrokosmisch“ anteilige Bestandsstücke des Makrokos-
mos. Die gröberen Atome der sogenannten toten Natur, die feineren der Pflan-
zenausstattung mit ihren teologischen Trieben und Leidenschaften, die noch feine-
ren der animalischen Instinkt- und Sinnesanlagen, und - wie gesagt am meisten -
die pneumatisch-geistige Vernunftausstattung.
Auf letztere kommt bei den Stoikern alles an. Sie macht den Menschen wesent-
lich zu einem vernünftigen Gattungswesen, obwohl jeder einzelne Mensch durch
das Mischungsverhältnis seiner Atombestandteile unverwechselbar einzig und von
jedem anderen unterscheidbar ist. Der normale und gesunde Mensch ist dement-
sprechend der Vernunftmensch, der seine vegetativen und animalischen Wesens-
bestandteile - seine Triebe und Leidenschaften - unter vernünftiger Kontrolle hält
und ihr Wirken in vernünftige Bahnen lenkt. Krankheiten und Anormalitäten er-
klären sich daher aus dem Verlust der Vernunftkontrolle (gewissermaßen aus dem
Mangel an genügend Vernunftatomen in der Zusammensetzung des Einzelnen).
Die Folgen und Heilmittel dieser Störungen und Anomalien stellen das Problem-
feld für die stoische praktische Philosophie dar, die daher wesentlich therapeu-
tische Züge aufweist.

3. Die praktische Philosophie der Stoa. Sie beruht auf den Grundlagen der
logisch-methodisch erreichten Naturerkenntnis. Wäre diese vollendet, so ließe
sich darauf auch eine abschließende Naturgesetzgebung für alles Handeln grün-
den. Da das Wissen aber - wie sie im Gefolge Demokrits in Rechnung stellten -
nicht abgeschlossen noch abschließbar ist, muß auch das Nichtwissen auf diesem
Gebiete besonderer Beachtung wert erscheinen.
Dies zeigt sich in der stoischen Behandlung des Themas „Freiheit“ - des provo-
zierenden Hauptthemas der Epikureer. Indeterminierte Naturphänomene können
den Stoikern nur als Scheinphänomene undurchschauter Determinismen gelten.
Und entsprechend muß sich menschliche Freiheit des Willens und der Wahlmög-
lichkeiten als Komplement der Unwissenheit erweisen.
Wenn einige Stoiker und ihre neueren Gefolgsleute die Freiheit als „Einsicht in
die Notwendigkeit“ definieren, so kommt dies logisch der These gleich, daß es
eigentliche Freiheit nicht gibt. Es läßt Spielraum für eine Redeweise, die die
„Nichteinsicht in die Notwendigkeit“ als determinierenden Grund für so etwas
wie Freiheitsgefühl oder für die Selbsttäuschung über die Abhängigkeit des Han-
delnden von den natürlichen Determinismen in Anspruch nimmt.
Da nun die Natur und die Welt ingesamt von der Vernunft gestaltet und
beherrscht wird, so ist es für die Stoiker ein reiner Pleonasmus festzustellen, daß
auch der Sinn aller menschlichen Lebensgestaltung und Lebensführung darauf
297

hinausläuft, „in Angleichung an die Natur zu leben“ (homologoumenos te physei


zen ὁῦὴύῆnach Zenon, und das heißt: ein „logisches
Leben“ (íó, nach Chrysipp) zu führen. Und nur dies ist wiederum ein
solches, das ein „gutes Leben“ genannt werden kann. Gelingt dies, so führt es als
Mitgift (Epigenema ἐέ) Lust und Zufriedenheit mit sich, und man wird es
mit einem etwas altmodischen Ausdruck auch ein „lustiges Leben“ nennen
können.
Im Einklang mit der Natur zu leben, heißt dann zunächst einmal, in ihr „seinen
Platz“ bzw. seine „Heimat“ zu finden (Oikeiosis ἰí, offensichtlich eine
Verallgemeinerung des aristotelischen Begriffs oikeios topos ἰĩó, des
„Heimplatzes“, zu dem jedes Element seiner Natur nach strebt). Oikeiosis ist es
also, wenn einer sich in seiner eigenen Haut wohlfühlt und darüber hinaus seiner
Stellung in der Welt, nämlich in seiner Familie, in seinen Freundschaften, in der
Gesellschaft und insgesamt in der Menschheit, voll bewußt und damit in Ein-
stimmung ist. Wer so seinen Platz in der Welt gefunden hat, bei dem stellt sich
dann auch eine vernünftige Bereitschaft oder Disposition (diathesis ά) zu
einem vernünftigen Verhältnis zu allem, was einem in der Welt begegnen oder
passieren kann, ein. Und das ist es, was die Stoiker Tugend (arete ἀή, latei-
nisch: recta ratio, nach Cicero) nennen.
Da es sich bei der Tugend um die habituelle vernünftige Einstellung handelt, so
kann es auch nur eine Tugend geben, die sich allenfalls nach vier Richtungen
äußert. Hierin schließen sich die Stoiker an Platons vier Kardinaltugenden an.
Die erste Ausrichtung der Tugend ist die Phronesis (óvernünftige
Überlegung oder Kants „praktische Vernunft“). Was sie leistet, das erklären die
Stoiker zu einer eigenen Disziplin der praktischen Philosophie, nämlich zur „Wis-
senschaft von den Gütern, den Übeln und von dem, was keines von beiden ist“
(Episteme agathon kai kakon kai oudeteron ἐήἀῶì ῶì
ὐέ).
Die zweite Ausrichtung ist die Tapferkeit bzw. der Mut (Andreia ἀĩ), die
sich zur „Wissenschaft vom Schrecklichen und dem Nichtschrecklichen und von
dem, was keines von beiden ist“ (Episteme deinon kai ou deinon kai oudeteron
ἐήῶìὖῶìὐέ) entfalten läßt.
Die dritte Ausrichtung der Tugend ist die Besonnenheit bzw. die Selbstbeherr-
schung (Autokratie ὐí). Was zu ihr gehört wird in einer „Wissenschaft
vom Annehmlichen, dem zu Vermeidenden und dem, was keines von beiden ist“
(Episteme haireton kai pheukton kai oudeteron ἐήἱῶ
ῶìὐέ) ausgeführt.
Die vierte Ausprägung ist schließlich die Gerechtigkeit (Diakaiosyne 
ύ die die Grundlage für die ganze Rechtswissenschaft abgibt als eine
„Wissenschaft von dem, was einem jeden (an Bewertung) zukommt“ (Episteme
aponemetike tes axias hekasto ἐήἀὴῆἀíἕlatei-
nisch: scientia suum cuique tribuens).
298

Es war nicht zu erwarten, daß diese Disziplinen von den Stoikern selbst zu syste-
matischen praktischen Wissenschaften ausgebaut werden konnten. Gleichwohl
schufen sie durch ihre kasuistischen Überlegungen in jedem der Gebiete die
Grundlagen für alle späteren Wert- und Güterlehren.
Indem sie auf allen Gebieten zwischen positiven und negativen Werten und
Gütern unterschieden und diese ihrerseits vom „Gleichgültigen“ (Adiaphoron
ἀά) abgrenzten, haben sie Maßstäbe für Handlungsziele formuliert, die
dem Abendland nie wieder verloren gingen. Man hat sich nur davor zu hüten,
diese stoischen Handlungsziele als Normen einzuschätzen, die ihrerseits einer hö-
heren Begründung bedürften. Sie sind durchweg auf Grund praktischen Forschens
und Wissens gewonnene standardisierte Handlungsmöglichkeiten.
Was sie als Pflichten, „officia“ (Katorthoma ó) und als „Geziemen-
des“ (Kathekon ή) gegen sich selbst, gegenüber den Mitmenschen und ge-
genüber den Göttern (damit sind vor allem die „Deina“, was wir oben mit dem
„Schrecklichen“ übersetzt haben, gemeint, dem man „Ehrfurcht“ entgegenzu-
bringen hat) beschreiben, das sind keine „moralischen“ Anforderungen, und ihr
Gegenteil ist nicht „Sünde“, sondern sie sind die der je eigenen Natur und dem
erlangten Stand in der Welt entsprechenden vernünftigen Verhaltensweisen, die
nach allen Erfahrungen ein gutes einzelnes und gemeinschaftliches Leben als
Wirkungen erzielen.
Was sie dagegen als „Laster“ beschreiben, sind Leiden(schaften) (Pathe ά)
bzw. „Krankheiten der Seele“, nach Chrysipp sogar Fehlurteile bzw. Irrtümer, de-
nen man therapeutisch begegnen muß. Wenn heute noch einige derselben als
Straftaten aufgezählt und definiert werden, wenn vom Straftäter „Geständnis“ und
„Einsicht“ in seine Verfehlung gefordert wird, und erst recht wenn ihre Sanktion
in „Rehabilitierungs-“ und Therapiemaßnahmen bestehen soll, so ist das noch im-
mer eine Erbschaft der stoischen Lehre.
Wie man weiß, hat die praktische Philosophie der Stoiker über das römische
Recht den nachhaltigsten Einfluß auf die Ausgestaltung der abendländischen und
westlichen Rechtssysteme ausgeübt. Die verbreitete Überzeugung, daß jedes posi-
tive Rechtssystem und jede Gesetzgebung an einem „überpositiven“ Recht auszu-
richten habe, das aus der „Natur der Sachen“ zu erkennen und als „Naturrecht“
nur ein Teil der übergreifenden Naturgesetzlichkeit schlechthin sei, hat sich in
vielfältigen Krisen positiver Rechtsordnungen, in denen das „Summum Ius
Summa Iniuria“ (höchstes Recht höchstes Unrecht!) geworden ist, immer wieder
als Rettungsanker und Korrekturmaßstab zur Rückkehr zu humanen Rechtsregeln
bewährt.
Das stoische „Suum ius cuiuque tribuere“ – „Jedem das Seine!“ - ist zu einem
Gemeinspruch aller Gerechtigkeitserwägungen geworden, trotz oder gerade we-
gen der Schwierigkeiten der Feststellung, was im Einzelfall „das Seinige“ sein
könnte. Es ist mit den aristotelischen Gerechtigkeitsbegriffen der „ausglei-
chenden“ (kommutativen) und der „zuteilenden“ (distributiven) Gerechtigkeit zur
einheitlichen Formel zusammengewachsen, im Recht „das Gleiche gleich und das
299

Ungleiche ungleich“ zu behandeln. Sie hat sich in der juristischen Konstitution


ganzer Rechtsgebiete bewährt. Strafrecht, Handels- und Vertragsrecht, Steuerrecht
und nicht zuletzt demokratisches Wahlrecht wurden auch noch in den neueren
Gesetzgebungen auf „kommutative“ Gerechtigkeit begründet, belastende Steuer-
und austeilende Wohlfahrts- und Sozialgesetzgebungen auf die „distributive“
Gerechtigkeit.
Auch aktuelle Gerechtigkeitsdebatten im politischen Raum „de lege ferenda“
sind noch von dieser stoischen Formel getragen und erweisen damit ihre Le-
benskraft. Was sich hier als „linke“ Gerechtigkeitidee zeigt, ist noch immer nichts
anderes als das Bestreben, alle Lebensverhältnisse durch „distributive“ - ungleiche
- Belastungen und „Umverteilungen“ gleichzumachen. Und umgekehrt ist die
„rechte“ Gerechtigkeit nichts anderes, als bestehende Ungleichheiten durch „kom-
mutative“ Gleichbehandlung ungleich zu lassen.
So kann es auch nicht verwundern, daß im Kompromiß dieser Gerechtigkeits-
aspirationen beides zugleich in Gesetze gegossen wird. Das Strafrecht wird durch
(bei verschiedener Einkommenshöhe ungleiche) Tagessätze bei Geldstrafen, das
Handels und Vertragsrecht durch gesetzliche Rahmenverträge, das Wahlrecht
durch Quotenregelungen distributiv ausgestaltet. Andererseits wird das Steuer-
recht durch Kopf- und Mehrwertsteuer, die Sozialgesetzgebung durch „Selbst-
beteiligung“ und „Selbstbedienung“ kommutativ gemacht.
Die sich in parlamentarischen Gesetzgebungen überall einstellende Überregu-
lierung aller Lebensverhältnisse ist ihrerseits ein bedauerliches Symptom dafür, in
welchem Maße die Kenntnis dieser stoischen Prinzipien zunehmend in Verfall
geraten ist. Allein schon die Erinnerung daran, daß die Stoiker zwischen dem
rechtlich zu Regelnden überall auch das „Gleichgültige“ (Adiaphoron) und damit
den rechtsfreien Raum anerkannt hatten, wäre auch für moderne Rechtsgestal-
tungen de lege ferenda schon hilfreich zur Eindämmung einer uferlosen Gesetz-
gebung und der zunehmenden Verrechtlichung aller Lebensverhältnisse.
Abgesehen vom stoischen Gerechtigkeitsprinzip gehen zahlreiche andere juri-
stische Denkformen und Institutionen auf die stoische Lehre zurück. Dazu gehört
etwa die Symmetrie von Anspruchsrechten und Pflichten und der „Naturschutz“
bzw. die „Naturerhaltung“ und die entsprechende strafrechtliche Sanktionierung
der Naturbeschädigung und alles sogenannten „Widernatürlichen“. Wenn auch die
Begriffe von „Pflichten“ und vom „Widernatürlichen“ heute in voller Auflösung
begriffen sind, so zeigt doch die Aszendenz ihrer Komplementbegriffe die fort-
dauernde Virulenz dieser stoischen Lehren.
Das gilt nicht minder vom stoischen Begriff der „Persönlichkeit“. Ihr Begriff
der „natürlichen Person“, der ja nur die stoische Gattungsdefinition vom Men-
schen als „vernünftigem Lebewesen“ ins Recht übernommen hat, ist mit Ver-
fassungsrang als „Würde der Person“ in fast alle modernen Rechtssysteme der
Welt eingegangen. Er ist darüber hinaus zum Verankerungsgrund aller sogenann-
ten Menschenrechte geworden.
300

Erstaunlicherweise - so muß man wohl sagen - hat ihr Personbegriff auch dahin
gewirkt, daß der Begriff der „juristischen Person“ bzw. der „Rechtspersönlich-
keit“ von Institutionen und überindividuellen Verbänden alle aufklärerische Kritik
an Geistern und Gespenstern in den Rechtssystemen schadlos überstanden hat.
Diese nichtpersönlichen „Persönlichkeiten“ konkretisieren sich dann auch in
den „Körperschaften“, die alles andere als Körper sind. Vom Staat bis herunter
zur Firma begeisten sie vielgestaltige institutionelle Körper, die mächtig wirken.
Gleichwohl sind es lebendige Menschen, die in ihnen und durch sie handeln und
wirken und ihre „Funktionen“ ausüben - oft auch hinter ihnen verstecken und sich
dadurch ihren persönlichen Pflichten und Verantwortlichkeiten entziehen können.
Vergessen wir auch nicht, in welch ungebrochener Tradition der stoische Uni-
versaldeterminismus heute noch im Rechtsdenken nachwirkt. Indeterminierte
Sachverhalte gibt es hier prinzipiell nicht. Jede gerichtliche Tatsachenfeststellung
und Beweiserhebung setzt die kausale Determiniertheit aller relevanten Fakten
unbefragt voraus, fingiert im Zweifel irgend einen „Verursacher“ und sanktioniert
dies als „richterliches Erkenntnis“.
Nur in Extremfällen - die man dann eher noch fachlicher Inkompetenz zu-
schreibt - enden die Kausalketten im „nicht mehr Feststellbaren“. Und da ja defi-
nitionsgemäß nur menschliches Handeln rechtsrelevant sein kann, müssen alle
festgestellten Kausalketten zunächst bei einer natürlichen Person enden. „Schuld“
- ein Begriff, der ja auch aus ganz anderen, vor allem theologisch inspirierten
Ethiken, Sinnbefrachtung erhält und dann gewöhnlich mit „Freiheit“ und Verant-
wortlichkeit in Verknüpfung gebracht wird - ist hier auf „Verursachung“ redu-
ziert.
Freilich zollt auch der moderne Jurist, wie der alte stoische, der Freiheit gerne
Lippenbekenntnisse, aber mit einem gewissen Bauchgrimmen. Denn er wird es
immer vorziehen, die Kausalitäten gleichsam durch den Täter hindurch auf einzel-
ne innere („Traumatisierung“, Krankheit, Veranlagung) oder äußere Faktoren (El-
ternhaus, Umgang, Umwelt, „die gesellschaftlichen Verhältnisse“) weiterzuver-
folgen und somit den Täter selbst nur als Glied in einer über ihn hinausreichenden
Kausalkette einzuordnen, worin ihn ein überbordendes „wissenschaftliches“ Gut-
achterwesen nur bestärken kann. Und so läßt sich der Kreis zum „therapeuti-
schen“ Behandlungs- und Maßnahmenwesen, von dem schon die Rede war, wie-
der schließen.
Die Beispiele mögen genügen, die Virulenz der stoischen praktischen Philoso-
phie, wie sie in Logik und Naturwissenschaft begründet ist, auch in modernen
Zeiten darzutun. Wir haben diese Rechtslehre besonders hervorgehoben, weil sie
gewissermaßen der Kanal war, durch den das stoische Denken insgesamt in der
abendländischen Geschichte bis in unsere Tage transportiert worden ist.
301

§ 22 Die Skepsis

Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische


Urteilsenthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Un-
terliegendes“. Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit.
Kritik der induktiven Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“
der Begründung. Kritik der Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen
Kausaltheorien und die platonisch-idealistische Interpretation der Kausalerklärung. Wahrschein-
lichkeitswissen als platonische Meinung und als Glaube.

Die Skepsis wurde nach ihrem Schulgründer Pyrr(h)on von Elis (ca. 360 – 270 v.
Chr.) auch Pyrrhonismus genannt. Gegenüber den Verfestigungen antiken Wis-
sens zu dogmatischen Weltbildern hat sie die Tugend des sokratischen Nicht-
wissens aufrechterhalten und durch ihre scharfe Kritik an den Dogmatiken diese
zu ständiger Überarbeitung und Weiterentwicklung gezwungen. Als „Zetetiker”
(Forscher), wie sie sich auch nannten, gaben die Skeptiker sich mit keiner an-
geblichen Einsicht und „Wahrheit“ der anderen Schulen zufrieden, sondern
hielten sich offen für weitere Hinterfragungen aller Sicherheiten. Sie haben abend-
ländischer Wissenschaft das Bewußtsein von der prinzipiellen Unabgeschlossen-
heit des Wissens, wie sie gerade in dem Begriff und der Rolle der Forschung zum
Ausdruck kommt, gleichsam wie einen bohrenden Stachel ins Fleisch gesetzt.
Ihre eigene Argumentation knüpft an Heraklits und der Sophisten These vom
Zusammenfall der Gegensätze (also auch von Wahrheit und Falschheit) und damit
der Behauptbarkeit beliebiger Thesen und Antithesen an.
Über die sokratische Aporetik, also die Lehrmethode, den Schüler erst einmal in
die „Ausweglosigkeit” bzw. zur Verzweiflung zu bringen, ehe man ihm mäeu-
tisch, d. h. geburtsbehilflich zur Anamnesis hinführt, war der skeptische Geist
auch in die platonische Akademie, besonders die sogenannte mittlere und neuere
Akademie unter Arkesilaos (ca. 315 – 241) und Karneades (ca. 214 – 129) ein-
geflossen.
Die Skeptiker der mittleren Akadmie trieben aber solche sokratische Aporetik
auf die Spitze. Daß sie dabei an Platon anknüpften, erkennt man an ihrer Neube-
wertung seiner Lehre von den Phänomenen und der Sinnesanschauung. Ersicht-
lich richteten sich ihre Argumente dabei auch gegen den später sogenannten
„Homo-mensura-Satz“ des Sophisten Protagoras (ca. 481 – 411 v. Chr.), mit dem
sich auch Platon in seinem ihm gewidmeten Dialog auseinandergesetzt hatte. In
Platons Worten lautet der Satz des Protagoras bekanntlich: „Der Mensch sei der
Maßstab aller Dinge, der Seienden, daß sie sind, der Nichtseienden, daß sie nicht
sind. ... Denn so wie ein jeder ein Ding wahrnimmt, gerade so scheint es auch für
jeden zu sein“.
Dazu sei eine Stelle aus den „Pyrrhonischen Grundzügen“ des Sextus Empiri-
cus angeführt, die offenbar von allen, die die Skeptiker zu Skeptizisten machen
wollten, übersehen worden ist. Dort heißt es nämlich:
302

„Wer aber sagt, daß die Skeptiker das Erscheinende aufheben, scheint mir unachtsam auf
das zu sein, was bei uns gesagt wird. Denn das in Folge eines Erscheinungsbildes Er-
leidbare, was uns willenlos zur Beistimmung führt, leugnen wir nicht ..., dies aber ist das
Erscheinende. Wenn wir aber bezweifeln, ob das Unterliegende so ist, wie es uns er-
scheint, so geben wir einerseits zu, daß es erscheint, bezweifeln aber nicht das Erschei-
nende, vielmehr das, was über das Erscheinende ausgesagt wird; dies ist aber etwas ande-
res als das Erscheinende selbst bezweifeln.“ 137

Platons „Phänomene“ bzw. das Erscheinende erkannten die Skeptiker also unum-
wunden als gegeben an, und sie waren das einzige, was sie überhaupt anerkann-
ten. Wohl aber bestritten sie, daß die Phänomene je nach dem Standpunkt und der
Einschätzung einzelner Individuen als „Sein“ oder als „Nichtsein“ beurteilt und
von einem „Unterliegenden“ (einer Ursache) her erklärt werden könnten.
Was die Skeptiker dabei entschieden bestreiten, sind alle Schulmeinungen über
die Gründe und Hintergründe der Erscheinungen, also auch die ganze platonische
Ideenlehre. Ihr Argument dafür lautet, daß sich für jede „dogmatische“ Schulthese
eine diese negierende andere dogmatische Schulthese finden lasse, die im Wider-
spruch zur Gegenthese stünde. Ob sie deswegen alle dogmatischen Thesen für
grundsätzlich falsch hielten, dürfte eine offene Frage sein. Es wird nach dem in
der Logik herrschenden Verständnis vom Satzwiderspruch gerne so ausgelegt.
Arkesilaos hat die „Urteilsenthaltung“ (Epoché ἐή) und die Beschränkung
auf die Kritik anderer Meinungen zur Methode entwickelt. Cicero drückt es so
aus: „Er habe als erster eingeführt, nicht darzulegen, was er selber meinte, sondern
gegen das zu disputieren, was ein anderer als seine Meinung äußerte.“ 138
Karneades hat, darin wohl auch dem Beispiel des Protagoras folgend, die
skeptische Methode mit großem Scharfsinn und allen rhetorischen Mitteln zum
„pro et contra dicere” ausgestaltet - was nachmals in der sogenannten „scholasti-
schen Methode” („Sic-et-Non“-Methode, auch Quaestionenmethode genannt)
Nachfolge erhielt.
Daß Karneades überdies eine besondere Wahrscheinlichkeitstheorie (Theorie
der émphasis ἔ oder pithanótes ó) entwickelte, spricht vielleicht
dafür, daß er die dogmatischen Widersprüche der Schulen nicht für gänzlich
falsch, sondern eben für „wahrscheinlich“ hielt. Dies in Übereinstimmung mit
Platons These, daß alle Phänomenerkenntnis nur Glaube und Meinung (pistis und
doxa) seien, in der Wahres und Falsches vermischt sei, so daß die Wahrschein-
lichkeit für das Handeln und Leben genüge
Zu den weiteren Skeptikern gehört Ainesidemos aus Knossos (Änesidem, 1. Jh.
v. Chr.), der in Alexandria wirkte, sowie der schon genannte Arzt Sextos Empi-
rikos (Sextus Empiricus. 1. u. 2. Jh. n. Chr.), der in seinen Schriften „Pyrrho-
nische Hypotyposen (bzw. Grundzüge)”, „Gegen die Dogmatiker” sowie „Gegen
die Mathematiker” (d. h. gegen die Vertreter mathematischer Wissenschaften, wie

137
Sextus Empiricus, Die pyrrhonischen Grundzüge, dt. Ausgabe von Eugen Pappenheim, Leipzig 1871, 1. Kap. 10, S. 28.
138
Cicero, De oratore 3,18, 67: „Primum instituisse non quid ipse sentiret ostendere, sed contra id quod quisque se sentire
dixisset, disputare”.
303

sie später im Quadrivium organisiert wurden, aber auch gegen andere „Lernge-
genstände” wie Grammatik und Rhetorik) – die beiden letzteren werden gewöhn-
lich zu einem Werk „Adversus mathematicos” zusammengefaßt – die Argumente
der Skepsis abschließend darstellt.
Die Pyrrhonischen Hypotyposen des Sextus Empiricus beginnen mit den „Tro-
pen” (tropoi ó, auch logoi ó oder topoi ó „Örter“). Die Tropen
laufen auf das Argument der Relativität sinnlicher Erkenntnis gemäß subjektiven
Bedingungen, etwa der Unterschiedlichkeit der Lebewesen, der unterschiedlichen
Organleistungen, Gemütslagen, Lebensverhältnissen, Nähe und Entfernung von
einem Gegenstand etc. hinaus.
Das wurde und wird gewöhnlich so verstanden, als ob damit die Zuverlässigkeit
von sinnlichen Daten und Fakten in Frage gestellt würde. Das ist jedoch nicht der
Fall. Vielmehr sind die Tropen selbst eine Sammlung von Argumenten des mitt-
leren Platonismus, die „Phänomene - in der gesamten Bandbreite ihres Sich-
zeigens - zu retten“. Was einmal in dieser Farbe, ein andermal in anderer Farbe,
einmal klein, ein andermal groß „erscheint“, das ist keine Erscheinung von etwas
„Unterliegendem“ hinter vermeintlichen Erscheinungsformen, sondern es handelt
sich bei alledem um jeweils andere Erscheinungen, hinter die nicht zurückgegan-
gen werden kann.
Kurzum, es geht dabei um die Grundlegung eines wohlverstandenen Phänome-
nalismus, der – anders als alle reduktionistischen Dogmatiken - den ganzen
Reichtum der sinnlichen Phänomene ernst nimmt. Man muß bis ins 18. Jahrhun-
dert und auf George Berkeley warten, bis daraus die angemessenen philosophi-
schen Folgerungen für einen modernen idealistischen Phänomenalismus gezogen
wurden.
Dies vorausgesetzt, bezweifeln die Skeptiker dann auch alle Sicherheiten der
Bedeutungsfixierung von Zeichen und und erst recht die darauf beruhende Be-
griffsbildung. Von Sextus Empiricus stammt das seither in der klassischen und
modernen Logik so weithin als stichhaltig angenommene Argument gegen die
Sicherheit der Induktion, auf das schon vorne in der Einleitung Bezug genommen
wurde. Es lautet wie folgt:

„Sehr abzulehnen aber, meine ich, ist auch die Weise in Betreff der Induktion. Da sie (scl.
die Aristoteliker) nämlich durch sie von den Einzeldingen aus das Allgemeine beglau-
bigen wollen, so werden sie dies tun, indem sie entweder doch an die Einzeldinge heran-
gehen, oder an einige. Aber wenn an einige, so wird die Induktion unsicher sein, da mög-
lich ist, daß dem Allgemeinen einige von den in der Induktion ausgelassenen Einzeldinge
entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen, da die
Einzeldinge unbegrenzt sind und unumschließbar. So daß auf diese Weise von beiden Sei-
ten, meine ich, sich ergibt, daß die Induktion schwankend wird.“ 139

Das Argument richtet sich gegen die platonischen Ideen und aristotelischen zwei-
ten Substanzen, die für etwas anderes als die hier „Einzeldinge“ genannten Phäno-
139
Sextus Empiricus, Pyrrhonische Grundzüge, 2. Buch, Kap. 15, S. 142.
304

mene gehalten werden. Daß sich in „einigen“ Einzeldingen bzw. Phänomenen


gemeinsame Züge (nämlich Merkmale) zeigen, wird keineswegs bestritten. Und
daß man nicht „alle“ Einzeldinge wahrnehmen kann, dürfte unbestreitbar sein.
Speziell richtet sich das Argument aber gegen die aristotelische Weise der In-
duktion (eisagogé ἰή) der Art- und Gattungsbegriffe. Wir haben dies
skeptische Argument gegen die Induktion als Begriffsbildungsmethode schon
vorn in der Einleitung als nicht tragfähig kritisiert.
Denn Sextus Empiricus durchschaute nicht, daß ein Artbegriff (eidos ἶ, lat.:
species), der gemeinsame Züge bzw. Merkmale von Einzelnem zusammenfaßt,
damit zugleich auch seine Gegenart durch Negation mitdefiniert. Und das be-
deutet, daß damit auch für alle noch unbekannten Instanzen festgelegt wird, ob sie
zur positiven oder negativen Art gehören. Was die Induktion der Gattung betrifft,
so faßt sie in gleicher „abstrahierender“ Weise die gemeinsamen Züge bzw. Merk-
male der positiven und negativen Arten zusammen. Auf jeder Induktionsstufe –
vom Individuum über die Art bis zur Gattung - bestimmt die jeweils festgelegte
spezifische Differenz, ob ein weiteres noch unbekanntes oder schon bekanntes
Phänomen unter den induzierten Begriff fällt oder nicht.
Kurzum, Sextus durchschaute nicht den Unterschied zwischen dem, was
Aristoteles selbst schon als spezifische Differenzen der Arten und generische
Merkmale der Gattung unterschieden hatte. Und das ist leider auch bei allen spä-
teren Logikern so geblieben, die seither die induktive Begriffsbildung für unsicher
hielten.
Darüber hinaus formulierten die Skeptiker unter anderem auch schon das „Fries-
sche Trilemma”, das neuerdings viel verhandelt wird und der Popper-Albertschen
Wissenschaftsprogrammatik der „kritischen Prüfung” (einem direkten Nachfahren
der zetetischen Skepsis) zur Grundlage dient.
Sie bemerkten, daß die wissenschaftlichen Beweis- und Begründungsmethoden
entweder zum unendlichen Regreß führen, oder zirkulär sind, oder an beliebigen
Stellen durch Dogmen als unbezweifelbaren Letztbegründungen abbrechen. Daß
ihr skeptisches Prüfen allerdings auch nur eine besondere Art des unendlichen Re-
gresses darstellt, der die Lösung der Probleme auf eine fernere Zukunft vertagt,
haben sie ebensowenig wie die kritischen Rationalisten bemerkt.
Als zirkulär kritisieren sie insbesondere die aristotelische und stoische Schluß-
lehre: Da allgemeine Begriffe nur das den Einzelheiten Gemeinsame enthalten,
Urteile aus solchen Begriffen mithin immer schon induktiv gewonnen sind, kann
auch im Schluß aus solchen Urteilen nur das wieder herausgeholt werden, was
vorher in sie eingegangen ist. Der Schluß setzt somit das voraus, was er erst
beweisen soll.
Ihren Hauptangriff richten sie jedoch gegen die aristotelische Ursachenlehre und
den stoischen Kausaldeterminismus. Unter den zahlreichen Argumenten, die dabei
vorgetragen werden, ist wohl das folgende von Sextus Empiricus am interes-
santesten: Wenn Kausalität eine Verknüpfung (pros ti ó, relatio) von zwei
wohlunterschiedenen verschiedenen Dingen (genauer: Erscheinungen) als Ursa-
305

che und Wirkung ist, so geht entweder das eine dem anderen zeitlich voraus, ist
gleichzeitig oder folgt ihm nach. Nun ist auszuschließen, daß Ursache und Wir-
kung gleichzeitig sind, sonst wären sie nicht als solche unterscheidbar. Auch soll
die Ursache nicht der Wirkung zeitlich nachfolgen können. Wenn Ursache der
Wirkung also vorausgeht, so ist ihr Unterschied gerade zeitlich bedingt: Ursache
gibt es nur dann, wenn es noch keine Wirkung gibt; Wirkung gibt es erst dann,
wenn es keine Ursache mehr gibt, denn sonst wären sie gleichzeitig. (Man
beachte, daß auch die stoischen 4. und 5. Unbeweisbaren dieses Argument be-
rücksichtigen). Also bewirkt Ursache (was immer so genannt wird) – Nichts; und
Wirkung ist verursacht durch – Nichts.
Das aber verhält sich nur dann so, wenn man den Kausalzusammenhang wie
Aristoteles und die Stoiker als Beschreibung einer Beziehung zwischen den den
Erscheinungen zugrunde liegenden Substanzen versteht. Diese erkennen die Skep-
tiker aber nicht an.
Ursache oder Wirkung bezüglich eines Dinges bzw. einer Erscheinung oder Zu-
standes sind für die Skeptiker ein „Hinzugedachtes“ (epinoeitai monon ἐῖ-
ó), das nur gleichzeitig mit der jeweiligen Sache sein kann. Zu einer
gegenwärtigen Erscheinung, die als Wirkung gedacht wird, wird als „Ursache“
eine erinnerte Erscheinung hinzugedacht. Und einer als gegenwärtige Ursache
angesehenen Erscheinung wird als deren Wirkung eine in der Phantasie antizi-
pierte (aber ebenfalls schon früher wahrgenommene) Erscheinung hinzugedacht.
Man beachte, daß das genau der platonischen Erklärung der sinnlichen Dinge aus
„gedachten“ Ideen-Ursachen (die ja wesentlich Gedächtnisinhalte der Anamnesis
sind) entspricht. Und es dürfte von daher auch eine „idealistische“ Interpretation
der „realistischen“ aristotelischen Erklärung aus den vier Ursachen sein, die insge-
samt jeweils aus Erinnerung und Prohairesis zum einzelnen Erscheinenden hinzuge-
dacht werden.
Man wird hier anerkennen, daß die Skepsis klarsichtig auf etwas aufmerksam
gemacht hat, was kausale Forschung aristotelischer und stoischer Manier übersehen
hat: daß nämlich bei Kausalerklärungen und Prognosen Vergangenes wie auch
Zukünftiges als „erinnerte Phänomene“ und damit als ideelle Gegenwart behandelt
und auf Einzelnes Gegenwärtiges bezogen werden.
Daß Skeptizismus als Metaphysik und dogmatische Position, im Unterschied
zur skeptischen Methode, widerspruchsvoll und damit unhaltbar ist, gehört heute
zu den ausgemachten Wahrheiten. Allerdings würde man den antiken Skeptikern
Unrecht tun, wenn man sie für Skeptizisten hielte. Ebenso wie einem modernen
Forscher, wenn er wirklich bereit ist, seine Voraussetzungen und Überzeugungen
in Frage zu stellen und zu überprüfen. Die Skeptiker waren zweifellos dazu bereit.
Sie haben diese Offenheit für neue und andere Problemlösungen und damit den
Perfektibilitäts- und Fortschrittsgedanken des Erkennens und Wissens im abend-
ländischen wissenschaftlichen Ethos verankert.
Es wird offensichtlich in der Geschichte der Philosophie und Wissenschafts-
theorie zu wenig beachtet, daß die Skeptiker eine Filialschule der platonischen
306

Akademie bildeten - man rechnet sie zur „mittleren Akademie“ - und deswegen
kaum gegen alle platonischen Grundeinsichten skeptisch gewesen sein können.
Daß sie über diese Schuldogmatik der Platoniker nicht sprachen, nimmt ihrer
kritischen Schärfe gegenüber den nichtplatonischen Schulen nichts an Gewicht.
Ihre Kritik richtet sich gegen alle Versuche, die Phänomene der sinnlichen Er-
fahrung und die rationale Verarbeitung derselben in Theorien und formallogischen
Methoden zum Wesen der Philosophie und gesunder Wissenschaft zu machen.
Und das hinderte sie nicht, die platonische Lehre von den Ideen für etwas „Über-
wissenschaftliches“ zu halten, an das man - in dem Sinne, wie es von den Neu-
platonikern überhaupt in Anspruch genommen wurde - glauben müsse. Und auch
das hat sich bei späteren Adepten der Skepsis gehalten.
Die Kosten dieser Haltung waren freilich hoch: wenn die „wissenschaftliche“
Wahrheit nicht zu fassen ist oder noch aussteht, so muß man auch mit der
Falschheit, dem Irrtum und dem Schein nicht nur in der Wissenschaft, sondern
auch im Leben ganz gut zurechtkommen. Sie haben den „zweiten Weg der
Forschung” des Parmenides recht eigentlich gangbar gemacht und denen, die ihn
beschreiten, das gute Gewissen zurückgegeben.
Dies zeigt sich seit der Neuzeit in der noch immer zunehmenden Aszendenz der
Wahrscheinlichkeitslogik. Daß ein „subjektiv“ wahrscheinliches Wissen oder ein
Wissen um „objektive Wahrscheinlichkeiten“ näher bei der Wahrheit als bei der
Falschheit sei, ist eine in gutgläubiger Absicht vorgenommene Mystifikation, die
sich schon in der Wortwahl zeigt. Sie macht sich die traditionelle Tatsache zu-
nutze, daß man Wissen schlechthin gewöhnlich mit wahrem Wissen identifiziert.
Daß man auch falsches Wissen haben kann, zeigt sich spätestens, wenn es als
falsches widerlegt und durch wahres ersetzt worden ist.
In der Tat ist aber sogenanntes Wahrscheinlichkeitswissen ein (in der Mathe-
matik sogar in exakten mathematischen Proportionen dargestelltes) Verhältnis von
wahrem und falschem Wissen über einen und denselben Sachverhalt, das man
füglich, wie im § 11 begründet, „Wahr-Falschheitswissen“ nennen sollte. Indem
es in logischen Alternativen oder gar Widersprüchen, in welchen immer der eine
Teilsatz wahr und der andere falsch ist, ausgesagt wird, drückt sich Wahrheit und
Falschheit also zugleich satzmäßig aus.
Was man hierbei sicher und wahr und genau weiß ist, daß die Wahrheit in der
wahrscheinlichen Aussage mitenthalten ist. Aber man weiß ganz und gar nicht,
welcher Teilsatz dabei der wahre ist, und entsprechend auch nicht, welcher der
falsche ist (sonst würde man diese logische Ausdrucksform nicht benutzen). Und
so verbindet sich im Wahrscheinlichkeitswissen nicht nur Wahrheit und Falsch-
heit, sondern zugleich wahres Wissen über (unentschiedenes) Nichtwissen. Es ist
das, was Nikolaus von Kues später „docta ignorantia“ - „gelehrte Unwissenheit“ -
genannt hat.
307

§ 23 Der Neuplatonismus.
Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logi-
sche Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des
hierarchischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epi-
strophé als Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische
Kausaltheorie. Die Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte
bei Philon von Alexandrien: Buchstabensinn und philosophischer Hintersinn.

Der Neuplatonismus ist in der ausgehenden Antike die dominierende Philosophie.


Nicht nur gehören ihm Denker aus allen Bevölkerungsschichten an, sondern in
ihm artikulieren sich erstmalig in großem Stil auch die Philosophen der orien-
talischen Mittelmeerländer. Die große Sinnoffenheit des Werkes Platons erlaubt
die Inanspruchnahme für die verschiedensten, oftmals divergentesten Interpreta-
tionen. So ist der Neuplatonismus ein synkretistisches Gebilde, das zu allen ande-
ren Denkströmungen Verbindungen schlägt. Er ist die „katholische” Philosophie
der antiken Welt, gewissermaßen die philosophische Ökumene, in der die Natio-
nen und Gebildeten aller Völker kommunizierten.
In seinem Zentrum bleiben jedoch die Motive wirksam, die der späte Platon
selber, sodann die platonische Akademie und ihr aristotelischer Ableger, der Peri-
patos, besonders betont hatten: Pythagoräische Zahlenspekulation, aristotelische
Logik, die Abwendung von der sinnlichen Wirklichkeit und Zuwendung zum
Geisterreich, welches in einer umfassenden Ontologie des Sinnes und des Gei-
stigen erschlossen und abgemessen wird, kulminieren bei allen Vertretern in einer
philosophischen Gotteslehre.
Damit verbunden ist eine „Lebensphilosophie” und Ethik, die alle Lebensver-
hältnisse und Handlungsziele gemäß einem platonischen Wort (Theaitetos 176 b)
auf die „möglichste Angleichung an das Göttliche” (homoiosis theô katà dynatón
ὁμοίφζις θεῷ καηὰό) ausrichtet.
In Alexandria wirkte, intensive philologische Studien an den heiligen Texten
bestreibend und anregend, der Jude Philon (Philo Judaius, ca. 15 v. Chr. - ca. 50
n. Chr.), der seither noch immer als „Philon von Alexandrien“ bekannt geblieben
ist. Plutarch von Chaironeia (45 - ca. 125 n. Chr.), der an der Akademie in Athen
studiert hatte, Priester in Delphi und Statthalter Roms in der griechischen Provinz
war, wohl der charmanteste Schriftsteller der antiken Welt, brachte die Kenntnisse
über die neuplatonische Philosophie zu den gebildeten Freunden nach Rom und führte
gleichsam im Plauderton den Neuplatonismus in die Weltliteratur ein. Er ist freilich
eher durch seine Parallelbiographien bedeutender Griechen und Römer im abend-
ländischen Denken verankert geblieben. Auch Ammonios Sakkas (ca. 175 - 242 n.
Chr.) wirkte in diesem propagandistischen Sinne in Alexandria, von wo sein Schüler
Plotin (203 – 269 n. Chr.), der „zweite Platon“, den Neuplatonismus in Rom popu-
larisierte und sogar zur Hofphilosophie des Kaiserhauses des Galienus machte. Plo-
tins Schüler war Porphyrios aus Tyros (geb. ca. 232 – 304 n. Chr.). Dessen Schüler
308

Jamblichos (gest. ca. 330 n. Chr.) bildete dann in Syrien eine Reihe tüchtiger
Schüler heran, die am Studienzentrum von Pergamon, nicht zuletzt aber auch am
byzantinischen Kaiserhof für die Verwurzelung des Neuplatonismus sorgten. Hier hat
er in Kaiser Julianus (wegen seines Abfalls vom christlichen Glauben „Apostata“
genannt, 332 – 363 n. Chr.), dem Neffen Konstantins des Großen, einen kaiserlichen
Vertreter gehabt.
In Athen aber gehörten Proklos (412 - 485 n. Chr.), in Konstantinopel geboren
und mit Recht „der große Scholastiker des Altertums“ (F. Ueberweg) genannt,
übrigens in Alexandria ausgebildet, und sein Schüler Simplikios aus Kilikien (5. /
6. Jhdt. n. Chr.) zu den letzten Schulhäuptern und Vorstehern der Platonischen
Akademie in Athen. In ihren Werken kommt eine Synthese des platonischen und
aristotelischen Philosophierens zum Ausdruck. Ihre Kommentare zu beiden Klas-
sikern bilden gewissermaßen das Vermächtnis der Antike an die mittelalterliche
und moderne Welt.
Ein Schlüsseldokument neuplatonischer Wissenschaftslehre ist die Einleitung
zum aristotelischen Organon des Porphyrios, der wie gesagt Schüler des Plotin
war. Er hat nicht nur Plotins Schriften geordnet und herausgegeben, sondern sich
auch um eine harmonisierende Interpretation des platonischen und aristotelischen
Werkes bemühte. Hier wird die aristotelische Begriffslehre in der nachmals so
berühmten Gestalt des „porphyrianischen Baums“ – umgedreht ergibt sich die
„Begriffspyramide” – vorgeführt und ontologisch hypostasiert. Die wesentliche
„pyramidale“ Formulierung der „Einleitung“ (Isagogé lautet: „Sub-
stanz ist auch selbst Gattung; unter sie fällt aber Körper, unter Körper beseelter
Körper, worunter Sinneswesen fällt; unter Sinneswesen aber vernünftiges Sinnen-
wesen, worunter Mensch fällt; unter Mensch aber fällt Sokrates, Plato und die
einzelnen Menschen.” 140
Nach Porphyrios ergeben sich entsprechende Stammbäume bzw. Pyramiden der
Begriffe für alle zehn Kategorien der aristotelischen Kategorienlehre. Wobei die
Kategorien selbst – er hat das Beispiel nur für die Substanzkategorie ausgearbeitet
– die obersten Spitzenbegriffe darstellen. Diese Stammbäume stehen unverbunden
nebeneinander: „Bei den Genealogien führt man den Ursprung in der Regel auf
einen, sagen wir, den Zeus zurück. Bei den Genera und Species ist das anders“
(Porphyrios, Einleitung, Kap. 2, 2 b; a.a. O S. 16)
Damit wird jedoch eher ein Problem signalisiert, das den Neuplatonismus und
nachmals die scholastische mittelalterliche Philosophie zentral beschäftigte: die
Frage nach der verbindenden Spitze der Kategorien selber: die Frage nach dem
höchsten Sein, dem Einen, dem Unsagbaren – Unaussprechlichen, dem Göttli-
chen. Dies wurde zum Problem der „Transzendentalienlehre“.
Porphyrios entlastet sich von der Behandlung mit der Formulierung:

140
Porphyrios, Einleitung in die Kategorien, Kap. 2, 2 a. In: Aristoteles, Kategorien u. Porphyrius, Einleitung in die Kate-
gorien, hgg. u. übers. von Eug. Rolfes (Phil. Bibliothek Meiner Band 8/9), 2. Aufl. Hamburg 1958 Nachdr. 1968, S. 15.
309

„Was bei den Gattungen und Arten die Frage angeht, ob sie etwas Wirkliches sind oder
nur auf unseren Vorstellungen beruhen, und ob sie, wenn Wirkliches, körperlich oder un-
körperlich sind, endlich ob sie getrennt für sich oder in und an dem Sinnlichen auftreten,
so lehne ich es ab, hiervon zu reden, da eine solche Untersuchung sehr tief geht und eine
umfangreichere Erörterung fordert als die hier angestellt werden kann” (Porphyrios, Ein-
leitung Kap. 1, 1 a; a. a. O. S. 11).

In der Tat beschreibt er hiermit zutreffend die verschiedenen Positionen, die man
diesem Problem gegenüber einnehmen konnte, und die auch später im scholasti-
schen Universalienstreit weiter und genauer ausformuliert worden sind. Sie sind
auch in der modernen Ontologie die grundlegenden Deutungsmuster der Realität
geblieben.
Daß er in der Sache selber keineswegs neutral blieb, sondern eben den neuplato-
nischen „Ideenrealismus” vertrat, zeigt sich an späteren Ausführungen der Isago-
ge:

„Die Akzidentien (d. h. die nicht substanziellen Kategorien und alle aus ihnen abgeleite-
ten Begriffe) subsistieren ursprünglich in den Individuen; die Gattungen und Arten sind
aber von Natur früher als die individuellen Substanzen” (Porphysios, Einleitung Kap.10,
5 a; a. a. O. S. 28).

Dies „von Natur früher“ (ein aristotelischer Ausdruck) aber verweist auf die „on-
tologisch-archelogische” Vorrangstellung der allgemeinen Begriffe und Sinnge-
bilde bzw. der platonischen Ideen gegenüber den sinnlich erfahrenen Individuen
und Einzelheiten.
Diese allgemeinen Begriffe hatte Platon als die Urbilder der geschaffenen Welt
erklärt, auf die hinblickend der Demiurg den Kosmos gestaltet. Solchen platoni-
schen Mythos in wissenschaftlicher und logischer Sprache zu rekonstruieren,
bildete die Aufgabe der neuplatonischen Geister- und Geistesontologie. Und wie
die Neuplatoniker die „Mythen” Platons selber als Herausforderung zu einer ratio-
nalen Interpretation nehmen, so auch die mannigfaltigen mythologischen Schöp-
fungsberichte der positiven Religionen des Mittelmeerraumes.
Religion wurde bei ihnen durch eine wissenschaftliche „Theologie“ unterbaut.
In ihr wurden die vorsokratischen Archai: der herakliteische Logos, der anaxa-
gorische Nous, die pythagoräischen Zahlen, das parmenideische Sein und Eine,
das gorgianische Nichts, erst recht der aristotelische erste Beweger und das letzte
Ziel oder die stoische Ananke an die Stelle gesetzt, die Platon seinerseits durch
die Idee des Guten bezeichnet hatte.
Es war der Lehrer des Porphyrios, nämlich Plotin, der alle diese Ideen und
Mythen in einer hierarchischen Ontologie vereinigte. Auf sie hinblickend, wie
Platon selbst vom weltenbauenden Demurgen sagte, hat Porphyrios ihre logische
Struktur herausgearbeitet und danach auch Plotins Schriften als „Enneaden“ ge-
ordnet und ediert.141

141
Plotin, Enneaden, 5 Bände, hgg. u. übers. von R. Harder, ( Phil. Bibl. Meiner), Hamburg 1956 u. ö.
310

In Plotins ontologischer Pyramide steht an der „archelogischen“ Spitze das


schlechthin Eine, welches zugleich auch das Gute und Göttliche genannt wird.
Aus ihm „strahlt“ wie von der Sonne herab der Nous, die Vernunft, die sich als
Objekt zugleich alles Gedachte (Noumenon) gegenüber stellt und so das reine
Sein (Ousia) bildet. Und aus beidem strahlt wiederum ab die Weltseele (Psyché).
Nous und Psyché sind die beiden von Späteren als „Emanationen“ (Ausflüsse)
bezeichneten geistigen Instanzen. Zusammen mit ihrem Ursprung im Einen und
Guten bilden sie die „geistige Welt“ (kosmos noetos óó, mundus in-
telligibilis).
Die Weltseele aber teilt sich dann in die einzelnen Seelen der Lebewesen und
vor allem der Menschen, die sich in den sinnlich wahrnehmbaren Gestalten „ver-
körpern“. Verkörperung aber beruht, wie in aristotelischer Terminologie gesagt
wird, auf der Verbindung mit der Materie. Und diese verdünnt sich gleichsam
immer weiter ins nicht mehr sinnlich Wahrnehmbare, was dann auch hier Nichts
(Me on μὴ ὄν) genannt wird. Dieser beseelte Teil bildet die „sinnliche Welt“ (kos-
mos aisthetos, óἰó mundus sensibilis), wie sie im platonischen
Timaios und in den Naturlehren des Aristoteles und der Stoiker geschildert wor-
den war.
Die Bedeutung dieser plotinischen hierarchischen Ontologie kann kaum hoch
genug veranschlagt werden. Sie hat die Unterscheidung von Geistes- bzw. Sinn-
welt und materieller Natur gleichsam für alle späteren Zeiten zementiert. Für alle
Theologien des vorderen Orients und des Abendlandes bildete sie den Hinter-
grund, auf welchem sich weitere Ausgestaltungen der hierarchischen Stufen im
Bereich des Kosmos noetos diskutieren ließen. Wesentliche Formulierungen
Plotins gingen in den Text des „Pseudo-Dionysios Areopagita“ ein, den die christ-
liche Kirche als Vermächtnis des Athener Freundes des Apostel Paulus ausgab,
und der noch heute dogmatisch ihrer Lehre zugunde legt.
Proklos, der als Rektor der Platonischen Akademie auch den Beinamen „Dia-
dochos“ führte, hat die plotinische ontologische Pyramide durch viele Zwischen-
stufen erweitert und den platonischen Teilnahme-Zusammenhang (Methexis
έ, participatio) der einzelnen Stufen „dynamisiert“. Sie ist uns in seinem
Buch „Stoicheiosis theologiké“ (ῖή Institutio Theologica)
erhalten geblieben.142 Es war nicht nur im Abendland, sondern auch bei den Ara-
bern verbreitet.
Die Arché ist hier das Eine-selbst (autohen ὐέ), das höchste Gute als der
höchste und unaussprechliche Gott. Aus ihm gehen in die nächste Stufe Vielheiten
von Einheiten (Henaden) ein, mit denen Proklos die Götter der verschiedenen
Religionen und der griechischen Mythologie erfaßt. Erst die dritte Stufe ist der
Bereich der Vernunft und des Seins (Nous und Ousia), der sich „triadisch“ in
denkende (noeroi, intellektuelle) und gedachte (noetoi, intelligible) Geister und
142
Proklos, The Elements of Theology, griech.-engl. hgg. von E. R. Dodds, 2. Aufl. Oxford 1963. Sein Werk „In Platonis
Theologiam libri VI“ ist ebenfalls erhalten geblieben und zusammen mit der Institutio Theologica griech-lat. von A. Portus
in Hamburg 1618 herausgegeben worden, Nachdr. Frankfurt a. M. 1960.
311

Sinngestalten und ihre Verschmelzung zum zugleich denkend-Gedachten (noetos


kai noeros) gliedert. Erst daran schließt sich die Stufe des Seelischen (Psyché) und
Beseelten der Lebewesen und der materiellen Natur (Physis) an, für deren
Einteilung Proklos neben der Triade auch die Hebdomade (= Siebener-Einheit)
benutzt.
Jede obere Stufe bleibt, was sie ist (Moné ή, Verbleiben), geht aber auch aus
sich heraus und in die nächst untere, diese erzeugend, über (prodromos ó-
), wo sie dann zur oberen zurückgewendet (epistrophé ἐή) ver-
bleibt. Dies ist die neuplatonisch-kausale Interpretation der Schöpfung als Emana-
tion (Herausfließen, „beeinflussen“) aller Dinge aus der Arché. Das Obere ist
jeweils Ursache des Niederen und bleibt als Wesen in der Wirkung enthalten.
Alles Bewirkte aber kann nur durch Rückbeziehung auf die „höhere“ Ursache
Bestand haben. Das ist die Grundlage für die „creatio continua“, die fortwährende
Schöpfung und Erhaltung der Welt.
Aber zugleich wird die Epistrophe, die „Umwendung“ auch von höchster
ethischer Relevanz. Denn so wie der Prodromos eine Abwendung vom Göttlichen
und Hinwendung zum Profanen anzeigt - in christlicher Theologie bedeutet das
Sündhaftigkeit – so die Epistrophé das Streben und die Hinwendung zum Ur-
sprung, zum Göttlichen selbst, die platonische Theiosis. Und dies wird nicht nur
im Christentum, sondern in allen Theologien als der Weg des Heils und der Erlö-
sung von der Einbindung in die materielle Welt gedeutet.
Der ontologische Zusammenhang entspricht dem pyramidal-logischen des Por-
phyrios. Das Obere ist das jeweils Allgemeinere. Es enthält schon alle Wesens-
merkmale aller unter seinen Begriff fallenden Arten und Einzelwesen, in denen
sie als „generische“ Merkmale bleiben. Die Emanation wird logisch als Deduktion
(„Herabführen“, prodromos) des Unteren gedacht. Die in den jeweils unteren
Stufen und Rängen hinzukommenden spezifischen Merkmale bezeichnen den
Abstand (aristotelische Steresis) vom nächst höheren Allgemeinbegriff.
Daß Proklos das aristotelische Organon und die Einleitung des Porphyrios
ebenso gut kannte, wie er überhaupt in allen Lehren der vorangegangenen griechi-
schen Wissenschaften und besonders der Mathematik versiert war, das zeigt sich
in seinem Kommentar (nur zum ersten Buch) der „Elemente“ des Euklid, wo er
vielfach auf ihn verweist.143 Die Unterscheidung des Euklid von geometrischen
Axiomen, Postulaten und Definitionen führt Proklos auf Aristoteles zurück. Er-
sichtlich sind sie als „Prinzipien“ ebenso unableitbar hinzunehmen wie in der
Theologie die Arché des Auto-Hen und die vielfältigen Henaden. Für diee
Mathematik aber sind sie die Prinzipien für die Ableitung der weiteren Theoreme
und Probleme, die das Gesamt des geometrischen Wissens und Konstruierens
ausmachen.

143
L. Schoenberger und M. Steck, Proklos, Kommentar zum ersten Buch von Euklids „Elementen“, Halle 1945; engl.
Ausgabe hgg. von G. R. Morrow, Princeton, N. J. 1970.
312

Es ist kein Rückfall in homerische und hesiodische Mythologie, sondern gerade


der Durchgang durch die ganze zur Verfügung stehende gelehrte und aufgeklärte
Bildung der antiken Welt, wenn die Neuplatoniker dem Gotte nun in erster Linie
diejenigen Züge liehen, die sie an sich selber und in ihrer Seele zu finden glaub-
ten.
So wie die sinnlichen Dinge endliche Symbole für die ewigen und unveränder-
lichen Ideen waren, so waren ihnen ihre seelischen Kräfte und Vermögen Sym-
bole für den ewigen und alles erschaffenden Gott. So wie der Mensch in der
Anamnesis, der Wiedererinnerung, sich seiner Teilhabe an den Ideen versichert,
so erscheint nunmehr der göttliche Geist als der Ort, an dem sich die Ideen vor
aller Schöpfung befinden. Erkenntnis wird selber Teilhabe an diesem göttlichen
Geist, und Wissenschaft insgesamt wird zu einem wahren „Gottesdienst“ der Ho-
moiosis theô.
Die christliche Kirche hat diese neuplatonische Lehre in ihre „Theologie“ über-
nommen, sie aber auch als „Gnosis“ als „häretisch“ denunziert. In der Tat ist sie
aber nur die rationale Konsequenz der ganzen griechischen Entwicklung, den
ersten und letzten Grund des Seins begrifflich und wissenschaftlich zu erfassen.
Und dies konnte, wie schon Aristoteles in seiner ersten Philosophie sagte, nur in
„Theologie“ enden.
Die Neuplatoniker haben dadurch dem Abendland die philosophische Theolo-
gie erschaffen, in welcher religiöse Überlieferung und Volksglauben mit den
höchsten wissenschaftlichen Fragestellungen der Philosophie verschmolzen sind.
Daß sie sich als eigene Wissenschaft neben der stoischen Naturrechts-Jurispru-
denz im mittelalterlichen und neuzeitlichen Universitätssystem etablieren konnte,
hat diese Theologie nicht zuletzt ihrer griechisch philosophischen Grundlage zu
verdanken, die auch die Gebildeten unter ihren Verächtern auf allen Wegen
weltlicher Bildung immer wieder zu ihr zurückführte.
Abgesehen davon, daß durch das Wirken der Neuplatoniker Theologie als philo-
sophische Erst-Prinzipien-Ontologie bzw. Metaphysik selber ein Wissenschafts-
paradigma ersten Ranges in der abendländischen Wissenschaft wurde, hatte die
damit verbundene Sinn-Hypostasierung auch unmittelbare Folgen für den Ausbau
des Wissenschaftssystems. Selber eine Geister- und Geisteswissenschaft, wurde
die neuplatonische Philosophie auch die geeignete Grundlagentheorie des sich in
den alten Kulturen ausbreitenden gelehrten Umgangs mit Literaturen und beson-
ders mythologischen und religiösen Textdokumenten.
Die Neuplatoniker entwickelten zuerst in großem Stil eine Hermeneutik, durch
welche auch noch den abstrusesten Texten und Überlieferungen derjenige Sinn
abzugewinnen war, den sie als platonisches Ideenreich oder als Inhalt des göttli-
chen Geistes voraussetzten. So trat ihnen neben die Natur als ein zweiter Bereich
sinnlich wahrnehmbarer Geistesoffenbarung die Kultur und die Geschichte, die
sie nunmehr nach den Signaturen des göttlichen Schöpfungsplanes befragten.
Exemplarisch für diese Vereinnahmung religiöser Textdokumente als Zeugnisse
für die Wahrheit der platonisch-neuplatonischen Geistlehre wurde das Werk des
313

Philon von Alexandrien (ca. 15 v. Chr. - ca. 50 n. Chr.). Er hat sie in seinen Inter-
pretationen zum Pentateuch (5 Bücher Moses, die Thorah bzw. das „Gesetzbuch“
der Juden) vorgelegt. Ausgehend von der Voraussetzung, daß die griechische
Philosophie sich insgesamt von der jüdischen Religion herleite, sah er in der pla-
tonischen Lehre, aber auch in der stoischen Pneumalehre den eigentlichen spiritu-
ellen Gehalt der göttlichen Offenbarung in theologisch-wissenschaftlicher Gestalt
entwickelt. Seine Abhandlungen „Über die Unzerstörbarkeit des Weltalls“, „Über
die Vorsehung“, „Daß jeder Gerechte auch frei sei“ und „Alexander oder darüber,
daß auch die Tiere Vernunft besitzen“ zeugen zunächst für seine intensive Aneig-
nung des griechischen Denkens in damals verbreiteter synkretistischer Manier.
Wichtiger und bahnbrechend auch für die spätere christliche Theologie wurde
seine Hermeneutik, die er seinen Pentateuchinterpretationen zugrunde legte.144
Ausgehend vom „Buchstaben des Textes“ (dem sogenannten Literalsinn), der ja
als wörtlich inspirierte göttliche Offenbarung gilt, geht es ihm in erster Linie um
das Verstehen des „mystischen“ bzw. eigentlich philosophischen Sinnes, den nur
der platonisch Gebildete zu erfassen imstande sein soll. Er ist mit der platonischen
Lehre (bzw. dem, was Philon darunter versteht) identisch. Um ihn zu erfassen,
muß man freilich über den Literalsinn hinausgehen und die in ihm liegenden Hin-
weise auf den mystischen Hintersinn der einzelnen Schriften als „Anspielungen“
bzw. als „Allegorien“ verstehen, wie das ja auch Platon selbst in seinen Gleichnis-
sen und Bildern (vgl. dessen Höhlengleichnis, Sonnengleichnis, Liniengleichnis
aus dem „Staat“ und das „Wagenlenkergleichnis“ aus dem „Phaidon“) vorgeführt
hatte.
Philon hat damit die Grundlagen für die später in allen Theologien - aber auch
in der Jurisprudenz - immer weiter ausgebaute Lehre vom mehrfachen Schriftsinn
heiliger (aber darüber hinaus aller sogenannten dogmatischen) Schriften geliefert.
In die christliche Theologie ist sie als Lehre vom vierfachen Schriftsinn durch
Johannes Cassianus (360 – ca. 430 n. Chr.) eingegangen und später in einem
schönen Merkvers zusammengefaßt worden:

Litera gesta docet, quid credas allegoria,


moralis quid agas, quo tendas anagogia.

Die reinen Fakten aufzuzeigen, das ist dem Literalsinn eigen,


was dir zu glauben aufgetragen, läßt sich nur allegorisch sagen.
Zum Handeln dir die Ziele steckt moral„scher Sinn, darin versteckt,
Fürs letzte Ziel von allem Streben ist anagog„scher Sinn gegeben.

Ersichtlich zehren alle Geisteswissenschaften bis zum heutigen Tag von dieser
neuplatonischen Sinnvermutung, die hinter jedem planen und buchstäblichen Vor-
dergrundsinn unendliche Dimensionen geheimen, metaphorischen Sinnes er-
schließen will und immer noch neu erschließt. Mag man sich in modernen auf-

144
Philon, Die Werke in deutscher Übersetzung, 6 Bände, hgg. von L. Cohn u. a., Breslau 1909 - 1938, ND Berlin 1962.
.- Vgl. K. Otto, Das Sprachverständnis bei Philo v. Alexandrien. Sprache als Mittel der Hermeneutik, Tübingen 1968.
314

geklärten Zeiten scheuen, diese Sinndimensionen als das Göttliche zu bezeichnen,


mag man lieber von Kultur, Geschichte, Tradition, objektivem oder objekti-
viertem Geist oder gar vom Unbewußten reden, aus dem die modernen Geistes-
wissenschaften so tiefen Sinn schöpfen, so sind sie doch nichts anderes als eine
große institutionalisierte Anamnesis geworden, durch die immer neue Genera-
tionen sich eines übergreifenden Hintersinnes der Welt und der Wirklichkeit zu
versichern suchen.

§ 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie


Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die Subjekt-Objekt-
spaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der Metaphysiken. Das Gesetz der
Evidenzialisierung der Archai.

Daß die Griechen die Grundlagen der abendländischen Wissenschaft geschaffen


haben, ist ein abendländischer oder gar weltweiter Gemeinplatz. Eher ist umstrit-
ten, was diese Grundlagen ausmache und was demnach abendländische Wissen-
schaft sei. Wir möchten in wissenschaftstheoretischer Perspektive die folgenden
Momente nennen:

1. Der Arché-Gedanke. Mit ihm stilisieren die Vorsokratiker das Grundmuster


abendländischer Wissenschaft. Er wird gleichsam zur Matrix aller wissenschaft-
lichen Erklärungen. Die Verknüpfung eines Vorgegebenen, Phänomenalen, mit
anderem Phänomenalem oder einem „dahinter“ zu vermutendem und zu er-
schließendem Nicht-Phänomenalem wird zum Archetypos aller Kausalerklärung,
in der Einzelnes mit Einzelnem in notwendige Verbindung gebracht und die
Suche bzw. Auffindung des „passenden” Erklärungsmotivs zum Ziele aller For-
schung werden kann.
Ersichtlich ist der Archégedanke selber die „wissenschaftliche” Formierung
uralt-menschlicher Erfahrung des Bewirkens und Erzeugens in Befehls- oder
Schaffensprozessen, die den Griechen in ihren anthropomorphen Götterbildern
mit eindeutiger Zurechenbarkeit und Ressortverantwortlichkeit zur mytholo-
gischen Denkform geworden war. Es macht ihnen Ehre, daß sie – in der Stoa –
den Arché-Gedanken schon so früh zum Universaldeterminismus verallgemei-
nerten und zugleich – im Epikureismus und in der Skepsis – seine totale Kritik
leisteten. Zwischen beiden Extremen bewegt sich auch heute noch abendländische
Erklärungsmethodologie der Wissenschaften.

2. Objekt und Transzendenz. Der Arché-Gedanke beinhaltet und setzt voraus


eine Bestimmung des Vorgegebenen, welches Ausgangspunkt für die Forschung
315

nach seinem Grunde, der Ursache sein kann. Die Griechen nannten es „Phäno-
men”. Im Phänomenbegriff haben wir das Grundmuster wissenschaftlicher Ob-
jektkonstitution. Die Sicherung bzw. „Rettung der Phänomene“ (sózein tà phainó-
mena ῷàó) bleibt seitdem erstes Anliegen jeder Objektwissen-
schaft.
Bemühten sich die frühesten Vorsokratiker (Thales, Anaximenes), dann aber
auch Aristoteles, die Phänomene gemäß dem Arché-Gedanken untereinander in
eine notwendige Ordnung zu bringen – welcher Gedanke erst in der Neuzeit im
Sensualismus George Berkeleys und im Phänomenalismus eines Ernst Mach und
Richard Avenarius wieder aufgegriffen wird – so bezieht die vorherrschende Mei-
nung seit Anaximander den Arché-Gedanken auf etwas „hinter den Erscheinun-
gen” Stehendes, was selbst nicht erscheint. Der Phänomenbegriff selbst bezeich-
net eine „Doppelbödigkeit des Objekts”, nämlich von Erscheinung und Wesen,
Schein und (eigentlichem) Sein. Und dies Verhältnis von Vordergründigkeit und
Hintergrund wird selbst als Verhältnis von Wirkung und Ursache aufgefaßt.
In dieser Anwendung des Arché-Gedankens liegt die Erfindung der Transzen-
denz, des „Meta-“, wass seitdem für abendländische Wissenschaft in allen „hinter-
fragenden“ Forschungsstrategien maßgeblich geblieben ist. Für alle archélogische
„transzendentale”- das Vordergründige zum Hintergrund „überschreitende“ -
Forschung bleibt die platonische Ideenlehre und die aristotelische Meta-Physik
paradigmatisch. Der Transzendenz-Gedanke ist seither im Abendland selbst von
den kühnsten „Diesseitsforschern” nicht ernsthaft in Frage gestellt worden.

3. Die Subjekt-Objekt-Spaltung. Sie wird von den Vorsokratikern schon vor der
sokratischen „Wende zum Subjekt” auf Grund ihrer erkenntnistheoretischen
Überlegungen aufgerissen. Im Verfolg ihrer Arché-Forschungen stoßen sie auch
auf die Erkenntnisleistungen als Ursache für die bestimmte Objektivationsweise
der Erkenntnisgegenstände: einerseits der Sinneswahrnehmung als Ursache der
Phänomene, andererseits der „Denkkraft“ bzw. der Vernunft als Ursache des
Hinter-Grundes.
Das zeigt sich schon in der parmenideischen Zuordnung von Denken und Sein
(noeîn te kai eînai ῖìἶ), deren Verhältnis auf dem „Weg der Wahr-
heit” ermittelt und als „Identität“ (to auto òὐó) herausgestellt wird. Anderer-
seits in der entsprechenden Zuordnung von Sinnlichkeit und Phänomen, die auf
dem „Weg des Irrtums und der Meinung” artikuliert wird.
Allerdings haben die Griechen in einer ersten Wende zum Subjekt das Subjekt
als Objekt behandelt. Dies war die große Leistung der Sophisten und insbesondere
des Protagoras, als sie den Menschen als „Arché“ entdeckten. Das führte schon
bei Platon zu einer Zwei-Welten-Lehre, nämlich der nachmals die abendländische
Ontologie bestimmenden Unterscheidung des mundus sensibilis (kosmos aisthetos
óἰó) und des mundus intelligibilis (kosmos noetos óó)
oder der materiell-phänomenalen und der ideell-geistigen Welt. Und diese Unter-
316

scheidung wird zur Grundlage der späteren Unterscheidung der Objekte von Na-
tur- und Geisteswissenschaften.
Erst die augustinische „zweite Wende zum Subjekt” bringt einen gereinigteren
Begriff vom Subjekt zustande und arbeitet die Arché-Implikationen der Subjekti-
vität für die Konstitution der weltlichen Objekte heraus. Hier bereitet sich die
Transformation der Subjekt-Objekt-Spaltung in ein Verhältnis von „Innenwelt“
und „Außenwelt“ vor.

4. Wissenschaftliche Methodologie. Seit Parmenides„ zwei „Wegen der For-


schung” – den Wegen der Wahrheit und des Irrtums – bleibt die Wegmetapher
(hodos ὁó Weg) ein Leitbild abendländischer Reflexion über die Mittel, Instru-
mente und Ziele der Wissenschaft. Die prinzipielle Trennung von Weg und Ziel –
Methode und Gegenstand der Wissenschaft – wird schon in der aristotelischen
Logik erreicht, die in der aristotelischen Schule als „Organon” (methodische
Hilfsmittel) der Wissenschaft verselbständigt und somit von den eigentlichen
Wissenschaften und ihren Objekten abgegrenzt wird.
Aber wie beim Subjekt verwandeln die Griechen auch die Methode in ein
Objekt. Die Stoa rechnet die Logik als Grundmethodologie zu den Wissenschaften
selber. Der Neuplatonismus hypostasiert die Begriffsverhältnisse zum objektiven
Ideen- und Geisterreich. Wie beim Subjekt belasten sie dadurch die weitere Ent-
wicklung mit einer folgenschweren Hypothek: dem Zirkel (oder Widerspruch) der
Reflexion. Methode und Subjekt sollen sich selbst „methodisch“ erklären: sie
unterscheiden sich von sich selbst und werden doch zugleich identifiziert. Dieser
Widerspruch wird in der abendländischen Reflexionsphilosophie zum Quellpunkt
endloser Logomachien.
Neben der Logik nimmt die Mathematik an diesem Schicksal teil. Die pytha-
goreisch-platonische Philosophie spricht ihr den Charakter einer Einzelwissen-
schaft von ontologisch vorgegebenen geometrischen Formen und Zahlen, Zahlen-
verhältnissen, Relationen, Harmonien und Seinsstrukturen zu. Aristoteles bestärkt
in seiner Wissenschaftsklassifikation diese Einschätzung, indem er die Mathema-
tik als zweite „theoretische Wissenschaft“ gleich nach der Metaphysik einordnet.
Euklid scheint den grundsätzlich methodologischen Charakter der Mathematik
durchschaut zu haben. Jedenfalls stellt er die Geometrie als eine Konstruktionsme-
thode von sinnlichen Bildern, Körpern und Zahlenverhältnissen dar, die Arithme-
tik aber als den mathematischen Ideenbereich hinter den geometrischen Erschei-
nungen.
Unsere Analysen der „Logik der euklidischen Mathematik“ – die bei zunehmen-
der Trennung von Logik und Mathematik und insbesondere durch die Abtrennung
der trivialen (logischen) und quadrivialien (mathematischen) Wissenschaften im
Kurrikulum der Freien Künste niemals ernsthaft von den Philosophen geleistet
wurde - legen nahe, daß es sich bei der euklidischen Mathematikkonzeption um
eine ausgearbeitete „dialektische Logik“ des Denkens in Widersprüchen handelt.
317

Trotzdem bleibt die Stellung der Mathematik zwischen Methodologie und ob-
jektbezogener Einzelwissenschaft schwankend und ist es noch jetzt.
Am weitesten sind die Stoiker darin gegangen, die Wissenschaften insgesamt als
„Methodiken” (via ac ratio) zur Erreichung nützlicher Lebensziele zu definieren.
Somit auch die Logik selber, die sie ja auch ins Wissenschaftssystem integrierten.
Wissenschaftstheoretisch knüpften sie dabei an den aristotelischen Techne-Begriff
(lat.: ars = Handwerk, Kunst und Wissenschaft) an. Darin folgten ihnen die „prak-
tisch” gesinnten Römer weitgehend nach. Ihr Erbe wurde die scholastische „Ar-
tistenfakultät“, die die methodologischen Propädeutika für die „höheren” Fakul-
tätswissenschaften bereitstellen sollte. Und sie hat auch als „philosophische Fa-
kultät“ unter den anderen Fakultäten ersichtlich seither noch eine gewisse Attrak-
tivität als hohe Schule für „Lebenskünstler“ bewahrt.
Zwischen den Extremen entfalten sich schon in der griechischen Antike einzelne
Methoden, oft nach ihren Erfindern oder bedeutendsten Benutzern genannt, die
bis heute in Gebrauch sind: Die herakliteische (und gorgianische) Dialektik, die
die Einheit der Gegensätze zu denken lehrt (oder es doch versucht), und die durch
Euklid in die Grundlagen der Mathematik gleichsam eingebaut wurde. Die zeno-
nische Apagogik, die die Widerlegung von Theorien durch Aufweis ihrer para-
doxalen Konsequenzen betreibt. Ihr verwandt die sokratische Aporetik, die den
Dogmatiker „elenktisch“ in die „Ausweglosigkeit” bzw. zur Verzweiflung bringt.
Sie will ihn „protreptisch“ für die Anwendung der sokratischen Maieutik (Ge-
burtshelfermethode) vorbereiten, die (indem sie vorgeblich sein unbewußtes Wis-
sen zum Vorschein bringt, in der Tat aber nur) logische Folgerungen aus zuge-
standenen Prämissen entwickelt. Die platonische „intellektuelle Anschauung”
(Ideenschau), die dem Philosophen das Kunststück zumutet und abfordert, mit
einem „geistigen Auge” übersinnliche Strukturen „wahrzunehmen”. Sie hat mit
dieser paradoxalen Forderung einer Anschauung des Unanschaulichen selbst eine
Grundlage für die „dialektische Logik“ geliefert. Die demokriteische Modell-
methode der Erklärung des Unsichtbaren durch das Sichtbare und das platonische
Mythenerzählen kann man als Vorläufer der paradigmatischen oder Modell-
Methode anführen. Dann die aristotelische Empirik bzw. Historik, die später zur
historisch-empirisch-deskriptiven Methode stilisiert wurde, in der Gegenwart als
„phänomenologische” Methode der Deskription wieder aufgenommen wurde. Ne-
ben ihr die aristotelische „epistemische” bzw. „scientifische” Methode, eigent-
liche Theorie, die in Epagogé (Induktion) und Dihärese (Deduktion) Begriffsbil-
dung durch Synthese und Analyse anderer Begriffe bzw. ihrer Merkmale lehrt.
Nicht zuletzt bei Aristoteles auch die rhetorisch-topische Methode der Argumen-
tationsführung durch „schlagende” Argumente, die ad hoc plausibel erscheinen.
Die dogmatische Methode der „schulmäßigen” Gesamtdarstellung ganzer Wis-
senssysteme im Ausgang von als „evident” oder glaubensmäßig gesichert gelten-
den Letztbegründungen, die vor allem die Neuplatoniker, Stoiker, aber auch
Euklid praktizierten. Und zuletzt auch die skeptische Methode der Skeptiker, die
318

als „zetetische” (forschende) alle Dogmatik auflöst und sich für ständige Offen-
heit und Überprüfung aller Voraussetzungen und Gewißheiten bereithält.
Man ahnt hier schon den Schematismus, der die Bildung und Entstehung von
„methodischen“ Wissenschaften beherrscht: Vom „Trick” oder Kunstgriff, den ein
Philosoph oder eine Schule erfindet und vorzüglich verwendet, geht die Entwick-
lung zur allseitig verwendbaren Methode. Manche von ihnen erreichen in weiteren
Stilisierung den unanfechtbaren Status von Einzelwissenschaften, die dann ihrer-
seits ubiquitär in anderen Einzelwissenschaften einsetzbare Methodiken bilden. So
bildet sich das heraus, was man den Gegensatz von „X-ologien” (objektzugeord-
neten Einzelwissenschaften) und „Y-iken” (objektfreien Methodenwissenschaf-
ten) nennen könnte.

5. Die Schulbildung und die Organisation der Metaphysiken. Es ist erstaunlich,


daß die Philosophie mit den Vorsokratikern beim Schwersten angefangen hat, was
in der Philosophie zu leisten ist: der Gewinnung und Sicherung von Letzt- oder
Erstprinzipien, den Archai. An die Gründer schließen sich sogleich Schulen an,
die die Arché „exhaurieren”, indem sie alles, worauf der forschende Blick der
Griechen fiel, im Lichte ihres Schul-Prinzips erklärten. So entwickeln sie schul-
mäßig Begründungsmetaphysiken, lange ehe der Name dafür erfunden war.
Zwar gab es Tendenzen zur priesterlichen Esoterik, zur Geheimlehre, zur Ab-
kapselung – wie bei den Orphikern, bei den Pythagoräern, den Gymnosophisten
aus Indien, auch bei den Ärzten, die im hippokratischen Eid zur Geheimhaltung
ihrer Kenntnisse verpflichtet wurden. Aber der agonal-öffentliche Geist der Grie-
chen zerrte alles ans Licht der Kritik und öffentlichen Diskussion. Die Konfron-
tation der Grundstandpunkte und der aus ihnen entfalteten Schullehren erwies sich
als der Motor der Bewegung: Kritik und Apologetik reinigten die diffusen Welt-
anschauungen schon früh zu wissenschaftlich-logischen Systemen. Parmenidei-
sches Einheitsdenken und demokriteischer Elementarismus, platonischer Idealis-
mus und aristotelischer Realismus bilden das Fadenkreuz der Extreme, zwischen
denen auch heute noch die metaphysischen Standpunkte oszillieren. Nicht minder
sind epikureisches Freiheitsdenken und stoischer Universaldeterminismus Weg-
marken für Grundentscheidungen geworden, zwischen denen skeptisch-zeteti-
sches Denken einen mittleren Kurs der Wahrscheinlichkeit zu steuern versucht.
Hier läßt sich nun ebenfalls ein Gesetz andeuten, das den Evidenzcharakter der
Archai im Rahmen des griechischen Denkens – und später des abendländischen
Denkens – regiert. Wir möchten es das Gesetz der wechselseitigen Plausibilisie-
rung der metaphysischen Axiome im Kontext der Schulbildungen nennen.
Ersichtlich bildet das, was die eine Schule als nicht hinterfragbare Arché an den
Anfang ihrer Welterklärung stellt, für andere Schulen gerade das Problem, das sie
durch Ableitung und Erklärung von ihrem eigenen jeweiligen Standpunkt, ihrer
Arché her zu lösen versuchen. Was sich den einen als das Evidente schlechthin
darstellt, ist es und kann es nur sein, weil es durch die Erklärungsarbeit der Kri-
tiker so evident geworden ist. Mit anderen Worten und in logischer Sprache: Was
319

bei den einen die Spitze ihrer metaphysischen Begriffspyramide bildet, ist den
anderen ein abgeleiteter Begriff oder gar ein bloßes Faktum an der Basis ihrer
Gedanken- Pyramide.
Das setzt die Einheit des Diskursuniversums voraus, in dem die Griechen und
seither die abendländische Philosophie sich bewegten. Der Streit und die gegen-
seitige Kritik der Schulen hat dieses Universum nach allen Richtungen hin durch-
messen, hat die Begriffe und Prinzipien isoliert und wieder in mannigfache neue
Verknüpfungen eingestellt, deren philosophiegeschichtliche Tradition sie der
heutigen Begründungsdiskussion in Einzelwissenschaften wie in der Metaphysik
selber noch immer als plausible Argumente, als metaphysische Topoi zur Ver-
fügung stellt. Gewiß ist manches davon in der Patristik und Scholastik unter der
Schulherrschaft des Neuplatonismus und des Aristotelismus in den Hintergrund
getreten und vergessen worden. Aber es war die große Leistung der Renaissance,
sie „ad fontes“ wieder aufzusuchen und für einen neuen Diskurs aller antiken
Schulgesichtspunkte bereitzustellen.
320

B. Das Mittelalter: Patristische und scholastische Wissenschaftslehre

§ 25 Der ideengeschichtliche Kontext.


Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken
Erbes im Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „hö-
heren Fakultäten“ Theologie, Jurisprudenz und Medizin als praktische Berufsstudien. Die philo-
sophische Fakultät d. h. die „Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die
„2. Wende zum Subjekt“ bei Augustinus.

Das von dem Hallenser Historiker Christoph Cellarius (Keller) im Jahre 1688
zwischen Antike und Moderne eingeschobene „mittlere Alter” hat in historischer
Hinsicht nichts von einem Lückenbüßer an sich. Denn die Zeit zwischen Völker-
wanderung und „Wiedergeburt der Wissenschaften“ war schon längst als beson-
dere Epoche dargestellt worden. Als „Kurz und bündig vorgestellte Universalge-
schichte, eingeteilt in antikes, mittleres und neues Zeitalter, mit fortlaufenden An-
merkungen“ (Jena 1692) hat das „Mittelalter“ gemäß dem Vorschlag des seiner-
zeit sehr bekannten Lehrbuchverfassers Cellarius am meisten Anklang gefun-
den.145 Die Bezeichnung war für die Historiographie eine bald überall nachgeahm-
te Neuerung.
Es ist das Zeitalter der Ausbreitung einer christlichen Kultur und Zivilisation in
den nördlichen Gefilden des römischen Weltreiches, dessen ideologische Unterla-
ge der Neuplatonismus geblieben ist. Neue Völker eigneten sich die Inhalte der
antiken Kultur und Zivilisation an und richteten sich in ihren noch bestehenden
Institutionen ein.
Die üblich gewordene Einschätzung der Verhältnisse, die bis heute gepflegt
wird, lautet: Die Philosophien der antiken Bildung rüsteten sich mit staatlicher
Macht und Waffen und traten zu Kreuzzügen gegeneinander an: Islamischer
Aristotelismus gegen neuplatonisches Christentum und umgekehrt bis zum Patt
waffenstarrender Weltmächte. Aber diese Einschätzung gehört zu den historischen
Mythen.
Was den sogenannten (lateinischen) Westen betrifft, ging es in internen Ausein-
andersetzungen von Gelehrten und Klerikern um die „reine Lehre” in mannigfalti-
gen Schismen, die die antike Ideenkonkurrenz im Abendland perpetuierten. In der
Perspektive der „abendländischen Philosophie“ und meist nur der römisch-latei-
nischen befangen, sind wir auf Grund jahrhundertelanger Vernachlässigung der
historisch-philologischen Aufarbeitung der alternativen Denkschulen des vorderen
Orients, der auch zum römischen Weltreich gehörte, auch heute noch nicht in der
Lage, die wirklichen Traditionen, die zur neuzeitlichen wissenschaftlich-techni-

145
Chr. Cellarius, Historia Antiqua, Zeitz 1685; Historia Medii Aevi, Zeitz 1688; beide zusammengefaßt und fortgeführt
als Historia universalis breviter ac perspicue exposita, in antiquam, et medii aevi, ac novam divisa cum notis perpetuis“,
Jena 1692. Die Fortführung erschien auch gesondert als Historia Nova, Halle 1696.
321

schen Zivilisation des Westens und der Kultur des nahen Ostens im „Hinterland“
von Byzanz führen, angemessen zu würdigen und ihre sämtlichen Früchte zu
genießen. Hier kann uns die hochscholastische Rezeption des durch den Islam in
eigentümlicher Ausprägung übernommenen Neuplatonismus durch viele islami-
sche „Mystiker“ wie al-Ghazali und die Verschmelzung des Neuplatonismus mit
aristotelischen und stoischen Elementen bei den zu einseitig „Aristoteliker“ ge-
nannten Philosophen von al-Kindi bis al-Farabi und ibn-Rushd (Averroes) mit-
samt ihrer ausgebreiteten positiven Wissenschaftlichkeit noch immer eine Lehre
sein.
Daß Aristoteles bei islamischen Theologen so großes Interesse gewann, dürfte u.
a. auch darauf beruhen, daß einige unter seinem Namen im arabischen Sprach-
raum verbreitete Texte von den Neuplatonikern stammen. Das lenkte die Auf-
merksamkeit auch auf die übrigen Schriften des Aristoteles. Das Hauptdokument
war die „Theologie des Aristoteles“, welches ein Auszug aus den Büchern IV –
VI der „Enneaden“ Plotins ist. Es wurde um 840 aus dem Griechischen ins Ara-
bische übersetzt, später auch vom Arabischen ins Lateinische. Es gelangte so in
die frühesten gedruckten Aristotelesausgaben.146 Ebenso gelangte unter dem Na-
men des Aristoteles ein ins Arabische übersetzter Auszug aus Proklos‟ „Institutio
theologica“ in die lateinischen Aristotelesausgaben. Es ist der „Liber de causis“.147
Jedenfalls dürfte der Missionserfolg des Islam unter der Flagge des „Aristote-
lismus“ sehr dazu beigetragen haben, daß auch die abendländischen Theologen
sich einem vertieften Aristotelesstudium nachhaltig zuwendeten.
In der Spätantike hatte der Neuplatonismus die Zwei-Welten-Lehre von der
diesseitigen sinnlich-phänomenalen und der jenseitigen übersinnlich-geistigen
Welt zu einer selbstverständlichen Denkform gemacht. Der stoische Mikro-Ma-
krokosmos-Gedanke ließ den Menschen als Spiegelbild der ganzen Welt er-
scheinen. Mit seiner Leiblichkeit in die sinnliche Welt verflochten, sollte er in sei-
nem seelisch-geistigen Wesen am Übersinnlichen partizipieren.
Auf dieser Grundlage wird in einer „zweiten Wende zum Subjekt” nach innen
gewandte Seelenforschung zugleich Erforschung der Struktur der geistigen trans-
zendenten Welt. Psychologie und Bewußtseinsanalyse wird zugleich Erforschung
der transzendenten göttlichen Dimension. Alexandrinische Metaphern-Hermeneu-
tik lehrt, ihre Resultate als Chiffren und Sinnbilder des Göttlichen zu deuten. Zu-
gleich harmonisiert sie wissenschaftliche Einsicht mit den positiven Sagen reli-
giöser heiliger Schriften. Arché-Forschung als Grundlagen- und Begründungsfor-
schung nimmt die Gestalt von Theologie, von „Gotteswissenschaft“ an. Die
katholische Kirche und daneben die byzantinisch-orthodoxe Kirche etablieren sich
als wirkungsmächtige philosophische Institutionen zur Organisation metaphysi-

146
Carpentarius, Sapientissimi philosophi Aristotelis Stagiritae theologia sive mystica philosophia secundum Aegyptos, Paris
1572, neu hgg. v. Fr. Dieterici, Die sogenannte Theologie des Aristoteles aus dem Arabischen übers. und mit Anmerkungen
versehen, 1883.
147
O. Bardenhewer, Die pseudoaristotelische Schrift über das reine Gute, bekannt unter dem Namen liber de causis, arab./dt.
1882.
322

scher und positiv-einzelwissenschaftlicher Studien und zur praktischen Anwen-


dung ihrer Resultate in der Seelenleitung und Menschenbildung.
Zu diesem Zweck organisieren die Kirchen im Abendland, aber auch die isla-
mischen Herrscher in ihren „Medresen“ („Schulen“), nach den antiken Hoch-
schul-Vorbildern auch die Ressourcen und die Methoden der Forschung und
Lehre. Zugleich mit dem Kanon der religiösen Quellen wird der Kanon der Klas-
siker und Autoritäten festgestellt und interpretierend adaptiert und gepflegt. Die-
ser Vorgang hat in der staatlichen Feststellung und interpretatorischen Pflege und
Anwendung der antiken Rechtsquellen – kulminierend in der Promulgation des
Corpus Juris Justiniani im 6. Jahrhundert – ein öffentliches Vorbild.
Die Methode verpflichtet zur Auswertung und Benutzung der in den Quellen
liegenden Kenntnisse zur Gewinnung von Problemlösungen und Entscheidungen
anstehender Fragen. Harmonisierung von Widersprüchen in den Quellen, Wider-
legung und Abweisung unpassender Meinungen, kühne Überschreitung der Dog-
matik in innovativen Auslegungen gehören zum Methodenarsenal mittelalter-
lichen Lehr- und Forschungsbetriebes.
Die Materialien standen in den „Digesten“ des Justinianischen Gesetzbuches –
sie bestehen aus den Gutachten und Rechtsmeinungen der berühmten antiken
Juristen zu prominenten Rechtfällen - für die Juristen bereit. Ihr Vorbild wirkt
noch in den Entscheidungssammlungen hoher Gerichte der juristischen Dogmatik
fort. Für die Philosophen und Theologen waren die Quellen in den Darstellungen
der Disziplinen des Triviums und des Quadriviums, wie sie die spätantiken En-
zyklopädisten und Kompendiarier zusammengestellt hatten, zuhanden.
Die Ergebnisse der methodischen Forschungen liegen uns in den großen „Sum-
men” vor, die die Problemlösungen für die „Quaestionen” (Fragen), geordnet nach
einer Klassifikation der wissenschaftlichen Problemfelder, darbieten und zu weite-
rer Anwendung bereitstellen.
Ein solches Wissenschaftssystem mußte gewaltige Wissens- und Bildungsmas-
sen mobilisieren. Entsprechenden Stellenwert hatte die Propädeutik der formalen
und materialen Vorkenntnisse. Diese Propädeutik wurde unter Übernahme des
platonisch-neuplatonischen Kanons der freien Künste zur „Enzyklopädie der tri-
vialen und quadrivialen Disziplinen“ ausgebaut und in der philosophischen Fakul-
tät als „Vorstudium” bzw. Propädeutikum der höheren „praktischen” Fakultäten
Theologie, Jurisprudenz und Medizin organisiert.
Ihre Abkopplung vom Praxisbezug der höheren Fakultäten setzte die philo-
sophische Fakultät – im platonischen wie auch im aristotelischen Sinne – erst
recht für die „reine Theorie” um ihrer selbst willen frei und erlaubte die Entfal-
tung einer Eigendynamik der Ideenkonkurrenz. Die eigentlich „formalen” trivia-
len Disziplinen Logik, Rhetorik und Grammatik verschafften sich in „materialen”
Exempla-Sammlungen historisch-literarischer Dokumente eine immer ausgedehn-
tere Basis eigener hermeneutischer Forschung. Die „materialen” quadrivialen Dis-
ziplinen der Naturkunde formalisierten sich in der Durchdringung mit Mathe-
matik. In der „Mathematisierung“ der Natur nach Leitgesichtspunkten einer kos-
323

misch-musikalischen Harmonie haben sie das pythagoräisch-platonische Erbe


abendländischer Wissenschaft am reinsten bewahrt und es der Neuzeit zu umfas-
sender Ausbildung und Erweiterung zur Verfügung gestellt.
Nach der protagoräisch-sokratischen ersten Wende zum Subjekt, die den
Menschen als die Arché aller Dinge entdeckte, und die in des Protagoras Homo-
mensura-Satz nur ein unerfülltes Programm erhielt, führte die zweite, augusti-
nische Wende zum Subjekt zu späterhin immer festgehaltenen Einsichten einer
„subjektivistischen“ Bewußtseinsphilosophie, die alle Welterklärung vom Subjekt
und seinen Leistungen ableitete. In religiös-frommer Sprache entwickelt, wurden
sie im Augustinismus, später im protestantischen Denken ein fester Besitz. Seine
Umformulierung in neuzeitliche philosophische Sprache nahm dann geradezu die
Gestalt einer „Revolution der ganzen Denkungsart“ an. In der Tat ist die carte-
sische, dritte Wende zum Subjekt – wohlvorbereitet durch den Renaissance-
Neuplatonismus – eine Repristination der augustinischen Cogito-Lehre.

§ 26 Aurelius Augustinus (354 – 430)


1. Die Begründung der christlichen Theologie als Wissenschaft vom Göttlichen. 2. Dialektische
Dogmendefinition. 3. Die Seelenvermögen und die modellhafte Gotteserkenntnis im Spiegel der
Seele. 4. Die heilige Schrift und die wissenschaftliche Interpretation. 5. Das „Buch der Natur“ und
die Erkenntnis der sinnlich-phänomenalen Welt mittels der Zeit.

In Nordafrika geboren, ist Augustinus nicht nur der bedeutendste unter den frühen
lateinischen Kirchenlehrern (Patristikern), der Begründer der neuplatonisch-christ-
lichen Theologie, sondern auch einer der bedeutendsten Seelenforscher aller
Zeiten. Der platonische Mundus intelligibilis wird ihm zum Innenraum der Seele,
zum Bewußtsein, an dessen Grenzen er das Göttliche zu finden trachtet. Und
indem er alle Aufmerksamkeit und forschende Energie auf dieses Innenleben sei-
ner Seele lenkt, macht er Bewußtsein zum unerschütterlich-evidenten Beweis-
grund aller wissenschaftlichen Ableitungen, entwickelt an und in ihm die Katego-
rien zur philosophischen Analyse von Gott und Welt und formuliert dies alles zu-
gleich als Programm einer neuen epochalen Forschungswende.
Diese Wende ist, nach derjenigen des Protagoras, die zweite Wende zum Sub-
jekt in der abendländischen Philosophie.

1. Die Begründung der christlichen Theologie als Wissenschaft vom Göttlichen.


Daß jede Wissenschaft Voraussetzungen hat, die sie nicht begründen und ableiten
kann, konnte Augustinus aus Aristoteles‟ Logik und Euklids Mathematik lernen.
324

Wohlvertraut mit allen Schulmeinungen der antiken Philosophenschulen, wußte er


auch, welche Voraussetzungen in den einzelnen „Philosophien“ als Archai vorge-
schlagen und ausgewiesen worden waren.
Die aristotelische Ontologie, damals „Metaphysik“ genannt, nannte sich selbst
schon eine „Theologie“ (theologiké epistéme ὴἐήμη). Sie gab das
Vorbild, das Göttliche als letztes Ziel der Forschung, nämlich als „letzte Ursa-
chen“ in Verfolg des Vier-Ursachen-Schemas aufzusuchen und insofern. Das
mündete in einen Gottesbegriff als höchstes Sein, erster Beweger, abzuleiten
letztes Ziel, und in manchen Interpretationen auch als letzte (formlose) Materie als
Nichts (Me on) ein. Man bemerke, daß dies schon einen aristotelischen „trini-
tarischen“ Gottesbegriff ergibt, wenn die „Materieursache“ nicht in die Reihe der
Ursachen aufgenommen wird.
Die akademische Skepsis hatte diesen Gottesbegriff in Frage gestellt, und der
Neuplatonismus hatte die Grenzen dieser Ursachenforschung aufgezeigt. Die
Religionen der antiken Welt verkündeten vieles und Verschiedenes über den Gott
und die Götter. Nicht alle Religionen aber organisierten sich über einen Kultus
und die Sorge um eine „Gemeinde der Frommen“ hinaus. Aber die Aufgabe der
Philosophie war und blieb es, das Wahre an diesen Aussagen auszuzeichnen und
das Falsche auszuscheiden, um so zu einer zünftigen Theologie zu gelangen.
Augustinus ging dazu auf Platons Spur zu Parmenides zurück. Dieser hatte als
Wahrheitsfundament die „Einheit von Denken und Sein“ und als Falschheitsfun-
dament die Vielheit und Bewegung bzw. Veränderung in den sinnlichen Wahr-
nehmungen ausgezeichnet. Und so klingt Augustins berühmte Freilegung eines
„fundamentum inconcussum“ wie ein Kommentar zu des Parmenides Lehre:
“Du, der du dich kennenlernen willst, weißt du, ob du bist? Das weiß ich. Woher
weißt du das? Das weiß ich nicht. Empfindest du dich als einfach oder vielfach? Das
weiß ich nicht. Weißt du, ob du bewegt wirst? Das weiß ich nicht. Weißt du dich als
einen Denkenden? Das weiß ich.”148

Augustinus weiß, daß er „ist“ und daß er „denkt“. Das ist die parmenideische
Wahrheit. Ob er aber einfach oder zusammengesetzt ist, und ob er bewegt wird
und sich verändert, das weiß er nicht, denn das ließe sich nur durch sinnliche
Wahrnehmung feststellen. Sinnliche Wahrnehmung war für Platon - anders als für
Parmenides – allenfalls „glaubwürdig“, aber auch täuschungsanfällig. Die akade-
mische Skepsis hätte es „wahrscheinlich“ genannt, jedenfalls kein sicheres Wis-
sen. Augustinus aber entnimmt auch daraus ein Argument für die Wahrheitsthese
des Parmenides. Irrtum und Täuschung werden ihrerseits zum Argument für diese
Einsicht: „Wenn ich getäuscht werde, so bin ich.” 149
Ob er aber in dieser Frage getäuscht wurde, das wird ihm zu einem Forschungs-
programm. Es lautet bekanntlich:
148
„Tu qui vis te nosse, scis esse te? Scio. Unde scis? Nescio. Simplicem te sentis an multiplicem? Nescio. Moveri te scis?
Nescio. Cogitare te scis? Scio”, Aurelius Augustinus, Soliloquien II, 1 n.1.
149
„Si fallor sum”, Aurelius Augustinus, De libero arbitrio II, 3 n.7.
325

“Gehe nicht nach draußen, kehre in dich selbst zurück. Im inneren Menschen wohnt
die Wahrheit. Und wenn du die veränderliche Seele (scl.: die Seele als verän-
derlich!) gefunden hast, so gehe über dich selbst hinaus.” 150

Die Aufforderung zum „Über-sich-selbst Hinausgehen“ bzw. zum Transzendieren


des Subjekts kann in der augustinischen Version des Neuplatonismus nichts
anderes bedeuten als die „Apostrophé“: die Hinwendung zur Quelle von Vernunft
(Nous) und Seele (Psyché) im übervernünftigen und über-seienden Gotte. Es ist
das wissenschaftliche Verfahren der Ableitung „wahrscheinlicher“ Theoreme über
das Göttliche und zugleich der Akt der Homoiosis Theo.
2. Dialektische Dogmendefinition.
Was Augustinus „im Spiegel seiner Seele“ über das Göttliche ausmacht und
aussagen kann, wird in der dialektischen Form der Widersprüche definiert. Darin
war ihm Tertullian (ca. 150 – 230 n. Chr.) mit seinem „Credo quia absurdum“
vorangegangen, in welcher Formel die Späteren die widersprüchlichen Aussagen
des Tertullian über das Heilsgeschehen zusammengefaßt hatten. Sie lauten be-
kanntlich: „Gottes Sohn wurde gekreuzigt. Das ist nicht schändlich, weil es schänd-
lich ist. Und Gottes Sohn ist gestorben. Das muß man unmittelbar glauben, weil es
albern ist. Und nachdem er begraben war, ist er wieder auferstanden. Das ist sicher,
weil es unmöglich ist.“ 151
Augustinus übernimmt die Dialektik dieser Definitionen und wendet sie auf die
Definition seines Gottesbegriffes an:
„Damit wir Gott so verstehen, soweit wir es überhaupt können, (so ist er) ohne Qualität gut,
ohne Quantität groß, ohne daß ihm etwas abgeht schöpferisch, ohne Sitz (allem) vor-
sitzend, ohne Innehaben alles enthaltend, ohne Ort überall ganz da, ohne Zeit immer-
während, ohne jede Veränderung seinerseits (alles) Veränderliche machend und dabei
nichts leidend.“ 152
Daß die christliche Theologie mit Augustin ihren Grundbegriff und zugleich eine
Reihe weiterer theologischer Kategorien als Widersprüche in terminis definiert,
bedarf einer anderen Erklärung als die, welche spätere Theologen geben, wenn sie
– wie andere Wissenschaftler – davon ausgehen, die Widersprüche ließen sich
durch „Konsistenzreflexionen“ auflösen.153 Sie erkennen nicht, daß die Auszeich-
nung des Widerspruchs als Signatur der Dogmen eine eigene Tradition in der
abendländischen Theologie hat.

150
„Noli foras ire, in te ipsum redi, in interiori homine habitat veritas; et si animam mutabilem inveneris, transcende te
ipsum“, Aurelius Augustinus, De vera religione 39, n. 72.
151
„Crucifixus est dei filius; non pudet, quia pudendum est. Et mortuus est dei filius; credibile prorsus est, quia ineptum
est. Et sepultus resurrexit; certum est, quia impossibile est.” Tertullian, De carne Christi, Kapitel 5, 4 ; auch in: O.
Bardenhewer (Hg.), Bibliothek der Kirchenväter, Band 24, 1915, S. 19.
152
„Ut sic intelligamus Deum, si possumus quantum possumus, sine qualitate bonum, sine quantitate magnum, sine
indigentia creatorem, sine situ praesidentem, sine habitu omnia continentem, sine loco ubique totum, sine tempore
sempiternum, sine ulla sui mutationone mutabilia facientem nihilque patientem“, Aurelius Augustinus, De trinitate V, 1
und 2.
153
Vgl. R. Rieger, Contradictio. Theorien und Bewertungen des Widerspruchs in der Theologie des Mittelalters, Tübingen
2006.
326

Dies erklärt sich jedoch daraus, daß das dialektische Verfahren in der platonischen
Mathematik und in Euklids „Elementen“ vorgeprägt war. Es beruht auf der These,
daß die mathematischen „Ideen“ nicht in der sinnlichen Erscheinungsweise von
Zeichen und Zeichnungen ausgedrückt werden konnten, sondern in der „Schau
mit dem geistigen Auge“ zu denken sei. Die Dialektik war dabei selbst die
Demarkation des „Übersinnlichen“ gegenüber dem sinnlich Erscheinenden. Da-
rauf konnte sich auch Augustin berufen, eben weil die mathematisch Gebildeten
mit diesem Verfahren längst vertraut waren und damit ihre mathematischen Ein-
sichten begründeten.
Aber dies blieb nicht der einzige Weg der theologischen Begriffsbildung. Der
andere und undialektisch-logische führte über die Metaphorik und Modellde-
monstration zu weiteren Aussagen darüber, was das Göttliche sei. Das Grund-
modell dazu bilden die Befunde, die Augustin in seiner Seelenforschung ausge-
macht hatte. Das Modell der eigenen Seele und des Bewußtseins wird zum Leit-
faden dieser theologischen Folgerungen.
3. Die Seelenvermögen und die modellhafte Gotteserkenntnis im Spiegel der
Seele.
Augustinus folgt der platonischen und aristotelischen Dreiteilung der Seelen-
vermögen, in der die Vernunft den obersten Rang innehatte. Er setzt jedoch neue
Gehalte in die Trias ein. Er unterscheidet Gedächtnis, Vernunft und Wille (memo-
ria, intellectus, voluntas). Dabei läßt er erkennen, daß er letzterem, dem Willen,
den Vorrang unter den Vermögen einräumt. Der Willen „ist gewissermaßen in
allen anderen (Vermögen), ja diese sind alle nichts anderes als Willensbestre-
bungen“. 154
Diese auffällige Neuerung gegenüber dem griechischen und römischen rationa-
listischen Menschenbild, die revolutionär genannt werden muß, dürfte eine juden-
christliche Erbschaft sein. Denn die jüdische Gottes- und Seelenvorstellung war in
der talmudischen Interpretation der Torah grundsätzlich voluntaristisch. Jahweh
ist als Weltschöpfer, Gesetzgeber und Weltenrichter ein Willenswesen. Daher
wurde und wird im jüdischen Menschenbild auch der Mensch grundsätzlich als
Willenswesen angesehen, für den es nichts Wichtigeres gibt als willige Unter-
werfung unter Gottes Gebote, seinen Richterspruch und seinen unerforschlichen
Ratschluß über die Zukunft seines Volkes.
In seinem Willensbegriff verankert Augustinus den platonischen Antagonismus
von Trieb („Epithymetikon“) und „Muthaftem“ („Thymoeides“), so daß er von
einer inneren „Selbstzerreißung des Willens“ sprechen kann. So wird ihm der
Wille zum Vermögen der Freiheit, durch welches der Mensch die Wahl der Zu-
oder Abwendung vom Göttlichen hat. Freiheit wird im Willen selbst verankert.
Dies wird wiederum eine Voraussetzung dafür, daß der auf Augustinus sich

154
„Voluntas est quippe in omnibus, immo omnes nihil aliud quam voluntates sunt”. Aurelius Augustinus, De civitate Dei
XIV, 6. -
327

gründende abendländische Voluntarismus die epikureische Naturkontingenz und


Wahlfreiheit metaphysischen Rang verleiht.
Bedeutsam aber, und mit verhängnisvollen Folgen für alle späteren Bewußt-
seinstheorien, ist die Tatsache, daß Augustin auch allen Vermögen (dialektischen)
Reflektionscharakter zuspricht: Das Gedächtnis enthält Ideen, aber auch sich
selber; die Vernunft erkennt anderes, aber auch sich selbst (dies hatte Aristoteles
als „noesis noeseos” nur dem ersten Beweger vindiziert); der Wille ist frei, seine
eigene Freiheit zu wollen oder auch nicht.
Diese Lehre wird ihm die plausible Unterlage einer „Theologie”, die die man-
nigfaltigen neuplatonischen Hypostasierungen triadischer Einheiten und Kräfte zu
einem wissenschaftlichen Begriff einer trinitarischen Gottheit zusammenfaßt. Wie
die menschliche Seele eine einheitlich-ganze ist und doch in drei Vermögen und
Kräften wirkt, so auch Gott der Eine in den „Personen” des Vaters, des Sohnes
und des heiligen Geistes. Gott-Vater ist memoria, der (platonische) überhimm-
liche Ort der Ideen und Schöpfungspläne vor aller Schöpfung. Der Sohn ist intel-
lectus (intelligentia), göttliches Wissen und Erkenntnis der ganzen Schöpfung.
Der heilige Geist ist die Schöpferkraft des Willens und die liebende Zuneigung
des Gottes zu seiner Schöpfung. Noch in vielen anderen Analogien spielt
Augustin diesen Parallelismus durch. Der Cusaner wird ihn später wieder auf-
nehmen. In der hegelschen Dialektik findet der Gedanke seine säkulare Apo-
theose.
Aber die augustinische Synthesis der platonischen Ideenlehre, der stoischen
Ananke-Weltvernunft mit ihrem Universaldeterminismus und des epikureischen
Freiheitsprinzips läßt alle alten Schulstreitigkeiten am Gottesproblem sich neu
entzünden. Die Fragen der Vereinbarkeit oder Unvereinbarkeit des rational-intel-
lektualistischen und des voluntaristischen Prinzips, der Freiheit und der Notwen-
digkeit, der Allmacht und prädestinierenden Allwissenheit Gottes erzeugen eine
Jahrhunderte währende Logomachie, die im theologischen Raum nicht entschie-
den, in konziliaren Konkordienformeln eher verunklart, in Ordens- und Konfes-
sionsrichtungen parteilich weitergeführt und bis heute auch in den Weltanschau-
ungskämpfen nicht verstummt ist. Noch die Hintergrundmetaphysiken moderner
Wissenschaften – zwischen kausalem Determinismus und kontingentem Indeter-
minismus - kann man durch ihre theologische Traditionsform hindurch bis auf die
genuinen antiken Ursprünge zurückverfolgen.
Augustinus selbst hatte zwar grundsätzlich für den Voluntarismus votiert, in
seinen späten Jahren aber gegen Pelagius – der die absolute Freiheitslehre ent-
schieden vertrat – seine Prädestinationslehre entwickelt, die dem göttlichen Vor-
herwissen und damit dem Rationalismus größeren Raum gab. So blieb auch seine
Theologie eine Herausforderung zu interpretatorischer Harmonisierung oder
glaubender Hinnahme und Anerkennung einer dialektischen Concordantia discors
von Wille und Vernunft.
328

4. Die heilige Schrift und die wissenschaftliche Interpretation.


Augustinus wäre nicht der große Theologe geworden, der er ist, wenn seine Philo-
sophie nicht als rationale Sinngebungskonstruktion so vieler religiöser Überliefe-
rungen der alten Welt und besonders der Schriften des Paulus und der Evange-
listen hätte dienen können und gedient hätte.
Für einen Neuplatoniker hatte die messianische Heilsgeschichte durchaus nichts
Wunderbares. Die umlaufenden Viten des Pythagoras (etwa von Jamblichos) zeig-
ten ganz ähnliche Züge. Apollonios von Tyana stilisierte sein eigenes Leben als
Wanderprediger und Heilsbringer nach diesem Bilde und wurde nachher mit
Tempeln und Standbildern als Gott verehrt. Gottessohnschaft wurde fast allen
außerordentlichen Menschen nachgesagt, und Jungfrauengeburt, in vielen alten
Sagen ein ständiger Topos, war durch keine physiologische Einsicht als unmög-
lich erklärt. Auch war juristisches Denken in den handeltreibenden Nationen des
Mittelmeerraumes genügend verbreitet, um auch einen Gott als Vertragspartei
vorzustellen, der eifernd auf Erfüllung eines Vertrages besteht und sich bei Unver-
mögen der Leistung mit einem Sühneopfer begnügt.
Das Problem war keineswegs, heute vernunftwidrig erscheinende Tatsachen
dem Glauben zu überantworten, wie es der Jurist und Stoiker Tertullian hinge-
stellt hatte, und wie sie tatsächlich später mit besserem Wissen über die natür-
lichen Prozesse zum größten Problem der kirchlichen Theologie wurden. Es ging
vielmehr darum, höchst plausibel erscheinende Tatsachen und ihre Tradition von
anderen ebenso plausiblen so zu unterscheiden und abzugrenzen, daß sie als sinn-
liche Symbole für das göttliche Wesen stehen konnten. Diesen Nachweis hat
Augustinus in seiner Zeit überzeugend geführt.
Augustinus liest die heiligen Schriften als historische Dokumente: Es sind Be-
richte über geschichtliche Ereignisse, in denen sich das Walten und Wesen der
Gottheit offenbart. Hier ist nun sein Buch über den „Gottesstaat” (De Civitate
Dei) von größter Bedeutung geworden. Es liefert die zu dieser Schriftauslegung
passende Geschichtsphilosophie, indem es alle historischen Fakten der Überlie-
ferung und seiner eigenen Gegenwart im Lichte eines göttlichen Heilsplans – der
„Gedanken Gottes“ – deutet und ihnen somit Sinn verleiht. Die alttestamentliche
Geschichte des Volkes Israel, die Prophezeiungen, die in ihr enthalten sind, das
Wirken des Christus, das Pfingstgeschehen und die spirituelle Gemeinschaft der
Kirche bis zur versprochenen Wiederkehr des Gottessohnes – vom Weltbeginn bis
zum Weltende – liest sich hier als die dramatische Geschichte des Gottesstaates in
seiner Auseinandersetzung mit den weltlichen Gewalten der „Civitas terrena”, die
wohl Widerstand und Impedimente sein können, am Ende aber in einer „apoka-
tastasis panton“ (Wiederherstellung aller Dinge) überwunden werden.
So werden die Heilstatsachen (gesta salutis) zu einer einzigen, eindimensional
fortschreitenden, gegliederten Heils- und Weltgeschichte zusammengefaßt und
theoretisch in ihrem Stellenwert für das Ganze erklärt und abgeleitet. Diese Ge-
schichtsphilosophie hat alle damals existierenden nationalen, religiösen oder dy-
nastischen Historien, die der geschichtlichen Identifikation und Legitimation oder
329

Glorifizierung bestehender Einrichtungen dienten, weit hinter sich gelassen und


das Vorbild aller späteren entwickelnden teleologischen Geschichtsdeutungen ab-
gegeben.
Augustinus„ Schriftdeutung hat dem Abendland seinen Begriff von der Einheit
der Weltgeschichte und der Ausgezeichnetheit der abendländisch-christlichen
Kultur darin gegeben. Er bildete den Rahmen, in dem die Geisteswissenschaften
für Jahrhunderte nähere Ausgestaltung, Fortschreibung und Korrekturen erarbei-
teten, ohne ihn grundsätzlich in Frage zu stellen.

6. Das “Buch der Natur” und die Erkenntnis der sinnlich-phänomenalen Welt
mittels der Zeit.
Es ist ganz im Sinne des Neuplatonismus, daß Augustinus die äußere sinnliche
Welt als eine zweite Offenbarung des Göttlichen – neben der heiligen Schrift –
ansieht und von ihr als dem „Buch der Natur” spricht (in: De Genesi ad litteram),
ein Topos, der bis in die neuzeitliche Physik hinein immer wieder aufgegriffen
worden ist. Auf diesem Hintergrund versteht sich nämlich die Redeweise von der
„Interpretation der Natur” und die Suche nach den besonderen Schriftzeichen, in
denen dieses Buch geschrieben sein soll. Daß diese Schriftzeichen nur mathe-
matische Zeichen – Zahlen und Zahlverhältnisse und geometrische Gebilde – sein
können, ist ja eine genuin pythagoräisch-platonische Überzeugung, die bis in die
Gegenwart erhalten geblieben ist.
Gemeinsames Kennzeichen der Natur und aller natürlichen Phänomene ist seit
vorsokratischer Bestimmung die Vielheit und Veränderlichkeit, und dies im Ge-
gensatz zur Einheit und Unveränderlichkeit des Göttlichen gemäß neuplatonischer
Bestimmung der intelligiblen Welt der Ideen und des Göttlichen.
Worauf es daher auch nach Augustinus in aller Naturerkenntnis ankommt, das
ist die Erfassung ihrer ideellen Muster, der unveränderlichen Ideen als ihrer
Schöpfungspläne. Ideen sind für ihn „gewisse Hauptformen oder beständige und
unveränderliche Gründe der Dinge, die selber nicht geformt worden sind, viel-
mehr ewig und immer gleich bleiben, und die in der göttlichen Intelligenz ent-
halten sind.” 155
Die selber unveränderliche Idee aller phänomenalen Vervielfältigungen und
Veränderung ist nun die Zeit. Ihr widmet Augustinus eine Analyse, die bis heute
eine Herausforderung darstellt, bei der man nicht sieht, wie sie mit den seither
entwickelten subjektiv-psychologischen und objektiv-physikalischen Denkweisen
und Kategorien vereinbar sein oder auch nur verständlich gemacht werden könnte.
Hatte schon Aristoteles die Zeit als das „Maß der Veränderung nach dem Früher
oder Später“ bestimmt, so präzisiert Augustinus nunmehr, wo und wodurch diese
Veränderung gemessen wird, ja sogar überhaupt erst zustande kommt, nämlich in

155
„Principales formae quaedam vel rationes rerum stabiles et incommutabiles, quae ipsae formatae non sunt, ac per hoc
aeterne ac semper eodem modo sese habentes, quae in divina intelligentia continentur”. Aurelius Augustinus, De div.
quaestionibus 83, qu. 46.
330

der Seele bzw. im Bewußtsein: „In dir also, mein Geist, messe ich die Zeiten”
(Augustinus, Confessiones 11,27).
Dabei spielen nun auch die von ihm unterschiedenen Seelenvermögen ihre
besondere Rolle: Das Gedächtnis wird gleichsam zum Raum der Vergangenheit.
Der Wille erfüllt mit seinen Antizipationen, Absichten und Hoffnungen den Raum
der Zukunft. Sinnlichkeit und Verstand richten sich auf das je Gegenwärtige der
phänomenalen Welt. In diesem Gedanken liegt die These impliziert, daß sowohl
Vergangenheit wie auch Zukunft nichts Eigenständiges, „Objektives” sind, son-
dern ausschließlich eine ideelle Präsenz im Bewußtsein des Menschen besitzen.
Das mag Augustin von Sextus Empirikus gelernt haben.
Es wurde in § 20 anhand der skeptischen Kausaltheorie gezeigt, daß kausale
„Antezedentien“ gegenwärtiger Wirkungen immer schon ins Nichts versunken –
und somit gerade unwirksam geworden – sind, daß sie aber gleichwohl als Erinne-
rungsbilder von früher Wahrgenommenem „zum gegenwärtig Wahrgenommenen
hinzugedacht“ werden. Und spiegelbildlich dazu, daß alle prognostizierten Wir-
kungen von gegenwärtig Wahrgenommenem ebenso „noch nicht sind“ und daher
überhaupt nicht existieren. Auch sie werden zum Gegenwärtigen „hinzugedacht“.
Darin ist genügend klar gesagt, daß Vergangenheit und Zukunft keine ontologi-
schen, sondern rein erkenntnistheoretische Kategorien sind. Sie müssen im wahr-
nehmenden Subjekt als Konzepte vorhanden sein, damit dem gegenwärtig Wahr-
genommenen überhaupt eine Vergangenheits- und eine Zukunftsdimension zuge-
sprochen werden kann.
Augustinus wendet diesen Gedanken grundsätzlich auf die sinnliche Welt der
Phänomene an und erklärt damit auch deren Vielfältigkeit und Veränderung bzw.
die Bewegungen in ihr. Alle Phänomene sind schon deshalb vielfältig, weil jede
Wahrnehmung schon in den ideellen Rahmungen der Erinnerungen an vergangene
Wahrnehmungen und der Aussicht auf künftige Wahrnehmungen des gleichen
Typs stattfindet.
Erst recht ist dies bei jeder Bewegungswahrnehmung so. Die „momentane“
Wahrnehmung des Gegenwärtigen kann die Veränderung in der Bewegung nicht
wahrnehmen, wie man in der Filmtechnik seither wohl weiß. Denn hier werden
bekanntlich „stehende“ Momentaufnahmen aneinander gereiht. Erst die Erinne-
rung an das gerade gesehende Phänomen (das aber verschwunden ist!) und die Er-
wartung des nächsten Phänomens (das noch nicht da ist!) ergänzen die momen-
tane Wahrnehmung zu einer Bewegungs- und Veränderungserfahrung.
Es ist also gerade diese Synthesis von direkter momentaner Wahrnehmung und
von Wahrnehmungserinnerungen und -Antizipationen sowie ein klares Bewußt-
sein von dieser Syntheseleistung, die die Zeit als Signatur des Kosmos aisthetos
erzeugt. Und daß Augustinus genau dies analysiert hat, macht das eigentliche
Spezifikum seiner Zeittheorie aus. Darin liegt sein entscheidender Beitrag zur
Aufhellung des Zeitbegriffs.
331

Augustin geht jedoch darüber hinaus und liefert dafür auch die passende neu-
platonische Theorie der Seelenfunktionen, die diese Leistung der „Verzeitlichung
der Phänomene“ im Kosmos aisthetos vollbringen.
Es wäre jedoch kurzsichtig, diese Zeittheorie deswegen vorschnell als eine nur
„subjektive“ Zeitkonstitution abzutun, wie das bei allen denen geschieht, die
ohnehin auf der Basis eines ontologischen Realismus von der „Objektivität der
Zeit“ als physikalisch gesichertem Faktum ausgehen. Sie sind daran zu erinnern,
daß es bislang noch nicht gelungen ist, auch nur einen nicht-widersprüchlichen
physikalischen Zeitbegriff zu definieren. Denn von einem solchen müßte man
zumindest fordern, daß er den grundlegenden Widerspruch von newtonischer
(absoluter kosmischer) Zeit – gleichsam der „göttlichen Augenblickswahrneh-
mung“ des gesamten Kosmos – und der relativen (örtlich, inertial) beobachteten
Zeit des experimentierenden (evtl. raumfahrenden) Physikers auszuräumen. Sie
modellieren die „Zeit“ als Strecke im cartesischen Koordinatensystem (gewöhn-
lich als x-Achse neben der raumdarstellenden y-Achse), zählen die Punkte der
Zeitachse als Jetztpunkte, von denen jeder eine Totalansicht einer gegenwärtigen
Situation repräsentiert, und doch steht jeder Punkt auf der Zeitstrecke im Ver-
hältnis zu jedem anderen Streckenpunkt als dessen Vergangenheit oder Zukunft.
Der Zeitbegriff Augustinus„ wird nun keineswegs „theologisch begründet“.
Vielmehr benutzt Augustinus seine anhand der Naturerkenntnis gewonnene Ein-
sicht in das Wesen der Zeit dazu, Rückschlüsse auf die „Natur des Göttlichen“ zu
gewinnen.
Wenn gemäß dem dreiteiligen Seelenmodell auch der „trinitarische Gott“ durch
Erinnerung, Vernunft und Wille die geschaffene Welt regiert, so wird es sinnvoll,
theologisch darüber zu spekulieren, ob und wie es dabei mit einem göttlichen
Zeitplan stehe. Und auch dabei geht Augustinus zunächst von dem Gedanken aus,
daß der Gott seine gesamte Schöpfung zunächst einmal „mit einem Blick“, seinem
„Heute“ übersieht. Und so kann er sagen: „Wieviele unserer und unserer Väter
Tage sind schon durch dein Heute hindurchgegangen!” 156
Aber dieser Gott ist kein begrenztes Sinnenwesen, so daß es für ihn Augen-
blicke und Momente geben könnte. Eine der vorn genannten Definitionen lautete
ja, er sei „sine tempore sempiternum“ – „ohne Zeit immer-ewig“. Daher können
die göttliche Memoria und die Voluntas nicht dieselbe Funktion wie beim Men-
schen haben, nämlich die Schöpfung als ein bewegtes und veränderliches Gesche-
hen, als eine Geschichte, erscheinen zu lassen. Was dem Menschen als Geschichte
erscheint, muß im göttlichen „Heute“ bewahrt sein.
Das göttliche „Heute“ hat man später als ein „Nunc stans“, ein „stehendes
Jetzt“ bezeichnet. Aber es bedurfte der Einführung der Null als Zahl in die Arith-
metik, um die ganze sinnliche Erfahrungswelt der Phänomene auf den mathe-
matischen „Null-Punkt“ zwischen den Dimensionen der erinnerten Vergangenheit
und der prognostischen Zukunft zu bringen. Auf dem Jetzt-Punkt aber erweist sich
156
„Quam multi iam dies nostri et patrum nostrorum per hodiernum tuum transierunt.” Aurelius Augustinus, Confessiones
I, 4,10.
332

die ganze Welt der Phänomene als ein unausgedehntes Nichts gegenüber der
Welt der Vergangenheit und Zukunft, die das geistige Sein ausmachen. Dieser
idealistischen Konsequenz jedoch ist die Naturlehre bis in ihre jüngsten Ausläufer
stets ausgewichen.

§ 27 Die Enzyklopädisten und die Tradition antiken Wissens


Philosophiegeschichte bei Diogenes Laertios. Stobaios. Hesychios. Suidas. Athenaios. Eunapios.
Die Enzyklopädien der sieben freien Künste: Martianus Capella, Cassiodorus Senator, Isidor von
Sevilla, Beda Venerabilis, Vincenz von Beauvais und Gregor Reisch. Die Bedeutung des Boethius
für die Klassiker-Tradition.

Auch der Gedanke der Enzyklopädie geht auf Platon zurück. Die „runde Bildung”
(enkýklios paideía ἐύί) des freigeborenen Griechen durch Philo-
sophie, Wissenschaft und Künste war sein besonderes Anliegen im Entwurf seines
idealen Staates. Die Sophisten, insbesondere Isokrates, haben sie disziplinär orga-
nisiert. Aristoteles„ Wissenschaftsarchitektonik gab ihr die disziplinär-systema-
tische Gestalt.
Jedoch trat der ursprüngliche didaktisch-pädagogische Zweck enzyklopädischer
Wissensübersichten mit der Zeit zugunsten der disziplinär-systematischen Wis-
sensorganisation zurück, ohne sich freilich jemals gänzlich zu verlieren. Ersicht-
lich ging jedoch der Umfang des Wissens mit zunehmendem Bücherwesen, ge-
lehrter Tradition und Interpretation und schulmäßiger Aufbereitung der Gehalte
schon in der Spätantike weit über das hinaus, was jemals in der Lehre und Aus-
bildung verwendbar sein konnte. Die „Geschichte” der Kenntnisse als Fakten-
kunde mehr oder weniger seltsamer Meinungen der Vorgänger, Exzerpte und Re-
zensionen von Büchern, Florilegien und Anthologien, lexikalische Auflistungen
merkwürdiger Ausdrücke und Dicta oder von Personen und Sachen flossen in die
„Enzyklopädien” ein und gaben reichen Stoff zur systematisch-methodischen Ver-
arbeitung.
Erinnern wir zuerst an die umfassende „Philosophiegeschichte” des Diogenes
Laertios aus dem 3. Jahrhundert n. Chr. „Leben und Meinungen berühmter Philo-
sophen“, die uns als einzige unter vielen verlorenen erhalten ist. Sie war auch das
ganze Mittelalter hindurch bekannt und in vielen Abschriften, Umschriften und
Auszügen verbreitet.157 Bis ins 18. Jahrhundert, wo Jakob Brucker den Diogenes
157
Diogenes Laertius, Leben und Meinungen berühmter Philosophen, dt. von O. Apelt, (Philosophische Bibliothek), 2.
Aufl. Hamburg 1967. - Erste griech. Druckausgabe von Frobenius, Basel 1533; lat. Übersetzungen „De vitis, decretis et
333

Laertius durch ein umfassenderes Werk ersetzte und kompletierte, war er die
philosophiegeschichtliche Quellenschrift schlechthin.
Im 5. Jahrhundert lieferte Johannes Stobaios (aus Stoboi in Makedonien) „Zwei
Bücher naturphilosophischer und ethischer Auszüge“ aus ca. 500 teils verlore-
nen griechischen Dichtern und Schriftstellern, die ebenso eine wichtige Quelle
unserer Kenntnisse des antiken Denkens geworden sind.158
Hesychios aus Milet stellte im 6. Jahrhundert ein Lexikon griechischer Schrift-
steller, geordnet nach den Literaturgattungen zusammen. Es wurde als „Onomato-
lógos e pínax tôn en paideía onomastôn“ („὆óἢίῶἐ
ίὀῶ”) verbreitet.159 Die ursprüngliche chronologische Ordnung wur-
de erst in den Drucken durch die alphabetische ersetzt.
Dieses Werk fand im 10. Jahrhundert Nachfolge im berühmten Werk des „Sui-
das”, einem Sach- und Philosophenlexikon, das alle antiken Quellen über die
bedeutenden Wissenschaftler zusammenfaßte und so jahrhundertelang ein Stan-
dardwerk blieb.160 Die zahlreichen Ausgaben zeigen seine Benutzung bis in die
neueste Zeit.
Neben diesen ist auch das „Gastmahl der Philosophen” des Athenaios von
Naukratis aus dem 3. Jahrhundert eine beachtliche Informationsquelle.161 Es brei-
tet in lockerer Weise Referenzen auf mehr als siebenhundert antike Autoren und
fünfzehnhundert Werke aus.
Aus dem 4. Jahrhundert sind uns noch die Philosophenbiographien des Euna-
pius erhalten, die über einige spätäntike Philosophen, Rhetoren, Ärzte und andere
Gelehrten orientieren. 162 Nicht minder wirkte als Informationsquelle das „Tau-
sendbücherbuch” des Patriarchen Photios (820 – 891, aus Konstantinopel), eine
Sammlung von Auszügen und Kritiken von 280 Schriften, von denen viele sonst

responsis celebrium philosophorum libri decem“ schon Venedig 1475 und Nürnberg 1476; Oxfordausgabe von H. S. Long:
Diogenis Laertii Vitae Philosophorum, 2 Bde, Oxford 1964. – Lat.-griech. Ausgabe von M. Meibom, De vitis, dogmatibus
et apophthegmatibus clarorum philosophorum libri X, Amsterdam 1692 (mit antiken Abbildungen der Philosophen sowie
des Aigidius Menagius „Historia Mulierum Philosopharum“ im Bd. 2, S. 485 – 508); - Griech.-engl. Ausgabe von R. D.
Hicks, Diogenes Laertius, Lives of Eminent Philosophers, 2 Bde, 2. Aufl. Cambridge, Mass.-London 1959 – 1965. - Ein
Auszug daraus ist das Werk Walter Burleys „Liber de vita et moribus philosophorum“ aus dem Anfang des 14.
Jahrhunderts, das selber viele Auflagen erlebte, zuletzt hgg. von H. Knust, Tübingen 1886, Nachdr. Frankfurt 1964, dt.
Übersetzung: „Von dem leben, sitten und freyen sprüchen der alten philosophi haydnischen und natürlichen maister und
liebhabern der weysheit", Augsburg 1519.
158
Johannes Stobaeus, Eclogarum physicarum et ethicarum libri II”, Erstdruck Venedig 1536, dann Zürich 1543, Ausgabe
von A. H. L. Heeren, 4 Bde Göttingen 1792 – 1801. Neben diesem Teil seines Werkes haben wir von ihm noch ein „Flori-
legium”, hg. v. Th. Gaisford, Oxford 1822. Es wurde zusammen mit den Eclogen zuerst von Frellon 1608 in Lyon grie-
chisch und lateinisch herausgegeben.
159
Hesychios, “De viris doctrina claris, graece” zuerst 1572 in Antwerpen gedruckt, als “Hesychii Lexikon” in griech.-lat.
Parallelausgabe hg. v. J. Alberti, 2 Bände Leiden 1746 – 1766.
160
Suidas, Opera graece, Mailand 1499, Venedig 1514, Basel 1544; Ausgabe griech.-lat. von Aemilius Portus, Aurelianae
1619; Suidae Lexicon, graece et latine, ed. L. Küster, 3 Bde Cambridge 1705; ed. Th. Gaisford, 3 Bde Oxford 1834; ed. G.
Bernhardy, 2 Bde Halle 1834 – 1845; ed. A. Adler, Leipzig 1928 ff.
161
Athenaios, Deipnosophistai, zuerst gedruckt in dessen Opera, Venedig 1514, dann Basel 1535; lateinisch Basel 1556
und Lyon 1583; ed. J. Schweighäuser, 14 Bände, Zweibrücken 1801 – 1807; ed. C. Tauchnitz 4 Bände, Leipzig 1834.
162
Eunapii vitae philosophorum et sophistarum graece, hgg. von Hadrianus Junius, Antwerpen 1568, lat. Übers. von H.
Junius, Anterpen 1572; graece et latine hgg. von Henricus Commelinus, Heidelberg 1596. Spätere Ausgaben von E.
Boissonade, Amsterdam 1822 und Paris 1849.
334

verloren sind, und die hier z. T. mit biographischen Notizen über ihre Autoren be-
gleitet sind. Auch existiert von ihm ein Lexikonfragment. 163
Haben wir in diesen Werken die Quellen vor uns, die, durch die mittelalterliche
Philosophie bewahrt und tradiert, in der Renaissance durch den Buchdruck ver-
breitet, der neuzeitlichen Geisteswissenschaft den Stoff zur „Rekonstruktion” der
Antike vorgab – wofür natürlich die Gesamtwerke der Klassiker, soweit erhalten,
die maßgeblichen Ausgangspunkte abgaben – so fand in den mehr auf die Lehre
abgestellten „Enzyklopädien” einer Reihe von Autoren auch das naturwissen-
schaftliche Wissen der Antike seine kanonische Darstellung.
Den Auftakt setzte hierzu Martianus Capella aus Karthago mit seiner um 430 n.
Chr. verfaßten Schrift „Von der Vermählung des Merkur (d. h. des Götterboten
Hermes) mit der Philologie“.164 Es wurde zum Lehrbuch der sieben freien Künste
des Mittelalters, indem es teils in Versen, teils in Prosa die Lehrgehalte der trivi-
alen und quadrivialen Disziplinen als der Begleiterinnen der Philologie bei der
Hochzeit des Merkur-Hermes und der Philologie vorstellte. Eine umfangreiche
Kommentarliteratur und nicht minder viele bildliche Darstellungen der Protago-
nisten und der einzelnen „philologischen Disziplinen“ schloß sich an dieses Lehr-
buch an.165
Das zweite große Lehrbuch des Mittelalters war das um 544 n. Chr. verfaßte
Werk „Institutiones divinarum et saecularium lectionum” („Lehrbuch der Vorle-
sungen über Gottes- und Weltkunde“) des Flavius Magnus Aurelius Cassiodorus
Senator.166 Der erste Teil führt in die Theologie als Bibelstudium ein, der zweite
gibt dafür die Hilfsmittel der sieben freien Künste. Cassiodor, der zeitweilig römi-
scher Konsul, dann Sekretär bzw. Kanzler des Gotenkönigs Theoderich war, hat
später in dem von ihm gegründeten Kloster Vivarium das Sammeln, Abschreiben
und Übersetzen besonders griechischer Handschriften zur Hauptaufgabe seiner
Klosterbrüder gemacht und sich dadurch besondere Verdienste um die Tradierung
des antiken Schriftgutes erworben.
Das dritte umfassende Lehrbuch des Mittelalters sind die „Origines” bzw. „Ety-
mologiae” des Isidor von Sevilla, der 636 als Erzbischof von Sevilla starb.167 Es
handelt sich um eine Exzerptensammlung aus allen Wissensgebieten antiker und
patristischer Autoren. Die ersten drei Bücher von den zwanzig sind der Darstel-
lung der sieben freien Künste gewidmet. Insgesamt ist es ein „Realwörterbuch”
163
Photios, Myriobiblion, graece, Augsburg 1601, lat.: Photii Bibliotheca, Augsburg 1606; griechisch-lateinische Parallel-
ausgabe von D. Hoeschel und A. Schott, Genf 1613, auch Rouen 1653; Gesamtausgabe bei Migne, Patrologia Graeca Bde
101 – 104, Paris 1860; Photius, Bibliotheca, ed. I. Bekker, 2 Bde 1824.
164
Martianus Capella, De nuptiis Mercurii et Philologiae. Ausgabe von J. A. Götz, Nürnberg 1794; von U. F. Kopp,
Frankfurt a. M. 1836; von F. Eyssenhardt, 1866; von A. Dick, Leipzig 1925; die erste deutsche Übersetzung wird dem
Notker Labeo von St. Gallen im Jahre 1022 zugeschrieben, hgg. v. E. G. Graff, Berlin 1837.
165
Man findet eine reiche Auswahl dieser und anderer Bilder bei Lucien Braun, Iconographie Philosophie, 2 Bände
Strasbourg 1994 – 1996.
166
Cassiodorus Senator, Institutiones divinarum et saecularium lectionum. Ausgabe in dessen Opera omnia, ed. J.
Garetius, Rothomagi 1679; Venedig 1729; auch in: Migne (Hg.), Patrologia Latina Bde 69 –70; engl. Übersetzung von
Hodkin, 1886.
167
Isidorus, Originum sive Etymologiarum libri XX, Augsburg 1472; ed. E. V. Otto, Leipzig 1833; ed. W. M. Lindsey,
Oxford 1911. – Isidorus, De rerum natura, ed. G. Becker, Berlin 1857.
335

damaligen Wissens, das zu ausgebreiteter Kommentarliteratur Anlaß gab. Neben


diesem ist seine Schrift über die „Natur der Dinge“, eine Natur- und Weltbe-
schreibung auf Grund antiker und patristischer Vorgänger, eine wichtige Quelle
für die quadrivialen Studien geworden.
Auf ihn stützt sich besonders Beda Venerabilis (674 – 735) aus England mit
seiner gleichnamigen Schrift „Über die Natur der Dinge“ 168, die ebenso für die
mittelalterlichen Natur- und Astronomiekenntnisse von großer Bedeutung wurde.
Den Kulminationspunkt dieser enzyklopädisch-lehrhaften Bestrebungen bildete
in der Hochscholastik des Vincenz von Beauvais (gest. ca. 1264) „Größerer Spie-
gel” (Speculum maius).169 Er wird auch „Vierteiliger Spiegel” (Speculum quadru-
plex) genannt, weil er aus vier Teilen besteht: einem „Speculum naturale“, einem
„Speculum doctrinale“, einem „Speculum historiale“ und einem „Speculum mora-
le“. Die ersten drei sind um die Mitte des 13. Jhs. entstanden, der letztere erst
zwischen 1310 und 1320; er stammt also nicht von Vincenz selbst. Hier weitet
sich die Enzyklopädie über die freien Künste hinaus auf die Historiographie und
die praktische Philosophie aus. Bemerkenswert ist die Aufnahme jüdischer und
arabischer Lehrtraditionen, die ihrerseits bis dahin im Abendland verschollene
Wissensbestände der Antike vermitteln.
Das letzte mittelalterliche Werk dieser Art ist schließlich die „Margarita philo-
sophica” („Philosophische Perle“) des Kartäusermönchs Gregor Reisch (1470 –
1525) aus Balingen in Würtemberg. Es stellt in seinen 12 Büchern zunächst die
Disziplinen der freien Künste dar, gibt aber im 10. Buch („De anima et potentiis
eiusdem”) und im 11. Buch: „De natura, origine ac immortalitate animae intellec-
tivae”) der Psychologie - die freilich nach der Tradition zum Bereich des Quadri-
viums gehörte - eine hervorgehobene Stellung, und geht mit einem Buch über die
Moralphilosophie (12. Buch: „De principiis philosophiae moralis”) über dieses
klassische Schema hinaus. Es ist besonders bemerkenswert wegen seiner zahlrei-
chen Bilder und Illustrationen. Seine Wirksamkeit zeigen die vielen und an Um-
fang immer mehr zunehmenden Ausgaben.170 Es leitet zu den noch umfangrei-
cheren Enzyklopädien der Renaissance, z. B. des Johann Heinrich Alsted (1630)
über.
Für das Nachleben sowohl neuplatonischen wie auch aristotelischen Gedanken-
guts im Mittelalter hat neben den Genannten vor allem Anicius Manlius Torquatus
Severinus Boethius (ca. 480 - 524 oder 525) gewirkt. Unter dem Gotenkönig
Theoderich in Ravenna gelangte er zu höchsten Regierungsämtern. Er ging von
der grundsätzlichen Übereinstimmung Platons und Aristoteles‟ aus, indem er er-
168
Beda Venerabilis, De rerum natura. In den Gesamtausgaben Paris 1521 und 1544, Basel 1663, Köln 1612 und 1688;
englisch London 1843 – 1844; lat. auch bei Migne (Hg.), Patrologia Latina Bde 90 – 95,
169
Vincentius Bellovacensis, Speculum quadruplex, naturale, doctrinale, historiale, morale, Venedig 1484 und 1494,
Douai 1624; Nachdruck dieser Ausgabe in 4 Bdn, Graz 1965. Gesonderte Ausgaben des Speculum naturale und doctrinale
Straßburg 1473, zusammen mit dem Speculum historiale Nürnberg 1486.
170
Gregorius Reischius, Margarita Philosophic, 1. Ausg. Freiburg 1503, 2. Ausg. 1504, 3. 1508, dann 1512, 1515 und
1517; Nachdruck dieser Ausgabe „letzter Hand” hgg. von L. Geldsetzer in Instrumenta Philosophica Series Thesauri I,
Düsseldorf 1973. Weitere Ausgaben erschienen noch 1535 und 1583, eine italienische Übersetzung 1599 – 1600 in
Venedig.
336

sterem den materialen Gehalt, letzterem die formale Ausarbeitung einer gemeinsa-
men Philosophie vindizierte - eine Einschätzung, die in der Renaissance von vie-
len „Harmonisatoren“ wieder aufgenommen wurde.
Seine Schrift „Trost der Philosophie“ („Consolatio philosophiae“), die er im
Gefängnis vor der Vollstreckung seines Todesurteils wegen vorgeblichen Verrates
von Regierungsgeheimnissen an die Römer verfaßte, brachte ihm fast den Ruf
eines christlichen Heiligen ein. In ihr tritt seine „Trösterin Philosophie“ als Köni-
gin zusammen mit den sieben freien Künsten als Gefolge auf, was ihm zu aus-
führlichen philosophischen Erörterungen Gelegenheit gab, und was nachmals zu
zahlreichen bildlichen Darstellungen der Philosophie und der freien Künste führte
(u. a. in Reischs „Margarita Philosophica“.171
Diese Schrift bewirkte sicher auch die große Beachtung, die seinen lateinischen
Übersetzungen aus dem Griechischen der aristotelischer Logikschriften und sei-
nen Kommentaren dazu zuteil wurde, nicht minder auch seinen eigenen Schriften
zur Logik, Mathematik und Musiktheorie. Viele seiner Schriften sind verschollen,
aber es sind von ihm erhalten geblieben seine Übersetzung der aristotelischen
Hermeneutikschrift nebst zwei Kommentaren (Commentarii in libros Aristotelis
ὶἑί, 2 Bde, hg. v. C. Meiser, Leipzig 1877-1880), die Übersetzung
der „Kategorien“ mit einem Kommentar, die Übersetzung der „Isagoge“ des Por-
phyrius zum Organon mit einem Kommentar, und daneben seine eigenen logi-
schen Abhandlungen: Introductio ad categoricos syllogismos; De syllogismo cate-
gorico, De syllogismo hypothetico, De divisione, De differentiis topicis. Nicht zu-
letzt hat er auch Teile von Euklids „Elemente“ unter dem Titel „De geometria“
übersetzt und in seinem Lehrbuch „De institutione arithmetica“ eine Bearbeitung
der Arithmetik des Nicomachus von Gerasa geliefert. Diese Beiträge zum Quadri-
vium ergänzte er noch durch sein Lehrbuch „De institutione musica“, in der er
Vorgaben von Nicomachus von Gerasa, Euklid und Ptolemäus verarbeitete.172
Möglicherweise sind weitere Übersetzungen aristotelischer Logikschriften wie
diejenigen der Topik und ersten Analytiken nur deshalb untergegangen, weil sie
durch spätere Bearbeitungen ersetzt wurden, und diese werden gewöhnlich in den
Gesamtausgaben des Boethius noch mitabgedruckt. (Gesamtausgabe, hg. v.
Migne, Patrologia Latina Bde 63 - 64). Auf diese Übersetzungs- und Kommen-
tartätigkeit des Boethius bezüglich der aristotelischen Logik und der euklidischen
Mathematik ist deshalb besonders zu achten, weil es ja eine weit verbreitete Mei-
nung gibt, entsprechende Kenntnisse seien erst auf dem Umweg über den
islamisch-arabischen Aristotelismus oder gar erst durch die Leküre „in fontibus“

171
An. Manl. Torqu. Sev. Boethius, De Consolatione Philosophiae, Nürnberg 1476, Leiden 1671; auch in den Opera,
Venedig 1491 – 1492, Basel 1570; Migne (Hg.) Patrologia latina Bde 63 -64; dt. Übers. “Tröstung der Philosophie”, zuerst
hgg. von Wyle 1473, hgg. von J. G. Richter, Leipzig 1753, lat.-dt. hgg. von E. Gegenschatz und O. Gigon, Zürich 1949, 2.
Aufl. 1969, und zahlreiche andere Ausgaben. – Viele mittelalterliche Bilder dazu in dem genannten Werk von L. Braun.
172
Vgl. O. Paul, An. Manl. Sev. Boethius 5 Bücher über die Musik, aus dem Lateinischen ... mit bes. Berücksichtigung der
griechischen Harmonik sachlich erklärt, Leipzig 1872; De institutione arithmetica libri II, De institutione musica libri V,
accedit Geometria, quae fertur Boethii, hg. v. G. Friedlein, Leipzig 1867, Nachdr. Frankfurt a. M. 1966.
337

der Renaissanceeditoren im Abendland wieder bekannt geworden. In der Tat sind


sie im Abendland niemals unbekannt geblieben.
Nimmt man nun die Ausgaben der gesammelten Schriften der Klassiker der Phi-
losophie und die Lehrbücher einzelner Wissenschaften hinzu, die direkt erhalten
und in den Klöstern abgeschrieben und verbreitet wurden, so kann man ermessen,
welche ungeheuren Wissens- und Bildungsmassen der mittelalterliche Gelehrte
zur Verfügung hatte und die zu beachten und auszunützen das wissenschaftliche
Ethos gebot. Dieses Wissen mag in vielerlei Hinsicht falsch, unbegründet und
höchst irreführend gewesen sein. Dennoch gehörte zu seiner Durchdringung und
Bewältigung eine außerordentliche Geisteskultur, die recht eigentlich und bis in
unsere Tage den abendländischen Gelehrtentypus geprägt hat.

§ 28 Die scholastische Methode.

Die Lectio oder Vorlesung als Hauptmittel der Lehre und Textvermehrung. Ihr Fortleben bis heute.
Die Disputatio oder Diskussion und der Seminarbetrieb. Ihr Fortleben in einigen akademischen
Prüfungsverfahren. Die „Sic-et-Non-Methode“ oder „Quaestionenmethode“ als Forschungsmetho-
de der Alternativen von Wahrheit und Falschheit. Ihr Schema in den Dispositionen des Stoffes der
großen „Summen“. Ihr Fortleben im Gerichtsprozeß.

Was seit Martin Grabmanns Standardwerk „Die Geschichte der scholastischen


Methode” 173 so genannt wird, ist die Weise des Umgangs, der Ausnützung und
Zubereitung der überlieferten Wissensstoffe für aktuelle Problemlösungen. Sie
setzt die Existenz dieser im vorausgehenden Paragraphen behandelten Materialien
voraus.
Grundlage ist die „scholastische” Organisation von Lehre und Lernen in
Kloster- und Kathedralschulen, in den Palastschulen der Kaiser und Könige, und
dann an den Universitätsfakultäten. Diese ist ausgerichtet auf die Verlebendigung
der Schriftinhalte in den Köpfen, die leichte Verfügbarkeit möglichst vieler, ja
aller möglichen Gesichtspunkte, Argumente, Meinungen, die es zu irgendwelchen
Problemen und Fragen geben mag. Problemlösen setzt in erster Linie Kenntnisse
einschlägiger Argumente – und Gegenargumente voraus. Todsünde des Verfah-
rens ist hier Unkenntnis und Borniertheit und somit „Vergessen“ bzw. Nichtbe-
achtung schon vorhandener Argumente.

173
M. Grabmann, Die Geschichte der scholastischen Methode, 2 Bde, Freiburg i. Br. 1911, Neudr. Berlin-Darmstadt 1957.
338

1. Die Lectio.
Die „Vorlesung” ist im wörtlichen Sinne Lesung und Bekanntmachung – und für
den Dozenten immer wiederholte Erinnerung und Bekräftigung des Gedächtnisses
– der klassischen Texte. Der Schüler schreibt den Text mit, und was er so mühsam
und langsam geschrieben hat, prägt sich auch seinem Gedächtnis ein. Zur Vor-
lesung gehört dann die Erklärung und Erörterung des Textes. Auch dies wird am
Rande oder intermittierend in den diktierten Mitschriften notiert, woraus sich dann
in den späteren Druckwiedergaben die besondere Hervorhebung der Randnotizen
und „Zitationen“ in Fußnoten entwickelt.
Die „Glossen” und Interpretationen der berühmten Lehrer wachsen sich selber
zu einer besonderen Literaturgattung aus. Hier findet „zetetische Interpretation”
statt: Einfälle, Vermutungen, Verbesserungen und Korrekturen – auch „Ver-
schlimmbesserungen“ - des Textes, Parallelen zu anderen Schriften usw. werden
vorgetragen und erörtert.
Das brauchte seine Zeit. Man las drei Stunden en bloc, gewöhnlich von 6 – 9
Uhr am Morgen. Die heutige akademische Lehreinheit von 1 und ½ Stunden er-
gibt sich durch Hälftung. Die heutige Vorlesung hat sich auch – in den einzelnen
Disziplinen verschieden weit – nicht ganz von diesem Vorbild gelöst. Noch am
Ende des 18. Jahrhundert erinnert der preußische König seine Professoren an
diese Gepflogenheit und verpflichtet sie auf das „Lesen nach einem bestimmten
Lehrbuch”. Kirche und Kultusverwaltung haben diese Gepflogenheit weidlich zur
Kontrolle und Zensur der Lehrtätigkeit benutzt. Im nichtuniversitäten Schulwesen
– das sich immer schon gerne am universitäten Lehrbetrieb orientierte – ist sie
durch vorgeschriebene, zugelassene, genehmigte oder empfohlene Texte und ent-
sprechende Kurrikularmaßnahmen durchaus festgeschrieben.
In altphilologischen Vorlesungen konnte man noch vor einigen Jahrzehnten von
den letzten Meistern des Faches (wie Prof. Andreas Thierfelder in Mainz, an den
sich Verf. noch immer mit Hochachtung erinnert) die „Interpretatio continua” in
lateinischer Sprache zum griechischen Texte hören. Am reinsten haben wohl die
Juristen in dogmatischen Vorlesungen über die Gesetzestexte diese „Lectio”
beibehalten – mitsamt den jahrhundertealten Scherzen, die als Glossen den „status
quaestionis” so eindringlich erläutern. Und auch in den dogmatischen Vorlesun-
gen der Theologien hat sich vieles davon erhalten. Überhaupt ist das Vorliegen
von Lehrbüchern und ihre ständige Aktualisierung in immer neuen Auflagen ein
sicheres Anzeichen für die Lebendigkeit dieser alten Art von Vorlesungen.
Diese Lehrbücher haben die Autorität der Klassiker erreicht und oft überflügelt.
In den forschenden Geisteswissenschaften gibt es sie aber immer weniger. Hier
hat sich die Vorlesung seit dem 19. Jahrhundert immer mehr zur Mitteilung eige-
ner Forschungsresultate des Dozenten entwickelt – selbst wenn diese nur darin
bestanden, allerlei aparte Funde und vernachlässigte Texte zusammenzutragen
oder Spekulationen zu entwickeln. Wenn hier noch im buchstäblichen Sinne vor-
gelesen wird, dann oftmals aus eigenen Büchern des Dozenten oder aus Druck-
339

fahnen zu solchen. Die alte Lectio ist mehr und mehr in die Seminarübungen ver-
lagert worden, wo bekanntlich die „Lektüre und Interpretation” immer noch eine
große Rolle spielt.

2. Die Disputatio.
Sie schließt sich an die Lectio – oftmals en bloc von 9 bis 12 Uhr – an und dient
der Vertiefung und Durchdringung des in der Lectio dargestellten Stoffes. Der
Dozent oder ein Student (Proponent) übernimmt eine oder mehrere Behauptungen
bzw. Thesen aus den vorgestellten Texten, erläutert sie und zieht Konsequenzen
daraus. Ein ernannter Gegner (Respondent) oder die Kommilitonen stellen Gegen-
behauptungen auf, kritisieren die Ausgangsthesen, versuchen, Widersprüche in
ihnen oder in den Ableitungen aufzuweisen u. ä. Man bewegt sich dabei im Rah-
men der durch die Lectio vorgegebenen Thematik. Dies wird das Vorbild des
geisteswissenschaftlichen Seminarbetriebes.
In fast reiner Form hat sich die Disputatio in den akademischen Prüfungs-
verfahren alter Fakultäten, besonders im Habilitationskolloquium, erhalten.
Im „Kolloquium“ des Habilitationsverfahren vor der Fakultät (jetzt meistens
vor einer Habil.-Kommission) ist der junge Forscher gehalten, eventuell neue For-
schungsresultate in Thesenform vorzustellen und – gewöhnlich unter freundlicher
Sekundanz seines „Habilitationsvaters” oder der „Habilitationsmutter – gegen das
Plenum der Fakultätsmitglieder oder der Kommission zu verteidigen. Einige
Hochschulen haben diese Disputatio auch an Stelle des examen rigorosum (der
Doktorprüfung modernen Stils) wieder eingeführt.
Der speziellen Übung und Prüfung logischer Gewandtheit diente vermutlich
eine Einrichtung, die als „Obligationenlogik“ bekannt geworden ist. Hier gibt der
Dozent (Opponens) dem Prüfling (Respondens) eine (meist explizit) falsche These
vor, aus der - bzw. aus deren wahrem Gegenteil - der Antwortende logische Fol-
gerungen zu ziehen und seinerseits zu verteidigen hat. Gelingt ihm dies nach
logischen Regeln, unter denen die stoischen Schlußformen eine besondere Rolle
spielten, so gewinnt er das Obligationenspiel und wird gelobt. Verwickelt er sich
aber in Widersprüche oder gerät auf manifest falsche Antworten, so hat er ver-
loren.174

3. Die Sic-et-non bzw. Quaestionen-Methode. Sie ist eine aus dem Disputations-
betrieb erwachsene Methode zur Findung von Lösungen und Entscheidungen von
Problemen und Fragen (Quaestiones), die sich in bestimmten Problemfeldern der
Disziplinen stellen. Diese Probleme können theoretischer oder praktischer Art
sein. Die Bezeichnung, die vermutlich vom Titel der Schrift „Sic et Non“ des
Petrus Abaelardus übernommen wurde, dürfte etwas irreführend sein. Sie sugge-
riert, es würden die Pro- und Contra-Argumente als Widerspruch adjungiert (wie
dies tatsächlich von Abaelard hinsichtlich der Dogmenformulierungen auch
174
Vgl. dazu Chr. Pütz, Die scholastische Obligationenlogik. Ein Beitrag zum Nachwirken der stoischen Logik im Mittel-
alter, Phil. Diss. Düsseldorf 1987.
340

gemeint war!). In der Tat würde sie zutreffender als „Sic-aut-non“- Methode be-
zeichnet, da es ja um Argumente im Verhältnis einer Alternative geht, die gerade
die Forschungsproblematik klarlegen: Entweder ist die Sache so, oder das Gegen-
teil trifft zu. Ein Drittes wird nicht zugelassen.
Hier geht es um den Hauptzweck der Wissenschaft. Denn Lehren und Lernen
dient ja nur dazu, sich für Problemlösungen in Stand zu versetzen. Problemlösung
heißt in theoretischen Zusammenhängen, eine wahre Antwort auf eine sinnvolle
Frage zu finden. In praktischen Zusammenhängen geht es um die Findung der
richtigen (gerechten oder effektiven) Entscheidung eines Falles bzw. der überzeu-
genden Maxime für das Handeln. So kommt alles darauf an, erst einmal die
Übersicht über die zuträglichen und affinen Argumente und Gegenargumente
sicherzustellen, dann diese einzeln zu sichten und zu würdigen, schließlich das
durchschlagende Argument bzw. die maßgebliche Maxime auszuzeichnen und
überzeugend zu begründen.
Dafür ein regelrechtes Verfahren entwickelt zu haben, ist das große Verdienst
scholastischer Gelehrsamkeit. Es findet seinen unmittelbaren Niederschlag in den
großen „Summen” der Hochscholastik, die solche Aggregate von Problemlösun-
gen und Fallentscheidungen der wichtigsten oder tendentiell aller Probleme der
einzelnen Wissenschaftsbereiche aufzeichnen. Von Quaestio zu Quaestio fort-
schreitend, mobilisieren sie argumentativ das gesamte Wissenspotential, das ihnen
durch die Tradition der Klassiker vorgegeben war. Jede Quaestio wird dabei nach
dem gleichen Schema „sic-et-non” (wie gesagt, besser: sic aut non!) behandelt
und der Stoff entsprechend disponiert.

Das Schema lautet (vgl. etwa die „Summa theologica” des Thomas von Aquin):
1. „Quaestio“: Angabe der Fragestellung und evtl. Unterteilung in speziellere Ein-
zelfragen („articuli”), eingeleitet mit „utrum .....?“ („Ob ... der Fall ist?”).

2. „Videtur quod non” („Es scheint, daß nicht ...” bzw. „Was spricht dagegen?”
Hier werden alle Gegeninstanzen aufgeführt, nach Quellen zitiert, evtl. erläutert und
begründet. So kann sich eine lange Reihe ergeben, in der die einzelnen Argumen-
te stereotyp mit „praeterea” (außerdem“) eingeführt werden.
3. „Sed contra dicendum” („Dagegen ist aber einzuwenden ...”). Nunmehr werden
die Gegenargumente in der gleichen Reihenfolge wie unter 1 kritisiert und wiede-
rum Argumente aus Quellen herbeigezogen und mit den Gegenargumenten kon-
frontiert.
4. „Conclusio” („Beschluß” bzw. „Entscheidung”). Hier wird der Antwortsatz auf
die Ausgangsfrage gegeben.
5. „Respondeo dicendum” („Es ist festzustellen“ bzw. „ich antworte, daß ...”). Hier
wird eine ausführliche Begründung für die Conclusio, eine „Urteilsbegründung” ge-
geben, indem die einzelnen Gegeninstanzen und die positiven Argumente ab-
schließend gewürdigt und gegeneinander abgewogen werden. Die stereotype For-
mel lautet: „ad primum dicendum est ...”, „ad secundum dicendum ...” etc.
341

Man sieht leicht, daß dieses Verfahren noch im juristischen Prozeß im Prinzip
angewandt wird: Auch der Richter muß inzwischen den Argumenten des Klägers
und denen des Verteidigers im „Urteil” – das er noch immer „ein Erkenntnis”
nennt – den Fall entscheiden und diese Entscheidung, die auch noch „Beschluß”
heißt, begründen.
Es bleibt zu hoffen, daß die moderne Wende zur Argumentationstheorie auch
der alten „Sic-et-non-Methode“ wieder neuen Auftrieb verschafft. Denn ersicht-
lich krankt ja moderne Wissenschaft und insbesondere Geisteswissenschaft daran,
daß sie das, was hier vereint ist, zusammenhanglos und mit verhängnisvollen
Folgen betreibt. Sie behauptet, ohne sich um die Gegeninstanzen zu kümmern; sie
kritisiert, ohne ihre Voraussetzungen zu begründen; und dies alles allzu oft als
Antwort auf Fragen und Probleme, die nie in klarer Form gestellt werden, und die
oftmals keine sind.

§ 29 Der Universalienstreit und die Konstitution der wissenschaftlichen Objekte


Die neuplatonische bzw. platonistische Konstitution der Universalien als eigentliches Sein: „Uni-
versalia ante rem“. Der logische Aristotelismus bzw. Nominalismus spricht nur den Dingen (res)
und den Zeichen eigentliches Sein zu und leitet die Universalien von diesen ab: „Universalia post
res“. Die Perfidie der Bezeichnung „Ideenrealismus“ für den platonischen Standpunkt bei den
Aristotelikern. Die Konkordienformel des Albertus Magnus: „Universale ante rem, in re et post
rem“. Folgen für die Konstitution von Geistes- und Naturwissenschaften.

Der Universalienstreit, der sich durch die ganze Hochscholastik hinzieht und seit-
her in vielfach maskierten Formen bis heute andauert, konfrontiert die bis dahin
herrschende neuplatonische Ontologie mit dem demokriteisch-epikuräischen Ma-
terialismus und vor allem mit dem Aristotelismus. Es geht vordergründig um die
Frage des ontologischen Status der „Universalien”, d. h. der Allgemeinbegriffe,
Ideen, Bedeutungen bzw. Sinngebilde. In der Tat wird dabei aber darüber ver-
handelt, welche Art von Wirklichkeit überhaupt genuiner Gegenstand von Wis-
senschaft sein kann.
Für den zunächst herrschenden Neuplatonismus steht außer Frage, daß die
Ideen als das Allgemeine das eigentliche und wahre Sein darstellen. So hat es
auch schon Porphyrios in seiner Isagoge zum aristotelischen Organen heraus-
gestellt. Die Universalien sind geistige Sinngebilde. Durch Teilhabe an ihnen
haben auch die einzelnen Dinge (res) eine von ihnen somit abgeleitete und
sekundäre Wirklichkeit. Die dieses aussprechende Formel lautet: die Universalien
342

sind „vor den Dingen” (ante res), nämlich als geistige Wesenheiten, Baupläne,
Ideen im Geiste Gottes als des Schöpfers dieser einzelnen sinnlichen phäno-
menalen Dinge.
Diese neuplatonische Lehre über die Universalien wird von den aristotelischen
Kritikern, die zuerst als Logiker auftraten, „Ideenrealismus“ genannt. Unter dieser
Bezeichnung lebt die platonistische Ontologie seither fort. Die Bezeichnung un-
terstellt in etwas perfider Weise, daß die Platoniker die Universalien bzw. die
Ideen als „res“, also als „Dinge“ angesehen und behandelt hätten. Dies wäre aber
keinem Platoniker je in den Sinn gekommen, da die „res“ für Platoniker ja nur
„phänomenale“ und insofern ihrerseits von den Ideen abhängige Gebilde waren.
Die Bezeichnung „Ideenrealismus“ ist jedenfalls bis in moderne Ontologien
gängig geblieben und führt gelegentlich immer noch zu Mißverständnissen über
die Bedeutung dessen, was dabei „real“ sein soll.
Vom platonistischen Standpunkt aber wird „Geisteswissenschaft”, Ideenfor-
schung, Bedeutungsanalyse zur Grund- und Hauptwissenschaft. Die Betrachtung
der einzelnen Naturdinge und Sachen hat nur paradigmatischen Wert zur Veran-
schaulichung der ihnen zugrunde liegenden ideellen, begrifflichen und vor allem
mathematischen Gestaltungsprinzipien.
Dagegen richtet sich nun die Kritik der radikal-aristotelistischen Ontologie der
„Nominalisten”, die den Platonikern als die „Moderni” gegenübertreten. Für diese
sind gerade die einzelnen sinnlich wahrgenommenen materiellen Dinge, und nur
diese, eigentliche Wirklichkeit. Konsequenterweise sind für sie auch die Univer-
salien nur insofern wirklich, als sie materiell manifestiert werden können: d. h. in
sinnlich-materiellen Zeichen und Tönen. Roscelinus von Compiegne (1050 – 1223
oder 1125) nannte diese materialisierten Zeichen-Universalien geradezu „flatus
vocis“ (stimmliche Fürze), wie sein Schüler Abälard berichtet. Zeichen und Töne
und somit das Gesamt der Namen (nomina, daher die Bezeichnung „Nomina-
lismus“ für diesen Standpunkt) werden erst als Resultat der Erkenntnis der mate-
riellen Dinge gebildet, sie „folgen den Dingen nach” („universale post rem”).
Damit treten die „Realwissenschaften” des Quadriviums ins Zentrum der wis-
senschaftlichen Bemühungen. Die Naturwissenschaften als Wissenschaften von
den einzelnen realen Dingen übernehmen den Anspruch, Wirklichkeit schlechthin
und umfassend zu erkennen. Sie übernehmen von da an auch die Beweislast, das
durch materielle Zeichen manifestierte Denken und die Erkenntnisvorgänge selber
„materiell”, d. h. gehirnphysiologisch (wie man heute sagt), zeichentheoretisch
und akustisch zu erklären.
Das war in der Scholastik selbst jedoch noch nicht die Problemstellung. Zu
lebendig war noch die platonistische und auch von Aristoteles übernommene Vor-
stellung, daß hinter den materiellen Zeichen und Tönen noch etwas gerade
Nichtmaterielles zu denken, zu verstehen sein mußte, das somit auch unabhängig
vom materiellen Ausdruck existiere. Aber ersichtlich ist die Erklärung auch dieser
reinen Denk-Gebilde auf materialistischer Grundlage seitdem Programm der mo-
dernen vorherrschenden naturwissenschaftlichen Wissenschaftstheorie geblieben.
343

Der sogenannte Aristotelismus der Hochscholastik erhält erst im Gefolge dieser


entschieden materialistischen „nominalistischen“ Kritik am Neuplatonismus eine
bedeutende Funktion als Vermittlungstheorie, indem er sowohl dem Sein des All-
gemeinen als Denkgebilde wie dem der zeichenhaften „dinglichen“ Ausdrucks-
gestalten desselben Rechnung trägt. Der noch nicht „nominalistische“ radikale
Aristotelismus anerkennt sowohl die geistige Realität der Ideen im Geiste Gottes
und im Bewußtsein des denkenden Menschen als Formen der geschaffenen Dinge
wie auch das Sein der einzelnen Dinge als der aus Materie und Formen „konkre-
tisierten” (d. h. zusammengewachsenen) Substanzen. Und damit lenkt er alle Auf-
merksamkeit auf die materielle Fundiertheit des in Zeichen und Tönen niederge-
legten Wissens.
Eine Konkordienformel des Albertus Magnus (1193 - 1280), die er von dem
arabischen Philosophen Avicenna (Ibn Sina 980 – 1037) aus dessen „Buch der
Genesung“ (Kitab as-sifa) übernommen hatte, bringt dies zum Ausdruck:

“Es gibt drei Gattungen von Formen (Universalien): die eine besteht nämlich vor der
Sache, und das ist die Formursache. ... eine andere ist die Gattung der Formen selber,
die in der Materie fluktuiert; ... die dritte aber ist diejenige Gattung von Formen, die
durch die Abstraktion des Intellekts von den Dingen getrennt wird.” 175

Diese aristotelistisch zu nennende Kompromiß- und Konkordienformel bleibt –


wie überhaupt der Rahmen der aristotelischen Wissenschaftstheorie – das Fun-
dament für den Ausbau neuzeitlicher Wissenschaften und ihrer ontologischen Ob-
jektkonstitution.
Sinngebilde, Ideen, Strukturen, mathematische Formen und Gesetzlichkeiten
werden zum Forschungsgegenstand der „Formal-“ bzw. „Norm-“ und Geistes-
wissenschaften. Mathematik, Logik und Hermeneutik sind ihre methodischen In-
strumente. Die sinnlich-materielle Natur und ihre einzelnen Phänomene werden
dagegen zum Forschungsobjekt der Naturwissenschaften, die dieses Einzelne auf
sein ideell-gesetzmäßiges Wesen hin befragt und im Lichte allgemeiner Struk-
turen und Formen deutet.
Descartes wird mit seiner Unterscheidung von denkender und ausgedehnter
Substanz die ontologische Zweiteilung aller Realität in Geist und materielle Natur
zur Ausgangsbasis aller neuzeitlich-modernen Ontologie und wissenschaftstheo-
retischen Objektkonstitution machen. So jedenfalls in der herrschenden Interpreta-
tion der cartesischen Metaphysik als Zwei-Substanzen-Lehre. Malebranche in
Frankreich und Leibniz sowie die Deutschen Idealisten haben dem gegenüber
jedoch auch die (ausgedehnte) materielle Substanz des Descartes in gut neupla-
tonischer Tradition als „Idee“ interpretiert.

175
„Tria formarum genera: unum quidem ante rem existens, quod est causa formativa ... aliud autem est ipsum genus
formarum, quae fluctuant in materia; ... tertium autem est genus formarum, quod abstrahente intellectu separatur a rebus”.
Albertus, De natura et origine animae tractatus I, c. 2.
344

§ 30 Glauben und Wissen. Die Begründung des Glaubens durch Wissen und des
Wissens durch Glauben.
Glaubenswahrheit und wissenschaftliche Wahrheit: Die Philosophie als Dienstmagd der Theologie
versus die Autorität der Vernunft. Die Begründung des Glaubens durch logisches Wissen. Die
Definition des metaphysischen Prinzips bei Anselm und die Dialektik der Dogmen bei Abälard.
Wissen und Glauben bei Thomas von Aquin und Wilhelm von Ockham. Der Auftrieb des
quadrivial-mathematischen Studiums des „Buches der Natur“ als Glaubens- und Wissensquelle.
Die Rationalisierung der Dogmen durch die Mathematik bei Roger Bacon und Nikolaus von Kues.
Die Synthese des Nikolaus von Kues: die Docta ignorantia als höchste mathematische „Ver-
nunfteinsicht“. Die Lösung des Begründungsproblems: Jede Wissenschaft hat Glaubensvoraus-
setzungen. Die skeptische und stoische Begründungen des wissenschaftlichen Wissens durch
(wahrscheinliche) Meinung. Dogmatisierung der Wissenschaft und Verwissenschaftlichung der
Theologie. Logik und Mathematik als Reservate der Wissens-Gewißheit.

Eine Befassung mit mittelalterlicher Wissenschaftlichkeit hat sich mit dem Fak-
tum auseinanderzusetzen, daß die meisten Scholastiker bereit gewesen sind, Glau-
ben und Wissen als zwei Formen des Innehabens von Wahrheit anzuerkennen, die
sich gegenseitig ausschließen.
Es ist üblich, diejenigen scholastischen Gelehrten „Theologen“ zu nennen, die
die Wahrheit des Glaubens behaupten und wissenschaftliche Erkenntniswahrheit
vom Glauben abhängig machen. Man beruft sich dabei gerne auf die Maxime des
Augustinus und des Anselm von Canterbury „credo ut intelligam (Ich glaube,
damit ich einsehe). Die Maxime steht gewöhnlich sogar als Schlagwort zur Kenn-
zeichnung der ganzen Scholastik.
Das Schlagwort hat jedoch eine weit über das Verhältnis von Theologie und
(anderen) Wissenschaften hinausreichende Bedeutung. Sie reicht von der These,
man könne überhaupt nur dasjenige wissenschaftlich erkennen, was man schon
vorher glaubt, bis zu der entgegengesetzten, man dürfe nur das glauben, was man
schon vorher wissenschaftlich erkannt hat. Daß sich dahinter ein auch heute noch
virulentes Problem verbirgt, wurde vorn in § 4 schon gezeigt.
Wie es dazu kam und was uns aus der scholastischen Erbschaft bis heute geblie-
ben ist, soll im folgenden etwas näher beleuchtet werden.
Eingeschränkt auf das Verhältnis von Theologie und Philosophie ist allent-
halben der theologische Standpunkt in Erinnerung, den Petrus Damiani (1007 –
1072) auf die Formel von der „Philosophie als Magd der Theologie“ brachte:

„Wenn die Erfahrung menschlicher Wissenschaft auf die heiligen Schriften angewandt wird,
darf sie sich nicht in überheblicher Weise das Meisterrecht herausnehmen, sondern sie muß
wie eine Magd im Dienste ihrer Herrin gehorsam folgen, damit sie nicht irrt, wenn sie vor-
ausgeht.“ 176

176
„Artis humanae peritia si quando tractatis sacris eloquiis adhibetur, non debet ius magisterii sibimet arroganter arripere,
sed veluti ancilla dominae quodam famulatus obsequio subservire, ne si praecedit, oberret“. Petrus Damiani, De divina
omnipotentia. c. 5, 603.
345

Woran Immanuel Kant in seinem Buch über den „Streit der Fakultäten“ von 1798
mit feiner Ironie die Frage anknüpfte, „ob diese ihrer gnädigen Frau die Fackel
vorträgt oder die Schleppe nachträgt“. Aufgeklärte Wissenschaftler erkennen seit-
her nur die wissenschaftliche Erkenntnis als Wahrheitsgarant an und lehnen eine
Wahrheit des Glaubens ab. Allenfalls erkennen sie Glaubenswahrheiten nur inso-
weit an, als sie mit wissenschaftlich erkannten Wahrheiten übereinstimmen.
Solche Ausschließlichkeit von Glaubens- und Wissensansprüchen werden bis
heute auch in breiten Schichten der Bevölkerungen aufrecht erhalten. Noch jeder
„theologische“ Fundamentalismus, sei er jüdisch, christlich oder islamisch, grün-
det sich auf eine überwissenschaftliche Glaubensgewißheit der entsprechenden
religiösen Wahrheits-Offenbarungen. Und jeder „Szientismus“ läßt keine andere
Wahrheit zu als diejenige, die durch streng wissenschaftliche Methoden entdeckt
und gesichert worden ist.
Daß es sich dabei um Massenphänomene handelt, liest man an der polemischen
Sprache der jeweiligen Parteien ab. Der wissenschaftlich Gebildete hält seine Ein-
stellung für modern, fortschrittlich und sieht sie in Übereinstimmung mit der
intellektuellen und technischen Kultur. Er hält die Gläubigen für begriffsstutzig
oder beschränkt, rückständig, antimodern. Das artikuliert sich heute in Schriften
wie derjenigen von R. Dawkins „Über den Gotteswahn“. Umgekehrt hält der
Gläubige moderne Wissenschaft und Technik für verblendendes Teufelszeug, den
damit verbundenen Fortschritt aber für antihuman, unsittlich und letztlich nur zu
Katastrophen führend. Geht es dabei um Politik, so kann man mit beiden Ein-
stellungen noch immer die Jugend begeistern und die Alten bei der Stange halten.
Der „wissenschaftliche“ Standpunkt war freilich derjenige, den die neuplatoni-
sche Philosophie von vornherein gegenüber den „heiligen“ Schriften der antiken
religiösen Kulte eingenommen hatte. Er lag schon seit Philon von Alexandrien der
Hermeneutik des „Hintersinns“ (sensus mysticus) hinter dem Literalsinn der über-
lieferten Texte zugunde. Nur einem wissenschaftlich versierten Philosophen war
der eigentliche Hintersinn zugänglich. Es war die Botschaft, welche die Gelehrten
(sapientes) als „wahren Sinn“ der heiligen Schriften „auslegten“. Der Literalsinn
(sensus litteralis) und seine allegorische, moralische und anagogische Einkleidung
jedoch galt als das, was die Kultusgemeinde zu glauben hatte.
Man erinnere sich, daß für Platon die Wahrheit nur in der Erkenntnis der Ideen
lag. Die sinnlichen Erscheinungen aber waren das Feld des Glaubens (Pistis) und
der allenfalls wahrscheinlichen Meinung (Doxa). Für Aristoteles lag das höchste,
alles wissenschaftlich-gelehrte Wissen begründende Grundlagenwissen in der
Vernunfteinsicht in die Prinzipien, Axiome und unableitbaren Erstvoraussetzun-
gen („Gründe“, archai) des Seins und der Erkenntnis. Euklid hat diese Lehre von
den vorauszusetzenden Axiomen und Postulaten auch den Mathematikern und Na-
turwissenschaftlern vertraut gemacht. Diese Einsicht in die Erstprinzipien nannte
man gerade im emphatischen Sinne „Wissen“. Aber man war sich gleichwohl be-
wußt, daß es nicht begründet oder von etwas anderem oder Höheren abgeleitet
werden könne.
346

Die Entgegensetzung von unbegründbarem Begründungswissen und begründe-


tem, abgeleiteten Vertrauen bzw. „Glauben“ an das so „Bewiesene“ aber wurde
der Ausgangspunkt für eine Umkehrung dieses Verhältnisses in der scholastischen
Philosophie. Das vorauszusetzende, unbegründbare Begründungswissen wurde in
der Scholastik zum zentralen Gegenstand des Glaubens. Und alles daher Begründ-
bare wurde der Bereich des wissenschaftlichen Wissens.
Zweifellos ist es bis heute so geblieben, daß jede Wissenschaft einige für evi-
dent und unzweifelhaft gehaltene oder versuchsweise postulierte Grundsätze vor-
aussetzt, um daraus ihre Folgerungen und Ableitungen zu konstruieren. Der
Siegeszug der axiomatischen Methode und des methodischen Deduktivismus im
Mos geometricus seit dem 17. Jahrhundert und erst recht in der neueren Mathe-
matik seit David Hilberts Axiomatik hat diese Einstellung noch weiter verfestigt.
Zunächst bemühte man sich in den Wissenschaften, unter Vermeidung des Ter-
minus „Glauben“ andere Rechtfertigungen für die axiomatischen Voraussetzun-
gen für Wissensdeduktionen zu finden. Mit Aristoteles konnte man sich auf die
„Bildung“ berufen (wer in der Logik und ihren Grundsätzen „ungebildet“ ist, kann
nicht mitreden!); mit den Stoikern auf die „angeborenen“ evidenten Überzeu-
gungen „aller Weisen und Gelehrten“; und sogar mit den Skeptikern auf das „Tu
quoque“-Argument (Wenn du mit mir argumentieren willst, mußt du dieselben
Voraussetzungen machen wie ich!).
Die Scholastiker beriefen sich zu diesem Zweck auf die Autorität. Autorität
wurde so zu einem allgemeinen Argument, hinter dem sich recht verschiedene
Geltungsansprüche verbergen konnten. Einer davon war die Autorität der Bibel-
und Vätertradition, die sich als „Credo ut intelligam“ artikulierte. Dem voraus lag
historisch die auch in der Scholastik bekannte Maxime der Pythagoräer: „Autos
epha!“ (er selbst - nämlich Pythagoras - sagte es!). Es dürfte die erste Formulie-
rung eines autoritativen Geltungsanspruchs in der Philosophiegeschichte gewesen
sein.
In der Scholastik aber nahm das Autoritäts-Argument zunächst die Form der
Berufung auf die Vernunft selber an.
Ein frühes Manifest der Berufung auf die Autorität der Vernunft war der Aufruf
des Johannes Scottus Eriugena (um 810 – 877), sich von anderen Autoritäten
nicht einschüchtern zu lassen. Denn es gibt keine Autorität gegen die Vernunft!
„Keine Autorität soll dich von dem abschrecken, was eine auf rationaler Überlegung
beruhende Überzeugung lehrt. Die wahre Autorität steht nicht im Gegensatz zur rechten
Vernunft, noch die rechte Vernunft zur wahren Autorität. Daß nämlich beide aus einer
Quelle fließen, nämlich aus der göttlichen Weisheit, darüber gibt es keinen Zweifel. ...
Die Autorität ging aus wahrer Vernunft hervor, keineswegs aber die Vernunft aus der
Autorität. Jedwede Autorität, die nicht durch die wahre Vernunft bestätigt wird, er-
scheint als ungestalt.“ 177

177
„Nulla enim auctoritas te terreat ab his, quae rectae contemplationis rationabilis suasio edocet. Vera enim auctoritas
rectae rationi non obsistit, neque recta ratio verae auctoritati. Ambo siquidem ex uno fonte, divina scilicet sapientia, manare
dubium non est. ... Auctoritas ex vera ratione processit, ratio nequaquam ex auctoritate. Omnis enim auctoritas, quae vera
ratione non approbatur, informa videtur.“ Joh. Scottus Eriugena, De divisione naturae I, 66, 1 und I, 69.
347

Diese Vorrangfrage wurde dringlicher, als die Philosophen und die Theologen
sich mehr mit aristotelischer Logik vertraut gemacht hatten und nun jede Autori-
tätsaussage, also auch die etablierten theologischen Dogmen, mit den Mitteln der
Logik prüften.
Dem scholastischen Logikstudium hatte in Griechenland Michael Psellus (1018
– 1078 oder 1096) vorgearbeitet. Er war Rektor der seinerzeit wiederbegründeten
Athener platonischen Akademie, selbst ein Platoniker und insofern dem Aristo-
teles gegenüber einigermaßen kritisch eingestellt. Gleichwohl hat er mit seinen
logischen Studien und vor allem durch das ihm zugeschriebene Kompendium
Σύνουις εἰς ηὴν Ἀριζηοηέλοσς λογικὴν ἐπιζηήμην (Übersicht über die logische
Wissenschaft des Aristoteles) Vorschub geleistet.
Im lateinischen Westen war es dann ein Papst, nämlich Sylvester II, als Gerbert
von Aurillac (gest. 1003) vordem Abt des Klosters Bobbio, dann Erzbischof von
Reims und von Ravenna, der die Logikstudien – daneben aber auch die Befassung
mit Euklid und mit der Mathematik – unter Berufung auf Scottus Eriugena
propagierte und bei seinen zahlreichen Schulanhängern heimisch machte. Ein
anderer Papst, Johannes XXI, als Petrus Hispanus (in Lissabon geb. 1277), vor-
dem Kardinalbischof von Tusculum und auch als Arzt sehr berühmt, schrieb sogar
das am meisten verbreitete Lehrbuch der scholastischen Logik, nämlich die Sum-
mulae logicales (Kleine logische Summen). Sie erreichten auch im Buchdruck
später noch zahlreiche Auflagen.
In den Logik-Lehrbüchern war durchaus genügend klargestellt, was ein Begriff,
ein Urteil und ein Schluß sein konnte. Porphyrius hatte die Begriffe in seiner
berühmten „Einleitung in das aristotelische Organon“ (Eisagogogé) mittels der
„fünf logischen Bezeichnungen“ („quinque voces“, nämlich Gattung, Art, Diffe-
renz zwischen Begriffen, proprium als spezifisches Unterscheidungsmerkmal von
Begriffen und als „Eigentümlichkeit“ des Individuellen, sowie Akzidenz als Prä-
dikatsbegriff in Urteilen) erklärt.
Mit diesen logischen Hilfsmitteln rekonstruierten die Logiker, die damals als
„Dialektiker“ bezeichnet wurden, die Begriffe und Sätze der Theologen, aber
darüber hinaus auch den Gehalt anderer Disziplinen. Nicht alles, was Theologen
diskutierten und schrieben – denn sie waren in der Regel ja auch Philosophen und
Wissenschaftler – war widerspruchsvoll. Und dem Nachweis der Widerspruchs-
losigkeit diente ja gerade der alsbald ausufernde scholastische Logikbetrieb.
Die logische Prüfung einiger Dogmen stellte jedoch deren Widersprüchlichkeit
deutlich heraus. Dies wurde nach dem damals (und auch heute noch dogmatisch)
herrschenden Verständnis von Widerspruch als „logisch falsch“ und allenthalben
als „widervernünftig“ (absurdum) aufgefaßt.
Sich mit Widersprüchen in den Dogmen konfrontiert zusehen, war für die
scholastische Theologie ein Skandalon ersten Ranges. Die Folge war, daß die lo-
gischen Rekonstruktionen dieser Logiker regelmäßig als Häresie gebrandmarkt
und die Autoren zum Widerruf verurteilt wurden. Die genauen Argumente kennt
348

man daher zum größten Teil aus den „Widerlegungen“ bzw. den Widerlegungs-
versuchen in den Gerichtsakten.
Berengar von Tours (gest. 1088) bestritt z. B. in einer Abhandlung „De sacra
coena adversus Lanfrancum“ (Über das heilige Abendmal gegen Lanfranc) die
Wandlung im Abendmal mit dem (aristotelischen) Argument, der angebliche
Wandel von Brot und Wein in Leib und Blut Christi müsse auch einen Wandel der
sinnlich wahrnehmbaren Akzidentien von Brot und Wein nach sich ziehen. Das
sei aber in der Wandlung nicht zu beobachten. Das Sakrament behauptet jedoch,
Brot und Wein sei in der Wandlung Leib und Blut des Christus, also nicht Brot
und Wein. Zeigen aber die Akzidentien keine Wandlung an, so können sich auch
die Substanzen von Brot (Hostie) und Wein nicht verändert haben. Also sei eine
„substantielle Wandlung“ unmöglich.
Roscelinus von Compiegne (1050 – 1123 oder 1125) bestritt gar den trinita-
rischen Gottesbegriff: Wenn von „drei Personen“ die Rede sei, könne es sich nur
um drei verschiedene Substanzen handeln, nicht aber um eine Substanz in drei
Personen.
Daß solche logischen Argumente alsbald der kirchlichen Verurteilung als Häre-
sie bzw. Ketzerei verfielen, kann nicht verwundern. Aber dabei blieben die Gläu-
bigen nicht stehen. Sie unternahmen selbst beachtliche Anstrengungen, die Logi-
zität bzw. die Widerspruchslosigkeit auch der Dogmen nachzuweisen.
Dafür entwickelten sie mehrere Strategien. 1. den Glaubensinhalt (Dogmen bzw
die „Credibilia“) mit Hilfe der Logik als „rational“ nachzuweisen, d. h. Glauben
und Wissen zu identifizieren. 2. Den Glaubensinhalt streng von der Wissenschaft
zu trennen und ihre verschiedene logische Natur nachzuweisen. 3. Den Glaubens-
inhalt für das allein „Wahre“ auszugeben und die Wissenschaft als grundsätzlich
falsches Täuschungswerk abzulehnen. 4. Den Glauben auf gänzlich andere Grund-
lagen zu stellen als das wissenschaftliche Wissen.
Diese Positionen wurden in der scholastischen Diskussion über Glauben und
Wissen in jeder Hinsicht ausgelotet. Aber das führte zu keinem Abschluß, sondern
die Fronten erhielten sich unter anderen Bezeichnungen auch in der neuzeitlichen
Wissenschaftstheorie.
Am meisten Aufsehen und Nachhall hat in diesem Bemühen Anselm von Can-
terbury (1033 - 1109) erregt. Der berühmte Erzbischof von Canterbury setzte die
logische Sonde bei den Begriffen an. Er berief sich für sein Unternehmen auf
Augustinus„ „Credo ut intelligam“ und betonte: „Was wir glauben, soll aus not-
wendigen Vernunftgründen ohne die Autorität der Hl. Schrift bewiesen werden“
(„quod fide tenemus ... necessariis rationibus sine Scripturae auctoritate probari“).
Der Untertitel seiner Schrift Proslogion bezeichnet sein Bestreben als: „Fides
quaerens intellectum“ (Der Glaube sucht die Einsicht).
Als Neuplatoniker ging es ihm dabei um den höchsten bzw. allgemeinsten Be-
griff schlechthin, also um das Thema der logischen Definition des metaphysischen
Prinzips. Das aber war schon bei Platon wie auch bei Aristoteles der Begriff des
Göttlichen bzw. der Gottesbegriff. Bezüglich dieses höchsten Begriffs wollte An-
349

selm zeigen, daß er alle Wirklichkeit umfasse und deshalb kein bloßes „sub-
jektives“ Gedankenkonstrukt sein könne.

„Jedermann, selbst der Gottesleugner, muß zugeben, daß Gott (den Anselm dabei im
Gebet anspricht) „etwas ist, über das hinaus nichts Größeres gedacht werden kann“ (Te
esse aliquid, quo nihil maius cogitari possit). „Nun ist es aber etwas anderes, sich dieses
Etwas nur vorzustellen, und etwas anderes sich vorzustellen, daß dies Etwas auch
existiert“ (aliud enim est rem esse in intellectu, aliquid intelligere rem esse). „Es kann
aber das, über das hinaus nichts Größeres gedacht werden kann, nicht nur im Intellekt
sein. Wenn es nämlich nur im Intellekt ist, kann etwas gedacht werden, was auch
existiert, und das ist ein höherer Begriff. Es existiert also zweifellos etwas, über das
hinaus nichts Größeres gedacht werden kann, sowohl im Intellekt als auch in Wirk-
lichkeit. Und das bist Du, unser Herr und Gott“ (Et certe id quo maius cogitari nequid
non potest esse in solo intellectu. Si enim vel in solo intellectu est, potest cogitari esse
et in re, quod maius est ... Existit ergo procul dubio aliquid, quo maius cogitari non
valet, et in intellectu et in re. … Et hoc es Tu, Domine Deus noster).178

Das Argument des Anselm ist bekanntlich von der Kirche im Lichte späterer Got-
tesbeweise, vor allem des Thomas von Aquin, als „Gottesbeweis“ geschätzt wor-
den. Auch Anselm selbst hat es, wie der zitierte Satz besagt, als „rationalen Be-
weis“ für die Existenz Gottes angesehen. Aber es gab immer wieder Bedenken,
daß sein „Beweis“ einerseits nicht den trinitarischen Gottesbegriff definierte, daß
andererseits sein Gottesbegriff pantheistische Konsequenzen habe. Und zwar, weil
ja dieser höchste Begriff alles in der Welt, das unter ihn fällt, durch sein gene-
risches Merkmal als „göttlich“ ausweise. Spätere, wie Descartes und Kant, über-
nahmen die Charakterisierung des anselmschen Arguments als „ontologischen
Gottesbeweis“ und versuchten diesen Beweis zu widerlegen.
Descartes hat dies bekanntlich die Ablehnung seiner „Meditationes“ als Doktor-
Dissertation bei der Theologischen Fakultät der Sorbonne in Paris, Kant den Ruf
des „Alles-Zermalmers“ bei den Katholiken eingetragen. Der arme Kant aber, der
„keinen Thaler“ in seiner Hosentasche fand, hielt diese Tatsache für ein Argu-
ment, daß man aus der Vorstellung eines Talers nicht auf die Existenz des Talers
schließen dürfe. Wobei der sonst so kluge Philosoph nicht bemerkte, daß er und
andere Leute genau wissen mußten, was ein Taler ist und wo außer in seiner Ta-
sche die Taler existierten, um seine Tischgenossen von der Nichtexistenz eines
spezifischen „Talers in seiner Tasche“ überzeugen zu können.
Logisch ist aber festzustellen, daß es sich bei diesem anselmischen Argument
nicht um einen Beweis, sondern um den Vorschlag einer regelrechten Definition
des metaphysischen Prinzips „Gott“ handelt.
Der Grund zu dieser Fehleinschätzung des anselmschen Argumentes durch
Spätere dürfte die mangelnde Unterscheidung zwischen logischer Form der höch-
sten Begriffsgattung und der Anwendung dieser Begriffsform auf das metaphy-
sische Prinzip „Gott“ gewesen sein.

178
Anselm, Proslogium, i. e. fides quaerens intellectum, c. 2, zit. nach F. Ueberweg, Grundriß der Geschichte der Philoso-
phie, Band II, Basel-Stuttgart 1956, S. 199.
350

Daß die Unterscheidung von „nur im Bewußtsein gedacht (in intellectu)“ und
„auch in der Wirklichkeit existierend (et in re)“ - also zwischen logischer Denk-
form und inhaltlicher Anwendung auf Objekte - nicht nur für den allgemeinsten,
sondern für jeden Begriff gilt, hat Anselm selbst in seiner Erwiderung auf die
Einwände des Gaunilo von Marmoutier in seinem „Liber apologeticus adversus
respondentem pro insipiente“ dargetan. Auch der (nachrangige) inhaltliche Begriff
von einer Insel, den Gaunilo in die Diskussion einbrachte, setzt voraus, daß Inseln
wirklich existieren und als solche erkannt worden sind, sonst könnte man sie sich
gewiß nicht vorstellen. Allerdings war die Gleichsetzung der von Gaunilo ange-
führten „Vollkommenheit“ (einer Insel) mit dem logischen „Größten, über das
hinaus nichts Größeres gedacht werden kann“, gänzlich abwegig.
Was Anselm „esse in intellectu“ (bloßes Gedachtsein) nennt, kann sich ersicht-
lich nur auf die logische Begriffsform beziehen. Was er „esse et in re“ (auch
wirkliche Existenz) nannte, meint das Objekt, das der logischen Form einer be-
grifflichen Gattung oder einer Art entspricht.
Daß „Gott“ die Bezeichung für das metaphysische Prinzip schlechthin war,
stand für die Platoniker und Neuplatoniker von vornherein fest. Für Platon war es
eine andere sprachliche Bezeichnung für die höchste Idee des Guten. Und Pseudo-
Dionysios Areopagita (alias Plotin und Proklos) hatten die gesamte Geistes- und
Erscheinungshierarchie davon abgeleitet. Aristoteles hatte den Gottesbegriff als
das „von Natur Erste, aber für die Erkenntnis Letzte“ induktiv erschlossen,
nämlich als das in allen realen Substanzen gleicherweise wirkliche (und höchste)
„Sein“ (on).
Dafür bedurfte es in beiden philosophischen Systemen keines Beweises. Denn
alles, was im platonischen „Idealismus“ und im aristotelischen „Realismus“ über-
haupt gedacht, behauptet und erschlossen werden konnte, hing von dieser Voraus-
setzung ab und begründete die „Wissenschaftlichkeit“ dieser Metaphysiken.
Anselms Vorschlag einer „logischen“ Gottesdefinition, die den Gottesbegriff
zugleich als höchstes metaphysisches Prinzip auswies, war in der Tat eine Glanz-
leistung der mittelalterlichen Philosophie. Sie dürfte bis heute eine meist ver-
schwiegene Hintergrundüberzeugung vieler Wissenschaftler geblieben sein.
Schaut man genauer hin, so liegt Anselms Argument auch noch immer mehr
oder weniger deutlich allen metaphysischen Systemen des Idealismus zugrunde.
Es zeigt, daß ein wohlverstandener Idealismus keineswegs auf die Setzung eines
rein „subjektiven“ metaphysischen Prinzips hinausläuft, wie alle Realisten be-
haupten. Es wird vielmehr begründet, daß die „Sachhaltigkeit“ des idealistischen
Denkens darauf beruht, daß es die „objektive Realität“ in logischen Begriffs-
formen stets mitumfaßt. Anders kann in keiner Weise gezeigt werden, worüber im
Idealismus überhaupt gesprochen wird. Parmenides hatte es schon längst in seiner
Definition „Denken und Sein ist dasselbe“ klar vorgegeben.
Petrus Abaelardus (Pierre Abélard 1079 – 1192) war seinerzeit einer der besten
Kenner der aristotelischen Logikschriften, die er auch reichlich kommentierte. Er
351

überprüfte in seinem Buch „Sic et Non“ 179 die logische Form der Glaubens- und
der wissenschaftlichen Begriffe und Urteile.
Dazu konnte er auf die anselmische Begriffslehre zurückgreifen, indem er fest-
hielt: die Art und Weise, etwas einzusehen, ist etwas anderes als die – extramen-
tale – Gegebenheit eines Objekts („aliud est modus intelligendi quam subsisten-
di“).
Das läßt sich wie bei Anselm auf das Verhältnis der logischen Begriffsform zu
einem wirklichen Objekt beziehen. Das Wirkliche bietet sich dem Bewußtsein als
eine Gemeinsamkeit (communitas) von Einzelheiten (singularia) dar. Im Bewußt-
sein, das sich einen Begriff bildet, wird das in den Einzelheiten als etwas Gemein-
sames Wahrgenommene durch den Verstand zu einem „gemeinsamen und ver-
mischten Bild“ (communis et confusa imago) des Vielfältigen zusammengefaßt
(„Intellectus universalium et intellectus singularium, qui universalis nominis est,
communem et confusam imaginem multorum concipit“). – Später wird John
Locke diese Begriffsbildungslehre (allgemeine Begriffe als „konfuse“ Abbilder)
auch seiner Abstraktionslehre zugrunde legen.
Diese abälardische Begriffbildungslehre wird allgemein als Fortschritt in der
Universalienfrage eingeschätzt. Man nennt sie „Statuslehre“, da die Allgemeinbe-
griffe hier nach ihrem hierarchischen Rang (status) geordnet werden. Ihr Umfang
umfaßt „Vielfältiges“ (multum), ihr Inhalt bzw. ihre Intension aber wird bei
Abälard zu einem „konfusen Denkbild des Gemeinsamen im Vielfältigen“ zusam-
mengefaßt.
Der vorgebliche Fortschritt der Statuslehre im Universalienstreit war aber eher
ein Irrweg der Logik. Abälard hat mit der Parole vom „konfusen Bild“ als Merk-
malsbestand eines Begriffs nachhaltig die Einsicht verhindert, daß das „Gemein-
same im Vielfältigen“ keineswegs „konfus“, sondern sehr „klar“ vorzustellen ist.
Nämlich durch Konzentration der Aufmerksamkeit auf die Festhaltung eines
induktionsfähigen (generischen) Merkmals unter Absehung von den spezifischen
Merkmalen der vielfältigen und verschiedenen Instanzen in seinem Umfang. Aber
zu dieser Einsicht war die Zeit noch nicht reif.
Abälards Schrift „Sic et Non“ wird von den Fachleuten geradezu als Manifest
der scholastischen Quaestionenmethode (dazu vgl. § 28) eingeschätzt, die nach
diesem Buchtitel auch „Sic-et-Non-Methode“ genannt wird. So vor allem seit
Martin Grabmanns grundlegender Untersuchung in seiner schon erwähnten „Ge-
schichte der scholastischen Methode“. Das dürfte aber eine falsche Einschätzung
sein. Denn die scholastische Quaestionenmethode geht, wie vorn gezeigt, bei allen
Problemdiskussion nicht von einem Sowohl-als-Auch von Pro- und Contrage-
sichtspunkten aus, sondern von der logischen Alternative, einem Entweder-Oder

179
Verfaßt 1121 – 1122. Petri Abaelardi Opera Omnia, in: Patrologia Latina, hgg. von J. P. Migne, Band 178, Tournholt o.
J.
352

zwischen Pro- und Contra-Argumenten, von denen das eine durch die Analyse der
Argumente sich als wahr, das Gegenteil aber als falsch erweisen sollte.180
Abälard läßt in seiner Schrift eine große Menge von Zitaten aus der Bibel, von
anerkannten Kirchenvätern, aber auch von heidnischen Autoren und Häretikern
Revue passieren. Das Resultat dieser Blütenlese war, daß die echt dogmatischen
Begriffe und Sätze der Bibel und der Kirchenväter Widersprüche enthalten, die
nicht-dogmatischen Begriffe dieser Texte aber nicht, oder doch nur scheinbare.
Und gerade diese logische Eigenschaft der Widersprüchlichkeit benutzte Abälard
zur Unterscheidung zwischen Glaubens-Dogmen und wissenschaftlichen Behaup-
tungen.
Er steht damit ganz in der Tradition des Tertullian und Augustinus„, die selbst
schon wesentliche Dogmen als Widersprüche in terminis oder als widersprüch-
liche Urteile formuliert und die Glaubensinhalte damit von „normalen“ wissen-
schaftlichen Behauptungen abgegrenzt hatten. Daß Abälard gerade diese Eigen-
schaft der Dogmen auf die Formel „Sic et Non“ brachte – und diese Formel drückt
selbst die logische Form des Widerspruchs aus -, erregte in der Scholastik deshalb
Anstoß, weil sich, wie vorn schon gesagt, das logische Vorurteil inzwischen ver-
festigt hatte, alles Widersprüchliche sei grundsätzlich falsch.
Abälard dürfte dieses (falsche) Vorurteil kaum geteilt haben. Allenfalls dürfte er
die Widersprüchlichkeit der Dogmenformulierungen als Grund für die Schwierig-
keiten ihres Verständnisses empfunden haben, das vom Verständnis wider-
spruchsloser Behauptungen merklich verschieden ist. Es macht sich bekanntlich
als „absurd“ (Tertullian), „übervernünftig“ (Augustinus), „geheimnisvoll“ oder
„mystisch“ (heute gewöhnlich „tiefsinnig“) u. ä. bemerkbar. Abälard betont selbst
die „Schwierigkeit des Verständnisses“ der dogmatischen Formulierungen und
hält gerade dafür den Glauben als „Reinigungsmittel des Geistes“ für nötig:

„Wenn es schwierig ist dies zu verstehen, soll der Geist durch den Glauben gereinigt
werden“ 181

Die kirchlichen Behörden und vor allem der zuständige Bischof Bernhard von
Clairvaux hielten diese Widerspruchsnachweise bezüglich der Dogmen jedenfalls
für eine offene Deklaration der Falschheit der Dogmen und verurteilten seine
Lehre deshalb als ketzerisch.
Die zahlreiche Anhängerschaft des Abälard aber vertiefte den Gegensatz zwi-
schen den Dogmen und wissenschaftlichen Erkenntnissen zur These von zwei sich
ausschließenden Wahrheiten: Der „dialektischen“ Wahrheit des Glaubens und der
„logischen“ Wahrheit der weltlichen Wissenschaften.

180
L. Geldsetzer, „Sic et non“ sive „Sic aut non“, La méthode des questions chez Abélard et la strategie de la recherche,
in : Pierre Abélard. Colloque international de Nantes, hgg. v. J. Jolivet und H. Habrias, Presses Universitaires de Rennes
2003, S. 407 – 415.
181
„Quod si difficile intelligitur, mens fide purgetur.“ Petrus Abaelardus, Sic et Non, c. 66, coll. 1434 und 1436 in der
Ausgabe von Migne.
353

Diese Unterscheidung ist von den Reformatoren aufgenommen und bis in die neu-
ere protestantische „dialektische Theologie“ (Karl Barths) tradiert worden. In der
christlichen Laienwelt aber hat sich diese Unterscheidung in der Einstellung fort-
gepflanzt: Man glaubt, was man nicht weiß, und was man weiß, das braucht man
nicht zu glauben.
Widerstände gegen solche logischen Prüfungen der Dogmen ziehen sich seit
der Patristik durch die ganze Entwicklung der christlichen Glaubenslehre. Tatian
„der Assyrer“ (aus Syrien), Schüler des Justinus Martyr, hatte schon um 160 n.
Chr. in einer Schrift „Lógos pròs Héllenas“ (Ein Wort an die Griechen) alle grie-
chische Wissenschaft schlechtgeredet. Celsus‟ Schrift „Alethès lógos“ (Wahres
Wort), verfaßt um 178 n. Chr., das sich mit der christlichen Lehre kritisch ausein-
andersetzte, ist uns nur noch durch des Origines von Alexandrien Schrift „Katà
Kélson“ (Gegen Kelsus), verfaßt um 246 n. Chr., bekannt. Sie wurde als Angriff
auf die christliche Glaubenslehre aufgefaßt und wohl deswegen aus dem Verkehr
gezogen. Hypatia aus Alexandrien, Philosophin und gelehrte Mathematikerin und
Astronomin, die nichts für die christliche Glaubenslehre übrig hatte, war 415 von
Fanatikern der alexandrinischen christlichen Gemeinde ermordet worden. Man
kann sie eine Märtyrerin der griechischen Philosophie und Wissenschaft nennen.
In der Scholastik waren anti-logische Stimmen von Othloh von St. Emmeram in
Regensburg (1010 – 1070), und besonders von Manegold von Lautenbach im
Elsaß (gest. nach 1103) zu vernehmen. Letzterer hielt in seinem „Opusculum con-
tra Wolfelmum Coloniensem“ (Kleine Schrift gegen Wolfhelm aus Köln) die Leh-
ren der Sokratiker, Pythagoräer, Platoniker und die aristotelische Logik für Teu-
felswerk voller Irrtümer und deshalb bei den theologischen Studien für „über-
flüssig“ (superfluum). Da war es geradezu noch milde, wenn Abälards Lehrer
Lanfranc (1010 – 1089) in einer Schrift „De corpore et sanguine Domini“ (Über
Leib und Blut des Herrn) nicht geradezu die „Disputierkunst tadelte, sondern den
perversen Gebrauch bei den Disputanten“ (non artem disputandi vituperat, sed
perversum disputantium usum). Das wurde zu einer Kompromißformel, auf die
sich auch Theologen, die gegenüber Logik und Mathematik wohlwollend ein-
gestellt waren, verständigen konnten.
Thomas von Aquin (1225 oder 1226 – 1274) hat zwischen Glauben und wissen-
schaftlichem Wissen streng unterschieden. Aber der Glaube galt ihm als die hö-
here Wahrheit, zu der die Wissenschaft bzw. die Philosophie nur hinführe. Wis-
senschaft bewegt sich in den „Praeambula fidei“ (Vorhöfen des Glaubens). Das
wurde schon in der Scholastik zur herrschenden Kirchenlehre. Thomas, der dies
mit ungeheurer Belesenheit in einem riesigen Schriftenkorpus dartat, wurde schon
1323 heilig gesprochen und 1879 durch Papst Leo XIII zum verbindlichen Kir-
chenlehrer erklärt.
Die Philosophiegeschichtsschreibung hat Thomas (zusammen mit seinem Leh-
rer Albertus Magnus) als Aristoteliker eingeordnet. Das aber trifft nur für seine
philosophische Behandlung der sinnlichen Wirklichkeit zu. In Bezug auf alle
geistigen Dinge stand er durchaus auf neuplatonischem Boden. Seine epochale
354

Leistung ist gerade die Synthese des Neuplatonismus und des Aristotelismus (in
praktischer Hinsicht auch des Stoizismus).
Aristotelisch sind seine Beweise für die Existenz Gottes als „reine stofflose
Form“, die zugleich „reine Aktualität“ ohne Potentialität, d. h. höchste „Wirklich-
keit“ (energeia) ist, als höchstes Gut (causa finalis der Welt) sowie als „erster Be-
weger“ (= erste causa efficiens). Seine berühmten Gottesbeweise - die „quinque
viae“ (fünf Wege) - beruhen auf der Vier-Ursachenlehre des Aristoteles und auf
dem „Gottesbeweis“ des Anselm. Sie sollen die „Existenz Gottes“ wissenschaft-
lich beweisen.
Aber davon unterschied Thomas deutlich die „Credibilia“ bzw. die Dogmen, die
das „übervernünftige Wesen“ von Gott und Dreifaltigkeit, Seele, Unsterblichkeit,
Schöpfungsanfang der Welt und der Sakramente betreffen. Zu ihnen gelangt man
vom philosophischen „Vorhof“ nur durch gläubiges Vertrauen auf die Autorität
der Bibel und der anerkannten Kirchenväter. Und das ist für Thomas keine Sache
der Vernunft, sondern des Willens, wie er unter Rückgriff auf die augustinische
Willenslehre behauptet. Im Falle des Trinitätsdogmas stellt Thomas es mit folgen-
den Worten fest:

„Es ist unmöglich durch die natürliche Vernunft zur Erkenntnis der Dreifaltigkeit der
göttlichen Personen zu gelangen. ... Durch die natürliche Vernunft kann von Gott das-
jenige erkannt werden, was sich auf die Einheit seines Wesens bezieht, nicht, was sich
auf die Unterscheidung der Personen bezieht. Wer sich darauf stützt, die Dreifaltigkeit
der Personen aus der natürlichen Vernunft zu beweisen, der fällt vom Glauben ab.“ 182

Um die Credibilia zu formulieren und gegenüber den wissenschaftlichen Einsich-


ten abzugrenzen, bedient sich auch Thomas der dialektischen Logik des Abälard.
Das zeigt sich gerade an der zitierten These. Die „Einheit“ des Göttlichen ist eine
vernünftige (und logisch) wahre Erkenntnis. Darin stimmte Thomas mit den Juden
und den islamischen Gelehrten überein. An dieser Vernunfteinsicht gemessen
kann die These, daß das Göttliche zugleich „Nicht-Einheit“, sondern „Dreiheit“
sei, nur „logisch“ und „rational“ falsch sein. Einheit und Dreiheit stehen also im
Widerspruch zueinander. Gerade dies mußte Thomas voraussetzen, um das Glau-
bensdogma der Dreifaltigkeit als „Einheit in der Dreiheit“ aus dem Bereich der
wissenschaftlich wahren Erkenntnis auszuschließen und dem Glauben zuzurech-
nen.
Fügen wir hinzu: hätte Thomas die Trinitätsbehauptung für eine wahre rationale
Einsicht erklärt, - und das wäre auf der Grundlage der aristotelischen Vier-Ur-
sachenlehre (unter Ausschluß der Materieursache) leicht „rational“ zu begründen
gewesen - dann hätte er umgekehrt die These von der „Einheit des Göttlichen“ für

182
“Respondeo dicendum impossibile est per rationem naturalem ad cognitionem Trinitatis divinarum personarum per-
venire. … Per rationem igitur naturalem cognosci possunt de Deo ea, quae pertinent ad unitatem essentiae, non autem ea
quae pertinent ad distinctionem personarum. Qui autem probare nititur Trinitatem personarum naturali, ratione fidei
derogat”. Thomas v. Aquin, Summa theologiae I, qu. 32, art. 1. In: S. Thomae Aquinatis Summa Theologica, hgg. von. De
Rubeis, Billuard u. a., 17. Aufl. Turin 1922, S. 222.
355

falsch erklären müssen und sich dem Vorwurf des Tritheismus ausgesetzt, den die
Juden und Moslems ohnehin gegen die Christen erhoben.
Wilhelm von Ockham (vor 1300 – 1349 oder 1350), als Franziskaner mehr als
der Dominikaner Thomas dem Augustinus zugeneigt, trennte noch schärfer als
Thomas zwischen der aristotelisch-logischen Wissenschaft und den Credibilia.
Er war unbestritten der größte Logiker der Hochscholastik, der er die bedeu-
tendsten und meistgelesenen Lehrbücher, darunter eine „Summa totius logicae“
geliefert hat. Dabei ist er als der Hauptrepräsentant der Nominalisten im Univer-
salienstreit aufgetreten und hat sich damit sowohl in schärfsten Gegensatz zu
seinen Ordensoberen wie zur Kurie gesetzt. Schon in jungen Jahren saß er vier
Jahre wegen ketzerischer Thesen in Untersuchungshaft in Avignon, der er schließ-
lich entfloh. Daraufhin wurde er 1328 exkommuniziert. Nur der Schutz des deut-
schen Kaisers Ludwig von Bayern bewahrte ihn vor massiveren Maßnahmen der
Kirche.
Die Credibilia in den kirchlichen Verlautbarungen anzunehmen, hielt Wilhelm
von Ockham überhaupt nicht mehr für eine Sache der rationalen Einsicht oder des
Verstehens, sondern des Gehorsams und der praktischen Einstellung. Dies umso
mehr, als die Credibilia den weltlichen Wissenschaftlern durchweg als falsche
Sätze erscheinen.
„Die Glaubensartikel sind weder Beweisprinzipien noch (Prinzipien bzw. Prämissen
für) Schlußfolgerungen, noch sind sie wahrscheinlich, weil sie allen oder doch den
meisten oder den Weisen als falsch erscheinen; wobei man als ‚die Weisen‟ die Wis-
senschaftler der weltlichen Dinge und diejenigen, die sich auf die natürliche Ver-
nunft stützen, versteht.“ 183

Robert Holkot (gest. 1349), Theologe in Cambridge, war einerseits Schüler und
Anhänger des Wilhelm von Ockham, andererseits aber Dominikaner. Seine Lehre
zielte darum auf eine Versöhnung des augustinischen Voluntarismus Ockhams
und des thomistischen Rationalismus ab. Von ihm stammt ein Vorschlag zur Ent-
wicklung einer besonderen „rationalis logica fidei“ (einer „Vernunftlogik des
Glauben“) neben der „logica naturalis“ der Aristoteliker, um den Credibilia und
insbesondere der Trinitätskonzeption eine neue wissenschaftliche Grundlage zu
verschaffen. Gewiß konnte es sich dabei nur darum handeln, die Dialektik als
„Glaubenslogik“ zu etablieren, die die Identität von Einheit und Dreiheit zu den-
ken ermöglicht:
“Man muß eine Logik des Glaubens aufstellen,... weil die Philosophen nicht gesehen
haben, daß irgend eine Sache eine und (zugleich) drei ist. Wenige oder keine von den
Regeln, die (Aristoteles) in den Ersten Analytiken und anderswo aufgestellt hat,

183
„Articuli fidei non sunt principia demonstrationis nec conclusionis, nec sunt probabiles, quia omnibus vel pluribus vel
sapientibus apparent falsi, et hoc accipiendo sapientes pro sapientibus mundi et praecipue innitentibus rationi naturali“.
Wilhelm von Ockham, Summa totius logicae III, c. 1.
356

gelten in jedem Gegenstandsbereich. Der Grund ist, daß Aristoteles nicht gesehen
hat, wie eine Sache eine und drei sein könne“.184

Die Philosophiegeschichte hat diese Auseinandersetzung zwischen den Autoritäts-


ansprüchen der auf die heilige Schrift und die Vätertradition begründeten Theo-
logie und der aristotelisch logifizierten Wissenschaft stets als das bewegende
Motiv der ganzen mittelalterlichen Philosophie in den Vordergrund ihres Interes-
ses gestellt.
Zu wenig wurde dabei beachtet, daß die paulinische und die neuplatonisch-
augustinische Tradition auch das „Buch der Natur“ als theologisch relevante zwei-
te Offenbarungsquelle neben der Heiligen Schrift herausgestellt hatte. Stets war
deshalb auch die Naturforschung im Dienste der Kirche gepflegt und gestützt
worden. Naturforschung zu betreiben, war selbst eine Art des Gottesdienstes ne-
ben der philologischen Befassung mit heiligen Texten. Und nur deshalb war das
Studium der Naturwissenschaften auf der Grundlage der Mathematik im quadri-
vialen Teil der freien Künste als Propädeutik des Theologiestudiums institutiona-
lisiert worden.
Im Verhältnis der quadrivialen Studien zu den trivialen Studien aber repro-
duzierte sich alsbald dieselbe Autoritätenkonkurrenz als Frage nach dem Vorrang
der logischen oder der mathematischen Vernunft. Und nicht jedem scholastischen
Theologen kann dabei verborgen geblieben sein, daß die „Sprache“ des Buches
der Natur nicht nur aus geometrischen Figuren und Zahlen bestand, sondern daß
auch ihre Logik eine andere war als die der philologischen Texte: nämlich eine
„dialektische Logik“.
Euklids mathematisches Lehrbuch „Elemente“ war als antikes Erbe durch
Boethius und Proklos, nicht zuletzt aber in den Darstellungen der quadrivialen
freien Künste präsent geblieben. Die Architektur und die handwerklichen Künste
sowie Handel und Gewerbe hatten immer auf geometrische Veranschaulichungen
und arithmetisches Rechnen zurückgegriffen.
In der Hochscholastik aber bemerkte man, daß die arabischen Gelehrten auf
diesem antiken Erbe aufgebaut und es weiter ausgebaut hatten als das griechische
und lateinische Abendland. Vor allem die Arithmetik hatte durch die Übernahme
indischer Zahlzeichen einschließlich der Null (die auch in der arabischen Schrift-
weise eine besondere Zeichenart neben den Buchstaben geblieben sind), durch
Arbeit an einigen in der Antike ungelöst liegengebliebenen Problemen und man-
che Lösungen sowie durch verbesserte Meßgeräte große Fortschritte erzielt.
Zugleich mit dem Interesse an den arabischen Aristoteleskommentaren richtete
sich das kirchliche Interesse auch auf diesen naturwissenschaftlichen Wissen-
schaftssektor. Wilhelm von Moerbecke (nach 1220 – nach 1277), dominikanischer

184
„Oportet ponere unam logicam fidei, ... modo philosophi non viderunt, aliquam rem esse unam et tres. … Paucae
regulae vel nullae, quas ponit in libro Priorum et alibi, tenent in omni materia. Causa est, quia Aristoteles non vidit, quod
una res esset una et tres.” Robert Holkot, Super quatuor libros sententiarum (des Petrus Lombardus) I, q. 5 H, zit. nach F.
Ueberweg, Grundriß der Geschichte der Philosophie, Band 2, Basel-Stuttgart 1956, S. 58.
357

Ordensgenosse des Thomas von Aquin und zuletzt Erzbischof von Korinth, über-
setzte im Auftrag des Ordens eine Reihe arabischer Schriften ins Lateinische,
darunter vor allem auch den von den Arabern für aristotelisch gehaltenen „Liber
de causis“, der in der Tat ein Auszug aus dem Werk des Neuplatonikers Proklos
war.
Anregungen für die lateinischen Studien aus der Beschäftigung mit arabischer
Literatur sind allgemein bekannt. Eine Folge dieser Tatsache war auch ein sich
ausbreitendes Interesse an den entsprechenden Sprachstudien. Aber dieses Inter-
esse stand in enger Verbindung mit den quadrivialen Naturstudien und ihrer dia-
lektischen mathematischen Methode.
Diese Anregungen fielen vor allem in Oxford auf fruchtbaren Boden. Besonders
Roger Bacon (ca. 1210 – nach 1292) nahm sie auf. Er hatte zuerst in Oxford
studiert und war nach längerem Verweilen und dann wiederholten Aufenthalten in
Paris dorthin zurückgekehrt. Er hat sich für diese Sprachstudien stark gemacht.
Und nicht nur das, er lernte diese Sprachen auch und nutzte sie für seine Studien.
In seinem „Opus maius“ von 1268 geht er ausführlich auf die Übersetzungslage
im lateinischen Westen ein und diskutiert deren Stärken und Schwächen.185
Er nennt – natürlich neben Latein – Griechisch, Hebräisch, Arabisch und Chal-
däisch unentbehrliche „Gelehrtensprachen“ für alle philosophischen und theo-
logischen Studien. Er selbst schrieb eine griechische und eine hebräische Gram-
matik. Dies blieb übrigens nicht ohne Folgen. Denn unter Papst Clemens V. be-
schloß das Konzil von Vienne (in Südfrankreich) im Jahre 1312, daß Hebräisch,
Arabisch und Chaldäisch beim päpstlichen Stuhl sowie an den kurz vorher ge-
gründeten Universitäten Oxford, Paris, Bologna und Salamanca in die Lehrpläne
aufgenommen werden sollte. Freilich geschah die Umsetzung an den Univer-
sitäten bis in die Zeit der Renaissance nur sporadisch.
Roger Bacon ist - neben seinem Oxforder Lehrer Robert Grosseteste (später
Bischof von Licoln) - einer der einflußreichsten Repräsentanten des scholasti-
schen Neuplatonismus gewesen und brachte sich dadurch in erklärten Gegensatz
zu den damals in der Kirche tonangebenden Aristotelikern. So ist er auch noch in
fortgeschrittenen Jahren in den Franziskanerorden eingetreten, der am meisten
von allen Orden die augustinisch-neuplatonische Tradition weiterführte.
In dieser Tradition wurde Bacon auch zum wichtigsten Vertreter der scholasti-
schen mathematischen Naturwissenschaft, die er auch auf experimentelle Grund-
lagen stellte.
Unter „experimentum“ verstand er die auf handwerklicher Erfahrung (expe-
rientia) beruhenden Eingriffe in die Naturprozesse. Und er war außerordentlich
aufmerksam darin, die Beispiele dafür aus der Literatur zu sammeln und sie ggf.
kontrolliert in der Praxis zu wiederholen. Das hat ihm übrigens den damals sehr
nachteiligen Ruf eines „Magiers“ eingebracht. Er selbst berichtet, für Literatur
und Instrumente eine bedeutende Summe aus seinem Familienvermögen auf-
185
Vgl. The Opus Maius of Roger Bacon, hgg. v. J. H. Bridges, 1897, Nachdruck Frankfurt a. M. 1964, Pars III, S. 66 –
96.
358

gewendet zu haben. Sein Hauptinteresse richtete sich dabei auf die Phänomene
der (undulatorischen) Lichtausbreitung und der Lichtbrechungen in verschiedenen
Medien, auf die Spiegelungen sowie die optischen Verhältnisse des Auges beim
Sehen.
Man erinnere sich, welch bedeutende Rolle das „Sonnengleichnis (im „Staat“)
bei Platon für die Verdeutlichung seiner Ideenlehre spielte. Bei Roger Bacon wur-
den die Lichtphänomene geradezu zum Schlüsselmodell der Ausbreitung und
Wirkung von Kräften. So wurde er selbst auch einer der Mitbegründer und wohl
auch der führende Experte der „Optik“ als physikalischer Disziplin. Eines der
wichtigsten Prinzipien der Lichttheorie des Robert Grosseteste und Roger Bacons
war die These, daß das Licht sich von einer Lichtquelle aus stets in geraden Linien
nach allen Seiten ausbreitet, wobei die Ausbreitung – ähnlich wie bei der Wel-
lenbildung um einen ins Wasser geworfenen Stein - „sphaerice“, d. h. wie eine
Kugeloberfläche verläuft.
Die neuplatonische Grundeinstellung brachte ihn auch dazu, die Mathematik als
Methode gegen die vor allem durch Wilhelm von Ockham in Oxford und Paris
vertretene Logik auszuspielen.
Mathematik hat für Bacon bei weitem den Vorrang vor der Logik und kann
sogar zahlreiche Fehler korrigieren, die er hier zu tadeln fand. Er geht gelegentlich
so weit, die ganze aristotelische Logik für wertlos zu halten. Und das bezieht er
auch auf die Pariser theologischen Studien, die er dort selbst in praxi erlebt hatte.
In seinem „Opus minus“ zählt er „septem peccata studii principalis, quod est theo-
logia“ (sieben Sünden des Hauptstudiums, nämlich der Theologie) auf, die auf
dem Vorrang der Logik und dem Mangel an Sprachkenntnissen beruhen.
Im „Opus Maius“ spezifiziert er in der ihm eigentümlichen „kräftigen“ Aus-
drucksweise vier besondere Hindernisse, die das Verständnis der Wahrheit über-
haupt vereiteln. Er nennt diese Hindernisse eine „todbringende Pest, aus der alle
Übel des menschlichen Geschlechts resultieren“. Unter ihnen spielen die brüchige
und angemaßte Autorität sowie logisches Scheinwissen eine große Rolle. Wie die
antiken, patristischen und arabischen Klassiker schon längst vor diesen Hinder-
nissen bzw. Verführungen gewarnt haben, belegt er mit zahlreichen Zitaten:
„Es gibt vier allergrößte Hindernisse des Verständnisses der Wahrheit, die jeden
Gelehrten hindern und kaum jemanden zum wahren Titel der Weisheit gelangen las-
sen, nämlich das Beispiel einer brüchigen und unwürdigen Autorität, die Dauer-
haftigkeit der Gewohnheit, die Sinnesart des unerfahrenen Volkes sowie das Verber-
gen der eigenen Unwissenheit unter Ostentation scheinbaren Wissens.“ 186

Freilich legt Bacon sogleich auch Wert auf die Festellung, daß er damit nichts
gegen die „solida et vera auctoritas“ (feste und wahre Autorität) sagen will, die

186
„Quatuor vero sunt maxima comprehendendae veritatis offendicula, quae omnem quemcumque sapientem impediunt, et
vix aliquem permittunt ad verum titulum sapientiae pervenire, videlicet fragilis et indignae auctoritatis exemplum, consue-
tudinis diuturnitas, vulgi sensus imperiti, et propriae ignorantiae occultatio cum ostentatione sapientiae apparentis“. The
Opus Maius of Roger Bacon, hgg. v. J. H. Bridges, 1897, Nachdruck Frankfurt a. M. 1964, S. 2.
359

„der Kirche und ihren heiligen Philosophen und vollkommenen Propheten aus
Gottes Ratschluß zukommt“. Und in der Tat sind seine Texte durchweg reichlich
mit Zitaten aus diesen Klassikern versehen, auf deren Argumente er sich dann
auch stützt. Sie bieten auch jetzt noch eine interessante kontinuierliche „Philoso-
phiegeschichte“ der jüdisch-griechisch-arabisch-lateinischen Gelehrsamkeit in
Roger Bacons Sicht.
Gleichwohl gibt es auch die „brüchigen“ Autoritäten, die zu erschüttern er
bemüht war, und zwar durch mathematische Vernunft und experimentelle Erfah-
rung. Das formuliert er, nicht ohne Rekurs auf die These des Johannes Scottus
Eriugena, in folgender Weise.
„Durch dreierlei sollen wir wissen, nämlich durch Autorität, Vernunft und (prakti-
sche) Erfahrung. ... Die Autorität weiß nicht, wenn ihr kein Vernunftargument
gegeben wird, noch gibt sie Einsicht, sondern (Leicht-)Gläubigkeit; wir glauben
nämlich der Autorität, aber wir sehen ihretwegen nicht ein“.187

Mathematik ist für Bacon die erste und somit Grundlagenwissenschaft für alle
anderen Wissenschaften, die einzig und allein zur Wahrheit führt und vor jedem
Irrtum bewahrt. Was an der Logik überhaupt etwas taugt, ist auf die (aristote-
lische) Kategorie der Quantität zurückzuführen und kann nur durch die Mathe-
matik in quantitativen Begriffen und Urteilen angemessen erfaßt werden:

„Alle Prädikamente hängen von der Kenntnis der Quantität ab, wovon die Mathe-
matik handelt; daher hängt die ganze Leistungsfähigkeit der Logik von der Mathe-
matik ab.“ 188

Über den Vorrang der Mathematik vor allen anderen Wissenschaften und ihre
Leistungsfähigkeit äußert sich Roger Bacon folgendermaßen:
(Für die vier wichtigsten Wissenschaften – des Quadriviums - gilt) „Für diese Wis-
senschaften ist die Mathematik Eingangspforte und Schlüssel, welche die Heiligen
vom Beginn der Welt an erfunden haben, wie ich zeigen werden, und die immer von
allen Heiligen und Gelehrten vor allen anderen Wissenschaften verwendet wurde.
Ihre Vernachlässigung seit schon dreißig oder vierzig Jahren hat das ganze Studium
der Lateiner zerstört“.
„In der Mathematik können wir zur vollen Wahrheit ohne Irrtum, und zur zweifel-
losen Gewißheit in allem gelangen, weil man in ihr einen Beweis aus eigenem und
notwendigem Grund besitzt. ... Die Kenntnis der mathematischen Dinge ist uns
gleichsam eingeboren. ... Und weil sie gleichsam eingeboren ist und somit der Er-
findung und der Lehre vorausgeht oder doch zumindest deren weniger als andere
Wissenschaften bedarf, wird sie die erste unter den Wissenschaften sein und den an-
deren vorausgehen, um uns auf diese vorzubereiten. ... Daraus erhellt, daß wir, wenn

187
„Per tria sciamus, videlicet per auctoritatem et rationem et experientiam. ... Auctoritas non sapit, nisi detur eius ratio,
nec dat intellectum, sed credulitatem; credimus enim auctoritati, sed non propter eam intelligimus.” Roger Bacon, Compen-
dium studii philosophici, S. 397, zit. nach F. Überweg, Band II, S. 470.
188
„Omnia praedicamenta dependent ex cognitione quantitatis, de qua est mathematica, et ideo virtus tota logicae dependet
ex mathematica.“ Roger Bacon, Opus Maius IV, c. 2, S. 103.
360

wir die Grundlagen der Erkenntnis in die Mathematik verlagern müssen, um in den
anderen Wissenschaften zu zweifelloser Gewißheit und zu irrtumsloser Wahrheit zu
gelangen, nur durch sie vorbereitet zur Gewißheit der anderen Wissenschaften und
zur Wahrheit durch Ausschluß des Irrtums hingelangen können ... Daher müssen wir
alle anderen Wissenschaften durch diese wissen und beglaubigen“.189

Die Mathematik erscheint Bacon auch als die leichteste aller Wissenschaften, da
sie vom Einfachen zum Schwierigen fortschreitet und so jedermann zugänglich
ist, der „singen kann“ (Musik gehört zum Quadrivium!). Immer wieder beklagt
Bacon, daß die der Mathematik unkundigen Kleriker von ungebildeten Laien, die
geometrisch zeichnen und rechnen können, beschämt werden.

„Diese Wissenschaft ist die leichteste. Das erhellt daraus, daß sie jedermann ein-
sichtig ist. Denn die Laien und überhaupt die Ungebildeten wissen zu zeichnen und
zu rechnen, und zu singen, und dies sind mathematische Tätigkeiten.“ 190

Daß die Mathematik hier als so „leicht“ bzw. einfach erscheint, während sie doch
nach modernem Verständnis eine der schwierigsten Wissenschaften ist, beruht auf
der euklidischen Lehrweise, die die arithmetischen Verhältnisse auf geometrische
Gebilde bezieht und durch diese „anschaulich“ macht:

„Das Verhältnis der Zahlen hängt von den (geometrischen) Figuren ab, weil die
Streckenzahlen und die Flächenzahlen sowie die Körperzahlen, (nämlich) sowohl
die Quadratzahlen wie die Kubikzahlen, auch die Zahlen des Fünfecks und des
Sechsecks und die übrigen aus den Linien und Winkel erkannt werden.“ 191

Auf der Grundlage der Mathematik wird also Wahrheit und Sicherheit der Er-
kenntnis erhofft. Aber neben Bacons Bemühungen, bei den Ordens- und Kirchen-
oberen überhaupt Verständnis für die Mathematik und ihre Anwendungen in der -
Naturforschung zu erwecken oder besser gesagt: wiederzuerwecken, ging sein
Anspruch viel weiter. Ihre Anwendung auf theologische Probleme sollte voll ins
Theologiestudium eingegliedert werden und sich vor allem darin bewähren, auch

189
„Harum scientiarum porta et clavis est mathematica, quam sancti a principio mundi invenerunt, ut ostendam, et quae
semper fuit in usu omnium sanctorum et sapientium prae omnibus aliis scientiis. Cuius negligentia iam per triginta vel
quadraginta annos destruxit totum studium Latinorum.” Roger Bacon, The Opus Maius IV, c. 1, S. 97.
“In mathematica possumus devenire ad plenam veritatem sine errore et ad omnium certitudinem sine dubitatione; quoniam
in ea convenit haberi demonstrationem per causam propriam et necessariam”. Roger Bacon, The Opus Majus IV, c. 3, S.
105. - “Mathematicarum rerum cognitio est quasi nobis innata…. Quapropter cum sit quasi innata, et tanquam praecedens
inventionem et doctrinam, seu saltem minus indigens eis quam aliae scientiae, prima erit inter scientias et praecedens alias,
disponens nos ad eas.” Roger Bacon, The Opus Maius IV, c. 3, S. 103. - “Quare patet, quod si in aliis scientiis debemus
venire in certitudinem sine dubitatione et ad veritatem sine errore, oportet ut fundamenta cognitionis in mathematica
ponamus; quatenus per eam dispositi possumus pertingere ad certitudinem aliarum scientiarum, et ad veritatem per exclu-
sionem erroris. … Quapropter per hanc oportet omnes alias scientias sciri et certificari.” Roger Bacon, The Opus Maius IV,
c. 3, S. 106 – 107.
190
„Haec scientia est facillima. Quod manifestum est in eo, quod non refugit intellectum alicuius, laici enim et omnino
illiterari figurare et computare sciunt, et cantare, et haec sunt opera mathematicae.” Roger Bacon, The Opus Maius. IV, c.
3, S. 104.
191
„Ratio numerorum a figuris dependet, quia numeri lineares, et superficiales, et corporales, et quadrati, et cubici, et
pentagoni et hexagoni, et caeteri, a lineis et figuris et angulis cognoscuntur.” Roger Bacon, The Opus Maius IV, c. III,
S.104.
361

die Credibilia auf mathematische Weise verständlich und rational erklärbar zu


machen. So widmet er auch den ganzen vierten Teil seines Opus Maius dem The-
ma „Mathematicae in divinis utilitas“ (Vom Nutzen der Mathematik bei den gött-
lichen Dingen).
Das Hauptbeispiel war das zentrale christliche Dogma der Trinität, das Bacon
folgendermaßen mathematisch formuliert:
„Es ist unmöglich, uns die selige Dreifaltigkeit und die Einheit ihres Wesen an
einem geeigneteren Beispiel einer sinnlich wahrnehmbaren Schöpfung vorzustellen
als durch geometrische Verhältnisse. Denn unter allen künstlichen Dingen wird nur
im Dreieck die Einheit des Wesens zusammen mit der Unterscheidung von Dreier-
lei, was dasselbe Wesen innehat, vorgefunden. Und zwar, weil jeder beliebige von
den (drei) Winkeln des Dreiecks denselben Raum zahlenmäßig und (zugleich) im
ganzen erfüllt, wie es offensichtlich vor Augen liegt, und dennoch die Winkel wirk-
lich unterschieden sind; das ist bei einem geschaffenen Ding wunderbar und wird
nirgendwo anders gefunden als in der höchsten Dreifaltigkeit. Und weil sich über
einer gegebenen Linie notwendig ein gleichseitiges Dreieck aufschlagen läßt, wie
Euklid in seinem ersten Lehrsatz angibt, was kann dann als geeigneter angenommen
werden, um bei gegebener Person des Gott-Vaters die Dreifaltigkeit gleicher Perso-
nen darzustellen?“ 192

Man bemerke bei dieser geometrischen Veranschaulichung der Dreiheit in der


Einheit, daß Roger Bacon das geometrische Bild des gleichseitigen Dreiecks für
„wunderbar“ und einzigartig hält. In der Tat verkennt auch er als Mathematiker
noch die den Euklidischen Definitionen zugrundeliegende Dialektik, die wir im
Paragraphen über Euklid nachgewiesen haben.
Euklid und mit ihm die Mathematik definiert den Winkel nur durch die sich
schneidenden Geraden. Das sagt nichts über die zwischen den Schenkeln des
Winkels sich erstreckende Fläche. Die Fläche im Dreieck gehört aber ungeteilt zu
allen drei Winkeln - wie man „ad oculos“ wahrnimmt -, und zugleich zu keinem
von ihnen - gemäß der euklidischen Definition, die nichts über die Fläche besagt.
Und das ist ein logischer Widerspruch. So ist auch dieses geometrische Beispiel
für das Credibile der „Einheit der Trinität“ ein weiterer Beleg für die logische
These des Abälard, daß die Dogmen widersprüchliche Definitionen und Behaup-
tungen sind.
Es wurde schon gesagt, daß die Mathematiker die arithmetischen Verhältnisse
auf geometrische Figuren bezogen und sie dadurch veranschaulichten. Aber die
Dialektik der geometrischen Definitionen setzt sich schon bei Euklid in den arith-
metischen Definitionen fort, wie ebenfalls in § 19 über Euklid gezeigt wurde.

192
„Impossibile est beatam trinitatem et essentiae unitatem aptius a nobis repraesentari in exemplo creaturae sensibilis
quam per res geometricas. Nam in solo triangulo inter omnes res factas invenitur unitas essentiae cum distinctione trium
occupantium eandem essentiam. Quoniam idem spatium numero et totum capit quilibet de angulis trianguli, ut patet ad
sensum, et tamen veraciter sunt anguli distincti, quod est mirabile in creatura, nec alibi reperitur nisi in summa trinitate. Et
cum super datam lineam necesse est triangulum aequilaterum collocare, ut primo propositio Euclidis denunciat, quid magis
proprie potest assumi ut intelligamus quod data persona Dei patris necesse est trinitatem personarum aequalium exhiberi?“
Roger Bacon, The Opus Maius IV, S. 217 - 218.
362

Nichts ist leichter und selbstverständlicher, als die „Dreiheit“, die durch die Zahl 3
dargestellt wird, mathematisch zugleich eine „Einheit“ zu nennen. An die mathe-
matisch-dialektische Weise, Zahlen als „Einheiten“ zu „denken“, hat man sich seit
Euklid gewöhnt. Aber die arithmetische Denkweise für eine rationale Erklärung
des Credibile zu nutzen, hätte für jede Zahl gelten müssen. Und so hätte sich auch
ein dualistischer, quadristischer usw. Gottesbegriff als Einheit in der Zweiheit, in
der Vierheit usw. mathematisch „rationalisieren“ lassen.
Man hat zu wenig beachtet, daß die kabbalistische Spekulation die „Einheit in
der Zehnheit“ ihres Gottesbegriffs lehrte, also etwas, was man eine „dezimale
Theologie“ nennen könnte. 193 Daraus hat ersichtlich später Nikolaus von Kues
Folgerungen gezogen, als er seine mathematische Gottesdefinition auf eine trans-
finite Geometrie gründete und nicht auf arithmetische Beispiele.
Roger Bacon gewann mit seinen Ansichten zunächst die Sympathie des Papstes
Clemens IV. (1265 - 1268 amtierend), der ihn um Übersendung seiner Schriften
bat. Ob seine Sendung aber in die Hände des Papstes gelangten, ist zweifelhaft.
Jedenfalls verurteilte sein Ordensgeneral Hieronymus von Ascoli Bacons
Schriften und stellte ihn für seine letzen Lebensjahre unter Hausarrest. In dieser
Haft hat er noch 1292 ein „Compendium studii theologiae“ verfaßt.194 Hierin hat
er sich aber gänzlich auf die Empfehlung der Sprachstudien, der Vermeidung der
„Irrtümer” falscher Autoritäten und eine ausführliche Erläuterung der Logik be-
schränkt. Von Mathematik ist nicht mehr die Rede. Man kann vermuten, daß ihm
in der Haft jede Aussage darüber verboten wurde.
Das hat freilich nicht verhindert, daß die mathematischen Studien und die An-
wendung der Mathematik in den Naturwissenschaften weiter blühten. Im Merton
College von Oxford fand dies eine wirkungsvolle Heimstatt und breitete sich von
dort aus auf dem europäischen Kontinent als Wissenschaft der „Calculatores“
(Rechner) aus.195
Dieser neuplatonisch inspirierte Mathematikkult hat deutliche Spuren in der Be-
gründungsphase der neuzeitlichen Naturwissenschaft hinterlassen. Aber ange-
sichts der Dominanz des thomistisch-aristotelischen Weltbildes der Kirche wurde
er von dieser Seite immer mit Mißtrauen beobachtet. Gleichwohl sind noch be-
deutende Theologen aus den augustinischen Orden, vor allem Franziskaner aufge-
treten, die diese quadriviale Richtung weiter verfolgten. Zu ihnen gehört Raimun-
dus Lullus, der Arabermissionar, über den im nächsten Paragraphen weiteres ge-
sagt werden soll.

193
So im Buch Sohar, vgl. E. Müller, Der Sohar. Das heilige Buch der Kabbala, nach dem Urtext ausgewählt, übertragen
und herausgegeben, Düsseldorf 1982. - Über die verschiedenen Kabbala-Traditionen vgl. C. Thiel, Art Kabbala, in: J.
Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 2. Mannheim-Wien-Zürich 1984, S. 333 –
336.
194
Roger Bacon, Compendium of the Study of Theology, lat.-engl. hgg. v. Th. S. Maloney, (Studien und Texte zur
Geistesgeschichte des Mittelalters, Band 20) Leiden-Köln 1988.
195
Vgl. R. Tisato, Bradwardine e i calculatores del Merton College, in: Storia del pensiero filosofico e scientifico, hgg.
v. L. Geymonat, 2. Aufl. Band I, Mailand 1979, S. 478 – 480.
363

Es war jedoch der Kardinal Nikolaus von Kues (1404 –1464); der sehr klarsichtig
die Begründungslage aller Wissenschaften und somit auch der „wissenschaftli-
chen“ Theologie erfaßte und der Anwendung der Mathematik auf die Credibilia –
und zugleich der Credibilia auf die Wissenschaften - eine ganz neue Richtung
wies.
Man kann seine grundsätzliche Einstellung zum Verhältnis von Glauben und
Wissen aus seinem Ausspruch entnehmen:

„Alles Erkennbare schließt ... der Glaube ein. Vernunfterkenntnis aber ist Ausfal-
tung des Glaubens.“ 196
Das aber zeigt sich gerade in der axiomatischen Begründung jeder Wissenschaft,
insofern die Axiome selber geglaubt werden müssen:
„In jeder Disziplin werden nämlich gewisse erste Prinzipien vorausgesetzt, die allein durch
Glauben angenommen werden, woraus Einsicht in das zu Behandelnde gewonnen wird.“ 197

Nach Anselms Vorgang schlug auch Nikolaus am Ende der Scholastik eine
mathematische Gottesdefinition vor. Und darüber hinaus auch eine mathematische
Definition des Welt- bzw. Kosmosbegriffs. (Darüber mehr im nächsten Para-
graphen). Ebenso wie bei Anselm handelte es sich um eine metaphysische Glanz-
leistung der mittelalterlichen Philosophie, mit welcher der Kusaner zugleich auch
dem Übergang in die sogenannte Moderne seinen Stempel aufdrückte.
Wie man weiß, hätte er alle Chancen gehabt, selbst den päpstlichen Stuhl einzu-
nehmen, wäre er nicht zu früh verstorben. So war es ihm auch nicht vergönnt,
seine mathematische Theologie gegen den logischen Aristotelismus in der Kirche
durchzusetzen.
Daß er sich redlich darum bemühte, ersieht man daraus, daß er seine erste
mathematische Abhandlung dem Papst Nikolaus V. widmete. In der Captatio
benevolentiae bedankte er sich für die Zusendung der Schriften des Archimedes in
der durch diesen Papst befohlenen Übersetzung aus dem Griechischen ins La-
teinische durch Jacobus Cremonensis. Er rühmte besonders die Verdienste des
Papstes darum, „daß sämtliche noch auffindbaren Schriften der Alten, die der
Griechen und die der Lateiner, in peinlich genauer Überlieferung uns allen zu-
gänglich wurden, wobei Du auch die von unseren Vorfahren hochgeschätzten
geometrischen Schriften nicht außer acht gelassen hast“. Und zugleich nutzte er
die Gelegenheit, den Papst für die gleichsam kirchenoffizielle Anerkennung und
Verbreitung seiner mathematischen Forschungsergebnisse zu gewinnen:

196
„Fides ... est in se complectans omne intelligibile, intellectus autem est fidei explicatio.“ Nikolaus von Kues, De docta
ignorantia / Die belehrte Unwissenheit (verf. 1440), lat.-dt., Buch III, hgg. v. H. G. Senger, Hamburg 1977, c. 11, S. 74 –
75.
197
„In omni enim facultate quaedam praesupponuntur ut principia prima, quae sola fide apprehenduntur, ex quibus
intelligentia tractandorum elicitur.“ Nikolaus von Kues, ibid. c. 11, S. 74 –75.
364

„Dich allein weiß ich nämlich würdig, daß durch Dich allgemein bekannt werde, was
den Jahrhunderten verborgen blieb. Es handelt sich ja nicht nur um das, was hin-
sichtlich der gesuchten Quadratur des Kreises immer wissensmöglich war, sondern
meiner Meinung nach läßt sich aus meinen Darlegungen auch eine Einsicht gewin-
nen, die für jede vollkommene mathematische Überlegung eine Ergänzung bedeu-
tet.“ 198

In der Tat hat der Kusaner mit seiner Lehre von der (dialektischen) „Coincidentia
oppositorum“ wie kein anderer vor ihm richtig bemerkt, daß auch die mathema-
tische Axiomatik auf einer dialektischen Struktur ihrer Grundbegriffe beruht.
Dies ist freilich auf Grund des üblichen logischen Widerspruchsverständnisses
weder damals noch bis heute ernst genommen worden. Und die Reaktion der
mathematischen Fachleute, denen er seine mathematischen Schriften zur Kritik
vorlegte, zeigt ebenso wie noch moderne Stellungnahmen, daß man gerade diese
zentrale Idee des Kusaners für seine größte Schwäche hielt.
Daß die cusanische Lehre von der Coincidentia oppositorum gar nichts anderes
meinen konnte als eben die Denkfigur des Widerspruchs, dürfte also auch für
heutige Leser noch erst von ihm zu lernen sein.
Nikolaus sah sehr wohl, daß die vorangegangenen geometrischen Theologu-
mena das nicht leisteten, was man von ihnen erwartete. Darüber sagt er, dabei eine
Tradition seiner Maximum-Argumentation konstruierend, die auch Anselm ein-
schließt (ohne freilich dessen Argumentation korrekt wiederzugeben):
„Der fromme Anselm hat die höchste Wahrheit mit der unendlichen Gradheit (Will-
pert übersetzt falsch: „Richtigkeit“) verglichen. Ihm wollen wir folgen und uns der
Figur der Geradheit (Wilpert setzt in Klammer „Richtigkeit“ hinzu) zuwenden, die
ich mir als eine gerade Linie vorstelle. Andere erfahrene Männer haben die hoch-
gebenedeite Dreifaltigkeit mit einem Dreieck aus drei gleichen und rechten Winkeln
verglichen. Da ein solches Dreieck, wie gezeigt werden soll, notwendig aus unend-
lichen Seiten besteht, so könnte man es unendliches Dreieck nennen. Auch diesen
wollen wir folgen. Wieder andere haben im Bemühen um eine figürliche Darstellung
der unendlichen Einheit Gott als unendlichen Kreis bezeichnet. Diejenigen, welche
die absolute Wirklichkeit der Existenz Gottes zum Gegenstand ihres Nachdenkens
machten, haben schließlich Gott gleichsam als unendliche Kugel betrachtet. Wir
wollen nun zeigen, daß sie alle vom Größten die rechte Auffassung hatten und daß
sie alle dasselbe sagen wollten.“ 199

Die Auszeichnung der geraden Linie als Grundmodell des geometrischen Maxi-
mums bei Nikolaus dürfte auch den Zeitgenossen als äußerst plausibel erschienen
sein. Einerseits war Euklids Postulat der Verlängerbarkeit begrenzter Linien in die
198
Nikolaus von Kues, De mathematicis complementis / Von den Mathematischen Ergänzungen, in: Nik. von Kues, Die
mathematischen Schriften, übers. v. J. Hofmann, mit Einf. nebst Anm. hgg. v. J. E. Hofmann, Hamburg 1952, S. 69.
199
”Anselmus devotissimus veritatem maximam rectitudine infinitae comparavit, quem nos sequentes ad figuram, quam
lineam rectam imaginor, convolemus. Alii peritissimi trinitati superbenedictae triangulum trium aequalium et rectorum
angulorum comparavant, et quoniam talis triangulus necessario est ex infinitis lateribus, ut ostendetur, dici poterit train-
gulus infinitus, et hos etiam sequemur. Alii qui unitatem infinitam figurare nisi sunt, deum circulum dixerunt infinitum. Illi
vero qui actualissimam dei existentiam considerarunt, deum quasi sphaeram infinitam affirmarunt. Nos autem istos omnes
simul de maximo recte concepisse et unam omnium sententiam ostendemus. Nik. von Kues, De docta ignorantia I, c. 12,
S. 46 – 47.
365

aristotelische Definition der „potentiell unendlichen Linie“ eingegangen. Anderer-


seits setzten die Astronomen und besonders auch die neuplatonischen Optiker wie
Grosseteste und Roger Bacon als selbstverständlich voraus, daß die Lichstrahlen
der Himmelskörper jeweils in gerader Linie ins Auge des Beobachters fallen. Und
das konnte bei den „astronomischen“ (und damals nicht abmeßbaren) Abständen
der Firmamentsterne von der Erde durchaus eine Vorstellung von „unendlichen
geraden Linien“ erwecken.
Wie nun aber nicht nur in der begrenzten geraden Linie die unendliche Linie
potentiell vorhanden ist, sondern darüber hinaus in der unendlichen Linie alle
anderen geometrischen Gebilde, das ließ sich auch mit den damaligen Mitteln der
Geometrie beweisen. Und so beweist der Kusaner auch, wie ein unendlicher
Kreisumfang zur geraden Linie wird (De docta ignorantia I, c. 13), die unendliche
Linie zum Dreieck (c. 14), das unendliche Dreieck wiederum zu Kreis und Kugel
(I, c. 15). Zusammengefaßt heißt das:
„Wenn nun in der Möglichkeit der begrenzten Linie all diese Figuren liegen, die
unendliche Linie aber all das wirklich ist, was die endliche Linie der Möglichkeit
nach ist, so folgt, daß die unendliche Linie Dreieck, Kreis und Kugel ist, was zu
beweisen war.“ 200

Für Nikolaus als Theologen hat das unendliche Dreieck eine besondere Stellung,
da es ja (wie bei Roger Bacon) zugleich die Dreifaltigkeit repräsentiert. Der geo-
metrische Nachweis der Koinzidenz von geometrischen Bestimmungen (drei
Ecken mit ihren Winkeln, drei gerade Seiten) in der Einheit des unendlichen Drei-
ecks war geradezu der Prüfstein einer „rationalen“ geometrischen Dreieinigkeits-
theologie.
Nikolaus ist bei diesem Thema gewiß konsequent, wenn er auch hier die Ein-
heit des Gegensätzlichen wiederum „dialektisch“ als evident voraussetzt. Der be-
gründende Widerspruch besteht in seiner Behauptung, daß es „mehrere Unend-
liche nicht geben kann“ (quoniam plura infinita esse non possunt), obwohl „jeder
Teil des Unendlichen unendlich ist“ (quia quaelibet pars infiniti est infinita. De
docta ignorantia I, c. 13, S. 52 - 53).
Dieser Grundwiderspruch schlägt dann in der Deduktion auf die Natur der un-
endlichen Seiten und der unendlichen Winkel im unendlichen Dreieck durch. Da
die Winkelsumme im Dreieck gleich zwei rechten Winkel ist, versteht Nikolaus
unter einem unendlichen Winkel im unendlichen Dreieck einen solchen, der zwei
rechte (also 180 Grad) ausmacht, indem seine Schenkel zur Geraden werden. Und
da es beim Verschwinden der Winkel keine Gegenstellung von Ecken im unend-
lichen Dreieck gibt, werden die Geraden zu einer einzigen Linie.

200
“Si igitur in potentia lineae finitae sunt istae figurae, et linea infinita est omnia actu, ad quae finita est in potentia,
sequitur infinitam esse triangulum, circulum et sphaeram. Quod erat probandum.” Nik. von Kues, De docta ignorantia I, c.
13, S. 50 – 51.
366

Daraus ergibt sich die Definition der Trinität als unendliches Dreieck in folgender
Weise:
„Da die Summe zweier Seiten eines beliebigen Dreiecks nicht kleiner sein kann als
die dritte, so steht ferner fest, daß bei einem Dreieck mit einer unendlichen Seite
die beiden anderen nicht kleiner sind. Da jeder Teil des Unendlichen unendlich ist,
so müssen bei jedem Dreieck, dessen eine Seite unendlich ist, auch die anderen
unendlich sein. Da es aber mehrere Unendliche nicht geben kann, so erkennst du im
Überstieg, daß sich ein unendliches Dreieck nicht aus mehreren Linien zusam-
mensetzen kann, sofern es wirklich das größte, schlechthin wahre, das unzusam-
mengesetzt einfache Dreieck ist. Weil es aber das schlechthin wahre Dreieck ist,
das ohne drei Linien nicht zu bestehen vermag, so muß die eine unendliche Linie
drei sein, und die drei müssen eine einzige schlechthin einfache Linie sein. Das-
selbe gilt von den Winkeln. Da es nur einen unendlichen Winkel gibt, ist jener drei
Winkel, und die drei Winkel sind einer. Dieses größte Dreieck setzt sich nicht aus
Seiten und Winkeln zusammen, vielmehr ist die unendliche Linie und der un-
endliche Winkel ein und dasselbe, so daß die Linie Winkel ist, weil das Dreieck
Linie ist.“ 201

Bekanntlich hat der Kusaner diese Koinzidenz von Dreiheit in der Einheit gerade-
zu als eine überall nachweisbare Signatur der Schöpfung gehalten. Das zeigt sich
besonders in seiner Anthropologie sowohl hinsichtlich der körperlichen wie der
psychischen Konstitution des Menschen. Nicht zuletzt beruht darauf seine Unter-
scheidung der drei Vermögen der sinnlichen Wahrnehmung, des verstandes-
mäßigen (widerspruchslosen) Denkens und der „vernünftigen“ (d. h. bei ihm aber
der dialektischen bzw. koinzidentiellen) Ideenschau, die er „visio intellectualis“
nannte.
Es springt geradezu ins Auge, daß Kant seiner Transzendentalphilosophie die-
selbe „Dreieinigkeit“ der Vermögen Sinnlichkeit, Verstand und Vernunft (letztere
als Vermögen der dialektischen Vernunftideen) zugrunde legte. Ob und auf wel-
chem Wege er sie eventuell vom Kusaner übernommen hat, wäre ein lohnendes
Forschungprojekt.
Ersichtlich hat man dem Kardinal von Seiten einer aristotelisch-thomistischen
Theologie niemals verziehen, daß er mit seinen geometrischen Demonstrationen
den Glauben so wesentlich auf die Wissenschaft begründet hat. Und ebenso haben
ihm die Mathematiker und Physiker nicht verziehen, daß er ihre Wissenschaft auf
den Glauben (an dialektische Axiomatik) begründet hat.
Für die katholische Kirche war Nikolaus von Kues nach der aristotelistischen
Wende der Hochscholastik zu sehr Neuplatoniker und somit „überholt“. Man
201
“Deinde constat, quoniam omnia duo latera cuiuslibet trianguli simul iuncta tertio minora esse non possunt,
triangulum, cuius unum latus est infinitum, alia pariformiter esse infinita. Et quoniam plura infinita esse non possunt,
transcendenter intelligis triangulum infinitum ex pluribus lineis componi non posse, licet sit maximus verissimus
triangulus, incompositus et simplicissimus; et quia verissimus triangulus, qui sine tribus linieis esse nequit, erit
necessarium ipsam unicam infinitam lineam esse tres et tres esse unam simplicissimam. Ita de angulis, quoniam non erit
nisi angulus unus infinitus, et ille tres anguli et tres anguli unus. Nec erit iste maximum triangulus ex lateribus et angulis
compositus, sed unum et idem est linea infinita et angulus; ita quod et linea est angulum quia triangulus linea”. Nik. von
Kues, De docta ignorantia I, c. 14, S. 52 – 53.
367

bemerkt das leicht an den Kommentaren zur „Docta ignorantia“. Sie erläutern sehr
gediegen die Herkunft der Begriffe und Gedanken des Kusaners aus der neupla-
tonischen Tradition. Aber wo man eine Erklärung oder mindestens eine Plausibi-
lisierung des „dialektischen Denkens“ erwartet, wird man darauf verwiesen, die
„docta ignorantia“ sei eben eine „Belehrung über das Nichtwissen“. Das läuft aber
auf ein non liquet der Interpretation hinaus.
Für die Philosophen und Wissenschaftler, insbesondere die Kosmologen und
Astronomen, war Nikolaus zu sehr Kleriker. Die vollständige Abwesenheit seiner
Theorien im „ptolemäisch-kopernikanischen“ Diskurs der Renaissance und erst
recht in der Debatte über die moderne Relativitätstheorie, von der er mit seiner
Lehre soviel Bedeutendes vorausnahm, legt dafür ein beredtes Zeugnis ab.
Bemerken wir der Vollständigkeit halber, daß sich die Einschätzung der philo-
sophischen Leistung des Kusaners auch nach der Reformation nicht mehr geän-
dert hat. Die Protestanten bekannten sich zwar emphatisch zum wahren Glauben.
Aber was dies war und sein sollte, begründeten sie unter dem Renaissancefanal
„ad fontes“ durchweg aus den wissenschaftlichen Einsichten der „Philologien“
über die „etymologische“ (d. h. „wahre“ Bedeutung) der antiken Sprachen Hebrä-
isch-Aramäisch, Griechisch und Lateinisch sowie durch die Einsichten der histo-
rischen Forschung in den Entstehungs- und Traditionskontext der Überlieferung
der heiligen Schriften.
Auf der Seite der Wissenschaftler aber war der Einfluß der Skepsis der mittleren
platonischen Akademie immer virulent geblieben. Er dürfte eher noch verstärkt
worden sein durch die antagonistischen Universalprinzipien des stoischen Deter-
minismus und des epikureischen Indeterminismus, die weiterhin unversöhnt ge-
geneinander standen. Sie blieben auch im Hintergrund der theologischen Debatten
über den Vorrang des „freien Willens“ oder der „kausalen Rationalität“ im Gottes-
und Menschenbegriff zwischen Augustinern und Thomisten virulent. Erst recht
aber beherrschten sie die ontologischen und kosmologischen Debatten der Wis-
senschaftler.
Die Skepsis stimmte diese philosophischen und wissenschaftlichen Letzteinstel-
lungen zu Meinungssystemen herab, die allenfalls „Wahrscheinlichkeiten“ zum
Ausdruck bringen konnten.
Es waren dann vor allem die Stoiker unter den Philosophen, die ihre Überzeu-
gungen zu einer „Dogmatik“ ausbildeten, deren Begründung sie auf die „allge-
meine Meinung” (opinio communis: „was alle Menschen oder wenigstens die
Weisen und Gelehrten zu allen Zeiten und überall annehmen”) zurückführten. Den
kausalen Determinismus der Naturgesetze (lex naturalis) verlängerten sie in die
menschlichen Angelegenheiten hinein als „überpositives“ Naturrecht (ius natura-
le). Wo dieses aber schwer erkennbar oder umstritten blieb, folgten sie der „herr-
schenden Meinung“.
Was hier fehlt, ist die Anwendung der Glaubensterminologie auf die philoso-
phischen und wissenschaftlichen Begründungen. Sie wird erst, wie schon in § 4
368

gezeigt wurde, in umfassenderer Weise im gegenwärtigen Wissenschaftsjargon


und der Beschwörung von „Beliefs“ verwendet.
In der Sache aber hatte Nikolaus mit seiner Charakteristik vollkommen recht.
Einzig die logischen und mathematischen Methodologen sperrten sich – und bis
heute – gegen ein solches Eingeständnis, daß auch die logische und mathema-
tische Axiomatik nichts anderes als eine Begründung der Hauptmethodologien der
Wissenschaften auf den Glauben darstellt.

§ 31 Der Ausbau der formalen Methoden der Wissenschaft: die „Triviallogik“


der Geisteswissenschaften und die neue „Quadriviallogik“ der Mathematik.

Die Präsenz der aristotelisch-stoischen Logik und der euklidischen Mathematik im scholastischen
Lehrprogramm der Philosophischen Fakultät. Univozität bei Johannes Duns Scotus und Analogie
bei Thomas von Aquin als Paradigmen regulärer und widersprüchlicher Begriffsbildung. Die
euklidisch-mathematische Logik bei Raimundus Lullus. Veranschaulichung der arithmetischen
Begriffe durch geometrische Darstellungen und ihre Formalisierungen. Die Null und das Infini-
tesimal-Infinite als „Zahl und zugleich Nicht-Zahl“. Euklidisch-mathematische Logik als „höchste
dialektische Vernunfteinsicht“ bei Nikolaus von Kues und Kant. Das Auseinandertreten der ari-
stotelisch-trivialen Logik und der euklidisch-quadrivialen Logik: F. Viëta und Descartes.

Die „Elemente“ des Euklid sind - ebenso wie die logischen Hauptschriften des
Aristoteles und gewisse Elemente der stoischen Logik - sowohl im griechischen
Text wie in auszugsweiser lateinischer Übersetzung des Boethius im Abendland
immer präsent geblieben und galten als Lehrbuch der Mathematik schlechthin.
Auch die arabischen Mathematiker haben auf Euklid zurückgegriffen und seine
Lehren mit indischen mathematischen Lehren verknüpft. Die Ergebnisse ihrer
Forschungen wurden schon in der Hochscholastik in lateinischen Übersetzungen
aus dem Arabischen verbreitet.
Die „logische“ Argumentationsweise der „Elemente“ und ihre Vorbildfunktion
als Gesamtdarstellung einer einzelwissenschaftlichen Disziplin und somit auch
der Logik selber wurde in der Logikgeschichte bisher wenig beachtet. Man darf
diese Euklidische „Logik der Mathematik“ freilich nicht mit der praktischen
Rechenkunst der Antike und des Mittelalters identifizieren, die in den Geschichten
der Mathematik breiten Raum einnehmen. Von dieser ist in den „Elementen“
überhaupt nicht die Rede, und sie blieb auch bis in die Renaissance ziemlich
369

unterentwickelt. Die eigentliche Geschichte der „Logik der Mathematik“ ist daher
noch immer ein Desiderat der Forschung.
In der Scholastik sind die logischen Werke des Petrus Abälardus (1079 - 1142),
Petrus Hispanus (um 1220-1277), Johannes Duns Scotus (1266 - 1308) und
Wilhelm von Ockham (um 1290 - um 1348) die anerkannten Marksteine der tri-
vialen Logikgeschichte. Sie haben die in jener Zeit „Vetus Logica“ (Alte Logik)
genannten Urteils- und Schlußlehren des Aristoteles und der Stoa um eine wesent-
lich verbesserte Begriffslehre, die „Logica modernorum“, bereichert.
Die Begriffsmomente der Extension und Intension werden in der Lehre von der
„ersten Intention“ („gemeinter substantieller Gegenstand“, Extensionsbereich des
Begriffs) und „zweiter Intention“ („objektives“ psychisches Denkbild, Intension
des Begriffs) expliziert. Die Verfahren der Umfangserweiterung durch Merk-
malsreduktion wird als „amplificatio“ (oder ampliatio) und die Umfangsreduktion
durch zusätzliche Merkmale wird als „restrictio“ in der Begriffslehre diskutiert.
Die Bedeutungsvielfalt von Begriffen wird in der Lehre von den „Äquivokatio-
nen“ und „Suppositionen“ der Begriffszeichen (Begriffe „stehen für“ Wirklich-
keitselemente, aber unter Umständen auch für jeweils „andere Begriffe“; als
„Wort-Zeichen stehen sie sogar für sich selber) erörtert. Darüber hinaus wird das
Verhältnis der logisch-formalen Elemente zu sprachlichen Anwendungen und
Anwendungen auf die Wirklichkeit herausgeklärt. Es handelt sich dabei ersicht-
lich um das, was man in der neueren Logik „Semantik“ nennt.
Die unterschiedlichen platonischen und aristotelisch-stoischen Hintergrundan-
nahmen über die „ontologische“ Natur der Begriffe stießen, wie wir zeigten, im
„Universalienstreit“ der Scholastik aufeinander. Machen wir noch auf einen wei-
teren Streitpunkt aufmerksam, an dem die Theorie der regulären widerspruchlosen
Begriffsbildung mit der (herakliteisch-platonischen) Dialektik der „widersprüch-
lichen Grundbegriffe“ zusammenstieß. Es handelt sich um die Auslegung des
aristotelischen Dictums, daß „das Sein in den Kategorien vielfältig ausgespro-
chen“ werde (To on pollachos legetai  ò ὄῶέMetaphysik
Buch IV, 2, 1003 a 33).
Johannes Duns Scotus (1266 – 1308) vertritt hier die „Univozitätslehre“, nach
welcher auch der allgemeinste philosophische Begriff, nämlich der Seinsbegriff,
als identisches („univoce“) generisches Merkmal in seine Art- und Unterart-
begriffe (Kategorien und Postprädikamente) eingehe. Das entspricht der regulären
Induktion, nach welcher der Seinsbegriff auch nur die identischen Merkmale der
Kategorien und ihrer Unterbegriffe zusammenfaßt und „auf den Begriff bringt“.
Die Kategorien aber werden durch spezifische Differenzen als Arten des Seins nä-
her bestimmt und somit „verschieden ausgesprochen“. Wie man sieht, führt dies
zu einer „logischen Interpretation“ des aristotelischen Dictums und mithin zu
einem „regulären“ d. h. widerspruchslosen Seinsbegriff, den Duns Scotus auch
konsequent vertritt.
Dagegen hatte Thomas von Aquin (1225 - 1274), der keine speziellen logischen
Schriften verfaßt hat, seine „Analogietheorie des Seinsbegriffs“ entwickelt. Er
370

behauptete, daß nur eine „Analogie“ bzw. Ähnlichkeit zwischen dem allgemeinen
Seinsbegriff) und den (generischen) Seinsbestimmungen der Kategorien (analogia
entis) bestehe, die auf diese Weise das „Sein verschieden ausdrücken“. Dafür
beruft er sich auf das aristotelische Beispiel im Begriff der „Gesundheit“, der nur
in „analogem Sinne“ sowohl auf den Körper wie auch auf die Medizin angewandt
wird. 202
Dies führt zu einer „dialektischen Interpretation“ des aristotelischen Dictums.
Kategoriell bestimmtes Sein (Substanz, Raum, Zeit, Qualitäten, Quantitäten usw.)
ist damit jeweils zugleich Sein, aber auch jeweils ein anderes Sein als das im
allgemeinsten Seinsbegriff gedachte. Mithin wird der Seinsbegriff hier so ver-
standen, daß in ihm zugleich Identität und Nichtidentität mit kategoriellem Sein
gedacht werden soll. Und so kommt im thomistischen und späteren Analogie-
denken wiederum die herakliteisch-platonische Dialektik zum Tragen. Es handelt
sich bei der „Analogia entis“ um die Definition eines irregulären, d. h. wider-
sprüchlichen Seinsbegriffs.
Der Streitpunkt berührte ersichtlich höchste theologische Interessen. Denn
Duns Scotus bekennt sich durch seine widerspruchslose Induktion des Seins-
begriffs (der zugleich „Gott“ bedeutet) aus den Kategorien als Pantheist (Sein =
Gott ist in allem als Identisches enthalten). Thomas von Aquin aber versucht mit
seiner Seinsanalogie die Transzendenz bzw. Andersartigkeit des Göttlichen Seins
gegenüber der geschaffenen Seinswelt zu beweisen.
Der theologische Streitpunkt ist freilich nur ein Paradefall für den logischen
Umgang mit Grundbegriffen und Kategorien auf allen wissenschaftlichen Gebie-
ten, wo man bei gehöriger Scharfsicht leicht den Gegensatz zwischen Univozisten
und Analogisten aufdecken kann.
Raimundus Lullus (Ramon Llull aus Mallorca, um 1235 - 1315 n. Chr.), Plato-
niker und „Ideenrealist“, hat die Logik als „Universalwissenschaft“ für die Dar-
stellung der Wissensgehalte aller Einzelwissenschaften und zugleich als („heuri-
stische“) Erfindungsmethodologie neuer Erkenntnisse in den Wissenschaften aus-
zugestalten versucht. Sein Unternehmen war auf eine Integration der trivialen und
der quadrivialen Logik angelegt.
Er nannte sein Unternehmen „Ars Magna“ (Große Wissenschaft), „Ars gene-
ralis ultima“ (Allgemeine Letztwissenschaft, genauer vielleicht: Allgemeine
Letztbegründungswissenschaft) oder auch „Ars inventionis“ (Erfindungswissen-
schaft) und „Ars combinatoria“ (Wissenschaft der Deduktion von Begriffen durch
Kombination von Grundbegriffen). Er sagt darüber:
„Weil jede Wissenschaft ihre eigenen Prinzipien besitzt, die sich von den Prinzipien
der anderen Wissenschaften unterscheiden, so forscht und strebt die Vernunft nach
dem, was eine allgemeine Wissenschaft für alle Wissenschaften wäre, und zwar mit
ihren eigenen allgemeinen Prinzipien, in welchen die Prinzipien der übrigen beson-

202
Vgl. die konzise Dokumentation der Argumente des Thomas in: N. Signoriello, Lexicon peripateticum philosophico-
theologicum in quo scholasticorum distinctiones et effata praecipua explicantur, 3. Auflage Neapel 1881, S. 14 – 18.
371

deren Wissenschaften impliziert und enthalten sind, so wie das Besondere im Allge-
meinen“.203

Sein Grundgedanke dabei war, diese integrale Logik ausschließlich auf die Be-
griffslehre aufzubauen. Er meinte, daß sich Urteile, Schlüsse, Beweise und Argu-
mentationen, ja auch Fragestellungen, notwendigerweise und gleichsam von selbst
beim Durchdenken von Begriffszusammenhängen in porphyrianischen Begriffs-
bäumen bzw. Begriffspyramiden ergäben.
Mit großer Gelehrsamkeit hat er deshalb zunächst das Begriffsmaterial der theo-
retischen und praktischen Disziplinen (einschließlich der Theologie, Jurisprudenz
und Medizin) nach ihrem Allgemeinheitsgefälle in porphyrianischen Begriffs-
bäumen im Gattungs-, Arten- und Unterartenschema geordnet - und dies auch sehr
anschaulich in Baumbildern und Zeichungen vorgeführt, die dann in den Logik-
und Disziplinenlehrbüchern häufig übernommen wurden.
Ein zweiter Schritt bestand in der „Formalisierung“ der inhaltlichen Begriffe
durch lateinische Buchstaben wie schon bei Aristoteles und Euklid. Diese Buch-
staben stellte er tabellarisch in Zweier-, Dreier- und Vierergruppen in allen mög-
lichen Kombinationen zusammen. Mit dieser Tabellarisierung glaubte er sich
schon auf dem Wege der Erfindung neuer komplexer Begriffe zu befinden. Denn
was auch immer in den Reihen und Kolumnen seiner Tabellen nebeneinander zu
stehen kam, das sollte formal eine neue Begriffsverbindung repräsentieren. Die
formale Begriffsverbindung, die zu komplexen Ausdrücken führt, wird jedoch bei
Lullus nicht durch entsprechende Junktoren markiert.
Man brauchte dann nur die den Buchstaben-Variablen entsprechenden inhalt-
lichen Begriffe in den Begriffsbäumen, wo sie ja durch inhaltliche Wörter notiert
waren, aufzusuchen, um sie auch in Worten auszudrücken bzw. „abzulesen“. Das
Verfahren orientierte sich offensichtlich an der arithmetischen Bildung immer
neuer Zahlen durch die Summation, Multiplikation (oder Potenzbildung) schon
bekannter Zahlen. Indem die Griechen und auch Euklid Zahlverhältnisse an geo-
metrischen Figuren veranschaulichen, wurde ja eine Zahl in zweiter Potenz (z. B.
2 mal 2) „Quadratzahl“ genannt und durch eine quadratische Fläche veranschau-
licht. Dreierpotenzen hießen „Körperzahlen“ und wurden am Würfel veranschau-
licht.
Diese von Euklid sanktionierte mathematische Denkweise wurde von Lullus
verallgemeinert und auf alle Begriffe angewandt. Ebenso wie eine „Linie mal
Linie“ eine „Fläche“ ergeben soll (was den Nichtmathematiker, der nicht dialek-
tisch denkt, immer wieder in Erstaunen versetzen kann), so sollte etwa auch die
Kombination „Bewegungs-Bewegung“ den Begriff „Bewegungsänderung“ (später
„Beschleunigung“ genannt, die für Physiker auch die Verlangsamung und die

203
„Quia quaelibet scientia habet sua principia propria diversa a principiis aliarum scientiarum, idcirco requirit et appetit
intellectus, quod sit una scientia generalis ad omnes scientias, et hoc cum suis principiis generalibus, in quibus principia
aliarum scientiarum particularium sint implicita et contenta, sicut parti culare in universali“, Ars magna et ultima, zit. nach
F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 2, 13. Aufl. Basel-Stuttgart 1956, S. 459.
372

Richtungsänderung einschließt) ergeben. Einer von Lullus‟ treuesten späteren An-


hängern (zu denen z. B. auch Giordano Bruno gehörte), Carolus Bovillus (Charles
Bouillé oder Bouvelles, ca. 1470 – ca. 1553), hat etwa nach dieser Methode durch
„homo“ (= homo¹) den ersten Menschen Adam, durch „homo-homo“ (= homo²)
den zweiten Menschen Eva, und durch „homo-homo-homo“ (= homo³) den dritten
Menschen Abel definiert).204
Der dritte und letzte Schritt bestand darin, die Heuristik bzw. die Erfindung
neuer Begriffe zu mechanisieren. Dazu ordnete Lullus die Grundbegriffe der Dis-
ziplinen auf dem äußeren Rand von Scheiben an, in deren Mitte sich andere
Scheiben mit anderen Begriffen und Verbindungslinien drehen ließen. Damit
ließen sich sämtliche möglichen Begriffsverbindungen systematisch ermitteln.
Daß Lullus neben seiner mathematisch inspirierten Ars combinatoria auch eine
konventionelle triviale „Logik“ verfaßt hat, in der er die Ars combinatoria als
Leitfaden für logische Fragestellungen eingebaut hat, ist demgegenüber lange
unbemerkt geblieben.205
Die „cyclonomische“ Erfindungskunst des Lullus erregte sogleich ungeheures
Aufsehen und fand zahlreiche Anhänger, die sie auf alle möglichen Disziplinen
anwendeten. Eine umfangreiche Literatur, die man recht vollständig in Morhofs
„Polyhistor“ verzeichnet findet, zeugt davon.206 Der große Erfolg dieser Methode
dürfte aber wesentlich auf seiner Leistungsfähigkeit in der Memorialistik und
Rhetorik beruhen. Man konnte sich anhand der Buchstabenkombinationen leicht
eine Disposition von Themen und Topoi für öffentliche Reden und Lehrvorträge
bilden. Das haben die lullistischen Redner mit großem Erfolg praktiziert.
Der Renaissance-Platoniker Ficino hatte die lullische Ars characteristica als eine
schlechte Vulgarisierung der hebräischen Kabbala angesehen, und so wurde sie
denn oft auch als Kabbala bezeichnet. Sie ist aber bis zu Leibnizens Wieder-
aufnahme und seine Beiträge zur Entwicklung einer neuen „ars characteristica“
aus den Geschichtsdarstellungen verschwunden.
Die alsbald „lullische Kunst“ genannte Methode hat zweifellos die physika-
lische Begriffsbildung (durch Verknüpfung von Grundbegriffen mittels der als
Junktoren dienenden Rechenoperationen) mächtig beflügelt, während sie in der
geisteswissenschaftlichen Begriffsbildung schließlich als großer Schwindel galt.
Und das dürfte wesentlich dazu beigetragen haben, bei den Geisteswissenschaft-
lern aller Sparten die Logik insgesamt in Verruf zu bringen.
In der Tat ist der Grundgedanke des Lullus, daß sich die Logik insgesamt auf
einer soliden Begriffslehre aufbauen lassen müßte, grundsätzlich richtig. Der fata-
le Mißgriff seiner Konzeption der Begriffslehre aber liegt darin, daß er bei den
„ganzen Begriffen“, die er jeweils wie schon Aristoteles als unanalysierbare Ein-
204
„Adam homo tantum; Eva homo homo; Abel homo homo homo.” Carolus Bovillus, Liber de Sapiente (1510), Kap. 25.
In: Carolus Bovillus, Liber de Intellectu (u. a. Schriften), Paris 1510, Nachdruck Stuttgart-Bad Cannstatt 1970 (bzw. 1973),
S. 132.
205
R. Lullus, Die neue Logik, lat.-dt. übers. v. W. Büchel und V. Hösle, Hamburg 1985.
206
Daniel Georg Morhof, Polyhistor literarius, philosophicus et practicus, Ausgabe Lübeck 1747, Band I, Liber II, Kap. V:
„De arte lulliana similibusque inventis“, S. 350 - 365.
373

heiten behandelte und wie dieser durch einzelne Buchstaben formalisierte, das
Spiel des Ineinandergreifens von Intensionen und Extensionen in den Begriffen
der porphyrianischen Bäume nicht durchschaute.
Dieses Spiel aber läßt sich nur durch die verschiedenen Junktoren angemessen
darstellen und formalisieren. Einige Junktoren hat Lullus zwar selbst in einem
solchen Schema angeordnet, aber daraus keine Folgen für ihre Anwendung gezo-
gen. Entsprechend hat er die Funktion der Junktoren in ihren je verschiedenen
Verknüpfungsweisen von Begriffen zu Ausdrücken und zu Urteilen und Schlüs-
sen nicht erkannt. Und so mußte er schließlich alle irgend nur möglichen Ne-
beneinanderstellungen von Begriffen als solche schon für wahre Urteile und be-
weisende Schlüsse halten, ohne ein Kriterium für die Falschheit übrig zu behalten.
Ehe man ihn aber dafür tadelt, sollte man nicht vergessen, daß so mancher
moderne Logiker und Physiker auch eine physikalische Formel (selbst wenn sie
nicht als Gleichung notiert wird) für eine wahre Erkenntnis (statt für einen nicht-
wahrheitswertfähigen komplexen Ausdruck) hält. Noch L. Wittgenstein hat in sei-
nem Tractatus logico- philosophicus die Satzform (des Urteils) für eine reine „Be-
griffsverkettung“ gehalten (und wohl auch deswegen kein einziges Beispiel für
seine „Elementarsätze“ vorweisen können). Von reinen Begriffsverkettungen ist
auch Lullus ausgegangen.
Bezüglich der logischen Kultur und Praxis in der Scholastik ist es wichtig, sich
immer wieder daran zu erinnern, daß im universitären Fakultätssystem die Be-
fassung mit Logik und Mathematik ins Propädeutikum der Philosophischen Fa-
kultät gehörte und jedem Studienanfänger abverlangt wurde. Der Student konnte
sich dann erst später einem praktischen (Anwendungs-) Studiengang der höheren
Fakultäten Theologie, Jurisprudenz und Medizin zuwenden.
Für die Organisation des Propädeutikums in der Philosophischen Fakultät aber
hatte man die Disziplinenordnung der platonischen „Enzyklopädie“ in einem Tri-
vium (Dreiweg) und einem Quadrivium (Vierweg) übernommen. Die Logik
(grundsätzlich die aristotelische und z. T. die stoische) wurde im Trivium gelehrt,
und zwar im Verbunde mit Grammatik und Rhetorik. Man nannte die Trivial-
disziplinen gemeinsam „Scientiae sermocinales“, d. h. Redewissenschaften. Da-
raus sind später die Geisteswissenschaften hervorgegangen, die nicht ganz zufällig
bei naturwissenschaftlichen Spöttern heute „Blablawissenschaften“ genannt wer-
den.
Die Mathematik mit den beiden Disziplinen Geometrie und Arithmetik aber
stand im Quadrivium in engster Verbindung mit den „Scientiae reales“, d. h.
„Realwissenschaften“ von der Natur, insbesondere mit der Himmels- und sub-
lunaren Mechanik und mit der musikalische Harmonielehre. Letztere wurde
Grundlage für die physikalische Akustik, darüber hinaus Quelle vieler mathe-
matisch-ästhetischer Prinzipien). Das Quadrivium aber hat sich erst seit dem 19.
Jahrhundert als neue „Mathematisch-Naturwissenschaftliche Fakultät“ von der
(dann nur noch „trivialen“) Philosophischen Fakultät abgetrennt und verselb-
ständigt. Bis dahin gehörten also triviale Logik und quadriviale Mathematik zu
374

den obligatorischen Studien der Fachphilosophen und über deren propädeutische


Lehre auch zur Studienobligatorik der Theologen, Juristen und Ärzte.
Die in den Realdisziplinen angewandte Mathematik war im wesentlichen
geometrisches Zeichnen, vor allem der Kegelschnitte, d. h. von Kreisen, Ellipsen
und Hyperbeln, dann auch von Epizyklen und Exzentern für die Darstellung der
Konstellationen von Himmelskörpern in der Astronomie. Darüber hinaus war sie
arithmetisches Rechnen mittels der Grundrechenarten für die Bedürfnisse der
Chronologie und rechtlicher und ökonomischer Angelegenheiten. Man rechnete
nach griechisch-römischer Art mit den Fingern („digital“) und den Fingergelenken
(„articuli“) oder mit dem „Abacus“, auf dem sich in Kolumnen Einer-, Zehner
und- Hunderterzahlen sowie weitere Dezimalzahlen darstellen ließen.
Als große Neuerung kam die „algebraische“ Rechenweise (nach dem arabischen
Titel des Buches des persischen Mathematikers Al-Chwarismi „Al jabr wa ʼl
muqabala“ genannt) seit der Jahrtausendwende auf. Durch sie wurde auch die
(indische) Null als Zahlzeichen eingeführt. Die Null (lat.: nullum = das logische
„kein“) als schriftliches Stellvertreterzeichen („Ziffer“, arab.: cifr) für leerge-
bliebene Dezimalstellen beim Rechnen mit dem Abacus zu benutzen, war kein
Problem. Ebenso wenig bereitete es Schwierigkeiten, sie im geometrischen Bild
des Punktes („ein Etwas ohne Teile“) darzustellen, wie das in der arabischen
Schrift üblich wurde. Im Arabischen wird die Null immer noch als Punkt notiert.
Für die euklidisch geschulten Quadrivialisten lag es nahe, die Null als „Zahl und
zugleich Nichtzahl“ zu behandeln. Da die Zahlen bis dahin nach euklidischer
Weise vor allem als kommensurable und nichtkommensurable Größen behandelt
wurden, wurde sie als nichtkommensurable kleinste Größe (Minimum an Größe)
eingeordnet. Und das umso leichter, als man das Unendliche schon längst als
Maximum der Zahlgröße behandelt hatte, also ebenfalls als „Zahl und zugleich-
Nichtzahl“.
Im vorangegangenen Paragraphen wurde schon gezeigt, daß und wie die neu-
platonisch orientierten Theologen von Grosseteste über Roger Bacon bis Ray-
mundus Lullus das „Buch der Natur“ als zweite göttliche Offenbarungsquelle be-
nutzten und die Mathematik konsequent als die quadriviale Wahrheitsmethodolo-
gie sowohl der Natur- wie der Gotteswissenschaft herausstellten. In der Konkur-
renz der trivialen (aristotelisch-stoischen) Logik und der (euklidischen) Mathema-
tik trat die Mathematik als die höhere und bessere Methodologie in den Vorder-
grund.
Nikolaus von Kues (1401 - 1464 n. Chr.) stand in dieser neuplatonischen Tra-
ditionslinie. Er wies der Mathematik als höchste spekulative Denklogik einen
Platz über der trivialen (auf Widerspruchslosigkeit ausgerichteten) trivialen Logik
an, wie es im vorigen Paragraphen schon erläutert wurde.
Als Theologe stand er aber zugleich in der Tradition des Tertullian, Augustins
und Abälards, in welcher die Credibilia bzw. Dogmen als widersprüchliche Be-
griffe und Aussagen zu verstehen und dadurch gegenüber allen nicht-theologi-
schen Begriffen und Aussagen abzugrenzen und auszuzeichnen waren. Diese
375

„dialektische“ Traditionslinie brachte der Cusaner in seiner Lehre von der „Docta
ignorantia“ zu einem offensichtlich bisher nicht überbotenen, zugleich aber kaum
adäquat eingeschätzten Abschluß.
Die Erkenntnistheorie des Kusaners setzt die drei Erkenntnisvermögen der sinn-
lichen Anschauung (visio sensualis), des verstandesmäßigen begrifflichen Den-
kens (visio rationalis) und der Vernunfteinsicht (visio intellectualis) voraus. Die
Unterscheidung war auch in der trivialen Logik gängig. Sie begründete die em-
pirische sinnliche Anschauung der quantifizierbaren Dinge, das begrifflich-dis-
kursive (d. h. widerspruchslose logische) Denken und die (dialektische) Vernunft-
einsicht in die axiomatischen Prinzipien als Leistungen dieser psychischen Ver-
mögen. Im 2. Buch seiner Abhandlung „Über die Konjekturen“ (De coniecturis)
hat Nikolaus sein Menschenbild erläutert, das diese Unterscheidungen trägt.
Die quadriviale Logik lenkt alle Aufmerksamkeit auf die geometrische Kon-
struktion der sinnlichen Objekte. Aber damit ist für Nikolaus von vornherein ein
Makel verbunden. Jedes geometrische Abbild eines wahrgenommenen Objekts ist
mehr oder weniger ungenau. Jedes Messen von Gegenständen mit geometrischen
Maßstäben enthält einen Meßfehler. Daher kann ein Wissen auf der Grundlage der
geometrischen Konstruktionen gemäß dem Kusaner nur ein „konjekturales Wis-
sen“, eben ein „vermutendes Wissen“ sein. Man bemerke, daß die prinzipielle
Voraussetzung von Meßungenauigkeiten in allen analogen Meßverfahren in den
Naturwissenschaften notorisch geblieben ist und heute in einer eigenen mathema-
tischen Disziplin behandelt wird.
Aber neben der Meßungenauigkeit gibt es einen zweiten Grund in den geo-
metrischen Gebilden selbst, auf den die Pythagoräer schon aufmerksam wurden,
und der durch Euklid allgemein bekannt war. Es ist der Gegensatz von „rationa-
len“ (logon) und „nicht-rationalen“ (alogon) Proportionen der Bestandteile geo-
metrischer Gebilde. Er macht sich am deutlichsten in allen Proportionen von gera-
den im Verhältnis zu gekrümmten Strecken bemerkbar.
Die sich daraus ergebenden geometrischen Hauptprobleme zeigten sich exem-
plarisch im irrationalen Verhältnis von Kreisdurchmesser und Kreisumfang sowie
in der Problemstellung der Quadratur des Kreises. Entsprechend war es eine per-
enne Aufgabe der Geometer, diese Disproportion zu überwinden. Sie bestand in
der Suche nach einer gemeinsamen Maß-Einheit für das Gerade und das Ge-
krümmte. Diese Forschung stieß jedoch immer wieder an eine unüberwindbare
Grenze.
Gewiß gab es eine Menge Lösungsvorschläge durch Annäherungen (Approxi-
mation) von Kurven an Geraden, von Innen- und Außen-Vielecken an Kreisen bis
zum optischen „Zusammenfall“ der gegensätzlichen Gebilde. Aber sie blieben an
die Visio sensualis, die sinnliche Anschauung gebunden und befriedigten in kei-
ner Weise das rationale Denken.
Die Unvereinbarkeit des Rationalen und Irrationalen setzte sich bei den Pro-
portionen zwischen den Zahlen fort. Und auch hier gab es lange Erfahrung im
Umgang mit den Quotienten rationaler und irrationaler Zahlenproportionen. Darin
376

aber zeigte sich dasselbe Irrationalitätsproblem im Bereich des quadrivialen


Verstandeswissens wie bei der Anschauung. Für die Anschauung und die Praxis
war es kein Problem, ein Ganzes in genau drei Teile zu zerteilen, wohl aber für
die Teilungsrechnung im Dezimalsystem.
Die Lösung der geometrischen und arithmetischen Irrationalitätsprobleme fand
der Kusaner auf der Ebene der Vernunfteinsicht in die Prinzipien der quadrivialen
Logik. Was die triviale Logik des Aristoteles und der Stoa als Signatur des
Falschen und Undenkbaren (das „Absurde“) perhorresziert hatte, nämlich den
Widerspruch, das wurde nun als höchst erreichbare Einsicht menschlicher Er-
kenntnisfähigkeit ausgezeichnet. Nikolaus nannte die Denkform des Widerspruchs
„Coincidentia oppositorum“, das „Zusammenfallen des Entgegengesetzten“. Es
war ein spätes Echo des herakliteischen Logosbegriffs.
Die Bezeichnung „coincidentia oppositorum“ für den Widerspruch war treffend
gewählt. Und was damit gemeint war, konnte den Theologen in der dialektischen
Tradition des Tertullian, des Augustinus und des Abälard nicht unverständlich
sein. Daß der Kusaner damit aber die „Schrift“ des Buches der Natur“ und damit
die gesamte quadriviale Logik der Mathematik axiomatisch auf den Widerspruch
begründete und ihre perennen Probleme gleichsam mit einem Schlag zu lösen
versprach, war gegenüber dem Selbstverständnis aller Mathematiker eine unge-
heure Provokation. Glaubten sie doch – und glauben sie noch heute - die Mathe-
matik und alles was zu ihr gehört sei das Maß des widerspruchslosen Denkens
und damit aller trivialen Logik überlegen.
Es kann daher nicht verwundern, daß die Mathematiker bis heute dem Kusaner
mathematische Unbedarftheit vorwerfen. Und dies trotz der bekannten Tatsache,
daß er bei einem der berühmtesten Mathematiker seiner Zeit, Prosdocimo de
Beldomani (gest. 1428) in Padua studiert hatte und einen von dessen Meister-
schülern, nämlich Paolo dal Pozzo Toscanelli, zum Kommilitonen und besten
Freund gewann, mit dem er dann auch seine mathematischen Schriften durch-
sprach.
Eine solche Revolution der mathematischen Denkart in einem Fache vorzu-
schlagen und ihren Nutzen an der Lösung einiger Fachprobleme zu demonstrieren,
das seit jeher auf die vermeintliche Widerspruchslosigkeit seiner Axiomatik und
seiner Beweise stolz war, mußte auf ganz andere Schwierigkeiten treffen, als dies
etwa in der Logik der Fall gewesen wäre. Der Kusaner zeigt selbst die Schwie-
rigkeiten auf, einen Problembestand zunächst einmal auf eine klare Alternative
bzw. den kontradiktorischen Gegensatz zu bringen:

„Da wir in den Gegensätzen stets ein Mehr oder Weniger finden, etwa im Einfachen
und Zusammengesetzten, im Abstrakten und Konkreten, im Formalen und Mate-
rialen, Vergänglichen und Unvergänglichen usw., deshalb kommt man nicht zum
reinen Gegenteil oder zu dem, in dem die Gegensatzglieder in genau gleicher Weise
zusammentreffen. Alles besteht also aus entgegengesetzten Bestandteilen in grad-
weiser Verschiedenheit, indem es vom einen mehr, vom anderen weniger besitzt, und auf
377

diese Weise die Natur des einen der Gegenteile dadurch erreicht, daß die eine der
gegensätzlichen Bestimmungen die andere besiegt.“ 207

Er war sich also darüber im klaren, daß das dialektische Denken nicht schon auf
beliebige (konträre) Gegensätze anzuwenden war, sondern nur auf diejenigen, die
sich auch logisch als kontradiktorische Gegensätze formulieren ließen.
Den Widerspruch denken zu wollen, rief jedoch bei allen Triviallogikern so-
gleich den Vorwurf der Falschheit, Unsinnigkeit und des Absurden seines Unter-
nehmens hervor. Auch damit hat der Kusaner von vornherein gerechnet. Aber die
Logiker wollte er gar nicht zur Einsicht in die Fruchtbarkeit dieses dialektischen
Denkens bekehren, wohl aber gerade die Mathematiker und vor allem die Theolo-
gen, sofern sie sich der dialektischen Denkmethode in ihrem Fach bedienen woll-
ten.

„Jetzt hat vor allem die aristotelische Richtung Geltung, die die Koinzidenz der
Gegensätze, welche man anerkennen muß, um den Anfang des Aufstiegs zur mysti-
schen Theologie zu finden, für eine Häresie hält. Den in dieser Schule Ausgebilde-
ten scheint dieser Weg vollkommen unsinnig zu sein. Er wird als ein ihren Absich-
ten entgegengesetzter völlig abgelehnt. Daher käme es einem Wunder gleich – eben-
so wie es eine Umwandlung der Schule wäre -, wenn sie von Aristoteles abließen
und höher gelangten.“ 208

Fügen wir die Bemerkung bei: Die Lage hat sich seither nicht geändert. Nicht nur
die klassische Logik, sondern auch die mathematische Logik hält noch immer den
Widerspruch für „vollkommen unsinnig“ und den „Aufstieg zur dialektischen
Axiomatik“ für eine Häresie.
Das ist umso merkwürdiger, als der Mathematiker seit jeher daran gewöhnt ist,
diesen „Zusammenfall des Gegensätzlichen“ zu denken und für die Konstruktion
„wahrer“ mathematischer Grundbegriffe zu benutzen. Der Kusaner nennt diese
alte Gewohnheit „visio intellectualis“, und er bezeichnet damit genau das, was
schon Platon eine „Schau mit dem geistigen Auge“, nämlich der Ideen, genannt
hatte. Nichts anderes war und ist es, was Mathematiker für ihre Vorstellungen von
„unanschaulichen“ mathematischen Gebilden regelmäßig in Anspruch nehmen.
Aber auch hier ist die Bemerkung am Platze, daß die von den Mathematikern
beschworene „Unanschaulichkeit“ ihrer Begriffe nicht darin besteht, daß man sich
die damit bezeichneten mathematischen Gebilde nicht anschaulich machen
207
„Quoniam in oppositis excedens et excessum reperimus, ut in simplici et composito, abstracto et concreto, formali et
materiali, corruptibili et incorruptibili et ceteris, hinc ad alterum purum oppositorum non devenitur, aut in quo concurrant
praecise aequaliter. Omnia igitur ex oppositis sunt in gradu diversitate habendo de uno plus, de alio minus, sortiendo
naturam unius oppositorum per victoriam unius supra aliud.” Nik. von Kues, De docta ignorantia / Die belehrte Unwis-
senheit, lat.-dt Buch II, hgg. v. P. Wilpert, Hamburg 1967, c. 1, S. 8 - 9.
208
„Cum nunc Aristotelica secta praevaleat, quae haeresin putat esse oppositorum coincidentiam, in cuius admissione est
initium ascensus in mysticam theologiam, in ea secta nutritis haec via penitus insipida, quasi propositi contraria, ab eis
procul pellitur, ut sit miraculo simile – sicuti sectae mutatio - reiecto Aristotele eos altius transilire“. Nicolaus von Cues,
Apologia doctae ignorantiae / Verteidigung der wissenden Unwissenheit, in: Nikolaus von Kues, Philosophisch-Theolo-
gische Schriften, hgg. v. L. Gabriel, Band I, Wien 1964, S. 530 –531.
378

könnte. Denn das geschieht beim Sehen und Zeichnen von Punkt und Linie und
beim Abzählen von Gegenständen ohnehin.
Die Unanschaulichkeit besteht vielmehr darin, daß man die im Widerspruch
zusammenfallenden anschaulichen Gebilde (wie Punkt und Linie, Linien und Flä-
che usw.) eben nicht „zugleich und in gleicher Hinsicht“ als unterschieden und als
nicht-unterschieden anschauen und darstellen kann. Weder sieht man Punkte in
der Linie, noch Linien in der Fläche, noch die Einheit in der Zahl. Und doch setzt
man mathematisch voraus, daß sie darin enthalten sind und sie geradezu aus-
machen. Und eben dies zu denken (d. h. in der Phantasie „auszumalen“) heißt
nichts anderes als ihre Widersprüchlichkeit zu denken.
Was hier zu leisten ist, nennt der Kusaner zwar gelegentlich „Überstieg“
(transgressio), aber seine Standardbezeichnungen sind die Termini „Complicatio“,
in den deutschen Übersetzungen „Einfaltung“, und „Koinzidenz“ (Zusammenfall).
Die Complicatio ist dabei jedoch in seine theologischen Überlegungen eingebettet
und lenkt deshalb von der mathematischen Ausgangssituation ihrer Anwendungen
ab. So spricht er etwa davon: „Gott sei die Einfaltung von allem, auch des Wider-
sprüchlichen.“ 209
Auch der „Überstieg“ von direkt anschaulichen geometrischen Gebilde zu un-
endlicher Vergrößerung und Verkleinerung ihrer Gestalten war und ist ein altes
Thema der Mathematik. Es unterliegt aber denselben Bedingungen der Dialektik.
Der Prototy dafür dürfte Euklids Postulat gewesen sein, daß man eine gerade
Linie in beiden Richtungen „ins Unendliche“ verlängern können sollte. Das ist
logisch, wie vorn schon gezeigt, eine widersprüchliche Anweisung.
Aristoteles und die triviale Logik haben dafür die Formulierung vorgeschlagen,
man solle eine Gerade „beliebig lange“ ausziehen können. So wurde das mathe-
matische Unendliche als ein „Und so weiter“ an den aristotelischen Möglich-
keitsbegriff (dynamei on, potentia) gebunden. Daran schließen sich bekanntlich
langdauernde Logomachien über das „aktuell“ oder „potentiell Unendliche“ in der
Mathematik an.
Der aristotelische Möglichkeitsbegriff ist jedoch selbst, wie in § 10 ausführlich
gezeigt wurde, ein widersprüchlicher Begriff, mit dem Aristoteles seine (dialek-
tische) Modallogik begründete. Der Kusaner nimmt diesen Möglichkeitsbegriff in
seine Definition der Complicatio auf. Sie ist „potentiell“ das, was „aktual“ (in der
sinnlichen Wirklichkeit) in allen diskreten Einzelheiten „entfaltet“ wird. Eine
seiner Gottesdefinitionen in aristotelischer Terminologie lautet daher „Possest“
(„Können-Sein“, so im Titel einer seiner Schriften). Eigentlich hätte er sich auch
den aristotelischen Logikern und Theologen damit besser verständlich machen
müssen.
Das geometrische Beispiel der beliebig zu verlängernden Linie hat seine Ent-
sprechung in der Arithmetik. Auch hier war und ist es unbestritten, daß man zu
jeder gegebenen Zahl eine „größere“ ausweisen kann und so ad infinitum. In
209
„Deum esse omnium complicationem, etiam contradictorium“. Nik. von Kues, De docta ignorantia / Über die belehrte
Unwissenheit I, lat.- dt. hgg. v. P. Wilpert, Hamburg 1979, c. 22, S. 88.
379

beiden Bereichen aber kann das Unendliche im sinnlichen Anschauungsbereich


(visio sensualis) nicht erreicht werden. Niemand hat jemals eine unendliche
Gerade gesehen oder gezeichnet, und keiner kennt eine „größte Zahl“ und hat sie
je notiert.
Genau das wird für Nikolaus von Kues ein Argument für eine absolute Grenze
des Erkennens des Göttlichen und der geschaffenen Welt als etwas Unendliches.
Nichts anderes signalisiert er schon im Titel seines Hauptwerke als „docta igno-
rantia“. Und das zeigt er auch in einer besonderen Schrift „Über den verborgenen
Gott“ (De Deo abscondito).
Der „Überstieg“ bzw. das, was man in der Mathematik seit Leibniz Grenz-
übergang nennt, ist in seinen Beispielen ein solcher vom sinnlich Anschaulichen
(visio sensualis) einzelner geometrischer Figuren und von Ziffern für Zahlen zur
„intellektuellen Vorstellung“ (visio intellectualis) des Unendlichen als Zusam-
menfall gegensätzlicher Einzelheiten. Gerade dies aber hatte die euklidische Ma-
thematik bei ihren Spekulationen über das unendliche Große bei geometrischen
Gebilden und Zahlen längst eingeübt. Es war daher keine Neuerung, wenn sich
der Kusaner dieser Vorleistungen bediente. Jeder Mathematiker verstand, was er
unter Maximum und Minimum verstand. Und es verdient auch betont zu werden,
daß der Kusaner verstand, was Mathematiker sich darunter vorstellten.
So hat auch jeder Mathematiker sehr wohl verstanden und es geradezu für
selbstverständlich gehalten, daß der Kreisumfang als anschauliches geometrisches
Gebilde im (in der Phantasie, jedoch niemals in der Praxis) unendlich vergrößer-
ten Kreis zur Geraden wird bzw. mit der geraden Linie koinzidiert. Ebenso, daß
der anschauliche Kreisumfang im unendlich verkleinerten Kreis zum Punkt wird.
Und so bei allen diskreten Gebilden, die kontinuierlich vergrößert oder verkleinert
werden.
Beschreibt man die Welt bzw. den Kosmos mittels geometrischer Gebilde und
willkürlich ausgewählter Maßeinheiten, was immer einen Rückgriff auf sinnlich
überschaubare Größen voraussetzt, so wird man ihrer wahren unendlichen Größe
und dem unendlich Kleinen in ihr nicht gerecht. Um die Welt richtig zu be-
schreiben, muß man gemäß dem Kusaner und nach den Regeln der Geometrie den
„unendlichen“ Minima und Maxima ihrer Größenordnungen gerecht werden. Und
das gelingt nur im Grenzübergang zum Infinitesimalen (dem unendlich Kleinen)
und Infiniten (dem unendlich Großen).
Die Welt kann daher weder aus einem Punkt als „Mittelpunkt“, sei es der Erde
(oder der Sonne oder eines anderen kosmischen Punktes), noch aus einem Um-
fang (sei es des Sonnensystems oder der Milchstraße oder des Firmaments der
sichtbaren Sterne) erklärt werden. Denn alle diese Bestimmungen bleiben im Be-
reich des Diskreten und Anschaulichen. Ihre Minima und Maxima aber sind
„unendlich“ und können daher nicht mit einem äußeren (noch so großen) Umfang
noch mit einem bestimmten Einzelnen identifiziert werden.
Der Kusaner sprengt das aristotelisch-ptolemäische (geozentrische) Weltbild,
indem er die Konsequenzen aus den geometrischen Extremalmethoden zieht. So
380

wie der Globus im Minimum zum Punkt wird, muß er im Maximum zu einem
unendlichen Körper mit einer unendlichen Oberfläche werden (wie entsprechend
der unendliche Kreisumfang zur Linie wird). Der unendliche Kosmos aber besitzt
keinen zentralen Punkt (wie der endliche Kreis), von dem aus er bestimmt werden
könnte. Er liegt überall in diesem Körper und hat daher keinen bestimmten Ort.
Von diesem Unendlichen her erklärt, hat der Kosmos weder Mittelpunkt noch
äußere Grenze. Was die Astronomen (nämlich die aristotelisch-ptolemäischen)
hier als Grenzen annehmen, nämlich die Erde als Mittelpunkt und von ihr aus
gesehen das Firmament als äußerer Rand des Himmelsglobus, das können gar
keine Grenzen sein. Denn die geometrisch-astronomischen Erkenntnisse führen
nur bis zur Schwelle der Einsicht in die Koinzidenz der Minima und Maxima, des
unendlich Kleinen (Infinitesimalen) und des unendlich Großen (Infiniten) im
gemeinsamen Unendlichen des Kosmos. Und das kann nur bedeuten: Umfang und
Zentrum des Kosmos koinzidieren und sind nur als diese dialektische Identität zu
denken. Nikolaus formuliert es so:

„Der Mittelpunkt der Welt fällt also mit ihrem Umfang zusammen. Die Welt hat
demnach keinen Umfang, denn hätte sie einen Mittelpunkt, so hätte sie auch einen
Umfang und hätte somit in sich ihren Anfang und ihr Ende. Und die Welt wäre
gegen etwas anderes abgegrenzt, und außerhalb der Welt gäbe es etwas anderes und
gäbe es Ort. Das alles entspricht nicht der Wahrheit. ... Und obwohl die Welt nicht
unendlich ist (Übersetzungsvorschlag: angenommen, die Welt sei nicht unendlich! L.
G.), so läßt sie sich doch nicht als endlich begreifen, da sie der Grenzen entbehrt,
innerhalb deren sie sich einschließen ließe.“ 210

Auch diese These des Kusaners hätte jedem Mathematiker einleuchten müssen.
Man hat aber auf Einstein und die Relativitätstheorie warten müssen, bis dies auch
modernen Kosmologen dämmerte. Daß der Kusaner dies schon zu seiner Zeit
nach allen Regeln der geometrischen Extremalbetrachtungen bewiesen hat, wird
jedoch bis heute weder anerkannt noch gewürdigt. Und selbst bei der „rationalen“
Bewältigung der in die Einsteinsche Relativitätstheorie eingebauten Paradoxien ist
man noch nicht zu der kusanischen Einsicht gelangt, daß es sich auch dabei um
dialektische Folgerungen aus ihrer „koinzidentialen“ Axiomatik handelt.
Was aber vom Kosmos als göttlicher Schöpfung gilt, das gilt für die neupla-
tonische Theologie erst recht vom göttlichen Schöpfer. Gott ist selbst die Koin-
zidenz aller Minima und Maxima, des infinitesimal Kleinsten und des infiniten
Größten.
Über die Methode, zu dieser „transfiniten“ Anwendung der Geometrie zu gelan-
gen, sagt der Kusaner folgendes:

210
„Centrum igitur mundi coincidit cum circumferentia. Non habet igitur mundus circonferentiam. Nam si centrum
haberet, haberent et circumferentiam, et sic intra se haberet suum initium et finem, et esset ad aliquid alius ipse mundus
terminatus, et extra mundum esset aliud et locus. Quae omnia veritate carent. …. Et cum licet non sit mundus infinitus,
tamen non potest concipi finitus, cum terminis careat, intra quos claudatur ”. Nik. von Kues, De docta ignorantia II, c. 11,
S. 86 – 87.
381

„Alles Mathematische ist endlich und läßt sich gar nicht anderes vorstellen. Wenn
wir deshalb für den Aufstieg zum schlechthin Größten das Endliche als Beispiel
verwenden wollen, so müssen wir zunächst die endlichen mathematischen Figuren
mit ihren Eigenschaften und Verhältnissen betrachten und entsprechend die Verhält-
nisse auf gleichartige unendliche Figuren übertragen. Dann aber müssen wir drittens
die Verhältnisse der unendlichen Figuren im weiteren Aufstieg auf das unendlich
Einfache in seiner Ablösung von aller Figürlichkeit übertragen. Erst dann wird un-
sere Unwissenheit in einer nichtbegreifenden Weise belehrt werden, in Rätselbildern
sich mühend, über das Höchste in einer richtigeren und wahreren Weise zu
denken.“211

Die Behauptungen des Kusaners über das Extrem der maximalen Unendlichkeit
entsprachen dem Stand der seinerzeitigen Mathematik. Davon sind die Meinungen
über das maximal Unendliche („Infinite“) kanonisch geblieben, wie man an der
„geometrischen“ Relativitätstheorie und der „Mächtigkeitslehre“ der Zahlordnun-
gen Georg Cantors in der Arithmetik sieht. Anders steht es um das Extrem des
unendlich Kleinen (Infinitesimalen).
Der Kusaner hielt den Punkt für das geometrische Minimum. Und so konnte er
am Punkt durch „Annäherungen“ anderer geometrischer Gebilde an ihn zeigen,
daß und wie sie im Minimum des Punktes koinzidieren. Seine Hauptbeispiele
dafür sind der auf den Punkt minimierte Kreis und Globus, daneben aber auch die
Annäherung einer Sekante des Kreises mittels einer Parallelverschiebung bis zum
Berührungspunkt der Tangente. Das hat auch Leibniz für die Veranschaulichung
der Konstruktion seines Differentialbegriffes beibehalten.
Anders jedoch in der Arithmetik. Nikolaus hielt bei den Zahlen die „Einheit“
für das arithmetische Minimum und zugleich für das Maximum der Zahlen. Die
mathematische Einheit war also für ihn schon das Paradigma des Zusammenfalls
der (infinitesimal) kleinsten und der (infinit) größten Zahl. Man beachte, daß er
damit sehr richtig bemerkte, daß der Begriff der Einheit selbst schon logisch
doppeldeutig war. Nämlich als Bezeichnung sowohl des (logisch) Einzelnen bzw.
des Elementes wie zugleich auch des (logisch) Allgemeinsten, d. h. des Umfas-
senden bzw. des Ganzen aller Zahlen.
Das erklärt sich einerseits daraus, daß nach dem vorherrschenden Euklidver-
ständnis die Eins keine Zahl, sondern Element aller Zahlen war, weil sie in allen
(„natürlichen“) Zahlen enthalten war. Andererseits erklärt es sich aus dem Wort-
sinn, nach welchem ein „Ganzes“ (die Totalität, oder „Alles“) ebenfalls „Einheit“
genannt wird.
Nikolaus‟ Paduaner Lehrer Prosdocimo Beldomandi, war einer der ersten
Mathematiker, der die Eins explizit als Zahl anerkannte (was bei Euklid zumin-

211
„Cum omnia mathematicalia sint finita et aliter etiam imaginari nequeant, si finis uti pro exemplo voluerimus ad
maximum simpliciter ascendi, primo necesse est figuras mathematicas finitas considerare cum suis passionibus et
rationibus, et ipsas rationes correspondenter ad infinitas tales figuras transferre, post haec tertio adhuc altius ipsas rationes
infinitarum figuram transumere ad infinitum simplex absolutissimum etiam ab omni figura. Et tunc nostra ignorantia
incomprehensibiliter docebitur, quomodo de altissimo rectius et verius sit nobis in aenigmate laborantibus sentiendum.“
Nikolaus von Kues, De docta ignorantia / Die belehrte Unwissenheit, lat.-dt. v. P. Wilpert, Buch I, 3. Aufl. Hamburg
1979, S. 45 – 47.
382

dest unklar gelieben war. Daß Nikolaus dem Beldomandi in dieser Ansicht nicht
beistimmte, wird ihm als Fehler oder Unverständnis vorgeworfen, obwohl er sich
dafür auf Euklid berufen konnte. Von der (indisch-arabischen) Null als Zahl (mit
der man heute die Zahlenreihe beginnt) war seinerzeit noch nicht die Rede.
Wäre Nikolaus seinem Lehrer Beldomandi gefolgt, so hätte er – die Eins als
Zahl nehmend – die kleinste Bruchzahl der Eins als Minimum nehmen müssen. In
dieser Richtung aber hat erst Leibniz weitergedacht und dadurch die Infinitesimal-
mathematik begründet.
Die Übernahme der Null als Zahl von den arabischen Mathematikern hätte zu
Nikolaus Zeiten auch dahin führen können, die Null als das absolute arithmetische
Minimum auszuweisen. Aber diesen Weg haben sowohl der Kusaner wie auch die
Mathematiker verschmäht. Anstelle dessen hat man die Dialektik direkt in die
Null verlagert: sie gilt noch immer als Zahl, die in Rechnungen vorkommt, und
zugleich als Nichtzahl (mit der daher nicht gerechnet werden soll). Und sie dient
zugleich als das infinitesimale Minimum, das alle „unter jeden Zahlenwert“
hinabreichende Differentiale approximieren.
Daß der Kusaner sich aber auf keine Diskussion der Coincidentia von Einheit
und Infinitesimalem einließ, läßt sich vielleicht damit erklären, daß er den aristo-
telisch gesinnten Theologen keine Gelegenheit für einen Streit darüber geben
wollte, ob Gott als „unendliches Minimum“ gerade dasjenige Nichts (me on) sei,
aus dem als der „vierten Ursache“ der Gott nach Aristoteles die Welt geschaffen
haben sollte. Denn gerade dies war eine bei den arabischen Philosophen
verbreitete Meinung. Bei den Mathematikern aber dürfte sich die platonische und
neuplatonische Tradition zur Geltung gebracht haben, daß es keine Ideen von
negativen Erscheinungen und schon gar nicht vom „reinen Nichts“ geben könne.
Möglicherweise hat der Kusaner durch die Titelwahl seines Hauptwerkes, die
„Gelehrte Unwissenheit“ (Docta ignorantia) seinen mathematischen Gegnern in
die Hände gespielt. Denn der Titel klang nach einem Eingeständnis, es handele
sich bei seinem Prinzip der „Coincidentia oppositorum“ um ein Unwissen im Ge-
wande mathematischer Gelehrsamkeit. Davon kann in der Tat nicht die Rede sein.
Der Titel spielte ersichtlich auf Sokrates‟ Selbstbekenntnis über sein „Nichtwis-
sen“ an und war damit ein philosophiegeschichtlicher Topos. Die Hauptbedeutung
der „Docta ignorantia“ war jedoch, daß damit in prägnantester Weise der Zusam-
menfall von Wissen und Nicht-Wissen als Widerspruch in terminis ausgedrückt
war.
Man kann nur immer wieder feststellen, daß dies von den Logikern wie von den
Mathematikern gleichermaßen bis heute nicht verstanden worden ist. Glauben
doch sowohl die Logiker wie die Mathematiker an das aristotelisch-stoische Dog-
ma, das Prinzip des Widerspruchs sei geradezu das Konstitutivum und Kriterium
der Falschheit in den jeweiligen Formalismen und ihren Anwendungen auf belie-
383

bige Inhalte. Die Folge dieser Einschätzung war und ist, daß der Kusaner weder in
der Logikgeschichte noch in der Mathematikgeschichte vorkommt.212
Auch bei den Theologen war die Resonanz sehr beschränkt. Wie Roger Bacon
hat sich der Kusaner den Vorwurf des Pantheismus eingehandelt. Die Dominanz
des aristotelischen Denkens im Gefolge des Thomas von Aquin machte ohnehin
die „dialektische“ Denkweise in der katholischen Kirche verdächtig.
Gewiß kann man dem Kirchenmann und Theologen nicht vorwerfen, daß er
seine „Dialektik der reinen Vernunft“ und damit die Denkform des „Zusammen-
falls des Entgegengesetzten“ auf das Gottesproblem konzentrierte und die Koin-
zidenzerwägungen bei einigen mathematischen und kosmologischen Problemen
gleichsam nur ausprobierte, um ihre Tauglichkeit für eine wissenschaftliche
Theologie zu demonstrieren. Bekanntlich hielt er daran fest, daß das Verstandes-
denken logisch und widerspruchslos sei und nur der Übergang zur Vernunftein-
sicht dieses Denken in Widersprüchen verlange. In der Abhandlung „Über die
mathematische Vollendung“ von 1459 macht er seinen Anspruch geltend:

„Mein Bestreben geht dahin, aus der Koinzidenz der Gegensätze die Vollendung der Mathe-
matik zu gewinnen.“ 213

Die Ausführung dieses Programmes hat der Cusaner in zahlreichen mathema-


tischen Schriften vorgelegt. So etwa in „De una recti et curvique mensura / Über
das eine (gemeinsame) Maß des Geraden und Gekrümmten“ „De circuli quadra-
tura / Über die Quadratur des Kreises“, „Transmutationes geometricae / Geometri-
sche Umwandlungen“ (genauer: Fortentwicklung der Geometrie) sowie „Declara-
tio rectilineationis curvae / Erklärung der Kurvenausstreckung“ (genauer: Über
die Begradigung einer Kurve). In letzterem sah er geradezu „die Vollendung der
Mathematik“. Was er aber als bisheriges Defizit der Mathematik ansah, beschrieb
er in der dem Papst Nikolaus V. gewidmeten Abhandlung „De mathematicis com-
plementis / Von den Mathematischen Ergänzungen“ (genauer: Was der Mathema-
tik noch fehlt).214
Er benutzte dazu die auch schon von Roger Bacon verwendete „isoperimetri-
sche Methode“. Sie war ein geometrisches Beweisargument für die Koinzidenz
eines Kreisumfangs mit einem diesen Kreis umschließenden Vieleck, wenn man
die Zahl der Ecken des Vielecks ins Unendliche vermehrte. Die Methode hatte
noch weitere Anwendung, so etwa, wenn der Flächeninhalt eines Kreises als
„Mittelwert“ der Flächen innen- und/oder außenliegender Vielecke approximiert

212
Z. B. nicht in J. M. Bochenskis repräsentativer Gesamtdarstellung der Logikgeschichte in seinem Buch „Formale
Logik“, Freiburg-München 1965, 3. Auf. 1970. - In O. Beckers „Grundlagen der Mathematik in geschichtlicher Ent-
wicklung“, Freiburg-München 2. Aufl.1964, S. 290 findet sich nur ein Zitat Georg Cantors, in welchem dieser für seine
Auffassung vom Unendlichen (in seiner Mächtigkeitslehre) „Berührungspunkte in der Philosophie des Nicolaus Cusanus“
und bei „Giordano Bruno, dem Nachfolger des Cusanus“ sah.
213
„Über die mathematische Vollendung / De mathematica perfectione, in: Nikolaus v. Kues, Die mathematischen Schrif-
ten, übers. v. J. Hofmann und Einf. nebst Anm. von J. E. Hofmann, Hamburg 1952, S. 161.
214
Sämtlich in: Nik. von Kues, Die mathematischen Schriften, übers. v. J. Hofmann und Einf. nebst Anm. von J. E. Hof-
mann, Hamburg 1952.
384

wurde. Ersichtlich hielt der Kusaner die Isoperimetrie für einen anschaulich-
geometrischen Beweis für seine Theorie von der Coincidentia oppositorum, in
diesem Falle der „gegensätzlichen“ Figuren des Kreises und des Vielecks mit
unendlich vielen Ecken. Denn diese geometrische Koinzidenz ist geometrisch ad
oculus demonstrabel. Bei entsprechender Extremalisierung der Außen- und In-
nenvielecke eines Kreises wird man keinen Unterschied mehr zwischen dem Kreis
und den isoperimetrischen Vielecken wahrnehmen können. Das genügte für die
geometrische Konstatierung der Identität der Kreis- und Vieleckflächen wegen
ihrer sinnlichen Ununterscheidbarkeit.
Man beachte dabei, daß die Isoperimetrie ein sinnlich-anschauliches Beispiel für
das logische Identitätsprinzip wurde, dessen Erfindung und Formulierung
durchweg Leibniz zugeschrieben wird. Es ist das sogenannte Identitätsprinzip des
Ununterscheidbaren („Identitas indiscernibilium“. D. h. was man in keiner Weise
unterscheiden kann, das muß man als identisch betrachten!). Andere geometrische
Beispiele sind die Identität sich deckender geometrischer Gebilde, seien sie durch
Verschiebung in der Fläche oder auch durch Übereinanderklappen im Raum
zustande gekommen. Auch bei diesen Zusammenfällen wird „Entgegengesetztes“
identifiziert, nämlich einerseits die flächigen Doubles, andererseits die symmetri-
schen Spiegelgebilde.
Der Übergang zur neuzeitlichen quadrivialen Mathematik war ein gleitender,
wie man an den Vorausnahmen und Impulsen, die sich auch im mathematischen
Werk des Kusaners andeuteten, bemerken kann.
Das Hauptkennzeichen für einen Umschwung war die Ablösung der Arithmetik
von der Geometrie und die Umkehrung der Beweislasten, die die Geometrie und
die Arithmetik fortan zu tragen hatten. Damit verbunden war die allmähliche
Entwicklung der eigenen geometrischen und arithmetischen „Zeichensprache“,
die sich wesentlich von der logischen Notationsweise unterscheidet.
Die Mathematiker formulierten bis dahin ihre Erkenntnisse ebenso wie die
Logiker in gewöhnlicher Sprache. Man stellte Behauptungen auf und begründete
sie in syllogistischer Form. Geometrische Zeichnungen von Figuren dienten in
aller Regel als Veranschaulichungen arithmetischer Verhältnisse wie auch schon
im Lehrbuch des Euklid. Oft sind sie beim Abschreiben oder Übersetzen der Klas-
sikertexte weggelassen oder nicht richtig wiedergegeben worden, oder sie sind
sonstwie verloren gegangen, so daß sie später rekonstruiert wurden. Das zeigt
aber, daß man mathematische Sachverhalte nicht ohne diese geometrischen
Veranschaulichungen vermitteln und nachvollziehen konnte. Geben wir ein
Beispiel aus des Kusaners „Mathematischen Ergänzungen“:

„Wenn man eine Gerade mit einer Geraden multipliziert, entsteht eine Rechteckfigur, und
wenn man die nämliche Gerade mit der doppelten Strecke multipliziert, entsteht die doppelte
Fläche und so fort. Und wenn man aus einer Ecke zur gegenüberliegenden eine Gerade zieht,
so ist dies ein Diameter (eine Diagonale), weil sie die Fläche zweiteilt.“
385

Man muß jedoch schon Mathematiker sein und an die dialektische Besonderheit
mathematischer Gegenstände glauben, um dies zu verstehen. Denn kein anderes
sichtbares Ding (wie eine Strecke) wird dadurch zu einem anderen Ding (wie hier
zu einer Fläche), daß man es mit einer gleichen oder ähnlichen (wie eine kürzere
und eine längere Strecke) multipliziert. Und was dabei „Multiplizieren“ bedeutet,
ließ sich in logischen Termini nicht sagen. Jedenfalls ist es in der Logik nicht üb-
lich geworden, etwa einen kleineren und einen größeren Apfel durch Multipli-
kation zu einem Kompott zu erklären.
Es wird nicht erklärt, warum sich durch die Multiplikation einer Strecke mit
einer anderen Strecke überhaupt ein Rechteck ergeben sollte. Denn es könnte sich
„logisch“ durch die Multiplikation der Längen von zwei Geraden eine entspre-
chend längere Gerade ergeben, allenfalls auch ein Rhombus oder ein sonstiges
viereckiges Gebilde. Und daß das so definierte Gebilde „Rechteck“ heißt, weist
zwar darauf hin, daß die multiplizierten Geraden einen rechten Winkel bilden soll-
ten, aber es legt dem Verständnis nicht nahe, daß das „Rechteck“ sogleich vier
rechte Ecken und überhaupt mehr als eine einzige haben müßte. Die Multipli-
kation der Strecken hätte logisch auch den puren rechten Winkel zwischen zwei
Geraden erzeugen können.
Diese Fragen werden durch die geometrischen Darstellung in einer Figur
beantwortet, welche die traditionellen (euklidischen) Definitionen ad oculos de-
monstriert. Bei Nikolaus hat sie die folgende Gestalt:

b c e

d
a d f

Es schließt sich eine Erläuterung an, die sich der kleinen Buchstaben als formaler
Zeichen für die Endpunkte von Geraden bedient. Sie lautet:

„Wenn man z. B. die Linie ab mit bc multipliziert, entsteht eine Viereckfigur abcd mit vier
rechten Winkeln, und wenn man ab mit be, dem Doppelten von bc, multipliziert, entsteht das
Rechteck abef, das doppelt so groß ist wie abcd; ac ist Diagonale, ebenso auch ae.“ 215

Diese geometrischem Definitionen arithmetischer Vorstellungen wurden in der


neuzeitlichen Mathematik aufgegeben. Die Einführung der Variablen als allge-
meiner logischer Zahlbegriffe durch Viëta und Descartes 216 löste die Vorstel-

215
Nikolaus v. Kues, De mathematicis complementis / Von den mathematischen Ergänzungen, in: Die mathematischen
Schriften, Hamburg 1952, S. 73.
216
Franciscus Viëta, In artem analyticam isagoge, Tours 1591, französische Übers.: L‟Algèbre nouvelle de M. Viète, Pa-
ris 1630. – Vgl. dazu Chr. Thiel, Art. „Viëta“ in: J. Mittelstraß (Hg.), Encyklopädie Philosophie und Wissenschaftsstheorie,
Band 4, Stuttgart-Weimar 1996, S. 545 – 547. – René Descartes, La Géometrie, in: Descartes, Disours de la méthode,
Leiden 1637, lat. Übers. Amsterdam 1644. – Über die mathematischen Leistungen Descartes„ in moderner Sicht vgl. J.
Vuillemin, Mathématiques et Métaphysique chez Descartes, Paris 1960.
386

lungen von arithmetischen Größen von der geometrischen Veranschaulichung ab


und eröffnete damit das neue Feld des abstrakten mathematischen Denkens in der
Form der Gleichungen mit Variablen für bekannte und unbekannte Größen.
Diese Entwicklungen kann man etwa folgenden Bemerkung des Descartes ent-
nehmen:
„Hierbei ist zu bemerken, daß ich unter a² oder b³ oder dergleichen gewöhnlich nur einfache
Linien verstehe, und daß ich nur, um mich der in der Algebra gebrauchten Bezeichnungen zu
bedienen, dieselben als Quadrate, Kuben usw. benenne.“ - „Eine und dieselbe Größe auf zwei
verschiedene Arten darzustellen; dies ergibt dann eine Gleichung, weil die den beiden Dar-
stellungsarten entsprechenden Ausdrücke einander gleich sind.“ 217

217
R. Descartes, Geometrie von 1637, zit. nach O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung,
Freiburg-München 1964, S. 141.
387

C. Die Wissenschaftsphilosophie der Neuzeit

§ 32 Allgemeine Charakteristik der Tendenzen.

Antike Wissenschaft als Vorbilder der neuzeitlichen Wissenschaften. Die Osmose der Paradigmen.
Die Spezialisierung der Wissenschaftler und das Aufkommen des Genie-Kultes der „göttlichen“
Schöpferpersönlichkeit. Die humanistische Wende zum Subjekt. Antischolastizismus und neue
Scholastik in den neuen Universitäten und außeruniversitären Institutionen.

In diesem Paragraphen soll auf die in der neuzeitlichen Wissenschaftsgeschichte


vorhandenen lebendigen Reflexionsmomente zum Wissenschaftsbegriff hingewie-
sen werden. Die Neuzeit bringt solche Momente vermehrt zum Vorschein, was
dann auch (vgl. § 15) zur Etablierung der Disziplin unter dem Titel einer „Tech-
nologia“, einer „Wissenschaft von der Wissenschaft“, führte.218
Im Vordergrund scheint uns Folgendes zu stehen: Die antiken Schulgesichts-
punkte und Wissenschaftsmodelle, die durch die Scholastik institutionell und
arbeitsteilig in den Fakultäten der Universitäten tradiert und konsolidiert worden
sind, treten in der Neuzeit als Vorbilder guter wissenschaftlicher Praxis auf und
wirken auch über die Fakultäts- und Disziplingrenzen hinweg als Leitbilder für
das, was nachmals überhaupt als Wissenschaft gelten kann. Man könnte geradezu
von einer zunehmenden und beschleunigten Paradigma-Osmose sprechen.
Dabei behindert die zunehmende Arbeitsteilung und Spezialisierung der Gelehr-
ten zunächst die Entwicklung eines klaren Bewußtseins der Wissenschaftler über
diese gegenseitigen Anregungen und Beeinflussungen. Wissenschaftliche Tätig-
keit erscheint vielmehr als ständige Erneuerung und Erweiterung des Wissens und
als Fortschritt in der Entwicklung aller Wissenschaften selber. Modernitäts-
bewußtsein und Innovation um der Innovation willen verdrängt sowohl die Ein-
sicht in die Herkunft der eigenen Gedanken als auch die Analyse des „Neuen” als
solchen, bei welchem erst heute mit gewachsener historischer Sensibilität die
Variationen und Veränderungen des Alten gesehen werden können. In gleichem
Maße wächst der Kult der genialen Wissenschaftler-Persönlichkeit, deren Intui-
tionen und wissenschaftliche „Durchbrüche” als göttliche Mitgift oder als sponta-
nes Produkt des Zufalls naturwüchsigen Charakter annehmen.
Der Kult und das Selbstgefühl der „genialen“ Persönlichkeit zeigt eine dritte
Wende zum Subjekt in der abendländischen Philosophie und Wissenschaft und
später darüber hinaus in allen Bereichen der Kultur und Technik an.
Hatte die erste (protagoräische) Wende zum (menschlichen) Subjekt noch das
große Staunen der Griechen über die kulturschöpferischen Fähigkeiten des Men-
schen zum Ausdruck gebracht (wie etwa im Chorlied der sophokleischen „Anti-
gone“: „Nichts ist ungeheurer als der Mensch....“), so bestand die zweite Wende
in der genaueren psychologischen Analyse dieser Leistungsfähigkeiten im Han-
218
Vgl. L. Geldsetzer, Was heißt „Technologie“ im 17. Jahrhundert? In: Bulletin des 13. Internationalen Kongresses für
Wissenschaftsgeschichte, Moskau 1971.
388

deln und in der Erkenntnis der Welt durch Augustinus. Und wie gezeigt wurde,
diente Augustins Psychologie als Modell für die „theologische“ Erkenntnis des
Gottes als Planer, Schöpfer und Erhalter der Welt. Die dritte Wende zum Subjekt
aber überträgt alle diese Befunde über die Eigenschaften Gottes auf den Menschen
zurück.
Diese dritte Wende wird in der Philosophiegeschichte als autonome Wende zum
„Renaissance-Humanismus“ dargestellt. Vor allem deshalb, weil so viele Ver-
treter des freien Geistes dieses Wort ständig im Munde führten und sich in ihrem
Briefverkehr gerne als „humanissimus vir“ anredeten. Tatsächlich aber war es der
neuplatonische Theologe und Kardinal Nikolaus von Kues, der dieses „göttliche“
Menschenbild zuerst zum Ausdruck brachte. Und das zeigt zugleich, in welchem
Maße der Neuplatonismus trotz der kirchenoffiziellen Aristotelisierung der Theo-
logie auch im Klerus und in einer gebildeten Öffentlichkeit lebendig geblieben
war. Nikolaus formuliert dieses Menschenbild in folgender Weise:
„Der Mensch ist Gott, jedoch nicht absolut, weil er Mensch ist. Er ist also ein mensch-
licher Gott (homo enim Deus est, sed non absolute, quoniam homo. Humanum est igitur
Deus). Der Mensch ist auch eine Welt, aber nicht das concrete Universum weil er
Mensch ist. Er ist also ein μιροκόζμος, oder eine menschliche Welt (humanus mundus).
Die Region des Menschlichen umfaßt also Gott und die Welt in der Potenz des Mensch-
lichen. Es kann also der Mensch Gott in menschlicher Weise sein, oder ein menschlicher
Engel, ein menschliches Thier, ein menschlicher Löwe oder Bär. Ist das Menschenwesen
eine Einheit, so kann sie auch innerhalb ihrer Sphäre Alles aus sich, aus ihrem Centrum
als der Potenz entfalten und entwickeln.“ 219
Mit diesem neuen Kreativitätsverständnis verband sich in erster Linie eine Reak-
tion auf das bisher bestehende Wissenschaftssystem der „Scholastik“ der etablier-
ten Universitäten. Und dies drückte sich in einer Welle des „Antischolastizismus“
aus, dessen einer Ausläufer die Refomation war. Der bedeutendere aber bestand in
den Neugründigungen außeruniversitärer Akademien, Forschungsvereinigungen
und der „Akademisierung“ so vieler bis dahin nur zünftiger Verbindungen von
Berufsständen mit dem Anspruch der Nobilitierung durch wissenschaftliche Lehre
und forschende Erweiterung ihres bis dahin oftmals arkanen Wissens.
Der Antischolastizismus hat zwar im neuzeitlichen Bewußtsein wesentlich dazu
beigetragen, den Unterschied zwischen Neuzeit und Mittelalter zu einer Epo-
chenschwelle zu verfestigen und dabei den Ruf des „finsteren und barbarischen“
Mittelalters zu begründen. Daß dies in der Sache aber nicht zu rechtfertigen ist,
zeigt sich in dem schon in der Refomation ansetzenden neuen Scholastizismus der
Ausgestaltung von Lehre und Forschung in den protestantischen Ländern. Erst
recht blieb die scholastische Tradition in den katholischen Ländern ungebrochen.
Die Universitäten als mittelalterliche Institutionen wurden nicht abgeschafft, son-
dern es wurden überall neue gegründet.

219
Nikolaus v. Kues, Von den Muthmaßungen (De coniecturis, ca. 1440 – 44 verfaßt, 1488 veröffentlicht), Buch 2,
Kapitel 14: „Vom Menschen“, in: Des Cardinals und Bischofs Nicolaus von Cusa wichtigste Schriften in deutscher
Übersetzung, hgg. v. F. A. Scharpff, Freiburg i. Br. 1862, S. 137.
389

§ 33 Die “humanistische” Wende zum Subjekt

Der Renaissance-Humanismus als dritte Wende zum Subjekt. Die „klassische Philologie“ als Ver-
mittlungsinstitution des antiken Wissens. Die Präponderanz des geistigen Wesens des Menschen.
Der neue (platonische) Idealismus bei Descartes, im englischen Idealismus, bei Malebranche, Spi-
noza und Leibniz. Vom geistigen Wesen des Menschen zum „transzendentalen Subjekt“ und zum
„Weltgeist“. Von der Geisteswissenschaft zu den modernen Geisterlehren.

Ist der ursprüngliche Platonismus gleichsam von Hause aus eine Bildungsphiloso-
phie des Menschen, so verstärkt sich dieser Zug im Renaissance-Platonismus.
Nach der ersten sophistisch-sokratischen und der zweiten augustinischen erlebt
das Abendland eine dritte Wende zum Menschen, die ihn zur Arché aller
Wirklichkeitsdeutung macht. Was der Mensch sei, ist dem Humanismus keine
Frage, sondern erste Gewißheit. Er übernimmt sie selbst aus der scholastischen
augustinisch-theologischen Überlieferung, wie am Beispiel des Kusaners schon
gezeigt wurde.
Der Mensch ist der „Erstgeborene der Schöpfung”, nach dem Bilde Gottes
selber ein Schöpfer, mit allen Kräften und Vermögen ausgestattet, sich selbst zu
dem zu machen, was er zu sein begehrt, ein „arbitrarius plastes et fictor” („sein
eigener Werkmeister und Bildner”), wie es Giovanni Pico della Mirandola (1463
– 1494) in seiner Rede über „Die Würde des Menschen“ (De hominis dignitate,
1484) verkündet.
Dieses Menschenbild – die Apotheose des Künstlers, Dichters, Malers, Inge-
nieurs und Handwerkers, erst recht auch des genialen Wissenschaftlers – sieht
man jetzt im antiken griechischen Menschentum vorbildlich verwirklicht. Das
Studium seiner Zeugnisse und Hinterlassenschaften wird zur Hohen Schule der
Bildung des modernen Menschen. Die (griechische) klassische Philologie beginnt
ihren Siegeszug als Verwalterin der “Humaniora”, die den Menschen nicht
„menschlicher“, sondern überhaupt erst zum Menschen machen.
Dies alles bezieht sich auf die geistige Seite des Menschen. Sein geistiges
Wesen ist das Erstbekannte, sein Körper bleibt auf lange insoweit unbekannt, als
nicht die antiken Ärzte sich darüber geäußert hatten. Auch die Medizin steht in
der Renaissance noch weitgehend im Zeichen hermeneutischer Aneignung der
Kenntnisse der Alten. Darauf gründet sich, daß die humanistische Wende zum
Subjekt eine solche zum geistigen Wesen des Menschen ist und nur dieses, nicht
etwa das ganze leiblich-seelische Gebilde Mensch zur Arché, zum Erklärungs-
prinzip der Wirklichkeit werden kann.
René Descartes (1596 – 1650) hat das humanistische Prinzip in dieser Be-
schränkung auf das geistige Wesen des Menschen, auf sein „Bewußtsein“, zum
Axiom der modernen Philosophie und Wissenschaft gemacht. Zugleich hat er in
Verallgemeinerung der Axiomatik alles Wissen von Gott und Natur in seinen
„Meditationes de prima philosophia“ von 1641 und seinen „Principia Philoso-
phiae“ von 1644 als Folgerungen aus diesem Axiom abgeleitet. Sicher in direkter
390

– von ihm selber freilich verhehlter – Anknüpfung an Augustinus wird ihm das
Cogito als denkende bzw. Bewußtseinssubstanz zur primordialen Realität. Erst
und nur innerhalb derselben vermittelt sich die Realität der göttlichen Substanz
wie auch die ausgedehnte Substanz der Natur in der Gestalt „klarer und deut-
licher“ Ideen.
Obwohl diese Lehre in ihrem wesentlichsten Punkte, nämlich in ihren Aussagen
über den ontologischen Status von Gott und ausgedehnter Natur von gepflegter
Unklarheit geprägt ist, weshalb sich auch die modernen Realisten als Nachfolger
des scholastischen Aristotelismus und Nominalismus mit ihrer Behauptung der
ontologischen Gleichrangigkeit der denkenden und ausgedehnten Substanz auf sie
berufen konnten, gibt sie einem modernen Neuplatonismus gewaltigen Auftrieb.
Descartes‟ Metaphysik selbst bietet diesen Anknüpfungspunkt, wenn er die
Evidenz des „von außen Kommens“ bei den ausgedehnten Substanzen ebenso wie
die Evidenz der denkenden Substanz als ihr Gegebensein als „Ideen“ im Bewußt-
seins demonstriert. Wissen um ein „von außen Kommen“ ist selbst eine „Idee des
von außen Kommens“.
Daran knüpfen auch die Philosophien der englischen Neuplatonikerschule und
insbesondere der Spiritualismus und der empirisch-sensualistischen Idealismus
Berkeleys (1685 – 1753), Malebranches (1638 – 1715) mit seiner Lehre von der
„Schau aller Dinge in Gott”, Spinozas (1632 – 1677) Panentheismus und nicht
zuletzt Leibnizens (1646 – 1716) Monadenlehre an.
In allen diesen Idealismen (vielleicht mit Ausnahme Spinozas) ist noch deutlich
genug erkennbar, daß die Wende zum Subjekt eine Wende zum Menschen und
seiner geistig-seelischen Verfassung war. Psychologie wird hier - noch ehe sie
eine eigenständige Disziplin wurde - zum Erklärungspotential der Erkenntnis, des
Handelns und des Schaffens und mittels dieser „Wirkungen” menschlicher See-
len- und Geistesvermögen zu einer Konstitutionslehre der Wirklichkeit schlecht-
hin.
Aber schon mit Leibnizens Lehre vom „unbewußten Bewußtsein”, die er aus
Gründen energetischer Erhaltungssätze und gemäß dem Kontinuitätsprinzip ent-
wickelte, und die ihrerseits die genuin platonische Lehre vom „vergessenen”
Ideenbesitz und ihrer Anamnesis repristinierte, gewinnt diese Psychologie eine
neue Qualität. Die Wende zum „humanen” Subjekt wird erst jetzt eine Wende
zum „transzendentalen” Subjekt, die sich, wie bei Kant explizit geschehen, streng
von aller Psychologie unterscheiden soll. Das „Bewußtsein überhaupt” – gegen-
über dem empirisch-psychologischen – mit seinen unbewußten Inhalten und
Strukturen, die es in transzendentalphilosophischer Forschung „ins Bewußtsein zu
heben” gilt, wird in der Arbeit des deutschen Idealismus zum Absoluten hochsti-
lisiert.
Der „Weltgeist” erfüllt als philosophische Hypostase alle Kriterien theologi-
scher Gottesdefinition und bestärkt die christliche Tradition, die dadurch auch un-
ter den „Aufgeklärten” und „Gebildeten unter ihren Verächtern” (F. Schleier-
macher) wieder neues Ansehen gewinnt und die theologischen Fakultäten zu
391

neuem Leben erweckt. Aber neben diesem Effekt, daß die neuzeitliche Wende
zum Subjekt zu Beginn des 19. Jahrhunderts eine Wende zum Absoluten, ja zum
christlichen Gott zurück wird, bleiben gleichsam auf halbem Wege dahin eine
Menge niederer Hypostasen des Geistes und des Geistigen übrig, die nachmals der
„geisteswissenschaftlichen” Forschung fruchtbare Anknüpfungspunkte bieten.
Es sind die von Hegel sogenannten Manifestationen des „objektiven Geistes”:
die Zeit- und Epochengeister, die Volks- und Nationengeister, der Geist der Spra-
che und der Institutionen, der „Geist der Gesetze“ (Montesquieu), schließlich der
ganze „Überbau” der „Ideologien” (K. Marx und F. Engels), der als „objektivier-
ter Widerschein” der „materiellen Basis” selbst bei seinen schärfsten Kritikern
Anerkennung als eine selbständige Macht gewinnt. Sie sind wie die geistigen
Hypostasen des antiken Neuplatonismus umrankt mit Heerscharen von Engeln
und Dämonen, die niemand sieht und die doch überall anwesen und wirken. So
beschwören auch die Magier und Oberpriester des Neo-Neuplatonismus, die
Schelling, Schopenhauer, Eduard von Hartmann und Sigmund Freud, die Heer-
scharen unbewußter Potenzen, Kräfte, Triebe, Bedürfnisse und Komplexe, die
„hinter dem Rücken” der Beteiligten alles bewirken und die – kontradiktorisch de-
finiert als „unbewußtes Bewußtsein” – nach der ehernen logischen Regel „ex falso
sequitur quodlibet“ auch alles Beliebige beliebig erklären.
So hat die dritte abendländische Wende zum Subjekt im Gewande der Geistes-
wissenschaften diese in weiten Teilen wiederum zu einer Geisterwissenschaft
gemacht und einen Bewußtseinszustand herbeigeführt, der – in säkularen Formen
– den spätantiken und mittelalterlichen Neuplatonismus wieder aufnimmt.

§ 34 Der Antischolastizismus der Renaissance.

„Ad fontes!“ oder die Jagd nach den Dokumenten der Antike. Die philologische Textforschung
und die Reformation. Antischolastizismus als protestantische Kritik an der katholischen Theologie
und ihrer Indienstnahme der Wissenschaften. Die Wiederbelebung der antiken quadrivialen Wis-
senschaften und ihre Stilisierung als Überwindung scholastischer Irrtümer. Zeugnisse aus J. F.
Fries „Geschichte der Philosophie“ von 1840. Neuere Korrekturen und das Fortwirken des Anti-
scholastizismus im Antihistorismus der modernen Mathematik und Naturwissenschaften.

Es wurde schon darauf hingewiesen, wie sehr die enzyklopädistische Tradition


des Mittelalters und die Sic-et-non-Methode den Umgang mit und die Auswertung
der klassischen Autoritäten ins Zentrum scholastischer Wissenschaftlichkeit ge-
rückt hatten. Die Eroberung von Byzanz durch die Türken (1453) und der Exodus
griechischer Gelehrter mit ihrem Wissen und ihren Bibliotheken nach dem
392

Westen brachten eine bemerkenswerte Verbreiterung des Autoritätenmaterials mit


sich. Die lateinische Welt sah sich zum erstenmal in großem Stile einem mehr
oder weniger originalen Handschriftenfundus antik-griechischer Bildung gegen-
über, der nun in Übersetzungen und alsbald durch den neuen Buchdruck mit be-
weglichen Lettern verbreitet wurde. Die Gründung der „Platonischen Akademie
zu Florenz” (1459) durch die Mediceer als Auffangstellung griechischer Gelehrter
und als Kommunikationszentrum eines außeruniversitären freien Forschungs-
geistes hat dem vertieften philologischen Studium Platons vor allem durch Marsi-
lio Ficino (1433 – 1499) und der griechischen Klassiker gewaltigen Auftrieb ver-
schafft.
Bekanntlich wurde in der Renaissance unter dem Schlachtruf „Ad fontes“ (Zu
den Quellen!) die Jagd nach weiteren aus der Antike stammenden Handschriften
in Klosterbibliotheken und fürstlichen Sammlungen ein verbreitetes Vergnügen
der Gelehrten. Auch Nikolaus von Kues hat sich erfolgreich daran beteiligt. Und
je mehr davon zutage gefördert wurde, desto mehr richtete sich die Aufmerk-
samkeit der Philologen auch auf die Spätantike und die frühmittelalterliche
Literatur. Desiderius Erasmus (ca. 1469 – 1536) hat nicht nur die erste emendierte
Textfassung des griechischen Neuen Testamentes geliefert, sondern durch seine
Druckausgaben einer Reihe von „Kirchenvätern“ die gelehrte „Patristik“ begrün-
det. Und diese wiederum lieferte verläßlichen Zündstoff für die protestantische
Kritik am Umgang der katholischen Kirche mit ihren Klassikern.
Der von Italien ausgehende Neuplatonismus konnte erfolgreich für sich in An-
spruch nehmen, die besten Traditionen des christlichen Neuplatonismus aufzu-
nehmen und gegenüber lateinisch-scholastischen Entstellungen und Verunrei-
nigungen durch anderweitige Schulelemente, vor allem durch aristotelische, zur
Geltung zu bringen.
Die reformatorischen Auseinandersetzungen mit der katholischen Kirche wur-
den bekanntlich mit gewaltigem polemischem und später auch kriegerischem Auf-
wand durchgeführt und haben der scholastischen Gelehrsamkeit und dem Mit-
telalter insgesamt nachhaltig den Stempel des „Finsteren”, „Barbarischen” und
„historisch-Überständigen” aufgedrückt. In der Tat handelte es sich um den Tri-
umph „trivialer” (insbesondere philologischer) Gelehrsamkeit über die anwen-
dungsorientierte Dogmatik der alten theologischen Fakultät. Er führte in der Re-
formationszeit zur Aufspaltung derselben in eine neuscholastisch-katholische
theologische Fakultät und eine reformatorisch-protestantische, die den neuen phi-
lologischen Geist auch zur Grundlage ihres Schriftverständnisses machte.
Keiner hat hierbei so erfolgreich mitgewirkt wie der Lutherfreund, Herausgeber
der „Magdeburger Centurien” (einer protestantischen Version der Kirchenge-
schichte) und Begründer der protestantischen Bibelhermeneutik Matthias Flacius
Illyricus (1520 – 1575) mit seinem Bibelwörterbuch „Clavis Scripturae Sacrae“
(Schlüssel zur Heiligen Schrift) von 1567, das bis 1674 in 10 Auflagen erschien
393

und zuletzt 1719 von Theodor Suizer herausgebenen wurde. 220 Der erste Band der
„Clavis“ war die erste umfassende philologisch-historische Studie über den ge-
samten hebräischen und lateinischen Wortschatz des alten und neuen Testa-
mentes, dem der zweite Band noch umfangreiche Ergänzungen und vor allem die
berühmten Regeln zum „wahren Verständnis der Hl. Schrift“ beifügte.
Der Antischolastizismus blieb zunächst eine Domäne des Protestantismus, der
seinen antiaristotelischen Affekt und das neue philologisch-historisch abgestützte
Modernitätsbewußtsein seiner Theologie gegen das ganze Mittelalter richtete. Ein
Schlüsseldokument dafür lieferte Adam Tribbechovius (1641 –1697) mit seiner
weit verbreiteten Diatribe „Über die scholastischen Doktoren und die von ihnen
verdorbene Wissenschaft von den göttlichen und menschlichen Dinge.“ 221 Scho-
lastik reicht bei ihm von Gratians Dekreten (der Kirchengesetze) und Petrus Lom-
bardus bis Luther. Auch Tribbechovius hat sein Material vorwiegend aus des
Flacius „Catalogus testium veritatis“ 222 und den Magdeburger Centurien entnom-
men.
Noch 1743 beklagt Jakob Brucker, der gelehrteste Philosophiehistoriker des 18.
Jahrhunderts, die Scholastik mit folgenden Worten:

„Bücher voller unnützer Disputationen, das dornige Gestrüpp von Subtilitäten, die mit
ihrer eigenen unnützen Schärfe den Geist verletzen und wanken lassen, die dunklen und
unsicheren Meinungen der Scholastiker und ihre zweideutigen und ins Unendliche aus-
laufenden Dissertationen, die Barbarei ihrer Redeweise.“ 223
Daß diese Charakteristik vorgeschoben ist, sieht man leicht an den Beispielen für
die scholastische Methode, die vorn im § 28 genannt worden sind. Und würde das
nicht genügen, so muß man sich fragen, wann überhaupt die Wissenschaftslage
anders gewesen wäre, als sie hier nur der Scholastik vorgeworfen wird. Es ging
vielmehr darum, sich von der Überlast einer Tradition des Wissens zu befreien,
das man zwar in Teilen für falsches Wissen hielt (und das kann man mit Recht
von jedem sogenannten Wissensstand sagen), das man aber eben deswegen gar
nicht erst zur Kenntnis nehmen wollte. Brucker gereicht es sehr zur Ehre, daß er

220
Vgl. M. Flacius Illyricus: „De ratione cognoscendi sacras literas / Über den Erkenntnisgrund der heiligen Schrift”, lat.-
dt. Parallelausgabe aus dem 2. Band der Clavis, in: Instrumenta Philosophica Series Hermeneutica III, hgg., eingeleitet und
übersetzt von L. Geldsetzer, Düsseldorf 1968; ders.: Matthias Flacius Illyricus und die wissenschaftstheoretische Begrün-
dung der protestantischen Theologie. In: Matthias Flacius Illyricus, Leben und Werk, hg. v. J. Matesic, Osteuropa-Studie
53, München 1993, S.199 - 223.
221
„De doctoribus scholasticis et corrupta per eos divinarum humanarumque rerum scientia“ Gießen 1665, 2. Ausgabe
hgg. von W. E. Tenzel, Jena 1719.
222
M. Flacius Illyricus, Catalogus testium veritatis, Basel 1656; deutsche Übersetzung von Conrad Lauterbach: Catalogus
testium veritatis. Historia der Zeugen, Bekenner und Märtyrer, so Christum und die evangelische Wahrheit bis hierher,
auch etwa im Reich der Finsternis, wahrhaftig erkennet, Frankfurt a. M. 1573. - Über Flacius und sein Werk vgl. Giuseppe
Micheli in: Storia delle Storie Generali della Filosofia, hgg. von G. Santinello, Band 1: Dalle origini rinascimentali alla
‚historia philosophica‟, Brescia 1981, S. 427 – 437.
223
„Legendi libri inutilium disputationum pleni, ferenda dumeta et spineta subtilitatum ipsa sua inutili acie animum sauci-
antium et convellentium, obscurae et incertae Scholasticorum opiniones, et ambigua atque in infinitum excurrentes
dissertationes, sermonis barbaries“, Jakob Brucker, Historia critica philosophiae, Band III: A Christo nato ad repurgatas
usque literas, Leipzig 1743, S. 709.
394

die „scholastische Philosophie“ dennoch (in einem Abschnitt nach der „sarazeni-
schen Philosophie“) zum erstenmal ausführlich darstellt.
Die bis in die Gegenwart sich auswirkende Kampagne gegen die Scholastik ging
freilich von den quadrivialen Naturwissenschaftlern aus. Noch heute stellen sich
die Naturwissenschaften „nach der Kopernikanischen Wende“ als absoluter Neu-
anfang der gesamten mathematischen Naturwissenschaften dar.
Statt vieler anderer können wir hierzu Jakob Friedrich Fries, den „Forscher-
philosophen“ (wie Alexander von Humboldt ihn nannte) zum Zeugen nehmen.
Mit der seinerzeitigen Mathematik und Naturwissenschaft aufs engste vertraut, hat
er auch die erste Philosophiegeschichte geschrieben, in welcher die Fortschritte im
Denken der abendländischen Kultur ganz wesentlich auf die Fortschritte der
Mathematik und Naturwissenschaften zurückgeführt wurden. Im 2. Band seiner
Philosophiegeschichte sagt er über die Scholastik:

„Die Anerkennung des gesunden Geistes in jenem Kampf gegen die lästige leere unend-
lich weitschweifige und gedankenarme Rede der Scholastiker, welche, dem sic et non
des Abälard folgend, ohne den Geist eigenen Selbstdenkens unter syllogistischer Form
nur Spitzfindigkeiten für und wider dogmatische Behauptungen ohne Entscheidung zu-
sammenstellen, wäre unserer Zeit nicht unwichtig, da ein falscher Wahn so manchen
verführt, hinter dem alten Irrtum verborgene Weisheit zu vermuten.“ 224

Speziell die Leistungen der Gründerväter der neuen Naturwissenschaft schildert er


so:
Kopernikus „lehrte ... der Nachwelt genauer als jemand zuvor die tägliche und jährliche
Bewegung der Erde und rückte die Erde aus der Mitte des Weltalls. Mit dieser Umwand-
lung der astronomischen Weltansicht mußte sich auch die physikalische Weltansicht der
Philosophen nach und nach gänzlich verändern. Der ganze griechische monotheistische
Weltbau der Weltkugel mit ihren Sphären war vernichtet; die krystallnen Sphären, an
welche die Alten die Sterne geheftet hatten, zerfielen in Trümmer, es blieb nur die freie
Schwungbewegung der Erde und Planeten vorauszusetzen übrig“ (ibid. S. 267).

Aber erst durch Kepler und Galilei wurde gemäß Fries ca. 80 Jahre nach des Ko-
pernikus Tod „die Sache des Kopernikus wissenschaftlich entschieden“ (S. 269).
Als Keplers leitende Idee rühmt Fries: „Die Astronomie muß der Metaphysik des Ari-
stoteles entzogen und in eine Physik des Himmels verwandelt werden.“ (ibid. S. 270).
„Seine großen Entdeckungen waren ja die drei, daß die gerade Linie vom Mittelpunkt
der Sonne an den eines Planeten gezogen bei der Bewegung des Planeten in gleichen
Zeiten gleiche Räume beschreibe, daß jeder Planet in einer Ellipse um die Sonne laufe,
in deren einem Brennpunkt die Sonne stehe; daß dabei die Quadrate der Umlaufszeiten
sich wie die Würfel der mittleren Entfernung verhalten, und in diesen Zahlenharmonien
schrieb er das Gesetzbuch der Bewegungen im Planetensystem.“ (S. 271). „Und noch
weiter hinaus sah sein genialer Blick. Er vermutete die Anziehungskräfte, welche Sonne
und Planeten zusammenhalten, erriet, ehe Galilei sie beobachtete, die Axendrehung der
Sonne, und vermutete Sonnen in den Fixsternen, wodurch eigentlich erst die koperni-

224
J. F. Fries, Die Geschichte der Philosophie, Band 2 (1840), in: J. F. Fries, Sämtliche Schriften, hgg. v. L. Geldsetzer
und G. König, Band 19, Aalen 1969, S. XVI.
395

kanische Weltansicht ihre Unermeßlichkeit erhielt, indem auch unsere Sonne nicht mehr
als Mittelpunkt der Welt erscheinen konnte.“ (S. 272).

Galilei aber „brach als Märtyrer die Bahn der mathematisch geleiteten Natur-
lehre.“ Neben seinen Beobachtungen der Jupitermonde, der Venusphasen und der
„Auflösung eines großen Teils des Schimmers der Milchstraße in einzelne Sterne“
(S. 273) stellt Fries als sein Hauptverdienst heraus:

„Galilei erfand nämlich die Gesetze der stetig und gleichförmig beschleunigenden Kräf-
te, wies mit deren Hilfe die Gesetze des freien Falls der Körper und die parabolische
Theorie der Wurfbewegung nach, und führte die Beweise für die Axendrehung der Erde
aus. Dadurch bewirkte er so Großes, weil er damit im tiefsten Grunde die alten falschen
naturphilosophischen Grundsätze der Bewegungslehre widerlegte und verdrängte“ (S.
273).

Auch Francis Bacon (1561 – 1626) ist bei Fries einer der Gründerväter der moder-
nen Naturwissenschaften durch seinen grundsätzlichen Empirismus. Über ihn
heißt es: „Glücklicher als Ramus und Telesius wirkte er in England auf die Zer-
störung der Scholastik“ (S. 277).

„Seine wichtigsten Belehrungen sind die über die Methoden der Erfindung in den Na-
turwissenschaften. Wir sehen ihn dabei von der Betrachtung ausgehen, daß die Philo-
sophie mit allem Aufwande spitzfindiger Scholastik seit so langen Zeiten nichts ge-
wonnen habe, sondern immer dieselben Lehren wiederholte.“ (S. 279). „Die gemeine
herkömmliche Logik mit ihrer Syllogistik führt nur zum Streiten und Zanken, aber nie
zur Erfindung der Wahrheit ... Aber in den Naturwissenschaften taugt sie gar nichts“
(279).
Obwohl er die Vier-Ursachenlehre anerkenne, habe er sie doch wesentlich modifiziert,
„indem er die wirkenden Ursachen und die Materie der Physik, die formellen Ursachen
und die Endzwecke der Metaphysik zuschreibt“ (S. 281).
Hierbei habe er aber die Prozessform als „die wahre causa formalis, welche im Naturge-
setze besteht“ erkannt, welches durch seine Induktion erforscht werden soll. „Mit dieser
Lehre von dem Naturgesetze, als deren causa formalis, hat er den allgemeinen Gedan-
ken von Galilei‟s Methode zuerst bestimmt ausgesprochen, durch welche die formae
substantiales verdrängt werden mußten“ (S. 281).
Dabei habe er die Endursachen durch die Zuweisung zur Metaphysik ein für allemal aus
der Naturwissenschaften ausgeschieden. „Diese Warnung vor den Endursachen welche
er den Physikern ausspricht, ist eine der wichtigsten und erfolgreichsten methodischen
Regeln, welche er der Wissenschaft gegeben hat.“ (S. 282).

Descartes hält er neben Gassendi für den französischen Gründervater des neuen
Geistes, weist ihm aber ausführlich Fehler und Unzulänglichkeiten nach. Erst
seiner Schule spricht er das Verdienst zu,

„wie zum Beispiel die Gesellschaft von Port Royal sich der neuen Lehre annahm, daß
die Schule von der schwerfälligen Spitzfindigkeit und der Weitschweifigkeit der Scho-
lastik befreit wurde, daß die Gegensätze der Thomisten und Scotisten, der Realisten und
Nominalisten, der substantiellen Formen und dem Ähnliches vergessen wurden“ (S.
299).
396

Wir haben Fries ausführlicher zu Wort kommen lassen um zu zeigen, wie sich der
Antischolastizismus bis in die Anfänge des 19. Jahrhunderts auch in den Natur-
wissenschaften gehalten hat. Stellt man der friesschen Philosophiegechichte aller-
dings die neuere Philosophie- und Wissenschaftsgeschichte z. B. von E. Cassirer
oder H. Lange225 gegenüber, so hat sich die Einschätzung erheblich geändert.
Hier sieht man sehr deutlich, wie auch die Naturwissenschaft und Mathematik
der Renaissance kontinuierlich aus den Problemstellungen der scholastischen
Philosophie und Naturphilosophie heraus entwickelt worden ist. Aber dabei sollte
man auch bemerken, daß die Geschichtsschreibung der Mathematik und Natur-
wissenschaften (und der Medizin) gewissermaßen als luxurierendes Anhängsel
des Lehrkurrikulums der naturwissenschaftlichen und medizinischen Fakultäten
eingerichtet und betrieben worden ist und nur noch an manchen Standorten unter
ständiger Gefahr des Wegfalles betrieben wird. Aktuelles mathematisches, natur-
wissenschaftliches und auch medizinisches Denken in Forschung und Lehre hat
sehr wenig damit zu tun. Der einstige Antischolastizismus hat sich in diesen Fäl-
len durchweg zu einem Antihistorismus entwickelt, als dessen Kehrseite sich das
unbedingte Vertrauen auf den „aktuellen letzten Stand der Wissenschaft“ als allei-
niges Fundament des Wissens und der Wahrheit erweist.

§ 35 Die Methodenentwicklung der Natur- und Geisteswissenschaften: Daten


sicherung und theoretische Erklärung der Phänomene

Die Ausgestaltung der platonischen „freien Künste“ zu den neuzeitlichen Geistes- und Naturwis-
senschaften. Ihre aristotelische Stufung in beschreibende „Graphien“ als Basis und erklärende Zu-
sammenhangsstiftung als theoretischer Überbau. Die vermeintliche Überwindung der aristoteli-
schen Vier-Ursachenerklärung. Deren Fortwirkung und Ausgestaltung in mathematischer Begriffs-
bildung in der klassischen Mechanik und Dynamik von Cusanus über Kopernikus, Kepler, Galilei,
Descartes, Leibniz bis Newton und d‟Alembert. Die hermeneutische Vier-Ursachenerklärung in
den Geisteswissenschaften. Der Entwicklungsgedanke als neuzeitlicher Ersatz der Vier-Ursachen-
konzeption.

Die Scholastik hatte das Fakultätssystem der Universitäten etabliert. Hier spielte
die Artisten- oder Philosophische Fakultät die Rolle einer methodologischen und
enzyklopädischen Propädeutik für die „höheren” Fakultäten Theologie, Jurispru-

225
E. Cassirer, Das Erkenntnisproblem in der Philosophie und Wissenschaft der neueren Zeit, 3 Bände,Berlin 1906 – 1920,
4. Band Stuttgart 1957, 2. Aufl. Darmstadt 1973; H. Lange, Geschichte der Grundlagen der Physik, 2 Bände Freiburg i.
Br. - München 1954 – 1961.
397

denz und Medizin, die die Berufsausbildung von Seelenhirten (Pastoren) Sozial-
ingenieuren und Therapeuten betrieben.
Dabei perennierten die Inhalte des Fächerkanons der Philosophischen Fakultät
alles das, was Platon für die „musische Bildung” des freien Mannes für notwendig
befunden hatte: die „freien Künste” (artes liberales) des Wortes („sermocinale“
bzw. „Rede-Wissenschaften“ des Triviums) und der mathematischen Harmonie-
und Struktureinsichten über den Kosmos („szientifische“ Realwissenschaften des
Quadriviums).226
Die Unterscheidung von Trivium und Quadrivium verfestigte bis zur Selbst-
verständlichkeit die Meinung, daß die Wort-, Literatur- und Sprachwissenschaften
eine natürliche Affinität zu logisch-dialektischer bzw. rhetorischer Methodologie
besäßen, während die Realwissenschaften (die dann wesentlich als Naturwis-
senschaften verstanden werden) eine ebenso natürliche Affinität zur Mathematik
hätten.
Zur platonischen Enzyklopädie der philosophischen Disziplinen fügt die aristo-
telische Hochscholastik den aristotelischen Wissenschaftsbegriff mit seiner grund-
legenden Unterscheidung von historisch-empirischer Faktenkunde und szienti-
fisch-rationaler Theoriebildung hinzu. Jede Wissenschaft und somit jede Disziplin
der Philosophischen Fakultät hat danach eine empirische Faktenbasis und einen
theoretischen Überbau. Erstere besteht in den Exempeln sinnlicher Anschauung
oder gedächtnismäßiger Vergegenwärtigung, letztere in den Vernunftkonstruk-
tionen begrifflicher Verallgemeinerungen oder mathematischer Gesetzlichkeiten,
die das Einzelne in allgemeine Zusammenhänge einstellen.
Dieser zweistufige Wissenschaftsbegriff ergibt auch eine gedoppelte Strategie
für den Ausbau der Wissenschaften: 1. Die ständige Erweiterung der Faktenbasis
durch empirisch-historische Beschreibung immer neuer Daten und Fakten der ein-
zelnen Seinsbereiche. 2. Den spekulativen Ausbau der theoretischen Zusammen-
hangsstiftungen in Verallgemeinerungen und Gesetzen, also in der Theoriebil-
dung.
Beide Strategien werden bis heute in den daraus entstandenen Geistes- und
Naturwissenschaften verfolgt. Die Naturwissenschaften erschließen unter Zuhilfe-
nahme zunehmend komplexer technischer Hilfsmittel (Fernrohr, Mikroskop, Elek-
tronenmikroskop, Spektralanalyse, Nebelkammer, Collider usw.) immer weitere
Bereiche der Natur und ihrer Mikro- und Makrosphären. Bis zur Mitte des 19.
Jahrhunderts heißt diese deskriptive Naturforschung noch „Naturgeschichte“, da-
neben experimentelle oder phänomenologische Naturforschung. Aber sie könnte
auch heute noch bei gewandeltem Geschichtsverständnis mit Recht Naturge-
schichte genannt werden, da alle experimentellen, erst recht alle astronomischen
Protokolle und Beobachtungsbefunde Zeugnis von (im modernen Sinne) histo-
risch-vergangenen und damit nicht mehr vorhandenen Seinszuständen geben.

226
Vgl. dazu J. Koch (Hg.), Artes liberales. Von der antiken Bildung zur Wissenschaft des Mittelalters, Leiden-Köln
1959; H. Lausberg, Handbuch der literarischen Rhetorik. Eine Grundlegung der Literaturwissenschaft, 2. Aufl. München
1973, S. 25 – 35.
398

Die Geisteswissenschaften pflegen diese empirisch-historische Forschung durch


Sammlungen von Kulturdokumenten im allerweitesten Sinne: Literaturen, Archi-
valien, Artefakte und Relikte, die sich im Fortgang der Geschichte ständig ver-
mehren. Diese Dokumente werden durch Beschreibung und Interpretation zu Fak-
ten und Daten. Lange und gelegentlich bis in unsere Tage ist das historische In-
teresse mehr auf die entfernteste Vergangenheit als auf die näherliegenden Zeiten
gerichtet, vor allem auf die Quellen der klassischen griechischen und auch lateini-
schen Welt. Von dieser versunkenen Welt konstruierte die klassische Philologie
und Altertumswissenschaft so lebhafte Gemälde, daß sie die Moderne in allen
Kulturbereichen immer wieder prägen und Vorbilder für deren Veränderung abge-
ben.
Insbesondere die „Klassik” der Altertumswissenschaften des ausgehenden 18.
und beginnenden 19. Jahrhunderts bedeutete eine nachhaltige Renaissance sowohl
der römischen wie der griechischen Kultur, die in der Gestalt der Humboldtschen
Reformen das deutsche Bildungs- und Universitätswesen auf diese Vorbilder ver-
pflichtet. Sicher hat gerade die Perspektive auf die ferne Vergangenheit dem Ge-
schichtsbegriff in der Philosophischen Fakultät immer mehr die Bedeutung ver-
liehen, daß das Historische das Vergangene schlechthin sei – was nicht im aristo-
telischen und griechischen historia-Begriff liegt.
Noch die Geschichtsbegriffe Jean Bodins (Methodus ad facilem historiarum
cognitionem, 1566), aber auch die Wissenschaftsklassifikationen Francis Bacons
(De dignitate et augmentis scientiarum, 1623) und Jean LeRond d’Alemberts (Dis-
cours préliminaire de l‟Encyclopédie, 1751), die alle empirischen Faktenkunden
auf das Gedächtnis (memoria) gründen, fassen neben der „zivilen” und „ekkle-
siastischen” Geschichte auch die Literatur- und Naturgeschichte als Faktenkunde
der Disziplinen zusammen.
Erst die „Theoretisierung” der Vergangenheitsgeschichte durch die Geschichts-
philosophie seit Voltaire 227 etabliert Vergangenheitsgeschichte als Sozial-, Kultur-
und Staatengeschichte, löst sie aus den übrigen deskriptiven „Historien” der Phi-
losophischen Fakultät heraus und gibt ihr ansatzweise eine „philosophische“, d. h.
theoretisch-erklärende Grundlage.
Nachdem so der Geschichtsbegriff nicht mehr zur Bezeichnung der aufs Ein-
zelne und Empirische gehenden Forschungstendenz der Einzelwissenschaften zur
Verfügung steht, tritt die Bezeichnung „deskriptiv” oder „-Graphie” an seine Stel-
le, und mancherlei wissenschaftsarchitektonische Vorschläge suchen diese Ten-
denz neu zu fassen. Man unterscheidet nunmehr „-Graphien“ wie etwa „Historio-
graphie“ und „Geographie“ von den eigentlich theoretischen Wissenschaften als
„-Logien“, wie etwa „Soziologie“ und „Geologie“. Im 20. Jahrhundert hat die
Programmatik der Husserlschen „Phänomenologie” unter dem Schlagwort „Zu
den Sachen selbst” (M. Heidegger) diese empirisch-deskriptive Unterlage der Ein-
zelwissenschaften neu formuliert.
227
Voltaire, „Philosophie de l‟histoire“, unter dem Pseudonym „Abbé Bazin” als Sonderdruck der Einleitung von Vol-
taires „Essai sur les Moeurs et l‟Esprit des Nations” von 1756 im Jahre 1765 erschienen.
399

Was die zweite Forschungsstrategie der theoretischen Zusammenhangsstiftung


zwischen den empirisch-historischen Daten und Fakten betrifft, so wird sie glei-
cherweise in allen Disziplinen der Geistes- und Naturwissenschaften weiter ge-
pflegt. Da es sich aber hierbei schon nach aristotelischem Wissenschaftsbegriff
um das eigentlich „wissenschaftliche” (szientifische bzw. epistemische) Moment
an der Wissenschaft handelt, genießt es auch traditioneller Weise ein vergleichs-
weise viel höheres Prestige als die „graphisch-historische“ Empirie.
Dies erzeugt seit der Mitte des 19. Jahrhunderts in den „-Graphien“ ein merk-
liches Bestreben, sich zu theoretisieren um zu „echten Wissenschaften“ zu wer-
den. Überall aber bleiben gemäß der platonischen Zuweisung zum Trivium und
Quadrivium Logik und Mathematik die dominierenden Theoretisierungsmetho-
dologien. Logik – was seither auch immer daraus geworden ist – regiert die
Geisteswissenschaften, Mathematik in ihren Hauptformen der Arithmetik und
Geometrie beherrscht die exakten Naturwissenschaften.
Ausdruck der einen dieser beiden Tendenzen war die berühmte (jedoch nicht in
seinen Schriften nachweisbare) Galileische Maxime für die Naturwissenschaften:
„Messen, was meßbar ist, und meßbar machen, was (noch) nicht meßbar ist”. Dies
liefert den Naturwissenschaften – und in zunehmendem Maße auch manchen
Geisteswissenschaften - quantitative Daten und Fakten. Schon die historische
Chronologie (freilich ohne ein Null-Jahr) ist Ausdruck einer mathematischen Da-
tenbeschreibung und Datenanordnung auch in den Geisteswissenschaften.
Für die Geisteswissenschaften aber plädierte Giambattista Vico (1668 – 1744),
der Begründer der allgemeinen Kulturwissenschaft, für die logisch-rhetorische
Bildung des Geisteswissenschaftlers in der Schrift „Über die Studienmethode
unserer Zeit”.228 Er wendet sich damit gegen die cartesianische Verallgemeinerung
der mathematisch-axiomatischen Methode und bringt die rhetorisch-logische
Methode der Problemdiskussion in Erinnerung. Etwas übertreibend kann man
sagen, daß Naturwissenschaftler seither eher auf Logik verzichten, wenn sich ihre
Theorien nur mathematisch elegant formulieren lassen, und umgekehrt Geistes-
wissenschaftler geradezu einen visceralen Horror vor der Mathematik entwickelt
haben.
Der Ausbau dieser Theoretisierungsstrategien erfolgt in der Renaissance am
Leitfaden des aristotelischen Vier-Ursachen-Schemas (vgl. § 18). Jacobus Acon-
tius (Giacomo Aconcio, ca. 1492 – 1566) hat sie in seinem Traktat „Über die
Methode“ von 1558, dann bis 1658 noch öfter gedruckt, noch einmal zusammen-
gefaßt.229 Sie blieb in Italien vor allem in der Schule von Padua lebendig, von wo
sie auf weitere nördliche Universitäten ausstrahlte.

228
G. Vico, De nostri temporis studiorum ratione, 1709, neue dt.-lat. Ausgabe von W. F. Otto, Vom Wesen und Weg der
geistigen Bildung / De nostri temporis studiorum ratione, Godesberg 1947.
229
Jacobus Acontius, De Methodo, hoc est de recta invenstigandarum tradendarumque artium ac scientiarum ratione /
Über die Methode, d. h. über die rechte Forschung und Lehre in den Künsten und Wissenschaften, übers. v. A. von der
Stein, hgg. und eingel. von L. Geldsetzer, lat. – dt. in: Instrumenta Philosophica Series Hermeneutica IV, Düsseldorf 1971;
N. W. Gilbert, Renaissance concepts of method, 2. Aufl. New York-London 1963; und L. Geldsetzer, Art. "Methodologie",
in: Historisches Wörterbuch der Philosophie, hgg. v. J. Ritter, Band 5, 1980, Sp. 1379 - 1386.
400

Bei den scholastischen Naturphilosophen hatten die drei Hauptursachen aus


diesem Schema noch eine bedeutende Rolle gespielt: die Formursache als „Be-
griff“ von Veränderungen bzw. Bewegungen, die Wirkursache (causa efficiens)
als „Einschlag“ (impulsus) oder Veranlassung zu den Veränderungen, und die
Zielursache (causa finalis) als „inneres Streben“ (impetus, besonders bei Buridan).
Die Materie als „Masse“ (idealisierter Massenpunkt oder Körper) wurde mit der
Substanz identifiziert und fiel als Ursache aus.
Die Terminologie des Vier-Ursachen-Schemas der Erklärung blieb vor allem in
der mathematischen Naturforschung auch im Zeichen der neuen Platonisierung
erhalten. Die vier Ursachen aber wurden auf zwei dann für wesentlich gehaltene
eingeschränkt: die Wirkursachen und die Formursachen.
In voller Geltung blieben die Wirkursachen, die mehr und mehr in komplizierte
„Bedingungsgefüge“ differenziert wurden. Sie blieben auf die Dauer als einzige
Ursachen übrig und bestimmen das übliche Verständnis, wenn man heute von
„Ursachen“ spricht.
Die aristotelischen Formursachen wurden zunächst auf geometrische Formen
der Naturphänomene, nämlich die idealen geometrischen Gebilde, insbesondere
Kreise und allgemein die Kegelschnitte und die regelmäßigen „platonischen Kör-
per“ beschränkt (so noch beim frühen Keppler). Aber der „Sturz des Kreises“ (und
der Epizyklen) als „vollkommene platonische Bewegungsformen“ durch die spä-
tere Keplersche Ellipsendarstellung der Planetenbahnen ließ die geometrische zu-
gunsten arithmetischer Darstellungen allmählich zurücktreten. Mit der Cartesi-
schen „analytischen Geometrie” (der Darstellung der geometrischen Gebilde
durch Zahlausdrücke im sogenannten cartesischen Koordinatensystem) werden
die neuen platonischen Formbegriffe der Bewegungen zu arithmetischen Aus-
drücken für geometrische Abstände auf den cartesischen Raumkoordinaten.
Dieser Vorgang dürfte auch heute noch für die meisten Geisteswissenschaftler
und wohl auch viele Logiker und Mathematiker undurchschaut geblieben sein. In
ihm artikuliert sich vor allem das Interesse der Naturwissenschaftler, Begriffe für
Bewegungen und Veränderungen - die platonischen Signaturen der „Phänomene“
- zu gewinnen. 230
Arabische Aristoteliker und dann auch scholastische Naturphilosophen hatten
dies dadurch versucht, daß sie die Bewegung und Veränderung in bestimmte
Form-Begriffe selber aufzunehmen versuchten. Sie diskutierten über die „forma
fluens“ (fließende Form) und den „fluxus formae“ (das Fließen der Form), und
dies möglicherweise in Anknüpfung an Platons Andeutungen in diese Richtung
im Dialog „ Sophistes“.

230
Vgl. F. Kaulbach und G. Meyer, Art. „Bewegung“ in: Historisches Wörterbuch der Philosophie, hgg. von J. Ritter,
Band 1, Basel-Stuttgart 1971, Sp. 864 – 879; sowie Kl. Mainzer, Art. „Bewegung“ und „Bewegungsgleichungen “ in:
Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. von J. Mittelstraß u. a., Band 1 Mannheim-Wien-Zürich 1980, S.
302 – 304. – Ergänzend dazu Art. „Mouvement“ in: É. Gilson, Index Scolastico-Catsien, Paris 1913, S. 182 – 197, und Art.
„Motus“ in: Stephanus Chauvin, Lexicon Philosophicum. 2- Aufl. Leeuwarden 1713, ND in Instrumenta Philosophica
Series Lexica II, hgg. von L. Geldsetzer, Düsseldorf 1967, S. 418 – 424. Chauvins Werk ist ein umfassendes Lexikon der
cartesianisch inspirierten Philosophie und Naturwissenschaft.
401

Im allgemeinen galten die „Formen“ bzw. Ideen jedoch im Platonismus als sta-
bile unveränderliche Wesenheiten. Für Aristoteliker lag es näher, die Formen als
gedachte „zweite Substanzen“ selbst in Bewegung zu setzen. Hierbei mußte man
sich die Bewegung bzw. Veränderung vorstellen bzw. im Denken erinnernd nach-
vollziehen. Der Nachteil dieser Begriffe als Formen von Bewegungen aber war,
daß sie als nicht quantifierungsfähig erschienen. Von den Bemühungen um eine
solche Quantifizierung zeugen die Versuche der Oxforder Schule der Calculatores
am Merton College sowie des Nicolaus von Oresme (Nicole Oresme bzw. Orème
1322 – 1382) in Frankreich, Ortsbewegungen in bestimmten Zeitabschnitten mit
Hilfe eines - dem cartesischen vorgreifenden - Koordinatensystems abzubilden.
Der neue „Trick“ der physikalischen Begriffsbildung von Bewegungsformen
bestand in dreierlei: 1. die Bewegung selbst hierbei außer acht zu lassen und nur
die quantitativen Eigenschaften der Geschwindigkeit und deren Veränderungen
als „Beschleunigungen“ in den Formbegriff aufzunehmen. 2. Die Geschwindig-
keit in einer Gleichung (von deren logischer Form wir gezeigt haben, daß sie nur
eine Definition eines Begriffes sein kann) zu notieren, in die dann auch Meßwerte
eingehen konnten. Geschwindigkeiten wurden so in der Form „v = s / t“ notiert,
wobei v für velocitas bzw. Geschwindigkeit, s für die durchlaufene Strecke, und t
für die dazu gebrauchte Zeit bzw. Dauer standen. 3. wurde dann auch die „Verän-
derung der Geschwindigkeit“ in einen sehr erweiterten Beschleunigungsbegriff
aufgenommen.
Man sollte meinen, „Beschleunigung“ sei eine Zunahme der Geschwindigkeit,
wie es der Laie auch heute noch annimmt. In der neuen mathematischen Defini-
tion aber wurde jede Veränderung, also sowohl Vergrößerung als auch Verlang-
samung sowie auch jede Richtungsänderung der unterliegenden Bewegung als
„Beschleunigung“ verstanden. Und das ist nur durch die dialektische Begriffs-
bildung der euklidischen Mathematik und das Durchdringen dieser Dialektik auf
die Anwendung des Formalismus in der Physik verständlich. (Ein anderes Bei-
spiel dafür haben wir hinsichtlich des Unterschiedes der Definition von „Menge“
in der Logik und in der Mathematik herausgestellt).
Beschleunigung in diesem weiten Sinne als „Veränderung der Geschwindigkeit“
(auch hinsichtlich der Bewegungsrichtung) erwies sich als harte Nuß für die
mathematische Verbegrifflichung. Soweit es nur um die Veränderung der Ge-
schwindigkeit von Bewegungen ging, hatte schon Nikolaus von Kues vorgeschla-
gen, die Bewegung aus Bewegungs- und Ruhepunkten auf der Strecke zusammen-
zusetzen. Dann erschien Verlangsamung (retardatio) als Verlängerung der Ruhe-
pausen an Ruhepunkten auf der jeweiligen Strecke, und Beschleunigung als
Verkürzung der Ruhepausen. Und diese Vorstellungsweise gehört ersichtlich zu
den Vorläufern der späteren „differentiellen“ Konstruktion von „Punktgeschwin-
digkeiten“.
Folgenreicher aber wurde die Verallgemeinerung der sogenannten Merton-
Regel der Oxforder Calculatoren. Galilei machte es zum Gesetz, daß gleichmäßig
beschleunigte Bewegungen (wie beim freien Fall oder beim Abrollen von Kugeln
402

auf einer schiefen Ebene) eine Durchschnitts- oder Gesamtgeschwindigkeiten be-


sitzen, die der halben Endgeschwindigkeit entspricht. Dadurch konnte man gleich-
förmig beschleunigte Bewegungen auf den Begriff „´ v“ bringen, wobei v die
Endgeschwindigkeit aus einem ruhenden Anfangszustand bemaß. Aber dies war
eine idealisierte Vorstellung, denn empirisch ließen sich solche gleichmäßig be-
schleunigte Bewegungen damals wegen der Reibungsverluste und Widerstände im
Bewegungsmedium nicht genau messen.
Erinnern wir uns daran, daß Aristoteles natürliche und erzwungene Bewegungen
von Substanzen unterschieden hatte. Die natürlichen Bewegungen wurden durch
die Finalursache allein erklärt, nämlich aus der „Tendenz“ bzw. aus der „En-
telechie“ (d. h. aus der Eigenschaft, das „Ziel in sich zu tragen“), die jedes Ele-
ment an seinen „heimatlichen Ort“ (oikeios topos) führt: schwere (erdhafte Sub-
stanzen und Wasser) in gerader Linie in Richtung des Erdmittelpunkts, leichte wie
Luft und Feuer in gerader Linie nach oben. Gestirne aber – durch Sterngeister be-
wegt – liefen auf „vollkommenen“ Kreisbahnen. Bei ihnen wurden die beobach-
teten Bahnen der Gestirne durch Epizyklen und exzentrische Kreise adjustiert.
Diese natürlichen Bewegungen bedurften keiner Erklärung. Die erzwungenen
Bewegungen aber mußten erklärt werden. Und dazu dienten in der aristotelisch
inspirierten Naturwissenschaft vor allem die von außen einwirkende causa effi-
ciens und die causa finalis, die als „Impuls“ und (erzwungener) „Impetus“ die
natürlichen Bewegungen überlagern und somit verändern sollten.
Erinnern wir uns weiter daran, daß nach Aristoteles die Ursachen selbst als
Fakten (Substanzen) bekannt und beschrieben sein mußten, um überhaupt für eine
Erklärung dienen zu können. Das waren diejenigen wohlbekannten Dinge, die
überhaupt einen Zwang auf andere Dinge ausüben konnten. Vor allem der Mensch
und die „automatisch“ (durch ihre Seelen) bewegten Lebewesen. Die zwei auffäl-
ligsten Zwänge waren einerseits der Druck auf oder Stoß gegen etwas, anderer-
seits das Ziehen von etwas in eine bestimmte Richtung. Die empirische Erfahrung
von Stoß und Zug aber wurden die plausiblen Hauptbeispiele der wirkenden und
der teleologischen Ursachen.
Wie man sich das in der aristotelischen Naturphilosophie vorstellte, zeigt das
Beispiel des Wurfes. Die werfende Hand wirbelt die den Stein umgebende Luft in
die Richtung des Steinwurfs und „treibt“ ihn dadurch an (daher der Terminus
impuls von pellere, treiben). Zugleich aber gibt die werfende Hand dem Stein
auch einen Impetus mit, welche den ihm innewohnenden Impetus bzw. die Ente-
lechie zur natürlichen Bewegung auf den Erdmittelpunkt hin überlagert. Die
Richtung des Wurfes als erzwungener Impetus auf das vom Werfenden beab-
sichtigte Ziel hin wurde vom natürlichen ungezwungenen Impetus auf den Erd-
mittelpunkt hin unterschieden. Daraus folgerte man zunächst, daß die Anfangs-
geschwindigkeit der Wurfbewegung erst noch beschleunigt wurde, dann aber
abnehmen sollte, bis die natürliche Entelechie (bzw. der natürliche Impetus) ihn
mit gleichmäßiger Beschleunigung in die Richtung des Erdmittelpunkts zurück-
403

führt. Die geometrische Darstellung war dann die noch heute so genannte ballisti-
sche Kurve in Parabelform.
Nachdem allerdings die Planeten und der Mond als erdähnliche Substanzen
erkannt und der aristotelische Glaube an Sterngeister hinfällig geworden war,
verlor die Kreisbewegung ihren Status als natürliche und nicht erklärungsbedürf-
tige Bewegung. Deswegen mußten die Bahnen der Himmelskörper als erzwun-
gene Bewegungen erklärt werden. Ebenso war die Zu- und Abnahme der Ge-
schwindigkeit einer geradlinigen Bewegung erklärungsbedürftig. Es blieben also
nur die geradlinigen gleichförmigen Bewegungen als „natürliche“ übrig. Es war
Isaak Newton (1642 -1727), der dies als erstes seiner drei Prinzipien formulierte:

„Jeder Körper, auf den kein Zwang ausgeübt wird, bleibt entweder in Ruhe oder er
bewegt sich auf einer geraden Linie mit gleichförmiger Geschwindigkeit immer
weiter.“ 231

Man kann dieses newtonische Prinzip als ein Fossil des Aristotelismus im Ver-
band neuer platonistischer Phänomenerklärungen bezeichnen.
Die kusanisch-kopernikanische Erklärungsweise war zunächst ein Versuch ge-
wesen, die Himmelserscheinungen durch einen Standpunktwechsel des Beobach-
ters besser zu erklären, als es vorher von der Erde aus geschah. Dies auf der
Grundlage der kusanischen These, daß es im Kosmos kein ausgezeichnetes Zen-
trum für die Weltbetrachtung gäbe. Und man bemerke, daß die sogenannten Laien
bis heute nicht bereit sind, den Standpunktwechsel der sogenannten „koperni-
kanischen Revolution“ von der Erde auf die Sonne mitzumachen. Niemand spricht
etwa statt vom „Sonnenaufgang“ von der „tangentialen Sonneneinstrahlung“ auf
den Beobachtungsort des Betrachters. Und mit Recht, denn der Standpunkt auf der
Erde ist jederzeit derjenige, der alle Himmelserscheinungen so sehen läßt, wie sie
„empirisch“ für jedermann beobachtbar sind.
Man sieht das System der Planeten, die sich zusammen mit der Erde ungefähr in
einer Ebene um die Sonne bewegen, „von der Seite aus“. Und so erklären sich das
Vor- und Zurücklaufen der einzelnen Planeten als „schräge Ansicht“ von Kreis-
bewegungen vom Standpunkt der Erde, die selbst in einem solchen Kreise um-
läuft. Noch niemand aber hat die Erde von der Sonne aus empirisch betrachten
können. Der Standpunktwechsel forderte also die Phantasie heraus, sich vorzu-
stellen, wie die Bewegungen der Planeten von der Sonne aus gesehen „erschei-
nen“ könnten. Und dazu mußten auch alle Beobachtungsdaten über die Stern-
positionen in das neue Standpunkt- bzw. „Inertialsystem“ umgerechnet werden.
Die Vorschläge zu solchen „Transformationen“ sind bekannt genug.
Nikolaus Kopernikus (1473 - 1543) versuchte es zunächst noch mit einfachen
Kreisen als vollkommenen und natürlichen Bewegungsformen. Johannes Kepler

231
Das ist die übliche Lehrbuchformel. In einer neueren Übersetzung lautet sie: “Jeder Körper verharrt in seinem Zustand
der Ruhe oder der gleichförmigen Bewegung, sofern er nicht durch eingedrückte Kräfte zur Änderung seines Zustandes
gezwungen wird“. In: Isaak Newton, Mathematische Grundlagen der Naturphilosophie, übers. und hgg. von Ed Dellian,
Sankt Augustin 2014, S. 95.
404

(1571- 1630), der in Zusammenarbeit mit Tycho Brahe (1546 - 1601) über genau-
ere Positionsbestimmungen der Himmelskörper und somit Meßdaten verfügte,
schlug Ellipsenbahnen vor. Er konnte damit der Messung unterschiedlicher Ge-
schwindigkeiten der Planetenumläufe in unterschiedlichen Teilen der Ellipsen-
bahnen Rechnung tragen. Dabei hielt Kepler aber an der nicht erklärungsbedürf-
tigen natürlichen Entelechie der schweren Körper als „Anziehungskraft“ der erd-
haften Massen fest und definierte sie nach dem Beispiel der magnetischen Anzie-
hung wie folgt:

„Die Schwere ist eine körperliche Eigenschaft zur gegenseitigen Vereinigung oder Ver-
bindung zwischen verwandten Körpern ... ähnlich wie bei zwei magnetischen Körpern,
(die) an einem zwischen ihnen liegenden Ort zusammenträfen, wobei jeder von ihnen
dem anderen so weit entgegen käme, wie es seiner Masse im Verhältnis zu der des ande-
ren entspricht.“ 232

Vom aristotelischen „Streben nach dem heimatlichen Ort“ übernahm Kepler dabei
die „Fernwirkung“ der interstellaren Anziehung als nicht erklärungsbedürftig. Zur
Bemessung der Anziehungskräfte aber nahm er die Größe und Dichte der anzie-
henden Gestirne zum Richtmaß.
Galileo Galilei (1564 – 1642) baute darauf auf. Einerseits hielt er an der aristo-
telischen Vorstellung fest, daß stellare Kreisbahnen natürliche Bewegungen seien.
Andererseits wollte er aber auch die Ursachen erforschen, die die Planeten auf
keplerschen Ellipsenbahnen mit unterschiedlichen Phasengeschwindigkeiten hiel-
ten. Also schaute er sich nach etwas um, was die Planeten „zwingen“ könnte,
einerseits mit verschiedenen Phasengeschwindigkeiten, andererseits in Ellipsen-
bahnen zu laufen. An aristotelische Sterngeister glaubte er nicht mehr, wohl aber
noch an den Impetus als eine „innere (eingedrückte) Kraft“, die jeden Körper zum
„heimatlichen Ort“ (Galilei sagt: „natürlicher Ort“) hinstreben läßt. Auf der Erde
hatte er das mit seinen Fall- und Pendelversuchen genügend geprüft und bestätigt
gesehen.
Die Anziehung der „natürlichen Entelechie“ bzw. des „natürlichen Impetus“
(Newtons Gravitationskraft) wirkt immer quer zur Bewegungsrichtung in Rich-
tung auf den Mittelpunkt des schweren Körpers, um den ein Körper kreist. Die
Bewegungsrichtung selber aber nannte Galilei „horizontal“, da man ja auf der
Erdoberfläche, die selber bogenförmig ist, Bewegungen in gleicher Höhe beob-
achtet und sie dann für „geradlinig“ hält. Damit hat er aber die alte kreisförmige
Bewegung der Planeten als natürliche Bewegung in den kosmischen Dimensionen
zugleich als „geradlinig“ definiert. Ersichtlich war dies ein ähnlicher Gedanke wie
der Einsteinsche Grundgedanke der Relativitätstheorie, nach dem die „Gerad-
linigkeit“ (dialektisch definiert) durchaus auch zugleich „gekrümmt“ sein kann.
232
“Gravitas est affectio corporea, mutua inter cognata corpora ad unitionem seu coniunctionem ... ad similitudinem
duorum magneticorum corporum (quae) coirent loco intermedio, quilibet accedens ad alterum tanto intervallo, quanta est
alterius moles in comparatione”, Joh. Kepler, Astronomia Nova, Introductio, in Werke III, S. 25, zit. nach J. Mittelstraß,
Neuzeit und Aufklärung. Studien zur Entstehung der neuzeitlichen Wissenschaft und Philosophie, Berlin-New York 1970
S. 291.
405

Aber dies ist nur ein weiteres Beispiel für dialektische Begriffsbildung, auf die
schon im § 19 bei der Analyse von Euklids Begriff der „geraden Linie“ hingewie-
sen wurde.
Christian Huygens (1629 – 1695) und besonders Isaak Newton (1642 – 1727)
definierten dann Galileis „Horizontalität“ (in dessen Auffassung von der „gerad-
linigen Kreisbewegung“ als „natürlicher“ Bewegung) neu. Sie vermieden den
Widerspruch, der in Galileis Definition der Geradheit als zugleich (horizontale)
Krümmung lag, und postulierten, daß die Himmelskörper eigentlich strikt auf
einer geraden Linie laufen müßten, daß sie aber ständig durch die Gravita-
tionskraft (d. h. durch die natürliche Entelechie der Anziehung) dran gehindert
würden. Sobald die Ablenkung der Gravitation nicht mehr wirke, zeige sich die
Geradlinigkeit als (geradlinige) Tangente, der ja alle im Kreis herumgeschwun-
genen Körper folgen, sobald sie losgelassen werden. Was man freilich auf der
Erde beim „tangentialen“ Schleudern ständig beobachtet, wurde an den in Kreis-
oder Ellipsenbahnen laufenden Himmelskörpern niemals beobachtet. Die gerad-
linige „eigentliche“ Bewegung der Himmelskörper waren also unbeobachtbare
„ideale“ (bzw. „virtuelle“) Vorgänge.
Während Newton so die galileische Dialektik der geradlinig-gekrümmten Bewe-
gung der Himmelskörper vermied, handelte er sich sogleich eine neue Dialektik
ein. Sie ergibt sich aus dem Gegenteil der Bewegung, nämlich aus dem Sich-in-
Ruhe-Befinden.
Jede Erfahrung zeigt, daß man in einem bewegten Fahrzeug „in Ruhe“ bleibt,
während man alles außerhalb des Fahrzeuges als bewegt wahrnimmt. Und steht
man außerhalb des Fahrzeuges an einem festen Ruhepunkt, so sieht man den im
Fahrzeug ruhenden Passagier in Bewegung. Diese Phänomene hatten auch die
Aristoteliker längst diskutiert. Newton identifizierte nun die geradlinige Bewe-
gung kurzerhand mit dem Sich-in-Ruhe-Befinden. Das formulierte er freilich
nicht so offen und klar wie es später üblich wurde. Vielmehr stellte er geradlinige
Bewegung und Ruhe nebeneinander und verknüpfte sie durch die gemeinsame
(„natürliche“) Eigenschaft des „Beharrens in Ruhe oder Bewegung“.
Diese Verknüpfung spricht Newton in seinem ersten (unableitbaren) Prinzip
bzw. Axiom seiner Physik aus, das vorne schon erwähnt wurde und das lautet:

„Jeder Körper verbleibe in seinem Zustand der Ruhe oder der Bewegung in gleichförmig
gerader Richtung, falls er nicht von eingeprägten Kräften gezwungen wird, seinen Zu-
stand zu ändern.“ 233

Weniger kryptisch könnte man daraus die dialektische Definition entnehmen: Alle
bewegten Körper ruhen in der geradlinigen Bewegung, wenn sie nicht gestört

233
“Corpus omne perseverare in statu suo quiescendi vel movendi uniformiter in directum, nisi quatenus illud a viribus
impressis cogitur statum suum mutare”, I. Newton, Principia, 3. Aufl. 1726, S. 13, zit. nach J. Mittelstraß, Neuzeit und
Aufklärung. Studien zur Entstehung der neuzeitlichen Wissenschaft und Philosophie, Berlin-New York 1970, S. 289.-
Dellian übersetzt: „Die Bewegungsänderung ist der eingedrückten Bewegungskraft proportional und geschieht in der
Richtung der geraden Linie, in der jene Kraft eindrückt“ (op. cit.. S. 95).
406

werden. Und das erinnert an die alte „paradoxe“ These des Zenon von Eleia: „Der
fliegende Pfeil ruht“.
Für Newton kam es nur noch darauf an, die Veränderungen durch (erzwingende)
äußere Krafteinwirkungen (vires impressae) zu erklären. Dies aber sprach er in
seinem – in der Literatur immer recht stiefmütterlich behandelten - zweiten
Prinzip bzw. Axiom der Physik aus, das sich der Form nach nur auf die Bewegung
bezieht, in der Tat aber ebenso von einer erzwungenen Ruhe (in der Bewegung)
gilt.

„Die Veränderung einer Bewegung entspreche der eingeprägten (d. h. aufgezwungenen)


Kraft, und sie geschieht gemäß einer geraden Linie, auf der jene Kraft eingeprägt wird.“
234

Aus diesem Axiom kann man entnehmen, daß Newton nunmehr die Bewegung
und Ruhe der Körper auf Grund der Anziehungskräfte der Körpermassen nicht
mehr als „natürlich“ ansah (wie noch Galilei), sondern sie zu erklärungsbedürfti-
gen Phänomenen machte. Das, was er dann Gravitationskraft nannte, konnte nur
eine vis impressa der Körper sein, die sie sich gegenseitig in Proportion zu ihren
Abständen und Massen aufzwangen.
Die Physikgeschichtschreibung stellt diese Vorgänge als ein mühsames Heran-
tasten an die modernen Begriffe von Kraft und Energie dar, die in der Renaissance
noch die Eierschalen falscher aristotelischer Vorstellungen mit sich führten.235 Sie
scheint dabei zu verkennen, in welchem Ausmaß auch die modernen Begriffe
noch aristotelisch sind und ihre Entwicklung am Gängelband aristotelischer
Grundbegriffe lief.
Für die Analyse der erzwingenden Kräfte geriet nun der aristotelische Kraft-
begriff in den Vordergrund, den man bis dahin ziemlich außer acht gelassen hatte,
weil man glaubte, er sei durch die Kausalanalysen im Vier-Ursachenschema über-
flüssig geworden.
„Dynamis“ hieß bei Aristoteles die Disposition von Substanzen, Formbestim-
mungen aufzunehmen. Lateinisch wurde er zur „potentia“, im Deutschen zur „An-
lage“ oder „Möglichkeit“. Darüber hinaus wurde er nun Ankerpunkt einer neuen
Teildisziplin der Mechanik neben der sogenannten Kinematik, in der nur die
Bewegung (kinesis) der physikalischen Körper geometrisch beschrieben worden
waren. Das Problem der dynamis bzw. potentia wurde sogleich zum Titelbegriff
der neuen Disziplin „Dynamik“.
In Verbindung mit den beiden in der Überlieferung der aristotelischen Katego-
rienlehre sehr vernachlässigten aristotelischen Kategorien der Aktivität und Passi-
vität ergaben sich daraus die dann herrschenden Bestimmungen zweier Kräfte: der
aktiven bzw. „lebendigen“ (vis viva, Leibniz) und der passiven bzw. „faulen“

234
“Mutationem motus proportionalem esse vi motriciti impressae, et fieri secundum lineam rectam qua vis illa impri-
mitur”, I. Newton, Principia, 1. Aufl. 1687, S. 12, zit. nach Mittelstraß, op. cit. S. 288.
235
Vgl. neben dem zitierten Buch von Mittelstraß auch H. Lange, Geschichte der Grundlagen der Physik, Band I: Die for-
malen Grundlagen Zeit - Raum – Kausalität, Freiburg-München 1954, S. 254 - 282.
407

Kräfte, die man dann auch Trägheitskraft nannte. Und wie es dem dialektischen
Denken der Mathematiker und Physiker entsprach, wurden diese Begriffe selbst
als widersprüchliche Begriffe definiert.
Die Trägheitskraft (vis inertiae) wurde zugleich auch „aktiv“, denn sie sollte ak-
tiven Kräften einen Widerstand entgegensetzen. Als Beispiel gilt hier die passive
„Zentrifugalkraft“, die der „Gravitationskraft“ Widerstand leistet. Und die aktive
Kraft sollte zugleich auch passiv sein. Dafür steht die Gravitationskraft, die eine
Eigenschaft aller Körper ist, die auf alle sie umgebenden Körper „anziehend“
einwirkt. Dies hat Newton in seinem berühmten dritten Prinzip bzw. Axiom über
Actio und Reactio ganz dialektisch in einer Gleichung definiert. Sie lautet be-
kanntlich:

„Die Reaktion sei immer der Aktion entgegengesetzt und gleich. Oder: die Aktionen
zweier Körper seien immer gegenseitig gleich, werden aber in gegensätzliche Richtungen
gelenkt.“ 236
Spätere Interpreten haben das Axiom regelmäßig als Gleichung notiert, nämlich in
der Form: „Actio = Reactio“ oder gar als „a = - a“. Die Dialektik dieser Defini-
tionsgleichungen dürfte nach allem Gesagten auf der Hand liegen.
Man muß sich nicht darüber wundern, daß Newton sich weigerte, über diese
Kräfte, ihre Eigenschaften und insbesondere ihre Herkunft „Hypothesen zu fingie-
ren“, d. h. Vermutungen auszusprechen. Er hätte dann nämlich über den Wider-
spruch in diesem dritten Axiom der Physik Rechenschaft ablegen müssen. Aber
das haben weder Newton noch seine Nachfolger getan.
Der Widerspruch zeigt sich schon darin, daß die Definitionsgleichung zugleich
eine Ungleichung ist. Die Gleichung besagt: Alle (physikalischen) Aktionen sind
zugleich (physikalische) Reaktionen, und umgekehrt (Actio = Reactio). Die Un-
gleichung besagt: Alle (physikalischen) Reaktionen wirken in umgekehrter Rich-
tung wie die Aktionen. Was sich logisch als Ungleichung formulieren läßt: Reac-
tio ≠ Actio, und umgekehrt.
Nun ging es ja darum, Bewegung und Ruhe als Wirkungen von aktiven und
passiven Kräften von stellaren oder sublunarischen Körpern zu formalisieren.
Aber die Kräfte waren in keiner Weise sinnlich beobachtbar, wie man es schon
von den aristotelischen Potenzen, den „Seelen“ und „Triebkräften“ der „von innen
bewegten (automatos)“ Lebewesen gelernt hatte. Man mußte sich also an die
sichtbaren Körper und ihre Bewegungsweisen halten, um ihre unsichtbaren inne-
ren Potenzen und Kräfte auf den Begriff zu bringen.
Was die Renaissance-Physiker und ihre Nachfolger als Kraft definierten, war
aber in der Tat nichts anderes als eine genuin aristotelische Definition der Sub-
stanz unbelebter Körper. Aristotelischen Naturphilosophen kann dies nicht ent-
236
“Actioni contrariam semper et aequalem esse reactionem; sive corporum duorum actiones in se mutuo semper esse
aequales et in partes contrarias dirigi”, I. Newton, Philosophiae naturalis Principia mathematica, London 1687, S. 13, zit
nach Mittelstraß, op. cit. S. 290. Dellian übersetzt: „Die der Materie eingepflanzte Kraft ist die Fähigkeit Widerstand zu
leisten, durch die jeder Körper von sich aus in seinem Zustand der Ruhe oder in dem der gleichförmig-gradlinigen Be-
wegung verharrt“ (Dellian, op. cit. S. 95)
408

gangen sein. Denn bei Aristoteles wurde die Substanz, sei sie bewegt oder unbe-
wegt, als „to ti en einai òí ἦἶ“, als „etwas, was war und ist“ definiert.
„Das was war“ (to ti en) bezog sich bei der Geschwindigkeit der bewegten
Körper auf den zurückgelegten Weg und die dafür benötigte Zeit, die schon als „v
= s / t“ definiert war. Der Körper selbst (to einai = das Seiende) aber war in dieser
Physik schon als Masse „m“ (von massa, lat. ein Klumpen, bes. von Brotteig, wie
auch jetzt noch bei den Bäckern, jetzt „Masse“) definiert. Dem entsprechend
wurde nun der bewegte Körper als derjenige gedacht, der er während einer Bewe-
gung auf einer Strecke (bis zu einem Meßpunkt) und während einer gewissen
Zeitdauer „war und jeweils (bei der Geschwindigkeitsmessung) noch ist“.
Gemäß mathematischer Begriffsbildung verschmolz man diese Begriffe von
Masse und zurückgelegter Strecke im Verhältnis zur Zeitdauer der Bewegung
„multiplikativ“ zu dem neuen Begriff „m  v“ und nannte den so definierten neuen
Begriff „Kraft“. Er wurde formal als „p“ (potentia) bezeichnet und durch die
Gleichung „p = m  v“ definiert. Triviallogisch aber hätte dieser neue Begriff „p“
nur „Massengeschwindigkeit“ genannt werden können, was ersichtlich keinerlei
Hinweis auf eine „innere“ unsichtbare Kraft enthält.
Was die mathematische Definition dabei nicht ausdrückt und erkennen läßt, ist
eine Antwort auf die für Aristoteliker naheliegende Frage, was die zurückgelegte
Strecke und die dafür benötigte Dauer, die ja etwas Vergangenes sind, mit dem
jeweils gegenwärtigen Meßzeitpunkt und der Meßstelle der Endgeschwindigkeit
zu tun hat. Was kann es anders sein als die „mechanische Arbeit“ (d. h. der
während der Bewegung verwirklichte „actus“, aristotelisch die Energeia), die erst
zu ihrem Abschluß festgestellt wird.
Die Definition von Kraft als Arbeit wurde bei den Cartesianern geradezu populär.
Aber auch hierzu ist die Bemerkung angebracht, daß sie zweideutig, nämlich dia-
lektisch ist. Denn die Definition drückt einerseits die Potenz als Arbeitsfähigkeit
des bewegten Körpers aus, also das, was man bei Mensch und Tier noch immer
Arbeitskraft nennt, andererseits aber auch die Wirklichkeit der Folgen, d. h. eine
je schon geleistete Arbeit, in welche die Potenz übergegangen ist.
Die weitere Ausgestaltung des Kraftbegriffs aber verdankt sich dem Problem,
auch beschleunigte bewegte Körper hinsichtlich ihrer Potenz zu bemessen. Das
führte aber zu einer weiteren dialektischen Problematik. Denn nach aristotelischen
Vorstellungen konnten Potenzen allenfalls gleichbleiben oder abnehmen, keines-
falls aber zunehmen. Vielmehr mußte die „aktuelle“ Verwirklichung, die „Ener-
geia“ durch Formaufnahme zunehmen. Ersichtlich sollte die Potenz in der Bewe-
gungslehre aber gemäß der zunehmenden Geschwindigkeit größer werden. Die
Potenz wurde somit – dialektisch – zugleich zur „Energie“. Wie groß aber die Zu-
nahme sein konnte, war mit den Meßmitteln jener Zeiten nicht auszumachen.
Daher ließen sich die mathematischen Physiker vom mathematischen Formalis-
mus selbst inspirieren. Da es sich dabei um Proportionen zwischen Wegstrecken
und Zeitdauern handelte, probierten sie alle Möglichkeiten numerisch vergrößerter
409

oder verkleinerter Strecken- und Dauerverhältnisse aus, von denen nur einige
plausibel erschienen.
G. W. Leibniz (1646 – 1716) schlug bekanntlich die Definition seiner „leben-
digen Kraft“ (vis viva) als m  v2 vor, womit er die Beschleunigung als „Ge-
schwindigkeits-Geschwindigkeit“ auf den Begriff bringen wollte. Das konnte al-
lenfalls plausibel erscheinen, wenn man damit ein rein numerisches Verhältnis
von meßbarer Strecke in mathematischer Formulierung als zweite Potenz und
einer zeitlichen Dauer in zweiter Potenz ausdrücken wollte. Die Definitionsglei-
chung lautet dann: Die lebendige Kraft = Proportion des Betrages der zurück-
gelegten Weglänge (als 2. Potenz berechnet) zur Dauer der dafür benötigten Zeit
(ebenfalls als 2. Potenz berechnet). Diese Proportion von s² / t² auf der rechten
Seite der Gleichung aber als Quotient auszurechnen, war ein Verstoß gegen die
mathematische Form der Proportionierung (wie beim nicht als Quotient auszu-
rechnenden Fußballergebnis). Daher entzog sich der Begriff v2 auch jeder Veran-
schaulichung.
Stellte man sich aber den von Leibniz vorgeschlagenen Begriff der beschleu-
nigten Bewegung (v2) als Quadrat vor, so bedeutete er begrifflich den Quotient
einer Quadratfläche und eines „Zeitquadrats“. Was aber unter der ersteren hin-
sichtlich einer Bewegung auf einer Strecke und unter der letzteren hinsichtlich
einer linear gedachten zeitlichen Dauer vorzustellen sei, ist noch von niemanden
erklärt worden. Aber Leibnizens Kraftdefinition erwies sich auch als rein quanti-
tative Vermutung als abwegig.
So hat sich in der Physik der Definitionsvorschlag Jean LeRond d’Alemberts
(1717 – 1783) durchgesetzt, der sich dabei auf die Merton-Formel von der mitt-
leren Geschwindigkeit als Maß beschleunigter Bewegungen besann und als Kraft-
formel vorschlug: p = m  v2 / 2. Sie ist bis heute als Energiedefinition beibehalten
worden. Noch jetzt liegt sie allen Überlegungen über die Umwandlungen der
Energie in die Formen der verschiedenen physikalischen Bereiche wie kinetische,
thermodynamische, chemische und molekularbiologische zugrunde.
Aber auch diese Definition ist weit davon entfernt, logisch durchschaut zu sein.
Das sieht man z. B. an dem vieldiskutierten Vorschlag Albert Einsteins, die Ge-
samtenergie des Kosmos als Naturkonstante mittels der Leibnizschen Gleichung
als „E = m  c2 “ mit der Lichtgeschwindigkeit c als ausgerechnetem Quotienten
(c = s²/ t²) zu definieren.
Das Selbstverständnis der neuzeitlichen und modernen mathematischen Natur-
wissenschaften gründet sich auf diese mathematische Art der Begriffsbildung und
die daraus entwickelten Deduktionen gesetzlicher Zusammenhänge zwischen den
Naturphänomenen. Spricht man seither von „exakten Naturwissenschaften“, so ist
damit in erster Linie der Anspruch gemeint, alle relevanten Gegenstände in
mathematischen Begriffen zu definieren und sie zu quantifizieren. Die damit ver-
bundenen Probleme der Meßgenauigkeit blieben trotz der Warnungen des Niko-
laus von Kues, daß es sich bei allen Messungen um Idealisierungen von mehr oder
weniger ungenauen „Vermutungen“ über die exakten Meßwerte handele, lange
410

unterbelichtet. Doch bringen sie sich bis in die Entwicklungen neuester techni-
scher Meßgeräte immer wieder in Erinnerung.
Mit diesem Selbstverständnis aufs engste verbunden war die Ablehnung des
aristotelischen Vier-Ursachenschemas der Erklärung von Seiten der Naturwissen-
schaftler. Es galt und gilt als ausgemacht, daß es nur eine einzige Ursachenform
geben könne, nämlich die Wirkursachen (causae efficientes). Vor allem die Ziel-
und Zweckursachen (causae finales) galten und gelten seither als Ballast eines
theologisch voreingenommmenen Aberglaubens an ein göttliches Vorwissen und
Vorherplanens des Weltlaufs. Die materielle Ursache wurde mit den zu quanti-
fizierenden „Massen“ bewegter Körper identifiziert und fiel als eigene Ursache
aus. Die einstigen „Formalursachen“ gingen in den physikalischen Begriffen bzw.
formelhaften Ausdrücken auf und wurden ebenso wenig als Ursachen gedeutet.
Dies wurde als großer Fortschritt der Vereinfachung der naturwissenschaftlichen
Erklärungsmethodologie ausgegeben und weithin so verstanden. Denn damit
konnte man sich bei Ursache-Wirkungsforschungen ausschließlich auf die Wirk-
ursachen konzentrieren und brauchte nicht mehr damit zu rechnen, daß andere
„Ursachen“, insbesondere teleologische, intervenierten. Und so konnte ausschließ-
lich aus Wirkursachen auf Wirkungen geschlossen und diese somit auch aus-
schließlich aus den Wirkursachen heraus prognostiziert werden. Im Positivismus
des Auguste Comte verfestigte sich diese Meinung zu der Überzeugung, daß das
Wissen überhaupt nur dazu diene, Prognosen zu machen („Savoir pour prévoir“).
Darin lag seither ein Vorbild für so viele andere weniger exakte Naturwissen-
schaften, sich nach diesem so einfach erscheinenden Erklärungsmuster zu model-
lieren. In dem Maße, wie diese Tendenz sich durchsetzte, kam die Unterscheidung
zwischen avancierten und zurückgebliebenen Wissenschaften auf, wie man an
vielen wissenschaftstheoretischen Aussagen seit dem 19. Jahrhundert sieht.
John Stuart Mill (1806 -1873) äußerte sich in diesem Sinne über die Anthropo-
logie, die er zu den „moral sciences“, d. h. Geisteswissenschaften zählte:

„Die Wissenschaft von der menschlichen Natur ist von dieser letzteren Art. Sie bleibt
weit hinter dem Maßstab von Genauigkeit zurück, der jetzt in der Astronomie ver-
wirklicht ist. Allein es ist kein Grund, weshalb sie nicht ebenso gut eine Wissenschaft
sein sollte, als es gegenwärtig die Flutlehre ist, oder als es die Astronomie war, so lange
ihre Berechnungen nur die Haupterscheinungen und nicht die Störungen bewältigt
hatten.“ 237

In der Gegenwart dürfte vor allem die Lage der mit zahlreichen „Nobelpreisen“
(die aber nicht von Alfred Nobel, sondern von der Nationalbank gestiftet wurden)
dotierten durchmathematisierten Volks- und Betriebswirtschaftlehre gegenüber
der vermeintlich zurückgeblieben „klassischen Nationalökonomie“ signifikant für
die Tendenz zur Mathematisierung einer Einzelwissenschaft sein.

237
J. St. Mill, System der deduktiven und inductiven Logik, dt. Übers. von Th. Gomperts, Band 3, 2. Aufl. Leipzig 1886, S.
247.
411

Doch sind Zweifel an diesem monokausalen naturwissenschaftlichen Erklä-


rungsmuster angebracht. Innerphysikalisch ergeben sie sich aus der neuen Er-
kenntnislage der Planckschen Quantenphysik seit Beginn des 20. Jahrhunderts, in
der die Prognostik versagte. Dies verursachte eine Revision des monokausalen
Musters zugunsten statistischer Wahrscheinlichkeitsprognosen, die zur Wieder-
aufnahme des (epikureischen) Indeterminismus in der Mikrophysik führte.
In philosophischer Sicht dürften dazu einige Hinweise auf das Fortwirken des
Vier-Ursachenschemas auch in diesem Bereich dienlich sein. Denn die naturwis-
senschaftliche Forschung geht ja offensichtlich trotz aller Dementis noch immer
in den vier Dimensionen weiter, die das aristotelische Vier-Ursachenschema vor-
gegeben hat.
Der in der Makrophysik als „letzte Materie“ angenommene Massenbegriff ist
mittlerweile in der Mikrophysik der Elementarteilchen gleichsam aufgelöst und
auf noch primitivere „erste Materien“ bzw. subatomare Entitäten (Nukleonen,
Gluonen, vermutete bzw. angeblich schon identifizierte Higgs-Teilchen, etc.) zu-
rückgeführt worden. Man verspricht sich durch weitere Collider-Experimente
noch weitere Reduktionen. Einige der hier entwickelten Vorstellungen von nega-
tiver Materie bzw „Anti-Materie“ lassen darauf schließen, daß die Elementarteil-
chenphysik mittlerweile beim aristotelischen Problem der „materia prima“ als
formlosem Me on (Nichts) angelangt ist, das numehr in der mathematischen Ge-
stalt von Gleichungen diskutiert wird, in welchen sich positive und negative
Materie gegenseitig aufheben.
Die Formursachen sind nur vordergründig bei den klassischen Begriffen von
Kräften und Energieformen sowie Raum- und Zeitbegriffen stehen geblieben. Re-
lativistische Zeitdilatation und Längenkontraktion, nicht-euklidische Raumbe-
griffe und die mathematische Komposition bzw. Verschmelzung von Raum-Zeit-
begriffen und massebedingten Feldgeometrien stehen noch weitgehend unvermit-
telt nebeneinander. Als Formursachen werden neben den die physikalischen Er-
scheinungsformen erklärenden Bewegungsgleichungen, die gewöhnlich auch als
„Naturgesetze“ behandelt werden, vielerlei Form-Vorschläge, die oft als Modelle
oder Metaphern ausgegeben werden, diskutiert, wie etwa Welle, Korpuskel, String
oder Matrix aller beschreibaren Eigenschaften der kosmischen Massen.
Auch die Teleologie ist in den physikalischen Vorstellungen lebendig geblieben.
Abgesehen von der Comteschen Maxime des „Savoir pour prévoir“, die ja selber
das relevante physikalische Wissen unter die Zweckursache der Prognostik stellt,
ist die Teleologie in den physikalischen Arrangements „geschlossener Systeme“
(ohne Energiezuführung von außen) als (Machsches) Entropieprinzip stets fest-
gehalten worden und diente seither zur physikalischen Auszeichnung der Zeit-
richtung aller physikalischen Prozesse. Die Zeitrichtung ist selbst ein teleologi-
scher Grundbegriff. Je nach den Vermutungen über den Endzustand des finalen
Energieniveaus nehmen die einen den Hitzetod, die anderen den Kältetod des
Universums in Aussicht. Und dies auch trotz mancher neuerer Theorien über die
„Ektropie“ (oder „Negentropie“) der Lebensprozesse, die eine entgegengesetzte
412

Zeitrichtung der Lebensprozesse nahelegen. Sie wird von manchen Kosmologen


mittlerweile auch in Bezug auf eine der klassischen Expansion des Universums
entgegenlaufende Kontraktion des Universums diskutiert.238
Die monokausale Herrschaft der Wirkursachen aber hat die physikalische
Kosmologie an die Grenze des „Ursprungs des Kosmos“ als „erster Ursache“ ge-
führt. Hier ergeben sich dieselben Probleme, die vordem die Theologien mit ihrem
Gottesbegriff als Weltschöpfer und erster Beweger zu bewältigen versuchten. Sie
werden nunmehr in der Terminologie der Physik formuliert.
Die darwinische und nachdarwinische Entwicklungsbiologie hat sich bekannt-
lich ebenfalls auf die rein „kausale Erklärung“ der Genesis der Lebewesen berufen
und sich damit zunächst gegen die teleologische Entwicklungslehre Lamarcks
durchgesetzt. Heute ist man hier offener gegen die teleologische Erklärung der
Entwicklungsrichtung des Lebendigen durch Wilhelm Ostwald und vor allem
Felix Auerbach, die in der von ihnen sogenannten „Ektropie“ ( „Negentropie“) ge-
radezu eine der physikalischen Zeit entgegengesetzte Zeitrichtung postulieren.
Diese teleologische Ursache erklärt alle Funktionen des Lebendigen aus der Bin-
dung, Thesaurierung und Umsetzung physikalischer Energie in der organischen
Biomasse und in den „Kulturleistungen“ der höher entwickelten Organismen.
Daß die pflanzliche und tierische Morphologie hierbei noch immer „Formur-
sachen“ für die Eignung der Organismen zu ektropischen Zwecken ins Spiel
bringt, dürfte offensichtlich sein. Der Organismusbegriff selber ist schon eine all-
gemeine Formursache (gegenüber der sogenannten toten bzw. anorganischen
Materie). Und daß alle Organe eines Organismus im teleologischen Zweckbünd-
nis zum Überleben des Ganzen stehen, bildet hier die teleologische Erklärungs-
perspektive. Daß die physikalisch-chemische Materie als Materieursache dabei
ebenfalls in Geltung geblieben ist, ersieht man schon aus der recht äußerlichen
Tatsache, daß Biologen sich heute nur noch „Molekularbiologen“ nennen. Eben
weil sie den Anspruch erheben, das Leben mittels chemischer Molekülstrukturen
zu erklären.
Als „zurückgeblieben“ gegenüber den (vermeintlichen) monokausalen Erklä-
rungsmustern der Naturwissenschaften galten und gelten die Geisteswissenschaf-
ten. Obwohl sie im 19. Jahrhundert angesichts der Fortschritte der klassischen und
neueren Philologien und der historischen Forschungen weltweite Anerkennung
genossen, reagierten sie doch verunsichert auf die naturwissenschaftliche Heraus-
forderung. Davon zeugen die vielfachen Versuche, sich vom naturwissenschaft-
lichen Erklärungsmuster durch eigene Methodenideale zu unterscheiden, ein
Prozeß der bis heute anhält. Und das wiederum bedingte, daß auch sie die wei-
terhin und allgemein verfolgte Methodologie des klassischen aristotelischen Vier-
Ursachenschemas nicht mehr durchschauten und vielfach verleugneten. Schaut
man nämlich genauer hin, so erkennt man, daß ihren seither ins Kraut schießenden

238
Über die aktuelle Diskussionslage der physikalischen Kosmologie anhand von 28 Beiträgen von Kosmologen und
Teichenphysikern orientiert B. Carr (Hg.), Universe or Multurverse?, Cambridge (University Press) 2007. – Vgl. auch B.
Kanitscheider, Wissenschaftsstheorie der Naturwissenschaft, Berlin-New York 1981.
413

Methodenidealen doch ebenfalls noch immer dieses Schema in manchen neuen


Terminologisierungen zugrunde liegt. (Vgl. dazu § 45).
Der neuzeitliche Entwicklungsgedanke dürfte ein gemeinsames Band zwischen
den Natur- und Geisteswissenschaften darstellen. Aus dem neuplatonischen Ema-
nationsgedanken hervorgegangen, breitete er sich seit der Renaissance in dem
Maße in allen Wissenschaften aus, wie die Kenntnis und Anwendung der Vier-
Ursachenlehre verblaßte. Daraus kann man schließen, daß der Entwicklungsdanke
an die Stelle der Vier-Ursachen-Erklärung getreten ist, um die teleologischen
Veränderungen auf den Begriff zu bringen.
Es ist noch nicht gelungen, ihn nach logischen oder mathematischen Regeln zu
definieren. Das dürfte seine ubiquitäre Verwendung bei allen möglichen Zusam-
menhangsstiftungen ausmachen. Er ist, so können wir sagen, ein Erinnnerungs-
posten im Theoriehaushalt beider Bereiche, der selbst wesentlich eine Zusammen-
schau aller vier Ursachen, besonders jedoch der kausalen und teleologischen, in
einem noch unformalisierten Denkgebilde an die Hand gibt.
Wer wo immer über „Entwicklung“ spricht und schreibt, muß zunächst einen
Gegenstand identifizieren, der sich verändert und dennoch derselbe bleibt. Das in-
diziert einen dialektischen Zug an den Entwicklungen. Man erinnere sich, daß
Aristoteles seine Vier-Ursachenlehre konzipiert hat, um „Bewegung und Verän-
derung“ an wohlbeschriebenen Substanzen zu erklären. Die Bewegungen waren
für ihn Ortsveränderungen von Körpern. Als Veränderungen blieb das Wachstum
von Lebewesen für ihn paradigmatisch. Und davon blieb bis heute erhalten, daß
Entwicklungen vorwiegend als Wachstum, als Reifungsprozeß, als „Zunahme“
(auxesis) und Vergrößerung verstanden wird. In Verfolg der neuzeitlichen Fort-
schrittsidee erscheint daher als Endziel von Entwicklungen die vollendete Reife.
Aristoteles hat keine Theorie der Regression und des Niedergangs vorgelegt. Und
das macht sich als optimistisches Vorurteil im Entwicklungdenken bemerkbar.
Sogar Regressionen bezeichnet man jetzt als „negative Entwicklungen“.
In den marxistisch inspirierten Wissenschaftskonzeptionen hat „Entwicklung“
eine fast alles erklärende Funktion erhalten. Der dialektische Materialismus be-
hauptet unter Berufung auf Heraklit, Anaximander, auf Präformationstheorien wie
bei Leibniz, dann auf Hegel und Darwin die wahren Entwicklungsgesetze der
Natur, der Gesellschaft und des Denkens aufgedeckt zu haben. Es handelt sich um
das Gesetz von der Einheit und dem Kampf der Gegensätze, das Gesetz vom
Umschlagen quantitativer Veränderungen in qualitative, und das Gesetz der Nega-
tion der Negation.239 Ersichtlich sind dies – am Leitfaden der hegelschen Dialektik
von These, Antithese und Synthese – jeweilige Beschreibungen von aufeinander
239
Art. „Entwicklung“ in: G. Klaus und M. Buhr (Hg.), Philosophisches Wörterbuch, 6. Aufl. Leipzig 1969, Band 1, S.
300 – 304. Vgl. auch W. Swiderskij und L. Drujanow, Art. “Dwiženie” (Entwicklung), in: F. W. Konstantinow (Red.),
Filosofskaja Enziklopedija, Band 1, Moskau 1960, S. 433 – 438. – Vgl. darüber hinaus Art. „Entwicklung“ von K.
Weyand und G. Mühle, in: Hist. Wb. der Philosophie, hgg. von J. Ritter, Band 2, Basel-Stuttgart 1972, Sp. 550 – 560, so-
wie H. Engländer, Art. „Entwicklungsmechanik, Entwicklungsphysiologie“, ebd. Sp.561 f.; G. Mühle, Art. „Entwick-
lungspsychologie, ebd. Sp. 562f.; B. Rentsch, Art. “Evolutionstheorie”, ebd. Sp. 836 – 838; G. Wolters, Art. “Evolution”
und “Evolutionstheorie” in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 1, Mannheim
1980, S. 610 – 614.
414

folgenden Stufen von „fortschreitenden“ Prozessen, die auf das immer ausstehen-
de Endziel einer gegensatzlosen Einheit, einer nicht zu überbietenden Qualität
aller Verhältnisse, und das Erreichen einer nicht mehr zu negierenden Position zu-
steuern.
Der marxistische Fortschrittsoptimismus bezüglich der Entwicklungen wird –
als Erbschaft der Renaissance – auch von anderen philosophischen und wissen-
schaftstheoretischen Richtungen geteilt, ebenso die damit verbundene dialektische
Gesetzlichkeit.
Was verändert werden kann, wird in anderen Entwicklungstheorien als Disposi-
tionsbegriff formalisiert, über dessen dialektische Natur schon alles Nötige gesagt
wurde. Was wächst, muß dazu fähig sein. Und das wird als seine Disposition,
Anlage, Vermögen, Kraft oder Potenz in seiner Materie vorausgesetzt, nämlich
zur Annahme anderer Formen und Gestalten als sie jeweils aktuell gegeben sind.
Bei den lebendigen Organismen kennt man in den meisten Fällen die auf-
einander folgenden Etappen ihres Gestaltwandels. Aus der Nuß entwickelt sich
kein Nashorn, sondern in der Regel ein Nußbaum, der weitere Nüsse hervorbringt.
Daraus läßt sich leicht prognostizieren, was „am Ende eines Wachstumszyklus
herauskommt“. Aber ob aus einer phantastischen Intuition eine schöne Theorie er-
wächst, das läßt sich nicht so regelmäßig prognostizieren. Und gerade so unvor-
aussehbar sind die „Entwicklungen“ von technischen und industriellen Produkten,
die unter dem Etikett „Forschung und Entwicklung“ in der Industrie vorangetrie-
ben werden. Hier herrscht eher das Prinzip der Heterogonie der Zwecke. Was
herauskommt, ist oft etwas anderes als das, was angestrebt und geplant war. Und
so leben wissenschaftliche Projekte und industriell-technische Entwicklungen
vom Geschick der „Entwickler“ (sog. serendipity), das jeweils beste aus dem zu
machen, was sich bis dahin ergeben hat.

§ 35 Die Vereinseitigung der deskriptiv-empirischen und der theoretischen For-


schungsmethodologien, ihre philosophischen Begründungen und ihre Folgen für
die Lage der Natur- und Geisteswissenschaften

Die historische Kategorisierung eines kontinentaleuropäischen Rationalismus und angelsächsi-


schen Empirismus steht im Widerspruch zur handwerklich-experimentellen und theoretischen
Grundlage der Naturwissenschaften und zur historischen und systematischen Ausrichtung der
Geisteswissenschaften. Methodische Vereinseitigungen von Empirie und Theorie in der Wissen-
schaftstheorie und ihre Fortwirkung bis zum Positivismusstreit. Die vorbereitende Rolle der onto-
logischen Zwei-Weltenlehre seit Descartes für das Gegenstandsverständnis der Geistes- und
Naturwissenschaften. Die Folgen der Spaltung der Philosophischen Fakultät im 19. Jahrhundert an
415

der Nahtstelle von Trivium und Quadrivium für die Ausdifferenzierung von Einzelwissenschaften
in der Philosophischen und in der Mathematisch-Naturwissenschaftlichen Fakultät sowie in den
Technischen Hochschulen. Ihre Mehrfach-Studiengänge und die Ein-Fachstudien in den ehemals
„Höheren Fakultäten“ und ihren Ausgründungen.

Die aristotelische Unterscheidung von empirisch-historischer und theoretisch-


rationaler Wissenschaft hat in der Neuzeit immer wieder dazu geführt, diese Un-
terscheidung methodologisch zu fassen und jeweils die eine oder andere Seite zum
verbindlichen Ideal aller Wissenschaft zu erheben. Beides wurde mit verschiede-
nen Argumenten begründet.
Die bis heute verbreitetste Auffassung darüber dürfte die philosophiegeschicht-
liche Kategorisierung in einen englischen (bzw. angelsächsischen) Empirismus
und einen kontinentaleuropäischen Rationalismus sein.
Als Gründerväter des englischen Empirismus gelten dabei bekanntlich Wilhelm
von Ockham, Francis Bacon, John Locke, George Berkeley, David Hume bis hin
zu John Stuart Mill. Und man betont die weiterwirkende Tradition in den philo-
sophischen Werken Bertrand Russells und des modernen Empirismus der US-
amerikanischen Ost- und Westküstenphilosophie. Den kontinentaleuropäischen
Rationalismus aber führt man gewöhnlich auf René Descartes, Benedikt Spinoza,
Georg Wilhelm Leibniz, Christian Wolff und Immanuel Kant zurück. Für seine
Weiterentwicklung stehen dann die verschiedenen Systeme der Kantianer und
Neukantianer sowie bedeutende Werke mathematischer Klassiker wie Bernard
Bolzano, Gottlob Frege, David Hilbert u. a.
Der französische Wissenschaftstheoretiker Pierre Duhem hat aus dieser Unter-
scheidung sehr weitgehende Folgerungen für die naturwissenschaftliche Theorie-
bildung bei den Engländern und auf dem Kontinent gezogen. Dem cartesianischen
logisch-mathematischen Denkstil, den er für den kontinental-europäische Rationa-
lismus in Anspruch nimmt, stellt er die empiristisch-imaginative Denkweise der
Angelsachsen gegenüber. Die Rationalisten nennt er „esprits forts et profonds“
(starke und tiefe Geister), und von Descartes als ihrem Gründervater rühmt er: „sa
force d‟esprit est une des plus puissantes que l‟humanité ait connues“ (seine
Geistesstärke ist eine der mächtigsten, die die Menschheit gekannt hat). Die engli-
schen empiristischen Physiker (besonders William Thomson bzw. Lord Kelvin
und J. C. Maxwell) aber nennt er „esprits amples, mais faibles“ (umfassende aber
schwache Geister). Auf sie führt er die sich schon seinerzeit in Europa verbrei-
tende Erklärungsweise physikalischer Phänomene mittels anschaulicher Modelle
zurück, die oft miteinander in Widerspruch geraten sollen. Die großen Ausnah-
men sind für ihn der Atomist und Kritiker des Descartes Pierre Gassendi in Frank-
reich und der große Theoretiker Isaak Newton in England.240
Duhem scheint vor allem übersehen zu haben, in welchem Ausmaß die paradig-
matischen Leitdisziplinen der Naturwissenschaft, nämlich Physik und Chemie,

240
Pierre Duhem, La Théorie physique. Son objet – sa structure, 2. Aufl. Paris 1914, Chap. IV: „Les théories abstraites et
les modèles mécaniques“, S. 77 – 154.
416

selber arbeitsteilig von Empirikern und Theoretikern betrieben worden sind, und
dies bis in die Ausrichtung und Benennungen von Lehrstühlen und Instituten. So
gibt es in der Physik die Lehrstühle und Institute für „Experimentalphysik“ und
für „Theoretische Physik“. Und jeder kennt die einschlägigen Witze über die Ex-
perimentalphysiker, deren Experimente bzw. Versuche funktionieren, ohne daß
sie wissen warum, und entsprechend über die „theoretischen Physiker“, die zwar
wissen, warum etwas „klappt“, die aber keinen Versuch und kein Experiment
ohne die Hilfe der experimentellen Praktiker zustande bringen.
Die in der Physik notorische Unterscheidung dürfte selbst ein Reflex der hand-
werklichen labormäßigen Praxis im Umgang mit den Naturdingen und ihrem
Zusammenwachsen mit der theoretischen Spekulation der Gelehrten sein. In der
gleichen Weise ist ja auch in der Chemie die Küchen-Alchemie mit der quantita-
tiven Chemie des frühen 19. Jahrhunderts zusammengewachsen. Die „Labor-
chemie“ ist hier nur enger mit der theoretischen Chemie verschmolzen worden,
weil man die alte Alchemie als deren Vorgänger für grundsätzlich überwunden
und abgetan ansieht, wofür die Behandlung des „Phlogiston-Themas“ Signal-
wirkung hat. Doch zeigen viele Errrungenschaften der modernen Chemie und vor
allem der Pharmazie, in welchem Maße auch hier das handwerkliche Know how
des Experimentierens und Ausprobierens fruchtbar geblieben ist.
Das geisteswissenschaftliche Pendant zur Unterscheidung von Empirie und
Theorie war und ist noch immer diejenige in „Geschichte und Systematik“. Ge-
schichtsschreibung selbst, die sich erst im 20. Jahrhundert durchweg als „Ge-
schichtswissenschaft“ versteht und vorher noch meistens „Historiographie“ oder
„Geschichtsschreibung“ hieß, hatte und hat noch immer Fakten und Daten zur
Grundlage. Vor allem ging es um Kriege und Friedensschlüsse, Verträge und Ver-
fassungen sowie all die offenen und geheimen Aktionen der Handelnden, beson-
ders aber auch um Beweisdokumente für Herrschafts- und Besitzerwerb sowie für
Kriegsschuldfragen. Diese sind es auch, die das wesentliche Interesse ihres Publi-
kums an ihr ausmachen. Ihre Systematik aber bestand schon seit Leibniz‟ und
Vicos Zeiten in den theoretischen Leitlinien des Fortschritts, der Entwicklung, der
Kreisläufe, erheblich seltener auch der Degeneration und des Niedergangs der
Dynastien, Staaten, Nationen.
„Geschichte“ wurde im 19. Jahrhundert aber auch das Großparadigma der em-
pirischen Daten- und Faktenerkundung und -sicherung nach chronologischer Ord-
nung der übrigen Geisteswissenschaften. Das zeigt sich in der Bezeichnung
„Historismus“ für diese Ausrichtung gleichsam quer durch alle Geisteswissen-
schaften. Sie wird in den letzten Dezennien allerdings mehr und mehr durch einen
„Lexikographismus“ abgelöst, in welchen die chronologisch-geographische Ord-
nung von immer unübersehbarer werdenden Datenmassen durch die alphabetische
Registration abgelöst wird.
Die theoretischen Leitfäden ihrer Verknüpfung ergeben sich aber mehr und
mehr durch die Übernahmen von herrschenden Theorien einzelner Geisteswissen-
schaften und ihre Nutzung zu Interpretationen gemäß den vorn beschriebenen
417

Dimensionen des überkommenen Vier-Ursachenschemas. Teilweise modisch, teil-


weise auch ideologisch-metaphysisch überhöht, lösen sich hierbei politische, so-
ziologische, ökonomische, emanzipatorische (pädagogische), psychoanalytische,
ethnologisch-strukturalistische, geschlechtsspezifische (Genderstudien), diskurs-
theoretische und andere Gesichtspunkte isoliert oder miteinander verknüpft ab.
Daß die Zuordnung empirischer Einstellung zu angelsächsischen und theore-
tischer zu kontinentalen Wissenschaftskulturen nur langlebige Konventionen sind,
sieht man schon daran, daß ihnen nicht minder bedeutende entgegengesetzte phi-
losophische Strömungen in England und auf dem Kontinent gegenüberstehen. Für
Frankreich sei an den sensualistischen Empirismus Condillacs und die an ihn
anknüpfende „Ideologieschule“ der französischen Akademie und an den Positivis-
mus Auguste Comtes erinnert; daneben an den Wiener und Berliner Kreis empi-
ristischer Wissenschaftsphilosophen neben den zahlreichen Filialen verwandter
Bestrebungen in Italien und in den skadinavischen Ländern. Und umgekehrt wa-
ren in Großbritannien zahlreiche rationalistische Strömungen in Anknüpfung an
die kontinentaleuropäischen rationalistischen Idealismen vorherrschend, etwa die
von Hegel inspirierten und meist „personalistisch“ genannten Systeme Bosan-
quets, McTaggarts u. a., die auch auf Nordamerika ausstrahlten.
Nun wäre eine solche Vereinseitigung und Verabsolutierung empirischer versus
theoretisch-szientifischer Forschung und ihre Typologie unbeachtlich, hätte sie
nicht immer wieder in der Entwicklung der neueren Wissenschaftsgeschichte
mehr oder weniger verhängnisvolle Folgen gehabt. Sie hat nämlich zu prominen-
ten methodologischen Maximen bzw. Definitionen geführt, die am Ende des 19.
und zu Beginn des 20. Jahrhunderts diese Forschungsansätze totalisieren und auf
die Einzelwissenschaften beziehen.
Es sind Wilhelm Diltheys Satz „Die Natur erklären wir, das Seelenleben verstehen
wir”, letzteres auf der Basis einer von Dilthey inaugurierten “beschreibenden und
zergliedernden Psychologie”. 241 Ferner Wilhelm Windelbands Unterscheidung
zwischen der „nomothetischen” (= gesetzeaufstellenden) und „idiographischen”
(= das Einzelne beschreibende) Methode, die er schwerpunktmäßig jeweils den
Natur- bzw. Geisteswissenschaften vindiziert. Hinzu kommen Heinrich Rickerts
Präzisierung dieser Unterscheidung als „generalisierende“ und „individualisieren-
de” Methoden.242
Gerade die Vereinseitigung und Hochstilisierung solcher Forschungstypen hat
aber auch deren Reinigung und wissenschaftstheoretische Fassung mit sich
gebracht, so daß sie als Modelle und Ideale gleichsam zwischen den Natur- und
Geisteswissenschaften und ihren einzelnen Disziplinen fluktuieren konnten. Auch
in der gegenwärtigen wissenschaftstheoretischen Theoriebildung spielen sie noch
eine große Rolle. Doch hat sich weitgehend ein heilsames Bewußtseins davon

241
W. Dilthey, Ideen über eine beschreibende und zergliedernde Psychologie, 1894, in: Ges. Schr. Bd. V, 1924, S. 143.
242
W. Windelband, Geschichte und Naturwissenschaft, in: Präludien, 7. u. 8. Aufl. Tüb. 1921, 2 Bd. S. 145. - H. Rickert,
Die Grenzen der naturwissenschaftlichen Begriffsbildung. Eine logische Einleitung in die historischen Wissenschaften,
Freiburg i. Br. 1902, S. 255; ders., Kulturwissenschaften und Naturwissenschaften, Freiburg i. Br. 1899.
418

ausgebildet, daß „Theorien ohne empirisch-deskriptiven Gehalt leer, pure Des-


kription ohne theoretische Anleitung blind” sind, wie man mit einer Variation
eines Kantischen Diktums über Anschauung und Begriff sagen könnte.
Die erwähnten methodischen Maximen bzw. Definitionen sind auf die Geistes-
wissenschaften einerseits und die Naturwissenschaften andererseits bezogen wor-
den. Die Geisteswissenschaften sollten verstehend, idiographisch bzw. individua-
lisierend, d. h. empirisch einzelne Fakten und Daten beschreibend sein, die Natur-
wissenschaften dagegen erklärend, nomothetisch und generalisierend, d. h. theore-
tische bzw. gesetzliche Zusammenhänge zwischen Einzelheiten stiftend.
Man kann sich über diese auch schon zu ihrer Zeit unzutreffenden Charakte-
ristiken nur wundern, erst recht darüber, daß sie so weite Verbreitung gefunden
haben und auch jetzt noch zum Lernstoff von Seminaren dienen. Auf jeden Fall
dürfte ihre Verbreitung zusätzlich dazu beigetragen haben, die Geisteswissen-
schaften eher für empirisch und vorgeblich mangelnder generalisierender Ge-
sichtspunkte wegen für irrational, und die Naturwissenschaften gerade wegen
ihrer mathematisch-gesetzesaufstellenden Natur für das Muster von Rationalität
zu halten.
Die Gliederungen der Akademien seit dem 17. Jahrhundert in philologisch-
historische und naturwissenschaftliche Abteilungen scheinen dieser methodolo-
gischen Unterscheidung Vorschub geleistet zu haben. Die alte Philosophische
Fakultät nahm sie auf und spaltete sich seit dem 19. Jahrhundert an dieser Naht-
stelle auf. Der quadriviale Fächerkanon bildete nunmehr eigene „Mathematisch-
naturwissenschaftliche Fakultäten“ und ließ die trivialen sprachlichen und histo-
rischen Fächer als neue „Philosophische Fakultät“ zurück.243
Dieser Vorgang war und ist noch immer von großer Bedeutung für die Gei-
stes- und Naturwissenschaften. Erstens führte er dazu, daß die Philosophie als
Fach bei der neuen Philosophischen Fakultät blieb und die neue Mathematisch-
naturwissenschaftliche Fakultät keine Philosophie mehr beherbergte. Unter den
Geisteswissenschaften der neuen Philosophischen Fakultät aber orientierte sich
die Philosophie nach deren Schwerpunkten als historisch-philologische Disziplin
und betrieb dementsprechend vorwiegend Philosophiegeschichtsschreibung und
Interpretation ihrer Klassiker. In den Naturwissenschaften aber entstand gleichsam
als Verlustkompensation eine „Philosophie der Naturwissenschaften“, die sich
dann schlechthin „Wissenschaftstheorie“ nannte.
Darüber hinaus spalteten sich die Geistes- und Naturwissenschaften der getrenn-
ten Fakultäten alsbald in zahlreiche weitere „Einzelwissenschaften“ auf. Die
Geisteswissenschaften, deren „triviales“ Interesse vordem auf die griechische und
lateinische Sprache und Literatur fixiert war, weitete ihren historischen Blick auf
das Sanskrit als „indo-germanische Ursprache“ aus und entwickelte dann auch

243
Zur Gesamtentwicklung ist noch immer lesenswert F. Paulsen, Geschichte des gelehrten Unterrichts auf den deutschen
Schulen und Universitäten vom Ausgang des Mittelalters bis zur Gegenwart (1885), 3. Aufl. 2 Bände, Berlin und Leipzig
1919 - 1921.
419

ihre neueren Philologien, und schließlich über diese hinaus „Sprache und Litera-
tur“ aller alten und neuen Völker, Nationen und Kulturen.
Da deren geschichtliche („diachronische“) Betrachtung geradezu in die For-
schungs- und Lehrmethoden eingebaut war, blieb die eigentliche „Historiogra-
phie“ als selbständiges Fach bis heute der juristischen Fakultät thematisch ver-
pflichtet, aus der sie im Mittelalter übernommen worden war. Daher ist auch heu-
tige „Geschichtswissenschaft“ noch immer schwerpunktmäßig Staats-, Verfas-
sungs- und Rechtgeschichte. Die mathematischen Naturwissenschaften aber spe-
zialisierten sich nunmehr in mehrere mathematische Disziplinen sowie in Unter-
abteilungen der Physik, Chemie und Biologie.
Es dürfte schon eine Reaktion auf die sich abzeichnenden Spezialisierungen der
Natur- und Geisteswissenschaften gewesen sein, die Wilhelm von Humboldt (1767
- 1835) bei seinen Vorschlägen einer Gymnasial- und Universitätsreform leitete.
Er verlagerte die einstige propädeutische Funktion der alten Philosophischen
Fakultät in die Oberstufe des Gymnasiums und wies ihr die neue Funktion der
Lehrerausbildung zu. Damit stellte er sie gleichrangig als „berufsvorbereitend“
neben die einstigen „höheren Fakultäten“ der Theologie, Jurisprudenz und Medi-
zin. So kam es, daß der zünftige Gymnasiallehrer zunächst noch alle trivialen und
quadrivialen Fächer der alten Philosophischen Fakultät studieren mußte, um seine
Zöglinge auf das Studium ihres Fächerkanons vorzubereiten, nicht aber auf die
einstigen höheren Fakultäten. Diese verloren damit ihr gymnasiales Propädeuti-
kum und legten sich im Laufe des 19. Jahrhunderts eigene Fakultätspropädeutika
zu. Das erklärt u. a., daß die dadurch entstandene Lücke im Fächerkanon der
Gymnasien immer erneute Rufe nach Einrichtung gymnasialer Propädeutika für
die Medizin, das Rechtswesen und die Ökonomie hervorruft, für die es bislang
keine Lehrerausbildung gibt.
Was W. v. Humboldt nicht voraussah, war die zügige Spezialisierung der Diszi-
plinen der Philosophischen und der Mathematisch-Naturwissenschaftlichen Fakul-
tät in selbständige Einzelwissenschaften während des 19. Jahrhunderts, die dann
auch als solche gelehrt und studiert werden konnten. Neben die Universitäten
traten alsbald die Technischen Hochschulen für das Kriegs- und Zivilingenieur-
wesen, deren Kurrikula ebenfalls viele Spezialfächer darboten, die mit eigenen
Abschlüssen studiert werden konnten. Das hebt sich deutlich von den ehemals
höheren Fakultäten der Universitäten ab.
Theologie(n), Medizin und Jurisprudenz blieben bis heute Fakultätsstudien und
führten nach dem Studium aller ihrer Spezialdisziplinen zu einem gemeinsamen
Studienabschluß. Nur aus der Juristischen Fakultät spaltete sich im Laufe des 19.
Jahrhunderts die „Nationalökonomie“ als weiteres Fakultätsstudium ab und blieb
ebenfalls bis heute als „Wirtschaftswissenschaftliche Fakultät“ erhalten.
Unter Hinweis darauf, daß „Bachelor-Absolventen“ in ihrem Kurrikulum nicht
berufsfähig sein könnten, konnten Mediziner, Theologen und Juristen und ebenso
die Technischen Hochschulen nebst den zugehörigen Berufsverbänden sich der
Modularisierung ihrer Studien im Bologna-Prozess weitgehend entziehen. Er-
420

staunlicher Weise haben auch alle deutschen Kultusministerien, die sich so nach-
haltig für den „berufsqualifizierenden Bachelor-Abschluß“ stark machten, sich
bisher geweigert, den „Bachelor“ als einen berufsqualifizierenden Lehrerbildungs-
Abschluß oder überhaupt als Eintrittsqualifikation für den öffentlichen Dienst an-
zuerkennen.
Dafür konnten sie leicht neue Hochschulen gründen und anerkennen, die aus-
schließlich ein „Ein-Fach-Studium“ betrieben. Nur leicht übertreibend kann man
feststellen, daß fast jeder Berufsverband schon eigene Hochschulen gegründet hat
oder Gründungen anstrebt, und daß jeder Großkonzern längst seine eigene Hoch-
schule oder Universität betreibt.
Die Geistes- und Naturwissenschaften haben seither ihre Spezialdisziplinen
immer weiter in selbständige Fachstudien differenziert. Diese blieben zunächst
noch an den Humboldtschen Auftrag der Lehrerbildung gebunden. Das aber führte
auch in der Lehrerausbildung zur Spezialisierung, so daß deren Absolventen nur
noch in den von ihnen studierten Lehrfächern eingesetzt werden konnten. Die
fossilen Spuren der vorherigen umfassenden Fakultätsbildung hielten sich noch
bis in die 70er Jahre des 20. Jahrhunderts in der Anforderung des „Philosophi-
cums“ oder des „Studium Generale“ als Teil der Lehrerausbildung, dann vor al-
lem in der Mindestanforderung des Zwei-Fächerstudiums zuzüglich des Studiums
der „Erziehungswissenschaft“ bzw. „Pädagogik und Fachdidaktik“.
Der disziplinäre Spaltungsprozeß der Philosophischen Fakultät dürfte neben
vielerlei neueren Gründen vor allem in der cartesianischen Ontologie der zwei
Substanzen eine neuzeitliche ontologische Grundlage gehabt haben. Die carte-
sianische Unterscheidung von denkender und ausgedehnter Substanz, von Geist
und Materie, diente zur ontologischen Gegenstandskonstitution der Objekte trivi-
aler und quadrivialer bzw. geisteswissenschaftlicher und naturwissenschaftlicher
Forschung. Die einen Objekte sind Bewußtseinsinhalte, die anderen materielle,
ausgedehnte und meßbare Phänomene. Eine Reihe weiterer ontologischer Theo-
rien suchte diese Unterscheidungen näher zu präzisieren und nutzte dabei in neuen
Formen die alten Argumente aus dem Universalienstreit.
Auch erkenntnistheoretische Untersuchungen gerieten in den Sog dieser The-
matik: die Unterscheidung der auf die materiell-quantifizierbare Welt gerichteten
„primären Qualitäten” und der auf „subjektive”, bloß bewußtseinsmäßige Bestim-
mungen des Seins gerichteten „sekundären Qualitäten“ bei J. Locke und im engli-
schen Empirismus vertieften sie ebenso wie die kantische Unterscheidung (vor
allem in der 2. Aufl. der Kritik der reinen Vernunft) einer bewußtseinstranszen-
denten Außenwelt der sogenannten „Dinge an sich“ und einer psychischen Innen-
welt der „Bewußtseins-Phänomene“.
Zu Beginn des 19. Jahrhundert verfestigte sich die Zwei-Welten-Lehre in den
Wissenschaftsklassifikationen der Schellingschule 244 , in André Marie Ampères
Unterscheidung von „kosmologischen“ und „noologischen“ Wissenschaften, oder
244
Z. B. Jos. A. Troxler, Der Parallelismus zwischen Natur und Cultur. Ein System der Natur- und Geistesphilosophie,
Karlsruhe 1824.
421

Jeremy Benthams und John Stuart Mills „Sciences” gegenüber „moral sciences”,
was in J. Schiels deutscher Übersetzung „Naturwissenschaften und Geisteswissen-
schaften“ hieß.245
Die Unterscheidung von Natur- und Geisteswissenschaften bzw. Humanwissen-
schaften (oder neuerdings Kultur- bzw. Gesellschaftswissenschaften) begann da-
mit ihren Siegeszug. Er wurde begleitet durch mehr oder weniger polemische
Abgrenzungen zwischen beiden Tendenzen, die sich zunehmend auch auf den
Nutzen der jeweiligen Wissenschaften für Staat und Gesellschaft beriefen. Ein
frühes Signal dafür dürfte die Installation der geisteswissenschaftlichen Ideen-
forschung zwecks Politikberatung als besondere Klasse der „Ideologie“ an der
französischen Akademie der Wissenschaften gewesen sein, die allerdings unter
Napoleon Bonaparte wieder geschlossen wurde, als sie ihm unbequem wurde.246
Bekanntlich hat dieser Vorgang die revolutionären Linkshegelianer K. Marx und
F. Engels damit munitioniert, die damalige „bürgerliche Geisteswissenschaft“ ins-
gesamt als „Deutsche Ideologie“ zu kennzeichnen. Seine Ausläufer reichten in
den 50er Jahren des 19. Jahrhunderts bis in den „Materialismusstreit“, in welchem
radikal materialistisch gesinnte Naturwissenschaftler wie Carl Vogt, Jacob Mole-
schott und Ludwig Büchner den Geisteswissenschaftlern einen „Köhlerglauben“
(fides coeca) an Seelensubstanzen vorwarfen.247
Ein Gegenstoß von Seiten der Geisteswissenschaften erfolgte in den 70er Jah-
ren des 19. Jahrhunderts in der Lebensphilosophie. Besonders Friedrich Nietzsche
hat sich hier hervorgetan. Für ihn waren die Naturwissenschaften und Techniken
nur Mittel staatlicher Machtaspiration. Auch die katholische Kirche hat im „Mo-
dernismusstreit“ manche Errungenschaften der modernen Naturwissenschaften als
Irrwege der Forschung gebrandmarkt.248 Beides wirkte zweifellos auch noch bis in
Oswald Spenglers Kritik an der „barbarischen Zivilisation“ der Moderne weiter,
die sein Verleger bekanntlich unter dem Titel „ Der Untergang des Abendlandes.
Umrisse einer Morphologie der Weltgeschichte“ nach dem ersten Weltkrieg (1918
- 1920) veröffentlichte.
Nicht zuletzt darauf reagierte der Chemie-Nobelpreisträger Wilhelm Ostwald
mit der These, die Geisteswissenschaften seien wegen ihrer historischen Orientie-
rung „bloßes Papierwissen“ des Nicht-Wissenswürdigen: „Es ist derjenige Teil
des Wissens, den ich Papier nenne, weil er zum allergrößten Teil in der Kenntnis

245
J. Bentham, Essay sur la nomenclature et classification des principales branches d‟art et sciences, 1829, engl. Übers. in
Works, ed. J. Browning, Band 8, Edinburgh 1843, ND New York 1976. – J. St. Mill, Logic, Rationative and Inductive.
Being a Connected View of the Principles of Evidence and the Methods of Scientific Investigation, 2 Bände London 1843,
8. Aufl. 1872; dt. Übers. von J. Schiel, System der deductiven und inductiven Logik. Eine Darlegung der Principien
wissenschaftlicher Forschung, insbesondere der Naturforschung, Braunschweig 1849, 4. Aufl. 1877. - Vgl. dazu R. Flint,
Philosophy as scientia scientiarum and a history of classifications of the sciences, New York 1912, sowie M. Kedrow,
Klassifizierung der Wissenschaften, 2 Bände, Moskau 1961, dt. Übers. Berlin 1975.
246
Dazu F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 5, neu bearb. von Tr. K. Oesterreich, Berlin 1928,
S. 2 – 5, sowie G. Funke, Maine de Biran. Philosophisches und politisches Denken zwischen Ancien Régime und Bürger-
königtum in Frankreich, Bonn 1947, bes. S. 35 f.
247
F. Ueberweg, Grundriß der Geschichte der Philosophie, Bd. 4. neu bearb. von Tr. K. Oesterreich, 12, Aufl. Berlin
1923, S. 285 – 292.
248
F. Ueberweg, Grundriß Bd. 4, S. 630 - 646.
422

desjenigen besteht, was sich zufällig in gedrucktem oder geschriebenem Zustand


aus älterer Zeit erhalten hat.“ 249 Wohingegen die Naturwissenschaften nach Ost-
wald wegen ihrer prognostischen Relevanz die Grundlage aller modernen techni-
schen Segnungen darstellten.
In dieselbe Kerbe wie der Monistenbund Ostwalds hieben dann die ebenfalls
vorwiegend aus Naturwissenschaftlern rekrutierten Mitglieder des Wiener- und
Berliner Kreises. Ihre Polemik gegen die metaphysische „Begriffsdichtung“ rich-
tete sich ersichtlich gegen die Geisteswissenschaften insgesamt, die ja – vor allem
in der Theologischen, aber auch in der Philosophischen Fakultät – noch immer
aufs engste mit metaphysischen und allgemein mit philosophischen Theoriean-
sätzen verbunden geblieben waren. Obwohl ihre Vorwürfe wegen deren „Immuni-
sierungsstrategien“ gegen empirische (d. h. sachhaltige) Argumente inzwischen
merklich gedämpft wurden, ist es ihnen doch gelungen, weltweit den Titel
„eigentliche Wissenschaft“ auf die Naturwissenschaften (engl. „sciences“) be-
schränkt zu halten und die Wissenschaftstheorie fast ausschließlich auf Grundla-
genprobleme dieser Fakultät zu beschränken. M. Heideggers These: „Die (Natur-)
Wissenschaft denkt nicht“ war unter anderem auch ein Protest gegen diese Ten-
denz. 250 Freilich haben Heideggers Anhänger in den Geisteswissenschaften nicht
alle Liebhaber derselben davon überzeugen können, daß sie die eigentlichen
„Denker“ seien.
Die wechselseitige Kritik setzte sich nach dem 2. Weltkrieg im sogenannten Posi-
tivismusstreit fort. Hier übertrafen sich die „Kritische Theorie“ der Frankfurter
Schule und der „Rationale Kritizismus“ unter Führung Karl Poppers und Karl
Alberts gegenseitig mit dem Anspruch auf ein gesellschaftliches Monopol auf
„Rationalität“. Dabei blieben politische Untertöne unüberhörbar. Die „linken“
Vertreter der Frankfurter Schule warfen den „rechten“ Positivisten vor, mit natur-
wissenschaftlichen Theorien zwar die Natur beherrschen und ausbeuten zu kön-
nen, mit ihrem Anspruch auf „Wissenschaftlichkeit“ aber die emanzipatorische
Potenz der Geisteswissenschaften zu unterbinden und letztlich zu verhindern.251
Die „rechten“ kritischen Rationalisten denunzierten den emanzipatorischen An-
spruch als irrationalen Glauben und somit eigentlichen Irrationalismus, dessen
hermeneutisch eingekleideter Jargon seine grundsätzliche Unwissenschaftlichkeit
verbräme.252

249
W. Ostwald in: Monistische Sonntagspredigt 1, Nr. 7, Leipzig 1911, S. 55.
250
M. Heidegger, Was heißt Denken? 1954, sowie Martin Heidegger im Gespräch, hgg. v. R. Wisser, Freiburg-München
1970, S. 71 f.
251
J. Habermas, Erkenntnis und Interesse, Frankfurt a. M. 1973.
252
Vgl. Der Positivismusstreit in der deutschen Soziologie, mit Beiträgen von Th. W. Adorno, Karl. R. Popper, R. Dah-
rendorf, J. Habermas, Hans Albert, H. Pilot, 3. Aufl. Neuwied 1974. – Dieser „Streit der Fakultäten“ (Kant) setzt sich
gegenwärtig in den Debatten seit der sogenannten Sokal-Affäre von 1996 fort, in welchem die Quantenphysiker Alan D.
Sokal und Jean Bricmont den französischen und US-amerikanischen Konstruktivisten „Fashionable nonsense: postmodern
intellectuals„ abuse of science“ (New York 1998, dt. Übers. „Eleganter Unsinn. Wie die Denker der Postmoderne die Wis-
senschaft mißbrauchen“, München 1999) vorwerfen und die „Postmodernisten“ mit dem Vorwurf der ideologischen
Blindheit an die mit dem militärisch-industriellen Komplex verbandelten „realistischen“ Naturwissenschaftler antworten.
Vgl. dazu Wikipedia unter „Sokal-Affäre“ im Internet.
423

Diese Einstellungen sind seither keineswegs überwunden worden. Sie zeigen


sich darin, daß noch immer der Großteil der Veröffentlichungen zur Wissen-
schaftsphilosophie auf die Naturwissenschaften und ihre mathematische Methodo-
logie bezogen ist, und der Wissenschaftsbegriff in der Disziplinbezeichnung zu-
meist als „Naturwissenschaft“ verstanden wird. Wobei zugleich unterstellt wird,
daß es sich dabei überhaupt um die exemplarische Kultur von Rationalität hande-
le. Wissenschaftstheorie der Geisteswissenschaften ist demgegenüber ziemlich
unterentwickelt geblieben, wie man an der Anzahl der darauf entfallenden Buch-
veröffentlichungen und der Zeitschriftenartikel leicht erkennt. Im § 45 soll die
Lage der Geisteswissenschaften und ihrer Innen- und Außenansichten noch etwas
ausführlicher behandelt werden.

§ 37 Die Ausbildung der “-Ismen” als Charakterisierungsmittel wissenschaftli-


cher Globalsysteme

Die antiken und mittelalterlichen Kennzeichnungen von Denkweisen und Weltanschauungen nach
Schulen, ihren Vordenkern und nach Schulorten. Die neuzeitliche Philosophiegeschichtsschrei-
bung (J. J. Brucker) und ihre Systembezeichnungen auf der Grundlage des mos geometricus. Die
„evolutionären Systeme“ seit Schelling und Hegel. Übersicht der geläufigen Ismen.

Die Antike und das Mittelalter hatten die prinzipielle Orientierung wissenschaft-
lichen Strebens und Denkens nach den Initiatoren oder Hauptvertretern benannt.
Man bekannte sich zur “Schule”, übernahm deren Maximen und bekämpfte ande-
re Schulen und deren Maximen. Die doxographische Beschreibung solcher Schu-
len wurde die Grundlage antiker und mittelalterlicher „Philosophiegeschichts-
schreibung”, die seit Diogenes Laertios (3. Jh. n. Chr.) die Ausbildung solcher
Schulen und „Sekten” begleitete und reflektierte.
Doch neben die Kennzeichnung nach Schulhäuptern (Pythagoräer, Platoniker,
Aristoteliker, Epikureer; im Mittelalter etwa Thomisti, Ockhamisti, Scotisti usw.)
trat vereinzelt diejenige nach methodischer oder thematischer Hauptorientierung,
dies vor allem in disziplinärer und einzelwissenschaftlicher Hinsicht: Empiriker
und Methodiker in der Medizin, antiqui und moderni in der Jurisprudenz und in
der Logik, später auch in der Literaturwissenschaft; Kompendiarier, Sententiarier,
424

Glossatoren, usw. im allgemeinen Lehrbetrieb. Man verfügt leider noch nicht über
eine vollständige Übersicht solcher Bezeichnungen.
Natürlich dienten auch die Disziplinbezeichnungen selber (Philosophi, Theolo-
gi, Medici, Physici, Rhetorici, Grammatici, Dialectici etc.) diesem Zweck. Nicht
zuletzt zeigt auch die Kennzeichnung nach den Lehrinstitutionen (Academici,
Peripatetici, Stoici) oder nach dem geographischen Ort einer Schule (Eleatici,
Megarici, Alexandrini), daß alle diese Bezeichnungen doch recht äußerlich blei-
ben. Gleichwohl sind sie auch heute noch in all diesen Formen üblich geblieben
und erleben besonders da, wo man über die eigentlichen Prinzipien keine Klarheit
gewinnt, erneute Bedeutung.
So etwa spricht man jetzt von der Oxford- und Cambridge-Philosophy in Eng-
land oder von der Ost- und Westküstenphilosophie (Harvard- oder Yale-Philo-
sophy, Stanford- und Berkeley-Philosophy) in den Vereinigten Staaten von Nord-
amerika. Auch ist die Chicago School der Ökonomen prominent geworden.
In Deutschland betont man so gelegentlich eine besondere Forschungsstärke
einzelner Fakultäten. Früher war der Marburger und der Süd-westdeutsche Kan-
tianismus, auch die Marburger (protestantische) Theologie und die „Göttinger
Mathematik“ weltberühmt. Und fast sprichwörtlich prominent waren der Wiener-
und der Berliner Kreis von Physikern um den Wiener Lehrstuhl von Ernst Mach
und das Berliner Kaiser-Wilhelm Institut für Physik. Heute möchten es die „Biele-
felder Sozialhistorie“, der „Erlanger und Konstanzer wissenschaftliche Konstruk-
tivismus“ oder die „Frankfurter Schule“ (es gibt mehrere davon) sein. Dänemark
war stolz auf seine Kopenhagener Physik, Prag auf seine Schule der sprachwis-
senschaftlichen Phonologie. Nur in Frankreich zog die Hauptstadt stets die besten
Forscher aus den Provinzen nach Paris, wo fast jede herausragende Wissenschaft-
lerkarrierre endete. Hier sind die Namen der Cafés und Tavernen des „Quartier
latin“, wo sich prominente Intellektuelle trafen, zeitweilig berühmter gewesen als
die Sorbonne oder die École Normale Superieure.
Bei weitem charakteristischer waren demgegenüber die Auszeichnungen, die
sich aus der Axiomatisierung und logischen Durchdringung und Konstruktion des
philosophischen Wissens in den sogenannten großen Systemen der Philosophie
seit dem 17. Jahrhundert ergaben.
Die „Systeme” des Descartes, Hobbes, Spinoza und Leibniz waren unter dem
paradigmatischen Einfluß des „mos geometricus” der quadrivialen Disziplinen
tendenzielle Versuche der vollständigen Axiomatisierung alles philosophischen –
und durch dieses begründet – einzelwissenschaftlichen Wissens. Sie wurden in der
Polemik untereinander auf ihre logischen Schwachstellen geprüft und in den
Schulen (Cartesianismus der Occasionalisten und Spinozas, englischer Empi-
rismus, Leibniz-Wolffsche-Schule) interpretatorisch ausgebaut.
Dieser Typus des Philosophierens führte im 18. und 19. Jahrhundert zu einer
großen Fülle von neuen Systementwürfen, die aus einem oder wenigen obersten
Prinzipien das Gesamt philosophischen und einzelwissenschaftlichen Wissens in
widerspruchslosen theoretischen Zusammenhang zu bringen bestrebt waren.
425

Schon zu Beginn des 19. Jahrhunderts kulminiert diese Entwicklung in Systemen


wie denjenigen Schellings und Hegels, die nicht nur ein aktuelles zeitgenössisches
(wie noch bei Kant und Fichte), sondern das gesamte historisch überkommene
Wissen der Menschheit mit dem gegenwärtigen Bewußtsein vermitteln wollten
und es in „Entwicklungssystemen“ rational konstruieren.
Solche Systeme zum Vorbild nehmend, hat sich philosophische Forschung auch
rückwirkend der früheren Klassiker angenommen und ihre Lehren in syste-
matische Formen gebracht, die nun ihrerseits zu Kristallisationskernen interpre-
tatorischer Fortschreibung wurden. Die gegenwärtige philosophiegeschichtliche
Forschung dient daher keineswegs nur „historischem” Interesse an den Fakten
und Daten einer Disziplin, sondern vor allem der logischen Durchdringung der
klassischen Systeme, die als „ideologische” und weltanschauliche, mithin meta-
physische Grundorientierungen den Wissenschaften selber zugrunde liegen.
Daß wir diese Systeme nicht mehr vorwiegend nach ihren Autoren, sondern
genauer nach ihren Grundprinzipien charakterisieren, verdanken wir der Philoso-
phiegeschichtsschreibung des 18. Jahrhunderts und hier insbesondere dem eigent-
lichen Begründer der „modernen” Philosophiegeschichtsschreibung Johann Jakob
Brucker (1696 – 1770).253
Brucker hat die Lehren der Philosophen selber als „Systeme“ axiomatisch darzu-
stellen versucht und die Philosophen nach ihren Grundhaltungen, Einstellungen,
auch ihrer Schulzugehörigkeit, benannt. Hier erscheinen zuerst – und zwar vor-
wiegend in kritisch-polemischer Absicht – Kennzeichnungen wie Atheismus,
Atomismus, Fanaticismus, Fatalismus, Islamismus, Pharisaismus, Synkretismus;
daneben auch Kennzeichnungen nach den „Systemen“ von Klassikern wie Plato-
nismus, Pyrrhonismus, Spinozismus. Sie alle scheinen hier den Stellenwert einer
pathologischen Diagnostik zu besitzen (die medizinische Krankheitsterminologie
bedient sich ja ähnlicher Begriffsbildungen), nämlich der Kennzeichnung überzo-
gen-einseitiger Geisteshaltungen zu dienen. Aber es liegt hierin der Ansatz zur
Ausbildung einer metaphysischen Klassifikationsterminologie, die seitdem stän-
dig ausgebaut wurde.
Kant, der bekanntlich Brucker schon auf der ersten Seite seiner „Prolegomena“
als einen der Gelehrten, „denen die Geschichte der Philosophie (der alten sowohl
als neuen) selbst ihre Philosophie ist“ 254 und weiter als einen der „Lehrlinge“,
nicht der „Lehrer“ der Philosophie, herabsetzte, hat ihn gleichwohl – wie viele
seiner Zeitgenossen – weidlich benutzt und ausgebeutet. Auf Bruckers Material
beruhte seine Klassifikation des „historisch wirklichen und des möglichen Philo-
sophierens“ im Abschnitt über „Architektonik und Geschichte der reinen Ver-

253
Johann Jakob Brucker, Historia critica philosophiae a mundi incunabulis ad nostram aetatem deducta, Leipzig 1742 –
1744 in 4 Bänden, 2. Aufl. mit einem 5. Nachtragsband Leipzig 1767; vorauf gingen seine “Kurze Fragen aus der phi-
losophischen Historie, vom Anfange der Welt bis auf unsere Zeiten, mit ausführlichen Anmerkungen erläutert, 7. Bde Ulm
1731 – 1737, sowie ein “Auszug aus den kurzen Fragen der philosophischen Historie”, Ulm 1736, 2. Aufl. als “Anfangs-
gründe der philosophischen Geschichte, 1751.
254
I. Kant, Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können, Riga 1783, neu
hgg. von K. Vorländer, Hamburg 1951, S. 1.
426

nunft“.255 Er bezweckte damit, wie er seinem Freunde Marcus Hertz gegenüber


erläuterte, eine „Metaphysik von der Metaphysik“ zu entwerfen.
Nun war „Metaphysik“ schon seit jeher Disziplinentitel für letztbegründende
philosophische Theorien, wie sie sich in den „-Ismen“ darstellen. Es konnte gar
nicht ausbleiben, daß man bei der großen Autorität Kants diesen Ansatz auszu-
bauen versuchte.
Dies geschah unter verschiedenen Benennungen, die jedoch niemals ihren dia-
lektischen Charakter verleugnen konnten. Friedrich Schlegel konzipierte eine
„Philosophie der Philosophie“ als „Rückkehr der Philosophie in sich selbst“ bzw.
als ein „System von dem Schema des Organismus aller Künste und Wissen-
schaften“. W. Dilthey hat dann den Titel „Philosophie der Philosophie“ für seine
Klassifikation der Weltanschauungen benutzt; so auch G. Renshaw in seiner “Phi-
losophie der Philosophie”, und J. Gaos in seinem Buch “Philosophie der Philoso-
phie und Geschichte der Philosophie”. 256
Daran anknüpfende Unternehmungen bevorzugen den in der Logik, Mathematik
und Sprachwissenschaft aufgekommenen „Meta-“ Titel, über dessen dialektische
Funktion schon vorn das Nötige gesagt wurde. H. Lefèbvre wollte in seinem Buch
„Metaphilosophie“ ein „tableau des formes, systèmes, structures“ der Philo-
sophien herausarbeiten257, und M. Lazerowitz begründete für solche Studien über
„ the hidden structure of philosophical theories“ die Zeitschrift „Metaphilosophy“,
die seit 1970 erschien.
In diesen Forschungen fließt alles das zusammen, was vor allem über „Denk-
formen“, in der „Kategorialanalyse“ und ihren „Evidenzen”, durch die „Modell-
theorie“ bis hin zur „Axiomatik alles möglichen Philosophierens“ und nicht zu-
letzt über die „Anarchie der philosophischen Systeme“ herausgefunden wurde.258

255
I. Kant, Kritik der reinen Vernunft, B 860 ff.
256
F. Schlegel, Transzendentalphilosophie 1800/1801, Teil 3, hgg. v. E. Behler, Kritische Ausgabe Band 12, 1958, S. 91 –
94. - F. A. Trendelenburg, Über den letzten Unterschied der philosophischen Systeme, in: Historische Beiträge zur
Philosophie 2, 1855. - W. Dilthey, Die Typen der Weltanschauung und ihre Ausbildung in den metaphysischen Systemen,
1911, in: Weltanschauungslehre, Abh. zur Philosophie der Philosophie, Ges. Schriften Band 8, 1931, S. 75 – 120. - G.
Renshaw, Filosofia de la filosofia, Madrid 1947; J. Gaos, Filosofia de la filosofia e historia de la filosofia, Mexico 1941. –
Karl Albert (nicht mit dem Nestor des deutschen kritischen Rationalismus zu verwechseln), behandelt in seinem Buch
“Philosophie der Philosophie”, Sankt Augustin 1988, auschließlich Themen der “ontologischen Erfahrung”.
257
H. Lefèbvre, Métaphilosophie. Prolegomènes, Paris 1965, dt. 1975.
258
Über Denkformen vgl. H. Leisegang, 1928, 2. Aufl. 1950; H. Stoffer, Die modernen Ansätze zu einer Logik der
Denkformen, in: Zeitschrift für philosophische Forschung 10, 1956, S. 442 - 466 und 601 - 621; W. G. Waffenschmidt,
Denkformen und Denktechnik, 1962; H. Schüling, Denkstil. Beschreibung und Deutung der Denkformen, 2. Aufl. 1967. -
Über Kategorialanalyse und ihre Evidenzen: E. W. Hall, Philosophical Systems. A categorial analysis, Chicago 1960; S.
C. Pepper, World Hypotheses. A study in evidence, 4. Aufl. London-Berkeley1961. - Zur Modelltheorie und Meta-
phorologie: E. Topitsch, Vom Ursprung und Ende der Metaphysik. Eine Studie zur Weltanschauungskritik, 1958; H.
Blumenberg, Paradigmen zu einer Metaphorologie, 1960. - Zur Axiomatik: E. Rogge, Die Axiomatik alles möglichen Phi-
losophierens. Das grundsätzliche Sprechen der Logistik, der Sprachkritik und der Lebens-Metaphysik, 1950. – Zur Anar-
chie der Systeme: F. Kröner, Die Anarchie der philosophischen Systeme, 1929. – Vgl. dazu L. Geldsetzer. Art. „Philoso-
phie der Philosophie“ in: J. Ritter und K.Gründer (Hg.), Hist. Wörterbuch der Philosophie, Band 7 Basel 1989, Sp. 904 -
911.
427

Diese Bestrebungen begleitend und sie teilweise befruchtend hat sich seit K.
Marx und F. Engels die „Ideologiekritik“ durchgehalten259, in welcher bis heute
die (bürgerlichen) Philosophien durch die „wissenschaftliche Philosophie“ des
Marxismus sich selber verdeutlicht und zugleich überwunden werden sollten.
Gewiß haben diese Studien bis heute auch einen eher denunziatorischen Cha-
rakter. Die Subsumtion eines Denkansatzes unter einen “-Ismus” wird eher von
Kritikern desselben als von seinen Vertretern selbst vorgenommen. Aber gerade
auch in der polemischen Kasuistik klärt sich die Bedeutung solcher Termini.
Idealismus und Realismus als die umfassendsten, dann Bildungen wie Rationa-
lismus, Empirismus, Sensualismus, Materialismus, Vitalismus, Spiritualismus,
Pragmatismus, Konstruktivismus usw. sind heute von evidenter Selbstverständ-
lichkeit, und sie werden ohne weiteres auch für die Kennzeichnung globaler wis-
senschaftstheoretischer Orientierungen in Anspruch genommen. Gleichwohl dürf-
ten sie trotz aller Hinterfragungen alles andere als klare und deutliche Prinzipien-
kennzeichnungen darstellen. Eine Theorie derselben auf der Ebene metaphysi-
scher Analyse kann daher noch immer fruchtbare Einsichten erbringen.

§ 38 Die Verselbständigung der Einzelwissenschaften und ihre Folgen für die


Ausbildung der Metaphysiken

Prekäre Verdeutlichung der Systemprinzipien durch Kritik und Polemik der Systeme untereinan-
der. Plausibilität der Axiombedeutung durch Deduktion in jeweils anderen Systemen. Das Fries-
sche („Münchhausen-“) Trilemma. Woher die „Dogmen“ für dogmatische Begründungen herstam-
men. Die moderne Verabsolutierung der einzelwissenschaftlichen Potentiale. Moderne realistische
Metaphysiken als Physikalismus, Biologismus und Psychologismus. Moderne idealistische Meta-
physiken als Pragmatismus, Empirismus-Historismus und Rationalismus.

Machen wir gleich einen Versuch, Licht auf die Natur der heute dieser Orientie-
rung dienenden Prinzipien zu werfen. Ersichtlich ist ja die Hauptfrage, woher sie
ihre Plausibilität beziehen, da man doch allgemein davon ausgeht, sie seien nicht
aus höheren Prinzipien ableitbar.

259
K. Marx, Die deutsche Ideologie, 1845 – 1846; K. Mannheim, Ideologie und Utopie, 1929. - Vgl. dazu L. Geldsetzer,
neben dem zitierten Artikel „Philosophie der Philosophie“ auch: „Metaphilosophie als Metaphysik. Zur Hermeneutik der
Bestimmungen der Philosophie“, in: Zeitschrift für allgemeine Wissenschaftstheorie 5, 1974, S. 247 – 255.
428

Jedes einzelne dieser Prinzipien wird in der Regel von seinen Anhängern für
„evident” gehalten, von den Gegnern aber gerade nicht. Die Gegner nehmen viel-
mehr in Anspruch, angebliche Prinzipien als Nicht-Prinzipien, d. h. als Theoreme
zu entlarven, indem sie sie von (ihren eigenen) Prinzipien erklärend ableiten. Wird
z. B. im klassischen (Platonischen) Idealismus alles von einer „höchsten Idee“ ab-
geleitet, so erklären Aristoteles und später Locke „Idee“ als bloßen Sinnesein-
druck einer sie verursachenden „Res“, also auf der Grundlage des Realismus.
„Res“ aber wird ihrerseits idealistisch als „Erscheinung einer Idee“ abgeleitet und
erklärt.
So besteht der Schematismus metaphysischer Kontroversen überhaupt darin,
daß jede Partei die Prinzipien aller anderen Parteien „erklärt”, indem sie diese von
ihren eigenen Prinzipien ableitet, ihre eigenen Voraussetzungen jedoch nicht er-
klären kann und will. Die Erklärung und Beleuchtung durch die anderen Parteien
aber ist es gerade, die den Prinzipien die jeweilig vindizierte Evidenz verliehen
hat, dies umso mehr, je länger die Streitigkeiten über die Prinzipien sich hinzie-
hen.
Es geschieht also gerade das, was ausgeschlossen sein sollte: die Prinzipien
erhalten doch ihre Plausibilität aus anderen, ihnen von anderen Metaphysiken her
vorgeschalteten Prinzipien, und dies zwischen den einzelnen Metaphysiken gewis-
sermaßen im Kreise herum.
Dies ist seiner Natur nach ein zirkuläres Diskussionsuniversum des allgemeinen
Besserwissens. Jede metaphysische Partei steht „im Rücken” jeder anderen und
kennt und bewertet darum deren von ihr angeblich unbeachtete Voraussetzungen.
Es ist auch klar, daß auf der metaphysischen Ebene eine noch so anspruchsvolle
„wissenschaftstheoretische” Metakritik nicht aus diesem Reigen herausführt. Sie
muß sich selber immer letztlich auf eine metaphysische Position zurückziehen.
Neuerdings hat man - wie auch schon die antike Skepsis (vgl. § 22) - zur Kenn-
zeichnung der Lage das Friessche Trilemma bemüht und es sehr anschaulich zum
„Münchhausen-Trilemma” erklärt: eine heiter-ernste Anspielung auf die Art und
Weise, wie sich der berühmte Lügenbaron am eigenen Schopf aus dem Sumpf
ziehen konnte - oder auch nicht! Es gibt hier 1. den Zirkel der Begründung, 2. den
dogmatischen Abbruch der Begründung bei evident scheinenden Prinzipien, 3. die
skeptische Ausschau nach immer noch ausstehenden Letztbegründungen. 260
Das Münchhausen-Trilemma suggeriert allerdings, die Metaphysik mit ihrem
Letztbegründungsanspruch sei ein Sumpf. Wer sich darin befindet, muß notwen-
dig die Froschperspektive einnehmen und darin zappeln. Es gibt dann keine Aus-
sicht auf einen „höheren Standpunkt“, und die Lage erscheint als hoffnungslos.
Was viele zu der Meinung verführt, Metaphysik sei entbehrlich und überflüssig.
Aber die Lage war nie hoffnungslos und ist es auch jetzt nicht.
Die erst genannte Möglichkeit zirkulärer Begründung der Prinzipien wird mit
Recht von Logikern perhorresziert. Sie setzt voraus was sie beweist, und beweist

260
H. Albert, Traktat über kritische Vernunft, 3. Aufl. Tüb. 1975, Kap. I, 2.
429

was sie voraussetzt. Das gilt im allgemeinen als tödlich in rationalen Diskursen.
Und doch haben die Dialektiker eine Tugend aus dieser Not gemacht. Das zeigt
sich an manchen für „widerspruchslose Axiome“ gehaltenen Prinzipien, die sich
bei genauerer logischer Analyse selbst als Contradictiones in terminis erweisen.
Eine Folge davon ist z. B. die Debatte um den „Zirkel des Verstehens” im geistes-
wissenschaftlichen Prozedere.261
Die dritte der genannten Möglichkeiten, das Weiterforschen, schreibt nur den
unbegrenzten Fortschritt und das Prinzip Hoffnung fest. Wie aber schon Herbart
feststellte, ist jeder Anfänger in der Philosophie ein Skeptiker, aber eben deshalb
auch jeder Skeptiker ein Anfänger. Was man freilich den Anfängern zugute halten
sollte, führt bei gestandenen Wissenschaftlern und Philosophen zu einem Defizit
an Standfestigkeit.
So müssen wir wohl zur mittleren Möglichkeit dogmatischer Begründungen zu-
rückkehren. Das Problem ist nicht, Letztbegründungen zu vermeiden oder sich mit
widerspruchsvollen Evidenzen zufriedenzugeben, sondern eben die richtigen und
wahren bzw. das wahre Prinzip aufzufinden. Wer, wie die optimistische Maus,
sich lange genug in der wissenschaftlichen Milch der frommen Denkungsart
abstrampelt, wird sich sehr bald auf einem festen Klumpen metaphysischer Butter
wiederfinden, die ihm einen einigermaßen sicheren Standpunkt gewährt.
Dazu gehört zunächst eine Einstellung, die nicht die Unterschiede der Prinzipien
nach ihren Termini bzw. ihrer begrifflichen Fassung, sondern vielmehr die Ge-
meinsamkeiten, ja Identitäten ihres Sinnes ins Auge faßt. Streicht man nämlich im
irenischen Geiste einer „Philosophia perennis” alles das hinweg, was überzogene
Polemik, absichtliches Mißverstehen und Konfrontationslust an metapysischem
Nebel erzeugt haben, so bleibt recht wenig übrig, was sich als echte Grundlage für
die Unterscheidung der metaphysischen Systeme diskutieren läßt.
Wir haben im vorigen wiederholt auf die Bedeutung der Ausbildung des Triviums
und Quadriviums für die Gegenstandkonstitution und Methodenkonstitution der
Einzelwissenschaften hingewiesen. Aus dem Trivium entwickelt sich die Vielfalt
der geisteswissenschaftlichen Disziplinen der neueren Philosophischen Fakultät;
aus dem Quadrivium der Kanon der naturwissenschaftlichen Disziplinen der neue-
ren (und neuesten) Naturwissenschaftlich-Mathematischen Fakultät. Die Aufspal-
tung der ehemaligen Fakultäten in Fachbereiche seit den späten 70er Jahren er-
zeugte einen neuen Schub zur Autonomisierung aller dieser Disziplinen in gänz-
lich unverbundene oder beliebig zusammengewürfelte Wissenschaftskomplexe.
Daraus ergab sich jedoch eine kompensatorische Tendenz, in welcher sich jede
Einzelwissenschaft eine eigene philosophisch-wissenschaftstheoretische Begrün-
dungsdisziplin zuzulegen versuchte.
War schon die Befreiung der Philosophischen Fakultät von der propädeutischen
Funktion für die anderen Fakultäten, dann die Zuschreibung der Philosophie

261
Vgl. Th. M. Seebohm, Zur Kritik der hermeneutischen Vernunft, Bonn 1971, sowie D. Teichert, Art. „Zirkel, herme-
neutischer“ in:, J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie , Band 4, Stuttgart-Weimar 1996,
S. 850f. 572 f. und C. F. Gethmann, Art. „Vorverständnis“, ebda S. 572.
430

selber zur „geisteswissenschaftlichen” neuen Philosophischen Fakultät – und da-


mit ihre Trennung von der „quadrivialen” Mathematik und Naturwissenschaft –
ein großer Schaden, so ist ihre Isolierung von allen Disziplinen oder erst recht die
häufig eingeführte Zuordnung zum PPP- („Philosophie-Psychologie-Pädagogik“)
Fachbereich eine Katastrophe. Sie kommt einer Vernichtung der Philosophie als
einigendes Band zwischen den Wissenschaften gleich, indem sie die „Philoso-
phisierung” der Einzelwissenschaften betreibt.
Und hierin offenbart sich der Schematismus neuzeitlicher Metaphysikgenese in
seinen forciertesten Tendenzen: Die Metaphysiken erscheinen als Verabsolutie-
rungen der Potenziale der Einzelwissenschaften. Ihre moderne Gestalt ist der
„Wissenschafts-Ismus” selber. Erfolg und Ansehen der modernen Metaphysiken
beruht auf der Fortüne der jeweiligen Einzelwissenschaft, die ihre Grundlage
bildet.
Macht die Physik Fortschritte und/oder von sich reden, so hat der Physikalismus
Konjunktur. Im Zeichen Darwins und des biologischen Evolutionismus blüht die
Lebensphilosophie. Das Prestige der Philologie und Literaturwissenschaften muß
dem Hermeneutizismus Auftrieb geben. Die Leistungen der modernen Ge-
schichtswissenschaften verbreiten den Historismus, die Psychologen (unter ihnen
besonders die Psychoanalytiker) den Psychologismus, die Soziologen den Sozio-
logismus, die Ökonomen den Ökonomismus, die Mathematiker den Mathemati-
zismus, die Mediziner und Physiologen die „Neuro-Philosophie“. Und vergessen
wir auch nicht den neueren Siegeszug der „Erziehungswissenschaft“, der alle Wis-
senschaften inzwischen im Pädagogismus und Didaktizismus begründet.
Die letzte Blüte dieser Bestrebungen hat noch keinen passenden Namen. Sie
beruft sich jedoch auf einen vorgeblichen „computational turn in philosophy“.
Vorgeschlagen wurden dafür schon „Philoinformatics“, „Philosophy informatics“,
„Computational Philosophy“, auch „Computing and Philosophy“. Sie stammen
aus diversen US-amerikanischen Forschungsverbünden und haben sich zum Ziel
gesetzt, philosophisches und speziell „metaphysisches“ Denken computergerecht
neu zu formulieren, die logischen und axiomatischen Beweis- und Argumenta-
tionsmethoden zu prüfen und zu bewerten und nicht zuletzt einen virtuellen The-
saurus aller philosophisch relevanten Termini, Gedanken, Themen, Problemstel-
lungen aus der gedruckten Literatur und im Netz verfügbaren Verlautbarungen
aufzubauen und permanent zu aktualisieren. Sie soll die „increasing scientification
of philosophy“ (zunehmende Verwissenschaftlichung der Philosophie) zum Aus-
druck bringen und dabei erforschen, „how computers can, do, will and ought to
enact social, scientific, technological and historical change“ (wie Computer sozia-
len, wissenschaftlichen, technologischen und historischen Wandel in Gang setzen
kann, tatsächlich herbeiführt, herbeiführen wird und herbeiführen soll). 262
Als Regel dürfte heute gelten: je jünger und weniger konsolidiert das Fach,
desto größer sein Bestreben, sich dem Publikum als alleserklärendes metaphy-
262
A. F. Beavers, Recent Developments in Computing and Philosophy, in: Journal for General Philosophy of Science /
Zeitschrift für allgemeine Wissenschaftstheorie, 42/2, 2011, S. 385 - 397, spez. S. 386.
431

sisches Ideenpotential anzuempfehlen; und entsprechend auch die Bereitschaft des


Publikums, ein solcherart modisches Weltbild anzunehmen. 263 Verflüchtigt sich
aber die moderne Philosophie in Wissenschafts-Ismen, so ist auf die auffällige
Tatsache hinzuweisen, daß es einen „Philosophismus“ noch nicht gegeben hat –
abgesehen vielleicht von dem, was Wilhelm Traugott Krug schon 1833 als „fal-
sche Philosophie und Afterweisheit” geiselte.264 Der Leser wird aber wohl bemer-
ken, daß es genau ein solcher wohlverstandener Philosophismus ist, den wir
diesen Untersuchungen zugrunde legen, indem wir das Potential der Philosophie
selber zur Geltung bringen wollen.
Worin besteht nun aber das Ideenpotential von Wissenschaften? Schon eine
äußerliche Betrachtung zeigt, daß die Ansammlung wissenschaftlicher Kenntnisse
und Erkenntnisse immer mehr oder weniger heterogen ist. Ihre theoretische
Durchdringung und Verknüpfung in Systemen ist immer prekär und vorläufig.
Meistens gibt es konkurrierende Theoriebildungen, die sich auch innerhalb der
Einzelwissenschaften den Wahrheits- und Erklärungsanspruch bestreiten. Wie sol-
che konkurrierenden Theorien auf einer und derselben Faktenbasis induktorisch
begründet werden, haben wir vorn in § 9 gezeigt. In dieser Hinsicht verlängert
sich ja der metaphysische Pluralismus bis auf die Talsohle wissenschaftlicher
Hypothesenbildung. Selten findet sich eine fast konkurrenzlose Theorie wie die
klassische Mechanik Newtons zu ihrer Zeit, die dann (zeitweise) alle Chancen
hatte, einen als unumstößlich sicher geltenden Naturalismus und Physikalismus
als Metaphysik zu begründen.
Bei dieser Lage ist natürlich auch das Potential einer Wissenschaft kein klares
und leicht durchschaubares Ding. Seine Analyse kann nicht in einer nur aktuell-
systematischen Betrachtung gelingen, sondern ist auf eine philosophie- und wis-
senschaftsgeschichtliche Auskultation angewiesen, die auch im Geflecht einzel-
wissenschaftlicher Ansätze und Theoriebildungen gemeinsame Stämme, Übernah-
men, Anstöße, Beeinflussungen über die Disziplingrenzen hinweg in den Blick
nimmt. Dies haben wir mit der vorliegenden Analyse der Herkunft moderner Ein-
zelwissenschaften aus dem Trivium und Quadrivium bezweckt. Woraus man denn
entnehmen kann, wie die Bildungsmotive moderner Wissenschaften selber nur die
ontologischen und praxeologisch-erkenntnistheoretisch-anthropologischen Resul-
tate klassisch-antiker Philosophie exhaurieren.
Um es auf das einfachste Schema zu bringen, läßt sich folgendes sagen. Ein Teil
der modernen Wissenschaften legt noch immer die von der ältesten platonisch-
aristotelisch-stoischen Ontologie entworfene Wirklichkeitseinteilung für die Ab-
grenzung ihrer Bereiche zugrunde. Es sind die drei großen Bereiche der „toten”
Natur, des Lebendigen und des Geistig-Sinnhaften oder Absoluten und „Pneuma-

263
Dazu L. Geldsetzer, Metaphysische Tendenzen der philosophischen Entwicklung in der Bundesrepubik Deutschland
seit 1945, in: Die sog. Geisteswissenschaften: Innenansichten, hgg. von W. Prinz und P. Weingart, Frankfurt a. M. 1990, S.
419 – 447.
264
W. T. Krug, Allg. Handwörterbuch der phil. Wissenschaften nebst ihrer Literatur und Geschichte, 2 verb. Aufl. 3. Band
Leipzig 1833, S. 236.
432

tischen“, das in der stoischen Ontologie als „feinste Atomsorte“ oder als „geistige
Materie“ bezeichnet und stets auch „das Göttliche“ genannt wird.
Daraus ergeben sich die drei Gruppen der exakten Naturwissenschaften, der
Wissenschaften vom Leben und der Geisteswissenschaften. Die Setzung ihrer
Potenziale als Metaphysiken führt entsprechend zum Materialismus/Energetismus
als einem verabsolutierten Physikalismus; zur Lebensphilosophie als einem verab-
solutierten Biologismus; schließlich zum Spiritualismus als einer verabsolutierten
Geisteswissenschaft. In letzterer können je nachdem die Philologie, die Historio-
graphie, die Psychologie oder auch die Theologie und sogar die Jurisprudenz und
die Ökonomie die Führung übernehmen.
Die genannten Positionen sind alle zusammen Gestalten des Realismus. Dabei
ist zu beachten, daß auch der sogenannte Spiritualismus vor allem im angel-
sächsischen Verständnis noch immer als „Ideenrealismus“ bezeichnet und somit
meist dem Realismus zugeordnet wird.
Der andere Teil der Wissenschaften dagegen legt die von der ältesten plato-
nisch-aristotelisch-stoischen Anthropologie entwickelte Dreiteilung der Vermögen
des Menschen zugrunde und stilisiert ihre Leistungsfähigkeiten nach Regel-
komplexen zu Methodiken hoch. Freilich sind nicht alle zu Einzelwissenschaften
geronnen. Es sind die Vermögen der triebhaften oder willensmäßigen Handlun-
gen, der sinnlichen (und gedächtnismäßigen) Wahrnehmung und der vernünfti-
gen-denkerischen Einsicht. Daraus ergeben sich die Methodiken der Praxis bzw.
der praktischen Wissenschaften, der empirisch-historischen Erfahrung und die der
rationalen Erkenntnis.
Als Wissenschaften haben die Dogmatiken der früheren höheren Fakultäten die
leitenden Vorbilder für die Praxeologien abgegeben. Es sind die Psychagogik der
Theologie, die Therapeutik der Medizin und die soziale Gestaltungsfähigkeit der
Jurisprudenz. Letztere hat die aristotelische praktische Trias der Ethik, Politik und
Ökonomik zuzüglich der Rhetorik in sich aufgenommen.
Die sinnlich-gedächtnismäßige Leistungsfähigkeit des Menschen ist in Metho-
diken der empirischen Beobachtung und gedächtnismäßigen Thesaurierung sol-
cher empirischer Erfahrung stilisiert worden. Aber das hat nur zum Teil zu eigener
Wissenschaftsausbildung geführt, nämlich zur Historik (als Gesamt der Ge-
schichtswissenschaften). Eine vergleichbare „Empirik” (oder Heuristik) ist nicht
entstanden, sondern sie ist als Methodologie besonders der Naturwissenschaften
gepflegt worden. Dagegen wurde die vernünftig-verstandesmäßige Leistungsfä-
higkeit des Menschen zu den beiden formalen Methodologien der Mathematik
und Logik ausgebaut.
Die Potenziale dieser Wissenschafts- und Methodikengruppen zu Metaphysiken
verallgemeinert, bilden also die drei Metaphysiken des Pragmatismus, des
sensualistischen (oder memorialistischen) Empirismus und des logischen und/oder
mathematischen Rationalismus. Sie sind die eigentlichen Gestalten des modernen
Idealismus. Bringen wir diese sechs Gestalten zusammenfassend in ein Schema:
433

Schema der Metaphysiken und ihrer einzelwissenschaftlichen Begründungsbereiche

1. Ontologisch induzierte Metaphysiken . Sie sind Realismen, darunter auch die Nachfolger
des „Ideenrealismus” der Scholastik

Wirklichkeitsbereich Einzelwissenschaften Metaphysik

a. Geistiges, Sinn, Geisteswissenschaften Spiritualismus


Absolutes, „Pneuma“ (Psychologismus)

b. Lebendiges Sein biologische Wissenschaft Lebensphilosophie


(Vitalismus)
(Biologismus)

c. tote Natur, materielles/ Physik, Chemie, exakte Materialismus


energetisches Sein Naturwissenschaft Energetismus
(Physikalismus)

2. Anthropologisch-erkenntnistheoretisch-praxeologisch induzierte Metaphysiken. Sie sind


Idealismen

Vermögen Einzelwiss./Methodik Metaphysik

a. Theoret. Vermögen Logik, Mathematik Rationalismus


(Vernunft, Denken) Dialektik Hermeneutizismus

b. Sinnlichkeit Empirik, Historik, Empirismus


Gedächtnis Geschichtswissenschaft Historismus

c. Praktisches Vermögen Techniken der Juris- Pragmatismus


(Trieb / Wille) prudenz, Therapeutik Konstruktivismus
Psychagogik, Techniken Instrumentalismus
und Handwerke Operationalismus

Dieses Schema erscheint als allgemein genug, um vollständig zu sein. Es verdeut-


licht freilich nur die wissenschafts- und philosophiegeschichtliche Herkunft der
beiden metaphysischen Hauptstandpunkte des Realismus und des Idealismus und
besagt noch nichts über ihre logische Struktur und ihre Wahrheitsansprüche.
434

§ 39 Realismus und Idealismus in der Wissenschaftsphilosophie


Die Widersprüchlichkeit des klassischen realistischen Prinzips: Dinge an sich als unerkennbar-
erkannte Wirklichkeit. Die Widersprüchlichkeit des klassischen idealistischen Prinzips: Psychische
Vermögen als tätig-untätige Subjektbestimmungen. Die Tilgung der negativen Anteile in den wi-
dersprüchlichen Prinzipien und die Induktion des idealistischen Prinzips: Die Identität der posi-
tiven Merkmale des realistischen und idealistischen Prinzips. Der gereinigte Idealismus als wahre
phänomenalistische Metaphysik

Daß der Realismus im 20. Jahrhundert zur herrschenden metaphysischen Über-


zeugung der Wissenschaftler und Wissenschaftsphilosophen geworden ist, wurde
schon öfters betont. Ersichtlich ist im gleichen Maße der Idealismus eine Min-
derheitsposition geworden. In Fachkreisen von Wissenschaftstheoretikern kann
sich derjenige leicht ein besserwisserisches Lächeln der Realisten einhandeln, der
seine idealistische Position auch nur andeutet. Gerade so, als ob er seine Lektion
nicht recht gelernt hätte und einem längst überholten „Paradigma“ nostalgisch
anhänge. Der Idealist muß sich gelegentlich auf die Nachfrage wie bei einem Pa-
tienten einstellen, ob es ihm noch gut gehe, da er doch so krank sei.
In unserem wissenschaftlich geprägten Zeitalter ist es daher auch nicht verwun-
derlich, daß die meisten Leute den herrschenden wissenschaftlichen Grundüber-
zeugungen folgen und sich selbst für Realisten halten. Man bemerkt es an den
gegenseitigen Ermunterungen in den Zeitungsartikeln und Talkshows, daß man
nun die Welt und die Dinge „realistisch sehen“ müsse und die „idealistischen
Spinnereien“ den weltfremden Träumern und Utopisten überlassen sollte.
Der Idealismusvorwurf ist daher zu einer polemischen Invektive geworden. Er
läuft darauf hinaus, dem so Kritisierten zu unterstellen, er setzte seine „subjek-
tiven Überzeugungen“ an die Stelle „objektiver (harter) Tatsachen“. Und dies im-
pliziert von vornherein, daß der Idealist eine „falsche“ Sicht der Dinge und der
Welt habe, und daß er infolgedessen irgendwann an den Tatsachen „scheitern“
müsse.
Aus der langen Geschichte der Auseinandersetzungen zwischen Idealismus und
Realismus seit Platon und Aristoteles ist heute dasjenige angekommen und gleich-
sam hängengeblieben, was auf das Verhältnis von Objektivität und Subjektivität
Bezug hat. Deshalb sind „Objektivität“ bzw. „Objektives“ und „Realität“ Synony-
me geworden, und eben deswegen auch „Subjektivität“ und „Idealismus“. Zu-
gleich evozieren diese Schlagwörter aber auch: Wer Realist und somit objektiv ist,
hat recht und damit die Wahrheit auf seiner Seite. Der Idealist kann daher nur
Unrecht haben und liegt damit falsch. Er täuscht sich oder belügt sich selber über
das, was er nur für Realität hält, was diese aber nicht ist.
Das Hauptargument, das gewöhnlich gegen den Idealismus vorgebracht wird, ist
noch immer das, welches Dr. Samuel Johnson, einer der besten Freunde George
Berkeleys, einst gegen dessen Idealismus demonstriert haben soll, indem er mit
dem Fuß gegen einen Stein kickte. Boswells Bericht darüber in seiner vielge-
435

lesenen Biographie Johnsons ziert noch immer manche lexikalischen und philoso-
phiegeschichtlichen Darstellungen des Berkeleyschen Idealismus:
“Als wir aus der Kirche kamen, standen wir noch einige Zeit beisammen und
sprachen über Bishof Berkeleys ingeniöses sophistisches Argument zum Beweis
der Nichtexistenz der Materie, und daß alles im Universum nur ideenhaft sei. Ich
bemerkte, daß trotz unserer Überzeugung, daß seine Lehre nicht wahr sei, sie doch
unmöglich zu widerlegen sei. Niemals werde ich die Heiterkeit vergessen, mit der
Johnson antwortete, indem er seinen Fuß heftig gegen einen großen Stein stieß bis
er davon zurückprallte: ‚Ich widerlege ihn so‟ “ 265

An diesen „Stein des Anstoßes” knüpft sich noch immer die Überzeugung der
Realisten von der objektiven Realität außerbewußter Gegenstände.
Daß auch das, wogegen Johnson kickte, nur durch ein Percipi, nämlich eine
sinnliche Wahrnehmung und den gefühlten Schmerz, „objektiv“ werden konnte,
gestehen inzwischen auch eingefleischte Realisten zu. Doch hoffen sie immer
noch, durch künftige Forschung die wirkliche Existenz der „Dinge an sich“ neben
den „wahrgenommenen oder gefühlten Dingen“ beweisen zu können.
Weniger aber hat sich bei den Realisten herumgesprochen, daß auch das
„Außerbewußte“ wie auch alles Reden von der „Außenwelt“ ganz und gar nur
bewußte Raumvorstellungen eines Subjekts sein können. Das gilt schon z. B. bei
Descartes für das „Von-außen-Kommen“ der Idee der ausgedehnten Substanz und
bei Locke von den von außen kommenden Sinnes-Eindrücken. Beides erinnert
noch an des Aristoteles „thyrathén“ = „Von-außen-Kommen“ der rationalen Seele
in den Körper.
So behauptet denn auch ein neuerer Berkeley-Herausgeber immer noch: „Ein
Gegenstand kann als solcher niemals Bewußtseinsinhalt und ein Bewußtseins-
inhalt als solcher niemals Gegenstand sein“. Er bemerkt nicht, daß „als solcher“
auch nur eine synonyme Bezeichnung ist, die den Gegenstand nicht zu etwas
anderem macht, als er eben ist. Direkt fortfahrend sagt derselbe Herausgeber:
„Diesen Sachverhalt in seinem ganzen Umfang und in seiner vollen Tragweite zu
erfassen und alle sich daraus ergebenden Konsequenzen zu ziehen, ist unzwei-
felhaft eine der erkenntnistheoretischen und ontologischen Hauptaufgaben der Ge-
genwartsphilosophie.“ 266
Man hat reichlich Zeit für diese vorgebliche Hauptaufgabe gehabt, nicht nur in
der Gegenwartsphilosophie. Aber immer noch zeichnet sich kein Ergebnis ab.
Warum dies so ist, sei im folgenden etwas erläutert.

265
„After we came out of church we stood talking for some time together of Bishop Berkeley‟s ingenious sophistry to
prove the non-existence of matter, and that everything in the universe is merely ideal. I observed, that though we are
satisfied his doctrine is not true, it is impossible to refute it. I never shall forget the alacrity with which Johnson answered,
striking his foot with mighty force against a large stone, till he rebounded from it, „I refute it thus!‟ ” In: A. D. Lindsay,
Introduction to the “Theory of Vision and other Writings by Bishop Berkeley, London-New York o. J., Neue Ausg. 1954,
S. IX.
266
A. Klemmt, George Berkeley, Eine Abhandlung über die Prinzipien der menschlichen Erkenntnis, Hamburg 1957,
Einl. S. XIII.
436

Schon Kant bezeichnete es zu seiner Zeit als einen „Skandal der Philosophie“, daß
es noch nicht gelungen sei, einen Beweis für die Realität der Außenwelt zu finden,
auf die sich der moderne Realismus beruft.
„Der Idealismus mag in Ansehung der wesentlichen Zwecke der Metaphysik für
noch so unschuldig gehalten werden (das er in der Tat nicht ist), so bleibt es immer
ein Skandal der Philosophie und allgemeinen Menschenvernunft, das Dasein der
Dinge außer uns (von denen wir doch den ganzen Stoff zu Erkenntnissen selbst für
unseren inneren Sinn her haben) bloß auf Glauben annehmen zu müssen, und, wenn
es jemand einfällt, es zu bezweifeln, ihm keinen genugtuenden Beweis entgegen-
stellen zu könnem.“ 267

Das war gewiß eine zutreffende Einschätzung des Verhältnisses zwischen Realis-
mus und Idealismus, und sie dürfte auch heute noch stichhaltig sein. Aber Kant
hat auch erheblich dazu beigetragen, daß es dabei blieb. Seine eigene „Transzen-
dentalphilosophie“, die von seinen Freunden eine „Philosophie ohne Beinamen“
genannt wurde, weil sie angeblich über alle metaphysischen Spezifizierungen
hinausging,268 wird auch jetzt noch von den Kantfreunden in genau diesem Sinn
anerkannt.
Daß sich nachher aber sowohl die deutschen Realisten wie die deutschen Idea-
listen gleicherweise auf Kant beriefen, hat neben dem genannten noch andere
Gründe.
1. hat Kant die erste Rezension der 1. Auflage seiner „Kritik der reinen Ver-
nunft“ (1781), in welcher Christian Garve ganz korrekt gewisse Übereinstimmun-
gen mit dem Idealismus Berkeleys nachwies, in recht entrüstetem Ton im Anhang
zu den Prolegomena zurückgewiesen. Das mußte den Eindruck erwecken, er ver-
trete den Realismus. In dieser Garveschen Rezension wird Kants Position so dar-
gestellt:
„Das ist für uns wirklich, was wir uns irgendwo und irgendwann vorstellen. Raum
und Zeit selbst sind nichts Wirkliches außer uns, sind auch keine Verhältnisse, auch
keine abstrahierten Begriffe, sondern subjektive Gesetze unseres Vorstellungsver-
mögens, Formen der Empfindung, subjektive Bedingungen der sinnlichen Anschau-
ung. Auf diesen Begriffen von den Empfindungen als bloßen Modifikationen unserer
selbst (worauf auch Berkeley seinen Idealismus hauptsächlich baut) vom Raum und
von der Zeit beruht der eine Grundpfeiler des Kantischen Systems.“ 269

2. In den „Prolegomena zu einer jeden künftigen Metaphysik, die als Wissen-


schaft wird auftreten können“ (1783) erwartete die Fachwelt daher ein klares
Bekenntnis Kants zum Realismus oder Idealismus. Man wurde aber mit der
Erklärung Kants abgespeist, es handele sich immer noch um eine vorbereitende

267
I. Kant, Kritik der reinen Vernunft, 2. Aufl. Vorrede.
268
F. S. Karpe, Darstellung der Philosophie ohne Beynamen in einem Lehrbegriff als Leitfaden zum liberalen Philoso-
phieren, 6 Teile, Wien 1802 – 1803.
269
„Die Göttinger Recension“ Garves vom 17. Januar 1782, in: I. Kant, Prolegomena, hgg. v. K. Vorländer, Hamburg
1951, S. 168.
437

Kritik bzw. Analyse des Vernunftvermögens. Ansonsten blieb es bei der These:
„Metaphysik muß Wissenschaft sein, nicht allein im ganzen, sondern auch in allen
ihren Teilen, sonst ist sie gar nichts.“ 270 In den „Vorarbeiten“ zu den Prolegome-
na wird auch betont: „Alle Vernunftwissenschaften enthalten eine Metaphysik,
die den Geist derselben ausmacht“ 271. Man hatte also allen Grund, in einer wei-
teren Veröffentlichung Kants Votum für die eine oder die andere Metaphysik zu
erwarten.
3. Das geschah - und ersichtlich als Reaktion auf die Garvesche Rezension – in
der 2. Auflage der „Kritik der reinen Vernunft“ von 1786. Kant hat sein Werk im
realistischen Sinne umgeschrieben. Und zwar durch eine neue Einleitung, die Ein-
fügung eines Kapitels „Widerlegung des Idealismus“ und gelegentliche Einschübe
im Haupttext. Arthur Schopenhauer hat das im Anhang „Kritik der Kantischen
Philosophie“ seines Buches „Die Welt als Wille und Vorstellung“ 272 später klar
herausgestellt.
4. In der „Kritik der reinen Vernunft“ beider Auflagen und in den „Prolego-
mena“ erklärte Kant verschiedentlich, daß er einen „transzendentalen Idealismus“
mit einem „empirischen Realismus“ verbinde. Das warf aber die Fragen auf, ob
und wie eine solche Vereinbarkeit von Idealismus und Realismus überhaupt mög-
lich sei.
Kant hat dafür ein Argument entwickelt, das darauf hinauslief, daß der „antino-
mische Gegensatz“ zwischen beiden Positionen nur ein „Scheingegensatz“ sei
(wie im Beispiel der „dynamischen Antinomien“ der Kosmologie, die beide
„wahr“ sein sollten). Dies Argument aus der „Dialektik der reinen Vernunft“ war
zwar logisch ebenso falsch wie Kants These, daß echte Antinomien (wie die
„mathematischen“) beide falsch sein könnten (s. vorn § 9). Aber es wurde auf
seine Autorität hin hingenommen, und es hat neuerdings in der sogenannten
Dialethik bzw. parakonsistenten Logik erneut Anerkennung und Nachfolge gefun-
den.
Die kantische These von der gleichzeitigen Wahrheit seines „transzendentalen
Idealismus“ und „empirischen Realismus“ unter dem Dach der Transzendental-
philosophie erklärt sich aus der von ihm vorausgesetzten Unterscheidung und
Sphärentrennung von sinnlicher Erfahrungswelt und intelligibler Vernunftwelt
und zugleich ihrer Vereinigung. Man sieht ohne weiteres, daß Kant damit voraus-
setzte, was er eigentlich beweisen wollte, aber nicht bewiesen hat.
5. Auf diese Vereinigung von transzendentalem Idealismus und empirischem
Realismus in der Transzendentalphilosophie haben sich nachmals viele mathema-
tisch-naturwissenschaftliche Kanntianer und Neukantianer, wie z. J. F. Fries, J. H.
Herbart, B. Bolzano, G. Frege, H. Lotze bis hin zu E. Cassirer berufen. So konn-
ten sie z. B. die Mathematik transzendentalphilosophisch als puren platonischen

270
I. Kant, Prolegomena, hgg. von K. Vorländer Hamburg 1951, S. 141.
271
I. Kant, Prolegomena, hgg. v. K. Vorländer, Hamburg 1951: Beilage I „Eine Vorarbeit Kants zu seinen Prolegome-
nen“, S. 163.
272
A. Schopenhauer, Die Welt als Wille und Vorstellung, hgg. von Ed. Griesebach, Band 1, Leipzig (1919), S. 529 - 677.
438

Idealismus vertreten, zugleich aber auch die Anwendung der Mathematik in der
empirischen Forschung als puren Realismus. Die Berufung auf Transzendental-
philosophie aber ließ gerade das Hauptproblem des Realismus im Dunklen. Näm-
lich die Frage, ob die objektive Realität bewußtseinsunabhängig oder bewußt-
seinsabhängig und was das Bewußtsein selber eigentlich sei.
Sie begründeten ihre Position auf recht verschiedene Weise, die auch schon
spätere und aktuelle Realismus-Begründungen vorausnehmen. Wobei nicht zu
vergessen ist, daß auch die angelsächsische Philosophie zwischen John Locke und
George Berkeley sich intensiv dieser Problematik zugewendet hatte. Deren Posi-
tionen wurden von den zahlreichen Lesern in Deutschland, die der englischen
Sprache mächtig waren, und anhand der Übersetzungen ins Deutsche lebhaft dis-
kutiert, wie auch die Garvesche Kantrezension zeigt. Aus dieser britischen Tradi-
tion stammt die auch auf dem Kontinent verbreitete Überzeugung, daß eine Kritik
der Leistungsfähigkeiten der Vermögen des Subjektes eine psychologische An-
gelegenheit sei. Gegen diese Überzeugungen hatte sich die kantische Trans-
zendentalphilosophie als „wissenschaftliche Metaphysik“ durchzusetzen, und das
gelang keinesweg so durchgehend, wie es in der späteren deutschen Philosophie-
geschichtsschreibung klingt.
a. J. F. Fries, der „Philosoph der Naturforscher“ (A. v. Humboldt) begründete
seinen Realismus mit dem Glauben an die Realität der außenweltlichen Dinge an
sich. Der „Glaube“ selbst – neben dem „Wissen“ und der „Ahndung“ - aber be-
ruht nach Fries auf der apriorisch-transzendentalen Selbstgewißheit der Vernunft.
Mit dieser apriorischen Glaubensbegründung hielt sich Fries selber für den ge-
treuesten aller Kantanhänger. Aber dazu ist zu sagen, daß auch der „Glaube“
(belief) an die Realität der Dinge an sich durch Hume und deutlicher durch Tho-
mas Reid als Resultat des Skeptizismus, etwas über die außenweltlichen Sub-
stanzen, (die „unknows subjects“) zu erkennen, in der englischen Philosophie
verbreitet wurde.
b. J. H. Herbart sah hier ein noch offenes Forschungsproblem. Aber nicht ein
transzendentalphilosophisches, sondern ein solches der von ihm propagierten
mathematischen Psychologie. Da er überhaupt alle wissenschaftlichen Probleme
als Widersprüche definierte, um deren „Lösung“ sich die Forschung zu bemühen
habe, mußte dies auch für das metaphysische Grundproblem gelten. Gelöst hat er
es freilich nicht, sondern er hat sich für den Realismus entschieden.
c. Bolzano, Frege und Lotze setzten sich im Bewußtsein quadrivialer Selbst-
verständlichkeiten über alle Skrupel hinsichtlich ihrer metaphysischen Voraus-
setzungen hinweg. Die naturwissenschaftlichen Objekte beschrieben sie als ein-
fach gegeben. Die Objekte erklärte Bernhard Bolzano als „Gedanken, die es auch
gibt, wenn sie niemand denkt“; Gottlob Frege als „Bedeutungen“, als welche z. B.
der Planet Venus genau so objektiv gegeben sei wie die Wahrheit und Falschheit;
Hermann Lotze als ein makrokosmisches evolutionäres Kontinuum vom Atom bis
zum „(absoluten) Geist“, deren Erkenntnis letztlich ein transzendentales Reich
von „Geltungen“ ausmache. Dabei behandelte Lotze das Subjekt, von dem alle
439

diese Gedanken ausgingen, selber als Objekt naturwissenschaftlicher und insbe-


sondere physiologischer Forschung. Er hatte damit außerordentlichen Lehrerfolg
und zog viele ausländische, insbesondere britische und amerikanische Studenten
nach Deutschland.
d. So ergab sich die Tendenz, daß die Physiker nach den Objekten der physika-
lischen Mechanik und Dynamik zunächst die Physiologie der Sinnesorgane und
dann auch die Psychologie der „höheren“ Subjektleistungen als Spezialdomänen
ihrer realistischen Metaphysik für sich beanspruchten. Johannes von Müller, Her-
mann von Helmholtz, Gustav Theodor Fechner und Ernst Heinrich Weber, Fried-
rich Albert Lange bis Wilhelm Wundt machten daraus naturwissenschaftlich-ex-
perimentelle Disziplinen, deren Forschungsergebnisse von ihren Nachfolgern z. T.
bis heute als gesichert anerkannt werdent.
Ein Hauptergebnis war dabei Helmholtz„ Theorie der spezifischen Sinnesener-
gien, die von Seiten des „psychischen Apparats“ bei den von ihm untersuchten
Seh- und Hörfunktionen intervenieren sollten. Und entsprechende Energien oder
Kräfte wurden dann auch für die höheren Subjektleistungen zugrunde gelegt.
e. Franz Brentano postulierte schließlich auf der Grundlage eines realistischen
Neu-Aristotelismus für jede „intentionale“ Vorstellung im Bewußtsein ein Objekt;
darunter die Naturgegenstände ebenso wie die Objekte von Wünschen, Emotionen
und Wertschätzungen.
6. Die quadriviale Fundierung des Realismus wurde in Frankreich durch den so-
genannten Positivismus Auguste Comtes zu einer fast konkurrenzlosen Selbstver-
ständlichkeit. Die Moderne führte nach Comtes geschichtsphilosophischem Drei-
Stadiengesetz der Kulturentwicklung von den mythologisch-theologischen Vor-
stellungen der Antike über ein mittleres Stadium metaphysizierter Theologumena
der bisherigen Philosophie direkt zum nunmehr angebrochenen „wissenschaftli-
chen Zeitalter“, in dem alles auf mathematisch-exakte Begriffs- und Theoriebil-
dung und einen inhaltlichen physikalistischen Reduktionismus hinauslief. Darin
lag von vornherein ein starker Antrieb, die noch verbliebenen Reste an Metaphy-
sik aus den Wissenschaften auszumerzen.
Diese geschichtsphilosophische Begründung wurde verstärkt und überhöht
durch die positivistische Wissenschaftsarchitektonik Comtes. Die Mathematik bil-
det bei ihm die Grundlage aller Methodologie, und sie verdrängte so die Logik aus
dem Wissenschaftssystem. Die Verbindung der Mathematik mit der Astronomie
und Physik ergab die erste und am weitesten entwickelte exakte Wissenschaft,
worauf sich dann Chemie und Biologie gründen sollten, um als letzte und noch
weit von Exaktheit entfernte Wissenschaft die „soziale Physik“ bzw. die von
Comte selbst inaugurierte „Soziologie“ hervorzutreiben. Wobei letztere sich bei
seinen Anhängern alsbald als umfassende Kulturwissenschaft in Frankreich etab-
lierte.
Der positivistische Geist und die wissenschaftstheoretischen Ideen Comtes wur-
den bekanntlich von John Stuart Mill, Freund und Mäzen Comtes, in England
importiert und verdrängten alsbald den bis dahin noch vorhandenen Idealismus
440

der „Platoniker“, zu denen auch George Berkeley zählt, und der Hegelianer weit-
gehend aus den Kurrikula der Universitäten. Dabei verband er sich eng mit der
empiristischen Tradition von Francis Bacon, Thomas Hobbes, John Locke und
David Hume, die zusammen mit der schottischen Schule, zu der Thomas Reid
gehörte, das ausmachten, was man damals wie noch jetzt als britischen „Common
sense“ bezeichnet.
Der britische Commonsense ist freilich seit Hume und Reid, und durch Mill
verstärkt, ein Glaube an die Existenz unerkennbarer „Dinge an sich“. Und wie
beim Glauben überhaupt besteht er im Für-wahrhalten einer widersprüchlichen
Verknüpfung unvereinbarer Thesen. Nämlich daß diese Dinge an sich unerkenn-
bar seien, daß man aber schon immer erkannt habe, daß sie Kausalursachen für
Sinneseindrücke in körperlichen Sinnesorganen sowie vermittelst dieser von Vor-
stellungen im Bewußtsein von Geistern seien.
Diese Glaubensvoraussetzung wird von Mill in seinem einschlägigen Haupt-
werk „System der deduktiven und induktiven Logik“ von 1843, das in zahlreichen
Auflagen zur britischen Bibel der Wissenschaftstheorie geworden ist, geradezu als
selbstverständlich eingeführt, nämlich mit einem
„Satz, über den jetzt die besten Denker so gut als einig sind, den Satz nämlich, daß
alles, was wir von der Materie wissen können, aus den Sinnesempfindungen, die sie
in uns erregt, und der Folgeordnung jener Sinnesempfindungen besteht und daß,
während die Körper genannte Substanz die unerkennbare Ursache der Sinnesemp-
findungen ist, die Geist genannte Substanz der unerkannte Empfänger derselben ist.“
273

Dieser Satz beruht auf einer auf Anschauung gestützten „Intuition“, von der Mill
kurz vorher sagt: „Was man Anschauung (intuition) nennt, bildet bloß einen be-
sonderen Fall von Glauben, und Glaube ist eine Unterart von Gedanke“.274
Mills Konzentration auf Sprachanalyse ist bekanntlich eine Charakteristik der
gesamten angelsächsischen Wissenschaftstheorie geworden. So beginnt das erste
Kapitel seines Werkes mit dem Hinweis: „Von der Notwendigkeit, mit einer Ana-
lyse der Sprache zu beginnen“. Diese Sprachanalyse führt direkt zu den „Namen“,
und diese sind für Mill „Namen der Dinge, nicht unserer Ideen der Dinge“.275 Sie

273
J. St. Mill, System der deductiven und inductiven Logik. Eine Darlegung der Grundsätze der Beweislehre und der
Methoden wissenschaftlicher Forschung. Mit Genehmigung und unter Mitwirkung des Verfassers übersetzt und mit
Anmerkungen versehen von Theodor Gomperz, 2. verm. und verb. deutsche Aufl, 1. Band, Leipzig 1884, Buch I, Kap. 3, §
15 S. 83. Der engl. Originaltext „A System of Logik, Ratiocinative and Inductive”, 2 Bände, London 1834, wurde zuerst
von J. Schiel, Braunschweig 1849, ins Deutsche übersetzt.
274
J. St. Mill, op. cit. Buch I, Kap 3, § 15, S. 82.
275
J. St. Mill, op. cit. Buch I, Kap. 2, §1, S. 22: Gegen Th. Hobbes„ These, „Ein Name ist ein gewähltes Wort, das als
Merkmal dient, um in unserem Geiste einen Gedanken wachzurufen, der einem Gedanken gleicht, welchen wir vorher
hatten und das, Anderen gegenüber ausgesprochen, diesen als Zeichen eines Gedankens dient, den der Sprechende früher
in seinem Geiste hatte“ (Hobbes, Computation or Logic, cap. 2), definiert Mill (S. 23): „Es scheint angemessen, ein Wort
als den Namen dessen anzusehen, was wir verstanden wissen wollen, wenn wir das Wort gebrauchen, - dessen, von dem
jede Tatsache gelten soll, wie wir von ihm aussagen, dessen, mit einem Worte, worüber wir unterrichten wollen, so oft wir
das Wort gebrauchen. Wir werden daher von Namen stets als von Namen der Dinge selbst, nicht unserer Ideen der Dinge
handeln.“
441

können schlichte Eigennamen von Individuen, jedoch auch komplexe Ausdrücke


sein, die später von B. Russell „Kennzeichnungen“ genannt wurden.
Mill läßt erkennen, daß die Namen gemäß ihrer lautlichen und schriftlich-
zeichenmäßigen Wahrnehmbarkeit selbst zu den Dingen gehören. Er beruft sich
dazu auf die scholastische „suppositio materialis“, gemäß der Wörter oder Zei-
chen sich selbst bedeuten sollen. Deshalb geht es in dieser Logik auch nicht um
Begriffe und ihre (mentalen) Bedeutungen. Die Beziehungen zwischen den Na-
men bei der Satzbildung sind daher auch zugleich eine Art ontologischer, später
meist „semantisch“ genannter Relationen. Logische Formalismen sind selbst „ma-
teriale“ Dinge, die ihre Eigenschaften mit den nichtsprachlichen Dingen teilen.
Das hat sowohl bei Mill wie auch in der Analytischen Wissenschaftstheorie die
Folge, daß die „Intuitionen“ der Wissenschaftler kaum eine Rolle spielen, da sich
wissenschaftliche Erkenntnisse nur in ihren zeichenmäßigen Formalisierungen
(besonders in mathematischen Gleichungen) objektivieren. Sie treten als materiel-
le Abbilder neben die abgebildeten aber „unerkennbaren“ Naturerscheinungen.
Dies erklärt jedenfalls, daß sich die Diskussion über die Objekte der Forschung
mehr und mehr auf die Diskussion über die Interpretation der physikalischen und
anderer mathematischer Formeln verlagert hat. Die Intuitionen bezüglich der men-
talen Bedeutung der materiellen Formeln werden dann ihrerseits nochmals (in
sogenannter Meta-Intention) zum Gegenstand interpretierender Intuitionen.
In dem späteren Buch „Eine Prüfung der Philosophie Sir William Hamiltons“
von 1865 hat sich Mill ausführlicher mit Hamiltons und anderer Zeitgenossen
Theorien über den „Glauben an die Realität der Außenwelt“ auseinandergesetzt
und dabei auch seine eigene Theorie weitläufig ausgeführt. Sie besagt, daß der
Glaube an eine subjektsunabhängige Außenwelt und ihre „Materie“ nicht durch
einzelne und ephemere Sinneserfahrungen nahegelegt wird, sondern durch die all-
gemeine und für alle Menschen gleiche „permanente Möglichkeit von Wahrneh-
mungen“.
„Dieselbe Theorie, die Aufschluß darüber gibt, daß wir einem Aggregat von Wahr-
nehmungsmöglichkeiten eine permanente Existenz zuschreiben, die unsere Wahr-
nehmungen selbst nicht besitzen, und folglich auch eine größere Realität als sie un-
seren Wahrnehmungen eigen ist, ebendieselbe erklärt es auch, daß wir den primären
Qualitäten der Körper eine größere Objektivität beilegen, als den sekundären. Denn
die Wahrnehmungen, die dem entsprechen, was man primäre Qualitäten nennt (so-
bald wenigstens als wir sie mit zwei Sinnen, dem Gesichts- und dem Tastsinn,
erfassen), sind immer gegenwärtig, wenn irgend ein Teil der Gruppe gegenwärtig
ist. … Den sekundären Qualitäten entsprechen nur gelegentliche Wahrnehmungen,
den primären konstante. Die sekundären sind überdies verschieden, je nach den ver-
schiedenen Personen und der jeweiligen Empfindlichkeit unserer Organe; die primä-
ren sind, wenn überhaupt wahrgenommen, soviel wir wissen, bei allen Menschen
und zu allen Zeiten dieselben.“ 276

276
J. St. Mill, Eine Prüfung der Philosophie Sir William Hamiltons, dt. von H. Wilmanns, Halle 1908, S. 266. Engl.
Erstauflage „Examination of Sir William Hamilton‟s Philosophy, 1865.
442

Diese Begründung war für die Zeitgenossen gewiß ein netter und überraschender
Einfall. Und er erklärt, daß die spätere analytische Wissenschaftstheorie gleich-
sam nachholend die Modallogik und die Theorien der „möglichen Welten“ inten-
siv diskutierte. Es war jedoch auch nach allem, was wir vorn in § 10 über „Mög-
lichkeit“ und die Modallogik und im § 4 über Glauben und Wissen ausgeführt
haben, ein weiteres Beispiel der dialektischen Begründung des Realismus. Die an-
geblich so wirkliche Welt verflüchtigte sich in „mögliche Welten“ als ein wider-
sprüchliches Gemenge von Sein und Nichtsein.
7. Das metaphysische Problembewußtsein verschwand im 20. Jahrhundert mit
den Erfolgen der mathematischen Naturwissenschaften zusehends. Es war Symp-
tom dieser Lage, daß im Wiener und Berliner Kreis zunächst das Wort von der
metaphysischen Begriffsdichtung Fortüne machen konnte. Ebenso, daß R. Carnap
erfolgreich mit der These durchkam, die Fragen realistischer und idealistischer
Begründungsmetaphysiken seien Scheinprobleme.277
Dieser Extremismus ist zwar in den letzten Dezennien etwas gemildert worden.
Man sieht deutlicher die Notwendigkeit, wieder auf Letzbegründungen zurückzu-
kommen. Da es aber in Naturwissenschaftlerkreisen ersichtlich an philosophischer
und erst recht metaphysischer Bildung mangelt, werden die alten Topoi realisti-
scher Metaphysik gleichsam im Kreise herum immer wieder neu entdeckt und
vorgebracht.
Erwähnen wir als Beispiele für den aktuellen Umgang mit dem Realismus-
problem die Diskussion um die „Gegebenheit“ quantenphysikalischer Objekte.
Sie gelten als Grundbausteine aller Realität, weshalb alles das, was die Quanten-
physik darüber erforscht hat, auch als Letztbegründung des Realismus angesehen
wird.
Die quantenphysikalischen Objekte werden, wie von Mill vorgeschlagen, in
Möglichkeitsbegriffen diskutiert, von denen wir vorn in § 10 schon gezeigt haben,
daß sie widersprüchliche Begriffe sind. So hat John Bell mit großem Anklang bei
seinen Kollegen die möglichen Objekte der Quantenmechanik „Beables“ (etwa:
Sein-Könnendes) genannt:

„Die ‚beables„ der Theorie sind jene Elemente, die den Elementen der Wirklichkeit ent-
sprechen könnten, also Dingen, die existieren. Ihre Existenz hängt nicht von ‚Beobach-
tung„ ab.“ 278

Wer erinnert sich schon daran, daß „beable“ als das lateinische „possest“ von
Nikolaus von Kues einst als Gottesname vorgeschlagen worden war. Und auch

277
Vgl. R. Carnap, Scheinprobleme in der Philosophie. Das Fremdpsychische und der Realismusstreit, Frankfurt a. M.
1966, bes. S. 60 – 81.
278
„The beables of the theory are those elements which might correspond to elements of reality, to things which exist.
Their existence does not depend on ‚observation‟ “, in: J. Bell, Speakable and unspeakable in quantum mechanics,
Cambridge, Mass. 1989, S. 174, zit. nach M. Stöltzner, Über zwei Formen von Realismus in der Quantentheorie, in:
Journal for General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 30, 1999, S. 289.
443

beim Cusaner war „possest“ die dialektische Coincidentia aller Oppositionen in


der Welt.
Zum quantenphysikalischen Objektbereich gehören „unbeobachtbare Parame-
ter“ (hidden variables), für die sich vor allem David Bohm stark gemacht hat. 279
Wie immer es nun um diese physikalischen Objekte steht, so läßt sich nicht
leugnen, daß sie entweder sinnlich beobachtet (bzw. durch Meßgeräte erfaßt und
quantifiziert) oder mittels Schlußfolgerungen als unbeobachtbare Ursachen mani-
fester Wirkungen erschlossen werden. Von ihnen zu reden, setzt also sinnliche
oder „rationale“ Tätigkeit eines Subjets voraus. Vom Subjekt aber gilt umgekehrt,
daß es nur als dasjenige definiert ist, was solche Tätigkeiten der Wahrnehmung,
des technisch-messenden Eingriffs oder der phantasievollen Erfindung von Ob-
jekteigenschaften erbringt. Objekt und Subjekt überlappen sich darin nicht nur,
sondern sie werden darin dasselbe bzw. identisch.
Das hat in der deutschen Kantinterpretation wohl am deutlichsten Gerold Prauss
in seiner jüngsten Studie „Die Einheit von Subjekt und Objekt. Kants Problem mit
den Sachen selbst“ (Freiburg i. Br. 2015) herausgearbeitet.
Unter den analytischen Philosophien hat das Problem wohl auch Hilary Putnam
empfunden. Aber er versuchte es eine Zeitlang durch einen von ihm sogenannten
„internen Realismus“ zu lösen. Diesen setzte er dem „metaphysischen Realismus“
entgegen, welchem er vorwarf, die Welt „vom Standpunkt Gottes“ („with God‟s
Eye point of view“) zu betrachten. Er begründet seinen „internen Realismus“ so:
„Es gibt keinen göttlichen Standpunkt, den wir kennen oder uns ausmalen können;
es gibt nur die verschiedenen Sichtweisen wirklicher Personen, die unterschiedliche
Interessen und Absichten widerspiegeln, denen ihre Beschreibungen und Theorien
dienen.“ 280

Als jedoch seine Anhänger ebenso wie seine Gegner dies als verkappten Idealis-
mus kritisierten, hat Putnam wieder davon Abstand genommen. Immerhin hat es
im Lager der Analytischen Philosophie zu einer intensiven Debatte mit Vorschlä-
gen einer Reihe von Realismus-Konzeptionen geführt, die den Realismus gegen-
über der idealistischen Kritik in Schutz nehmen sollen.281 Selbst diejenigen, die
den Realismus in der Physik ablehnten und ihn geradezu für tot erklärten, wie z.
B. Arthur Fine 282, sprachen dann nur noch von „Anti-Realismus“ und vermieden
es geradezu ängstlich, ihre Begründungsargumente mit dem Idealismus in Verbin-
dung zu bringen. Ersichtlich ist jedoch „Anti-Realismus“ keine Bezeichnung eines

279
Vgl. M. Carrier, Art. “Parameter, verborgene”, in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissen-
schaftstheorie, Band 3, Stuttgart-Weimar 1995, S. 53 f.
280
“There is no God‟s Eye point of view that we can know or usefully imagine; there are only the various points of view
of actual persons reflecting various interests and puposes that their descriptions and theories subserve”, H. Putnam,
Reason, Truth and History, Cambridge, Mass. 1981, S. 50.
281
Vgl. dazu S. Psillos, The present state of the scientific realism debate, in: British Journal of Theoretical Physics 51,
2000, S. 705 – 728; sowie Journal for General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie
42/2, 2011, Special Section: Scientific Realism – after the classical debate, S. 263 – 365.
282
A. Fine, The Shaky Game: Einstein, Realism, and the Quantum Theory, 2. Aufl. Chicago 1996.
444

metaphysischen Standpunktes. Hinter der Parole werden einstweilen alle mög-


lichen kritischen Argumente gegen die realistische Position gesammelt und ihrer-
seits vom realistischen Standpunkt aus zu widerlegen gesucht.
Das zeigt, daß Realismus und Idealismus wie seit jeher nur in einem pole-
mischen Verhältnis zu einander stehen geblieben sind. Man begnügt sich damit,
daß jede dieser beiden Positionen zwar nicht beweisbar, aber auch nicht wider-
legbar sei.

Betrachten wir auch die Entwicklung des Idealismus seit Kant. Mit gleichem
Recht wie die deutschen Realisten sich auf Kant und die 2. Auflage der „Kritik“
beriefen, machten die deutschen Idealisten die erste Auflage der „Kritik“ zum An-
knüpfungspunkt ihrer Metaphysik.
Der Anknüpfungspunkt war Kants These in der 1. Auflage, wonach er das
„Ding an sich“ zu einem „Noumenon“, also zu einer subjektiven Vorstellung,
einem „Gedanken“ erklärte. Hinzu kam die wiederholte Betonung in den Prole-
gomena und in der 2. Auflage der „Kritik der reinen Vernunft“, daß sein System
ein „transzendentaler Idealismus“ sei, der nach seiner architektonischen Stellung
im System seinen empirischen Realismus begründe, und nicht umgekehrt. Kurz-
um, die deutschen Idealisten strichen Kants „Dinge an sich“ aus ihrem Vokabular.
1. Die idealistische Kant-Interpretation wurde zuerst von Karl Leonhard Rein-
hold (1758 – 1823), der überhaupt für die Verbreitung der Philosophie Kants in
Deutschland durch seine „Briefe über die Kantische Philosophie“ (2 Bände,
Leipzig 1790 - 1792) so wesentlich gewirkt hat, auf den Punkt gebracht. So in
seinem „Versuch einer neuen Theorie des menschlichen Vorstellungsvermögens“
von 1791.283 Er hat das idealistische Grundprinzip als (axiomatischen) „Satz des
Bewußtseins“ formuliert und daraus sein eigenes System einer „Elementarphilo-
sophie“ entwickelt. Der Grundsatz lautet: „Im Bewußtsein wird die Vorstellung
vom Vorstellenden und Vorgestellten unterschieden und auf beides bezogen“.284
Damit geriet Kants Begriff vom „transzendentalen Subjekt“ in den Mittelpunkt
des idealistischen Denkens. Von ihm wurden fortan alle Inhalte der Philosophie
hergeleitet. Leitfaden dafür wurde die traditionelle durch Christian Wolff ver-
mittelte Vermögenspsychologie 285 , die auch Kant für die Architektur seines
Systems benutzt hatte. Die einzelnen Positionen privilegieren jeweils eines dieser
und weiterer „Vermögen“ und leiten alle übrigen Subjektsvermögen daraus ab.
Nach den Titeln der kantischen Hauptwerke mußte es den deutschen Idealisten
als selbstverständlich erscheinen, daß Kant letztlich das Vernunftvermögen zum
283
K. L. Reinhold, Versuch einer neuen Theorie des menschlichen Vorstellungsvermögens, 2 Bände, Jena 1789; Teilband
1 neu hgg. von E.-O. Onnasch, Hamburg 2012.
284
Vgl. dazu und zum Folgenden K. Vorländer, Geschichte der Philosophie, Band 3/1, völlig neu bearbeitet von L. Geld-
setzer, Hamburg 1975, S. 26 - 29.
285
Vgl. Chr. Wolff, Psychologia empirica methodo scientifica pertractata, qua ea, quae de anima humana indubia experi-
entiae fide constant, continentur, Frankfurt u. Leipzig 1732; ders., Psychologia rationalis methodo scientifica pertractata,
qua ea, quae de anima humana indubia experientiae fide innotescunt, per essentiam et naturam animae explicantur, Frank-
furt u. Leipzig 1734. - Wolff behandelt speziell das Erkenntnis- und das Begehrungsvermögen, auf die sich auch Kants
Kritiken der reinen und der prakischen Vernunft beziehen.
445

Prinzip seines idealistischen Systems gemacht hatte. Sie sahen auch deutlicher als
die Realisten, daß Kant mit dem „dialektischen“ Vernunftvermögen und seinen
„Ideen“ von Welt und Seele und seinem „Ideal“ des Gottes widersprüchliche
(„dialektische“) axiomatische „Bedingungen der Möglichkeit“ alles Wissens als
Letztbegründungen der Transzendentalphilosophie vorgegeben hatte. Die von ihm
sogenannten „regulativen Ideen“ waren schon deshalb in sich widersprüchlich,
weil sie einerseits höchste bzw. allgemeinste Begriffe, andererseits jedoch keine
echten Begriffe sein sollten. Als Subjektsbegriffe in Behauptungssätzen machten
sie die „transzendentalen Grundsätze“ zu Antinomien und Paralogismen.
Ob und wie diese kantische These, daß die Vernunft ein Vermögen des Den-
kens in Widersprüchen sei, und dies im Gegensatz zum Verstandesvermögen des
Denkens in widerspruchslosen logischen Kategorien, mit der Lehre des Nikolaus
von Kues vom vernünftigen „wissenden Nichtwissen“ (docta ignorantia) der „co-
incidentia oppositorum“ im Gegensatz zur verstandesmäßigen (nichtwidersprüch-
lichen) Explikation der sinnlichen Erscheinungen zusammenhängt, ist noch immer
ein Desiderat der philosophiegeschichtlichen Forschung.286
Diese widersprüchlichen „Grundbegriffe“ der Vernunft mußten ihre Merkmale
in irgendeiner Weise auch in den generischen Merkmalsbestand der Verstandes-
kategorien und der Anschauungsformen einbringen. So kann es nicht verwun-
dern, daß in den Systemen der deutschen Idealisten so ausgebreitet von Dialektik
die Rede ist, ohne daß dabei ein Einverständnis darüber erzielt wurde, was Dia-
lektik eigentlich sei.
2. Am meisten Aufsehen erregte zunächst Johann Gottlieb Fichte mit seiner
„Wissenschaftslehre“. Fichte knüpft an die praktische Philosophie an, die auch
Kant als Objekt der „Kritik der praktischen Vernunft“ in den Vordergrund der
Transzendentalphilosophie gerückt hatte. So wird bei Fichte die Urtathandlung
des Bewußtseins zum metaphysischen Axiom und damit das praktische Vermögen
schlechthin zum Leitfaden seiner Philosophie. Man kann sie daher als Ursprung
aller späteren philosophischen „Pragmatismen“ ansehen. Fichtes Analysen des
„Tathandelns“ brachten das dominierende Interesse Fichts an der „Freiheit“, ge-
nauer: der „Wahlfreiheit“ zum Tragen, das ohnehin damals alle Gemüter bewegte.
Das trug ihm eine heftige Auseinandersetzung mit dem alten Kant ein.
Während Kant nämlich in den Prolegomena noch behauptet hatte: „Metaphysik
ist vielleicht mehr wie irgendeine andere Wissenschaft durch die Natur selbst
ihren Grundzügen nach in uns gelegt und kann gar nicht als das Produkt einer
beliebigen Wahl oder als zufällige Erweiterungen beim Fortgange der Erfahrung
(von denen sie sich gänzlich abtrennt) angesehen werden“, 287 machte Fichte
gerade umgekehrt eine freie Wahl zur Bedingung der Möglichkeit der metaphysi-
schen Problematik:

286
Jedenfalls übergeht St. Meier-Oeser in seinem lehrreichen Buch „Die Präsenz des Vergessenen. Zur Rezeption der
Philosophie des Nicolaus Cusanus vom 15. bis 18. Jahrhundert, Münster 1989, diese Frage mit Stillschweigen.
287
I. Kant, Prolegomena, hgg. von K. Vorländer Hamburg 1951, S. 119.
446

„Was für eine Philosophie man wähle, hängt sonach davon ab, was man für ein
Mensch ist: denn ein philosophisches System ist nicht ein todter Hausrath, den man
ablegen oder annehmen könnte, wie es uns beliebte, sondern es ist beseelt durch die
Seele des Menschen, der es hat.“ 288

Fichte selbst gab Gründe für seine „Wahl“ des Idealismus an, indem er an gleicher
Stelle fortfährt:
„Ein von Natur schlaffer oder durch Geistesknechtschaft, gelehrten Luxus und
Eitelkeit erschlaffter und gekrümmter Charakter wird sich nie zum Idealismus er-
heben. ... Zum Philosophen – wenn der Idealismus sich als die einzige wahre Philo-
sophie bewähren sollte – zum Philosophen muß man geboren seyn, dazu erzogen
werden, und sich dazu erziehen; aber man kann durch keine menschliche Kunst
dazu gemacht werden.“ 289

Das konnte logisch nur heißen, daß diese freie Wahl zugleich keine freie Wahl
sein konnte.
3. Friedrich Wilhelm Joseph Schelling, eine zeitlang enger Mitarbeiter und dann
Kollege Fichtes in Jena, machte in seiner „Identitätsphilosophie” die kreative
Phantasie bzw. die Einbildungskraft – von ihm auch „Dichtungsvermögen“ ge-
nannt - zum metaphysischen Prinzip seines Systems. Er nannte sie auch „intel-
lektuelle Anschauung“ oder „produktive Anschauung“. Bei Kant war mit diesen
Termini ein nur einem göttlichen Schöpfer zuzusprechendes Vermögen benannt
worden, wodurch die Gedanken Gottes durch den göttlichen Denkakt zu geschaf-
fenen Wesen werden. Schelling bezog dies Vermögen auf das menschliche Be-
wußtsein des „Genies“, das nun durch unbewußte intellektuelle Anschauung die
Natur in sich nachbildet, in bewußter intellektueller Anschaung alle Kultur, und in
unbewußt-bewußter intellektueller Anschauung die Kunst hervorbringt. So wurde
ihm die Philosophie selbst, in welcher die Natur und Kultur „identisch“ werden
sollen, zu einem nur dem philosophischen Genie erreichbaren Kunstwerk.
„Es ist das Dichtungsvermögen, was in der ersten Potenz die ursprüngliche An-
schauung ist, und umgekehrt, es ist nur die in der höchsten Potenz sich wieder-
holende produktive Anschauung, was wir Dichtungsvermögen nennen. Es ist ein und
dasselbe, was in beiden tätig ist, das einzige, wodurch wir fähig sind, auch das Wi-
dersprechende zu denken, und zusammenzufassen, - die Einbildungskraft.“ 290

4. Georg Wilhelm Friedrich Hegel, seinerseits mit Schelling seit der gemein-
samen Ausbildung am Tübinger Stift befreundet und in Jena sein engster Mit-
arbeiter und Kollege, machte die Erinnerung bzw. das Gedächtnisvermögen zum
Prinzip seiner idealistischen Metaphysik, die „das absolute Wissen“ zum Ziel hat.
Seine Entfaltung nennt er „Erfahrung des Bewußtseins“.
288
J. G. Fichte, Erste Einleitung in die Wissenschaftslehre, 1797, in: Fichtes Werke, hgg. v. I. H. Fichte, Band 1, ND Berlin
1971, S. 434.
289
J. G. Fichte, Erste Einleitung in die Wissenschaftslehre, S. 434 f.
290
F. W. J. Schelling, System des transzendentalen Idealismus (Tübingen 1800), hgg. von W. Schulz, Hamburg 1957 (ND
1962), S. 295f. und passim.
447

„Das Ziel, das absolute Wissen, oder der sich als Geist wissende Geist hat zu seinem
Wege die Erinnerung der Geister, wie sie an ihnen selbst sind und die Organisation
ihres Reiches vollbringen. Ihre Aufbewahrung nach der Seite ihres freien in der
Form der Zufälligkeit erscheinenden Dasein ist die Geschichte, nach der Seite ihrer
begriffnen Organisation aber die Wissenschaft des erscheinenden Wissens; beide
zusammen, die begriffne Geschichte, bilden die Erinnerung und die Schädelstätte
des absoluten Geistes.“ 291

An Schelling anknüpfend, wurde ihm die Natur zum noch unbewußten Gedächt-
nisinhalt des Weltgeistes, die Kulturgeschichte aber zu einer umfassenden Erinne-
rungskonstruktion der bewußten sinnlichen und vernünftigen Leistungen dieses
„Er-Innerungs-“ Vermögens. Er hat dabei der Dialektik die größte Aufmerksam-
keit gewidmet, weshalb man ihn gewöhnlich für den Inaugurator der modernen
dialektischen Methode hält. In der „Phänomenologie des Geistes“ hat er diese
dialektische Methode jedoch nur für die induktive Gewinnung von Begriffen für
die Handlungen des Bewußtseins auf seinen verschiedenen Stufen genutzt und
damit den widersprüchlichen Charakter dieser „dialektischen“ Zwischenstufe der
Induktion herausgestellt.292
5. Arthur Schopenhauer, Kantkritiker und in Berlin geradezu Antipode Hegels,
schloß die Reihe dieser Idealisten damit ab, daß er den Willen zum metaphy-
sischen Prinzip machte. So in seinem Hauptwerk „Die Welt als Wille und Vor-
stellung“.293 Auch er unterschied zwischen den unbewußten Willensphänomenen
in der Natur und den bewußten in der Kultur.
Seine Motivation war allerdings nicht die Bewußtseinsanalyse der Kant-Nach-
folger, sondern die große philosophiegeschichtliche Tradition des augustinischen
Voluntarismus, in welcher in der Aufklärung auch Rousseau gestanden hatte, als
er die „volonté génerale“ als nationales Willensvermögen ausgerufen hatte. Ob-
wohl Schopenhauer diese abendländische Genealogie seines Prinzips nicht offen-
legte, kann man ihm doch unterstellen, daß er sich darüber im klaren war. Denn
seine späteren Rückgriffe auf die chinesische „Mitleidsethik“ des Mo Zi sowie
den indisch-buddhistischen Nihilismus lassen erkennen, daß er wie wenige vor
ihm aus den Quellen der Weltgeschichte der Philosophie geschöpft hatte.
6. Es muß auffallen, daß in der Reihe der deutschen Idealisten keiner das Sin-
nesvermögen als Leitvermögen des Bewußtseins zum Prinzip der Metaphysik er-
koren hat. Aber diesbezüglich ist daran zu erinnern, daß gerade eine solche „sinn-
liche“ (sensualistische) Metaphysik schon hundert Jahre zuvor von George Berke-
ley vertreten worden war. Und diese war durch Kant in den deutschen philosophi-

291
G. W. F. Hegel, Phänomenologie des Geistes (Bamberg u. Würzburg 1807) , hgg. von J. Hoffmeister, 6. Aufl. Ham-
burg 1952, S. 564.
292
Dazu L. Geldsetzer, Über das logische Prozedere in Hegels„Phänomenologie des Geistes„, in: Jahrbuch für Hegel-
forschung, hgg. von H. Schneider, Band 1. 1995, S. 43 – 80. – Vgl. auch die pyramidale Formalisierung dieses Prozedere in
§ 9.
293
A. Schopenhauer, Die Welt als Wille und Vorstellung. Vier Bücher nebst einem Anhang, der die Kritik der Kantischen
Philosophie enthält, Leipzig 1819, 2. Aufl. 1844, 3. Aufl. 1859.
448

schen Milieus gründlich diskreditiert worden. Offensichtlich auch deshalb wurde


sie von den deutschen Idealisten nicht wieder aufgenommen, sondern gerade von
den Realisten. Und von diesen wiederum vor allem wegen der vermeintlichen
Nähe zum Konstitutionsproblem der „Dinge an sich“.
Es war Ludwig Feuerbach (1804 – 1872), der diese Lücke mit seinem „anthro-
pologischen System“ ausfüllte und es zugleich an die Junghegelianer weiterver-
mittelte, die bekanntlich mit K. Marx das idealistische System Hegels vom Kopf
auf die Füße“, d. h. auf den Realismus stellen wollten. In Frankreich hatte schon
um die Mitte des 18. Jahrhunderts Étienne Bonnot de Condillac (1714 – 1780) in
Anknüpfung an John Locke und gegen Berkeley einen realistischen Sensualismus
entwickelt, in welchem er alle Erkenntnisse auf die einzelnen Sinne, und die
Erkenntnis der objektiven Außenwelt speziell auf den Tastsinn zurückführte.294
7. Die weiteren Bewußtseinsanalysen seit der zweiten Hälfte des 19. Jahrhun-
derts etwa in Eduard von Hartmanns „Philosophie des Unbewußten. Versuch einer
Weltanschauung“ (1869 u. ö.) bis zu Sigmund Freuds „Tiefenpsychologie“ der
Triebvermögen (Vorlesungen zur Psychoanalyse, 1910 u. ö.) wurden nicht mehr
als Beiträge zum Ausbau des Idealismus angesehen, sondern der Lebensphiloso-
phie zugerechnet.
In der Psychologie begründete sich dann auch die „Phänomenologie“ Edmund
Husserls. Obwohl Husserl später den größten Wert darauf gelegt hat, mit seiner
Phänomenologie eine gänzlich neue Wissenschaft begründet zu haben, und die
meisten Phänomenologen dies ebenso nachdrücklich vertreten, handelt es sich bei
seiner Lehre durchaus um einen Psychologismus. Husserl hat sich vor allem die
Beschreibung der Leistungsfähigkeiten des Subjektes zum Programm gemacht
und dabei stets die metaphysische Voraussetzung des Subjektes als „Egoität“ oder
„transzendentales Leben“ beibehalten.
Das Subjekt, so ergibt sich daraus, wurde hier überall auf „Vermögen“ reduziert.
Und der Inbegriff dieser Vermögen war das „Bewußtsein“ schlechthin. In dieser
Gestalt wurde es – ebenso wie das objekthafte „Ding an sich“ für die Natur-
wissenschaften – zum selbstverständlichen Objekt der Psychologie des 19. und
des 20. Jahrhunderts. Und ebenso wie die objektive Realität der Naturwissen-
schaften als widersprüchlicher Begriff von „an sich und nicht an sich“ existie-
renden Objekten konzipiert war, so auch das Subjekt als „Vermögen“. Das Mög-
liche und die Vermögen sind, wie in § 10 gezeigt wurde, Sein und Nicht-Sein
zugleich. Ihr widersprüchlicher Charakter wird allerdings verbrämt durch die
Termini Bewußtsein und Unbewußtes, und durch die Gewohnheit, von unbe-
wußtem Bewußtsein und bewußtem Unbewußten zu reden..

294
E. B. de Condillac, Essai sur l‟origine des connoissances humaines, ouvrage où l‟on réduit à un seul principe tout ce qui
concerne l‟entendement humain, Paris 1746, dt. Übers. „V ersuch über den Ursprung der menschlichen Erkenntnisse, ein
Werk, in dem alles, was den menschlichen Verstand betrifft, auf ein einziges Prinzip zurückgeführt wird“, Leipzig 1780),
sowie Traité des sensations, 2 Bände, Paris 1754, dt. Übers. „Abhandlung über die Empfindungen“, Berlin 1868 – 1870, in
welchem er die Erkenntnisentstehung an einer Statue demonstriert, die nacheinander mit den einzelnen Sinnen versehen
wird.
449

Als Bewußtsein wurden die jeweils aktuellen Bewußtseinsleistungen aufgefaßt,


wie es schon durch Leibnizens „apperceptions“ als „bewußten Wahrnehmungen“
vorgeprägt war. Das Unbewußte wurde dagegen zur Chiffre eines inaktiven und
gleichsam schlummernden Bewußtseins, und dies in Anknüpfung an Leibnizens
„petits perceptions“, den „unbemerkten Wahrnehmungen“. Die Selbstverständ-
lichkeit, mit der die Existenz des Unbewußten vorausgesetzt wurde, ergab sich aus
der langen Tradition der Theorien des Vergessens und der Anamnesis in der Lehre
von den „eingeborenen Ideen“ seit Platon über Augustinus bis zu den energe-
tischen Erhaltungssätzen von Leibniz: Wenn man sich an Vergessenes wieder
erinnern kann, so muß es irgendwo und irgendwie erhalten geblieben sein, so, wie
man auch etwas Verlorenes, an das man sich erinnert, suchen und wiederfinden
kann.
Daß es mit dem Erinnern an Vergessenes aber so einfach nicht ist, war eigent-
lich schon bei der sokratischen Maieutik deutlich. Daß es dabei keineswegs darum
gehen konnte, unbewußtes bzw. vergessenes Wissen ins Bewußtsein zu heben,
dürfte den meisten Lehrern eine vertraute Erfahrung sein. Die vorgebliche „Ge-
burtshilfe“ (Maieutik) beim Erinnern erweist sich als höchst komplexe Technik, in
die stets die gegenwärtig aktuellen herrschenden Ideen und Kategorien eingehen.
Einige davon hat der Soziologe Maurice Halbwachs in den zwanziger Jahren des
20. Jahrhunderts aufgezeigt, aber bisher kaum Nachfolge gefunden.295
Hauptstütze der Vermögenslehre aber wurde die seit Platon und Aristoteles
übliche Verknüpfung der psychischen Leistungen mit einem speziellen körperli-
chen Organ. Darauf gründet sich die Meinung: ohne Sinnesorgan keine Wahrneh-
mung, und ohne (gesundes) Gehirn kein Denken. Die meisten folgern daraus
weiter, daß die Sinnesorgane wahrnehmen und das Gehirn denkt. Manche folgern
auch, das Auge sehe stets unbewußt, und erst die Aufmerksamkeit führe zu einem
„bewußten“ Sehen. Und ebenso denke das Gehirn permanent unbewußt und je-
denfalls schon bevor ein Gedanke (oder eine Entscheidung) ins Bewußtsein trete.
Die Optik erklärt uns ganz zuverlässig, daß das Auge eine Retina besitzt, auf der
nach optischen Gesetzen ein auf dem Kopf stehendes und seitenverkehrtes Bild
dessen erzeugt wird, was man vor dem Auge sieht. Um das festzustellen, muß
aber das Auge bzw. seine Retina nebst dem, was vor ihm liegt, in einem sinn-
lichen Wahrnehmungsakt eines anderen Beobachters gesehen werden. Darum er-
klärt die optisch-physiologische Funktion des Sehorgans keineswegs das Sehen.
Ebenso erklärt kein bildgebendes Verfahren der Regungen (des „Neuronenfeu-
erns“) in einem untersuchten Gehirn das Denken. Solche Beobachtungen verdan-
ken sich den technischen Fortschritten, die auch das Innenleben eines Organismus
gewissermaßen unter der Haut offen zulegen erlauben. Mit gleicher Berechtigung
könnte man auf Grund der Beobachtungen der äußeren Oberfläche des Organis-
mus behaupten: die zerfurchte Denkerstirn ist das Denken.

295
M. Halbwachs, Les cadres sociaux de la mémoire, Paris 1925, Neuaufl. 1952; dt. Übersetzung von L. Geldsetzer, „Das
Gedächtnis und seine sozialen Bedingungen“, Berlin-Neuwied 1966, ND Frankfurt a. M. 2006 u. ö.
450

Man nennt auf Grund der Unterscheidung von bewußtem und unbewußtem Be-
wußtsein einen, der gut denkt, einen Denker oder Intellektuellen, auch wenn er
nicht denkt. Genau so nennt man Subjekt etwas, was gewisse sinnliche und
intellektuelle Leistungen erbringt, auch wenn es gerade keine solche Leistungen
erbringt, ja sogar, wenn es ohnmächtig bzw. bewußtlos (oder gar „hirntot“) ist.
Es ist diese dialektische Hypostasierungen der Vermögen (und „Kräfte“) zu sub-
stanziellen Subjekten, die in der abendländischen Wissenschaft die Gespenster-
reiche einer „objektiven Außenwelt“ der Dinge an sich und einer „subjektiven
Innenwelt“ der Geister erzeugt hat. Es sind Welten selbst wenn sie keiner wahr-
nimmt und keiner vorstellt. Mit B. Bolzano gesprochen, handelt es sich um „Ge-
danken an sich, die existieren, auch wenn sie keiner denkt“, um „geschichtliche
Realität, die auch existiert, wenn sich keiner erinnert“, um Kräfte und Potenzen,
die vorausgesetzt werden, obwohl sie nie als solche beobachtet oder vorgestellt
werden können, sondern als „unbeobachtbare Ursachen“ zu beobachteten „Wir-
kungen“ hinzugedacht bzw. hinzuphantasiert werden.

Die Parallelität, die sich zwischen Konstitutionen des Objektes und Subjektes er-
gibt, dürfte auf der Hand liegen. Das „reale“ Objekt der Realisten ist in wider-
sprüchlicher Weise zugleich ding-an-sichhaft und erscheinend. Oder, wie uns die
Quantenphysik belehrt, „unbeobachtbar“ und zugleich empirisch meß- und be-
schreibbar. Und ebenso ist das Subjekt der Idealisten tätig bzw. aktiv und zugleich
untätig. In beiden Fällen ergibt sich das Negierte (d. h. Ding an sich und Un-
tätiges) einzig und allein aus kausalen Rückschlüssen aus den positiv gegebenen
bzw. erscheinenden und beobachteten Fakten und Daten.
Dem Realismus, den Berkeley auch „Materialismus“ genannt hatte, hat er diesen
Widerspruch schon zu seiner Zeit nachgewiesen. Aber nach dem damals – und
noch heute herrschenden - Verständnis vom logischen Widerspruch als Signatur
der Falschheit wurde dies von den Realisten als Frontalangriff auf die „Wahrheit
des Realismus“ aufgefaßt. Und auch Berkeley selbst, der derselben Auffassung
vonn der Falschheit des Widerspruchs huldigte, hat seine idealistische Kritik des
Realismus als „Widerlegung des Realismus-Materialismus“ gemeint und verstan-
den.
Dem Idealismus ist die Widersprüchlichkeit seines metaphysischen Prinzips
eines bewußt-unbewußten Vermögens ersichtlich bis heute weder selber klar ge-
worden, noch ist diese Widersprüchlichkeit von der realistischen Kritik als das
Proton Pseudos des Idealismus erkannt worden. Und dies vor allem deswegen,
weil der Realismus – wie in § 10 gezeigt wurde - den Möglichkeitsbegriff und
damit auch den Vermögensbegriff selbst als nicht-widersprüchlichen Begriff defi-
niert und verwendet hat.
Legt man jedoch die im § 10 ausführlich begründete These zugrunde, daß der
Widerspruch im Begriff gar nicht wahrheitswertfähig und der Urteilswiderspruch
immer wahr und falsch zugleich ist, so kann der Widerspruchsnachweis bezüglich
der Grundbegriffe und Folgesätze einer Theorie keineswegs dazu dienen, die
451

Theorie in toto als „falsch“ zu deklarieren. Der Widerspruchsnachweis kann nur


dazu führen, falsche Anteile einer Theorie herauszustellen und von den wahren
Bestandteilen derselben Theorie zu unterscheiden.
Genau dies läßt sich auch aus der Kritik Berkeleys am Realismus-Materialismus
herauslesen. Berkeley weist nach, daß die Voraussetzung, es gebe bewußt-
seinsunabhängige Dinge, einfach falsch sein muß, weil jede Aussage über die
Dinge schon deren Wahrgenommenwerden beinhaltet. Und deshalb konnte er
auch betonen, er wolle „nicht die Dinge zu Ideen machen“, sondern zeigen, daß
die Ideen auch nur als das, was wirklich wahrgenommen wird, existieren.
Diese Kritik des Falschen an der realistischen Position gilt grundsätzlich auch
für deren oben aufgeführte Entwicklungen. In der falschen Voraussetzung der
bewußtseinsunabhängigen Realität der „Dinge an sich“ liegt ihr Fehler. In der zu-
gleich behaupteten Abhängigkeit aller Dingkonstitutionen von den geistigen Ak-
ten eines Bewußtseins liegt ihre Wahrheit. Und offensichtlich stimmt der Realis-
mus mit der idealistischen Position in diesem Punkt überein.
Der Widerspruch im Subjekts- bzw. Bewußtseinsbegriff ist zwar immer „ge-
spürt“, aber nicht geklärt worden. Im Falles des berkeleyanischen Idealismus hat
man sich damit begnügt, ihn global als Hypothek eines falschen „theologischen“
Spiritualismus abzutun und schon deswegen Berkeleys Metaphysik für gänzlich
falsch zu halten. Seine Wahrheit liegt aber darin, daß alles Bewußtsein als Hand-
lung (bei Berkeley die Aktivität des Verstandes und des Willens) aufgefaßt wird,
in der sich alles Objektive objektiviert. Diese Einsicht wurde auch von einigen
Idealisten, insbesondere von Fichte, etabliert, aber nicht genügend expliziert.
Vor allem kommt es darauf an, den falschen Anteil in den Behauptungen über
das Subjekt als „Vermögensträger“ zu eliminieren. Der wahre Anteil besteht in
der These, daß das Subjekt nur als Komplex von geistigen Akten verstanden wer-
den kann. David Hume hatte es schon mit Recht aber etwas einseitig ein „Bündel
von Sinneswahrnehmungen“ (bundle of perceptions) genannt. Der falsche Anteil
besteht in der These; ein Subjekt bleibe auch dann ein Subjekt, wenn es gerade
keine geistigen Akte vollziehe. Man sitzt damit einer Kategorienverwechslung
auf, die ein metaphysisches oder erkenntnistheoretisches Prinzip mit einer Perso-
nenbeschreibung gleichsetzt. Einen Bäcker mag man auch dann noch „Bäcker“
nennen, wenn er gelegentlich nicht bäckt. Aber ein Subjekt bleibt nicht Subjekt,
wenn es nur handeln kann, aber nicht handelt. Ebenso beim Bewußtsein: es bleibt
nicht Bewußtsein, wenn es „unbewußt“ ist.
Daß die geistigen Aktionen des Subjekts für das, was man Objekt nennt, konsti-
tutiv sind, gehört zu den Folgesätzen der idealistischen Axiome.
Schon die idealistische Interpretation etwa eines Malebranche und Leibniz hat
bezüglich Descartes herausgearbeitet, daß die „räumliche Ausgedehntheit“ der
Natursubstanzen ebenso wie Descartes„ übrige „Ideen“ nur eine dem Cogitare ver-
dankte geometrische Idee sein konnte. Vor allem aber, daß Descartes‟ als logi-
scher Schluß formuliertes „Cogito ergo sum“ ebenso wie Spinozas „Deus sive
Natura“ und wie Berkeleys „Esse est percipi“ Äquivalenzen meinten, die (in
452

mathematischer Gleichungsform) als „Cogito = sum“ (genauer eigentlich „Cogi-


tare = Esse“, denn das „Ich“ kürzt sich bei einer Gleichung hinweg!), „Deus =
Natura“ und „Esse = Percipi“ (wie es Berkeley selbst auch an manchen Stellen
tut) zu formulieren waren. Diese Äquivalenzen definieren einen einzigen Begriff
mittels synonymer Termini. Und dieser einzige Begriff ist das axiomatische Prin-
zip einer Metaphysik, die die wahren Theoreme sowohl des Realismus wie des
Idealismus begründet und ihre falschen Theoreme eliminiert.

Eine solche metaphysische Theorie ist als „Phänomenalismus“ längst in Angriff


genommen, wenn auch nicht genügend konsequent und weitläufig ausgebaut wor-
den. Von G. Berkeley aus, den man gewöhnlich als seinen Gründervater benennt,
hat man seine Stationen bei D. Hume, J. St. Mill, in der deutschen Immanenz-
philosophie eines R. v. Schubert-Soldern, im Empiriokritizismus von R. Avena-
rius und E. Mach und in der englischen Version bei G. E. Moore, B. Russell, C.
D. Broad, H. H. Price und A. J. Ayers ausgemacht, auch seine neueren Ansätze
bei R. Carnap und N. Goodman und seine linguistische Version seit J. L. Austin
und P. F. Strawson und einigen neuen Vertretern herausgestellt.296
Die Darstellungen des Phänomenalismus konzentrieren sich jedoch vor allen
darauf, seine angeblichen Schwächen und Fehler herauszuarbeiten und ihn als
eine unbedeutende Spekulation hinzustellen. Die Vorwürfe laufen darauf hinaus,
daß der Phänomenalismus eben kein Realismus sei und somit nicht in der Lage,
das Grundproblem des Realismus, nämlich die erkenntnisunabhängige Existenz
der Dinge an sich, d. h. der „Außenwelt“, zu beweisen. Andererseits sei er auch
kein Idealismus, der einen subjektiven Träger der psychischen Vermögensleistun-
gen garantiere. Seine vorgebliche Schwäche dürfte aber gerade seine Stärke sein.
Diese besteht darin, den widersprüchlichen Glauben an das Unerkennbare der
Dinge an sich hinter den Erscheinungen und den widersprüchlichen Glauben an
Geister an sich als Produzenten der Erscheinungen aus der Wissenschaft heraus-
zuhalten und ein widerspruchsloses Wissen über die Erscheinungswelt zu be-
gründen.
Die heutigen wissenschaftstheoretischen Richtungen bzw. Schulen lassen sich
bisher nur je nach der Art charakterisieren, welches Potential von Einzelwissen-
schaften sie metaphysisch exhaurieren, wovon im vorigen Paragraphen Rede war.
Dabei ist freilich darauf zu achten, daß die Metaphysikfeindlichkeit fast aller mo-
dernen wissenschaftstheoretischen Richtungen und Strömungen, die metaphysi-
sche Unbildung und Desinteresse gewöhnlich zu einer Grundvoraussetzung mo-
dernen wissenschaftstheoretischen Selbstverständnisses erheben, in der Regel da-
zu führt, daß die metaphysischen Voraussetzungen der Positionen in den einzel-
wissenschaftlichen Theorien selbst kaum angemessen thematisiert werden.

296
G. Wolters, Art. „Phänomenalismus“ in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie,
Band 3, Stuttgart und Weimar 1995, S. 113f.; K. Lorenz, Art. „Phänomenalismus, linguistischer“, ibid. S. 114f. – R. Fu-
merton, Art. „phenomenalism“, in: A Companion to Epistemology, 2. Aufl. hgg. von J. Dancy, E. Sosa und M. Steup, Ox-
ford und Chichester, 2010, S. 586 - 590.
453

D. Die gegenwärtigen wissenschaftsphilosophischen Schulen bzw.


Strömungen

§ 40 Der logische Empirismus bzw. die Analytische Philosophie.


Zur Geschichte. Metaphysische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale
Probleme: Die Einheit der Wissenschaft. Das Sinnkriterium wissenschaftlicher Sätze. Die wissen-
schaftliche Erklärung. Wahrscheinlichkeit. Theoriendynamik. Das Bedeutungsproblem. Kritik der
Theorien von Frege, Carnap, Tarski, Quine, Goodman, Putnam, Dummet und Davidson

Die Analytische Philosophie ist wohl die gegenwärtig prominenteste wissen-


schaftsphilosophische Strömung mit zahlreichen Vertretern in Deutschland, Öster-
reich, neuerdings auch in Griechenland und Spanien, vor allem aber in den USA,
England, Australien und Neuseeland, Skandinavien und Israel. Auch in Japan hat
sie eine beachtliche Repräsentanz. Ihre hervorstechende Tendenz ist, Philosophie
schlechthin in Wissenschaftstheorie aufgehen zu lassen. Philosophie wird hier
grundsätzlich als Analyse der Wissenschaften und in dieser Funktion selber als
Wissenschaft aufgefaßt. Dies betonen schon die verschiedenen Bezeichnungen:
Positivismus, logischer Positivismus, logischer Empirismus, Wissenschaftstheorie
oder – wie wohl am verbreitetsten – Analytische Philosophie.

Zur Geschichte: Sie verwaltet das Erbe des englischen Empirismus und Sensu-
alismus eines Locke und Berkeley, des französischen Sensualismus der Schule
Condillacs, die im 19. Jahrhundert im Positivismus Auguste Comtes und John
Stuart Mills Nachfolge gefunden hatten. Zu Beginn des 20. Jahrhunderts wurde
das Erbe vom Wiener Kreis um Ernst Mach, Moritz Schlick und andere aufge-
nommen und in alle Welt verbreitet. Die Mitglieder des Wiener Kreises (M.
Schlick, V. Kraft, C. Neurath, F. Waismann, R. Carnap, auch L. Wittgenstein),
aber auch die ihnen nahestehenden des Berliner Kreises um das damalige Kaiser-
Wilhelm-Institut für Physik (H. Reichenbach, A. Einstein, K. Grelling, auch der
junge C. G. Hempel u. a.), brachten diese Richtung in den 20iger und 30iger
Jahren zu einer ersten Hochblüte.
Als Forum diente die an die älteren “Annalen der Philosophie und philosophi-
schen Kritik” anknüpfende Zeitschrift “Erkenntnis” (hgg. v. R. Carnap und H.
Reichenbach), die von 1930/31 bis 1939/40 in acht Bänden erschien, der letzte
Band unter dem Titel „The Journal of Unified Science (Erkenntnis)“ in den USA.
Sie ist mit dem Band 9 im Jahre 1975 neubegründet und von W. Stegmüller, W.
K. Essler und C. G. Hempel herausgegeben worden. Daneben erscheinen viele vor
allem englischsprachige Zeitschriften, deren Beiträge vor allem von „Analytikern“
geliefert werden.
454

In Deutschland dürfte W. Stegmüller von München aus mit seinem monumen-


talen Werk “Probleme und Resultate der Wissenschaftstheorie und Analytischen
Philosophie” (4 Bände, Berlin 1969 - 1973) der hervorragendste Vertreter dieser
Richtung gewesen sein. Er hat sich vor allem dadurch verdient gemacht, daß er
die weltweite Entwicklung der Analytischen Philosophie aufmerksam beobachtete
und jeden ihrer Schritte sorgfältig registrierte, um den jeweils erreichten Stand
dann in seiner eigenen „logischen Rekonstruktion“ (und in deutscher Sprache)
vor- und durch eigene Interventionen weiterzuführen. Er war das Haupt einer
Münchner Schule der Wissenschaftstheorie, von der zahlreiche Mitglieder inzwi-
schen an derselben oder anderen Universitäten lehrten und selbst schon eine wie-
tere Generation von Schülern auf den Weg gebracht haben. Zu ihnen gehören u.
a. W. K. Essler, F. v. Kutschera, E. v. Savigny, R. Kleinknecht, G. Schurz, W.
Balzer, W. Spohn, U. Molines u. a.
Neben Stegmüller haben sich G. Patzig in Göttingen und H. Lenk in Karlsruhe
um die deutsche Analytische Philosophie verdient gemacht. Auch der gegenwär-
tige Verfasser verleugnet nicht seine Sympathie für diese Richtung, wenn er auch
eher die Berkeley-Machsche Version eines genuin sensualistischen und idea-
listischen Empirismus (oder auch Phänomenalismus) verfolgt und diesen auch auf
den bislang als nicht empirisch zu begründenden Bereich der logischen und
mathematischen Methodologie angewendet sehen möchte.
In Österreich hat die Analytische Philosophie an mehreren Plätzen starke Stütz-
punkte gefunden, so durch E. Oeser in Wien, R. Haller in Graz, G. Frei in
Innsbruck, P. Weingartner und R. Kleinknecht in Salzburg. Auch in der Schweiz
gibt es mit dem Kreis um die Zeitschrift Dialogos und in Italien mit E. Agazzi u.
a. starke analytische Schulen. In Frankreich wird sie durch J. Bouveresse an der
Ecole Normale Supérieure in Paris und von zahlreichen Jüngeren an Provinzuni-
versitäten vertreten.
In Finnland hat Eino Kaila eine Analytische Schule begründet, aus der G. H.
von Wright, O. Ketonen und E. Stenius hervorgingen. Auch J. Hintikka war Schü-
ler von Kaila und v. Wrights und lehrte abwechselnd in Helsinki und in den USA.
Weitere Mitglieder sind R. Tuomela, V. Rantala, R. Hilpinen und I. Niiniluoto.
Die englische Analytische Philosophie stand mit den Mitgliedern des Wiener
Kreises zwar in enger Berührung, knüpfte jedoch vorwiegend an den heimischen
Positivismus an. So durch B. Russell, G. E. Moore, G. Ryle und die Common-
language und Ideal-language Philosophy, bei deren Entwicklung auch L. Witt-
genstein eine hervorragende Rolle spielte.
Ihre stärkste Verbreitung aber hat die Analytische Philosophie in den USA ge-
funden, vor allem an den Universitäten Neuenglands und Kaliforniens. W. V. O.
Quine, A. Tarsky, H. Wang, K. Gödel, H. Feigl, C. G. Hempel, L. Nagel, S. E.
Toulmin, N. Goodman, D. Davidson, D. C. Dennett, M. Dummett, A. Grünbaum
455

und H. Putnam sind hier zu nennen. Ihre Schriften sind zum größten Teil auch in
Deutschland in Übersetzungen verfügbar.297

Metaphysische Grundlagen: Im Vordergrund steht der empiristische Ansatz, wie


die häufigsten Bezeichnungen der Richtung unterstreichen. Wissenschaft wird als
ein grundsätzlich empirisches Unternehmen der Realitätserkenntnis angesehen.
Entsprechend verhält sich auch Wissenschaftsphilosophie, indem sie die Wissen-
schaften als empirisches Faktum zu erkennen und zu durchleuchten bestrebt ist.
Sie soll beschreiben, was Wissenschaftler tatsächlich tun, keineswegs vorschrei-
ben, was sie tun sollen.
Als Muster empirischer Wissenschaft gilt traditioneller Weise und insbesondere
hier die Physik. Sie ist daher das Maß, an dem sich alle anderen Wissenschaften
messen lassen müssen. Ihre Probleme gelten als die wissenschaftstheoretischen
Probleme schlechthin. Und gemessen an ihr sind die meisten anderen Einzel-
wissenschaften entweder überhaupt nicht Wissenschaft – so die ältere Aus-
grenzung der Geisteswissenschaften – oder sie sind noch in verschiedenen Stufen
rudimentärer Ausbildung befangen, also gleichsam auf dem Wege zum konso-
lidierten Status, den die Physik selbst schon gewonnen haben soll. Diese diente
und dient daher auch als Kern- und Grundwissenschaft einer umfassenden „Ein-
heitswissenschaft” (unified science), die alle wirklichen Wissenschaften umfassen
und von der Realitätskonstitution und den Methoden der Physik abhängig machen
sollte.
Mathematik und „mathematische“ Logik gelten gegenüber den empirischen
Wissenschaften als rein formales, nicht empirisch zu begründendes Methodenin-
strumentarium der Physik und werden daher als solches sowohl thematisiert wie
auch angewendet. So ist auch der logische Empirismus bzw. die Analytische Phi-
losophie insgesamt eine „logische (bzw. logisch-mathematische) Rekonstruktion”
dessen, was Wissenschaftler, und d. h. vor allem Naturwissenschaftler, tun und
sagen. Darauf soll das „logisch” in der Bezeichnung „logischer Empirismus“ hin-
weisen.
Zugleich wird dadurch deutlich, daß Logik und Mathematik außerhalb des em-
piristischen Begründungsansatzes stehen. Sie werden nicht – wie es etwa schon
von Hobbes, Berkeley oder Condillac versucht wurde – selber empirisch begrün-
det, sondern in ihrer Dignität und Effektivität als selbstverständlich vorausgesetzt.

297
Vgl. R. Haller, Neopositivismus. Eine historische Einführung in die Philosophie des Wiener Kreises, Darmstadt 1993;
F. Stadler, Studien zum Wiener Kreis. Ursprung, Entwicklung und Wirkung des Logischen Empirismus im Kontext,
Frankfurt a. M. 1997; W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosopjhie, 4
Bände, Berlin-Heidelberg-New York 1969 ff.; A. Hügli und P. Lübcke (Hg.), Philosophie im 20. Jahrhundert. Band 2:
Wissenschaftstheorie und Analytische Philosophie, Reinbeck 1993; A. P. Martinich und D. Sosa (Hg.), A Companion to
Analytic Philosophy, Oxford 2001; K. Lorenz, Art. „Philosophie, analytische“ in: J. Mittelstraß (Hg.), Enzyklopädie Phi-
losophie und Wissenschaftstheorie, Band 3, Stuttgart und Weimar 1995, S. 139 - 145 (mit Bibliographie); B. Stroud, Art.
„logical positivism“ in: A Companion to Epistemology, 2. Aufl. hgg. von J. Dancy, E. Sosa und M. Steup, Oxford und
Chichester 2010, S. 504 - 506. - Vgl. auch die „Berichte“ über die Lage der Wissenschaftstheorie in verschiedenen Ländern
in der Zeitschrift für allgemeine Wissenschaftstheorie/Journal of General Philosophy of Science.
456

M. a. W. steht also dem physikalistischen Empirismus ein mathematizistischer


und logizistischer Rationalismus, ja sogar Apriorismus, für den man sich auch auf
Kant beruft, zur Seite. Er wird, vermittelt über den Kantianer Jakob Friedrich
Fries, auch zum Ausgangspunkt von Karl Poppers Wissenschaftslehre, die als spe-
zifische Filiation aus dem Wiener Kreis herausgewachsen ist (s. § 42).
Soweit Logik und Mathematik, die exemplarische Geisteswissenschaften sind,
wissenschaftstheoretisch analysiert werden, geschieht dies mit Hilfe der Katego-
rien der Sprachwissenschaft. Logik und Mathematik gelten dem logischen Empi-
rismus als „ideale“, d. h. künstliche Sprachen mit einem bestimmten „Vokabular”
und einer besonderen „Grammatik”. Da es sich bei diesen künstlichen Sprachen
um „Sprachen“ handelt, die niemand spricht, sondern die allenfalls im Kontext na-
türlicher Sprachen streckenweise und meist nur abbreviatorisch wie eine Steno-
graphie gebraucht werden können, bleiben die sprachwissenschaftlichen Kate-
gorien: Syntax, Semantik, Pragmatik, Vokabular, Struktur usw. logische Meta-
phern. Der logische Empirismus ist in dieser Hinsicht der sogenannten Idealspra-
chenphilosophie verpflichtet. Erst seit der zweiten Hälfte des 20. Jahrhunderts hat
er in dem damals ausgerufenen „linguistic turn“ mehr und mehr die Gemeinspra-
chen (ordinary languages) als nicht hinterfragbares Methodenarsenal der Wissen-
schaften in seine Betrachtungen einbezogen.
Die geschilderten empiristischen (teilweise auch sensualistisch verschärften),
rationalistischen und linguistizistischen metaphysischen Motive stehen im logi-
schen Empirismus einigermaßen unverbunden nebeneinander. Bei seiner traditio-
nell metaphysikfeindlichen Grundorientierung werden sie auch als solche kaum
reflektiert. Hinzu kommt, daß der Empirismus fast ausschließlich in der Locke-
schen „realistischen” Version exhauriert wird. So ist auch das schon von G. Ber-
keley als unmögliche Quadratur des Kreises erkannte Unternehmen der Erstellung
eines „Sinnkriteriums” (als Kriterium des Vergleichs zwischen wissenschaftlichen
Sätzen und sogenannter objektiver Realität) endlos und vergeblich unter „realisti-
schen” Auspizien betrieben worden.
Eine idealistisch-phänomenalistische Behandlung des Sinnkriteriums, wie sie
von Ernst Mach in den frühen Jahren versucht wurde, blieb bisher in der Analy-
tischen Philosophie fast folgenlos. Thomas Mormann nennt entsprechende Unter-
nehmungen geradezu „idealistische Häresien“. 298 Heinrich Wintzer lenkte den
Blick auf „verborgene Ressourcen“ im Werk George Berkeleys.299
Daß gegenwärtig idealistische Annahmen geradezu tabu erscheinen, sieht man
an den mannigfachen Versionen des „Realismus“ von Hilary Putnam. Sein zeit-
weiliger „interner Realismus“ war offenbar nichts anderes als ein in realistischer
Terminologie formulierter Idealismus, der aber nicht beim Namen genannt wer-
den durfte. Die Unklarheit bei den metaphysischen Voraussetzungen, die man

298
Th. Mormann, Idealistische Häresien in der Wissenschaftsphilosophie: Cassirer, Carnap und Kuhn, in: Journal for Ge-
neral Philosophy of Science 30, 1999, S. 233 – 271.
299
H. Wintzer, George Berkeley. Vernachlässigte Ressourceen des Logischen Positivismus (Phil. Diss. Düsseldorf 1996),
Frankfurt a. M. 1998.
457

gerne unter Berufung auf David Hume mit einem vorgeschobenen Skeptizismus
kaschiert, rächt sich durch allerlei hausgemachte Problemstellungen, die für ande-
re Richtungen entweder nicht existieren oder kaum wissenschaftstheoretische Re-
levanz besitzen.

Der Wissenschaftsbegriff: Wissenschaft gilt als ein logisch und soweit wie mög-
lich mathematisch formuliertes und geordnetes System von Sätzen, die durch
Verallgemeinerung aus empirischer Beobachtung der raumzeitlichen Welt gewon-
nen sind. Durch geeignete logische und mathematische Operationen (Spezifi-
kationen induktiver Verallgemeinerungen bzw. Gesetze nach Raum- und Zeit-
stellen gemäß dem HD-Schema, s. u.) sollen sich daraus möglichst genaue Pro-
gnosen für zukünftige Beobachtungen und Rekonstruktionen („Retrodiktionen”)
von Vergangenheitszuständen gewinnen lassen, die ihrerseits als Wahrheitskrite-
rien des Wissenschaftssystems gelten. Hierin zeigt sich die Fortführung des alten
stoischen deterministischen Wissenschaftsideals und das Weiterwirken des
Comteschen positivistischen Programms des „savoir pour prévoir“ (Wissen um
Vorauszuwissen).
Entsprechend gilt auch Wissenschaftstheorie selber als eine Wissenschaft, die
auf Grund von Verallgemeinerungen empirischer Beobachtungen des Wissen-
schaftsprozesses (Theorien der Wissenschaftsentwicklung bzw. der „Theorien-
dynamik”, s. u.) die Lage aktueller Wissenschaft zutreffend beschreibt, evtl.
künftige Entwicklungen prognostiziert und vergangene Wissenschaftszustände
„rational rekonstruiert”. Es dürfte klar sein, daß sich ein solches Wissenschafts-
prognosekonzept besonders für die immer bedeutender werdende Wissenschafts-
politik und ihre Folgenabschätzung empfielt und daher bei Regierungen und
Sponsoren auf besondere Förderung stößt.

Zur Methode: Die im Vordergrund stehende Methode ist die der „rationalen
Rekonstruktion”. Die analytische Philosophie will – in Verfolgung eines Philoso-
phieprogrammes des frühen Wittgenstein – nur klären und präzisieren, was Wis-
senschaftler wirklich tun und sagen bzw. was sie eigentlich meinen können, wenn
sie etwas sagen. So ist die „rationale Rekonstruktion” genau genommen ein her-
meneutisches Auslegungsverfahren, welches den Anspruch macht, Wissenschaft-
ler „besser zu verstehen, als sie sich selber verstanden haben” (I. Kant, Kritik der
reinen Vernunft A 70).
Das hat zwei Folgen: 1. Die Methode scheidet alles das aus der Wissenschaft als
„unwissenschaftlich” (bzw. als „metaphysisch“) aus, was sich logischer (bzw.
mathematischer) Rekonstruktion und entsprechendem Verständnis entzieht. Da
dann nicht mehr allzu viel übrig bleibt, praktiziert man faktisch eine tolerantere
Methode des „intuitiven Nachvollzugs” (durch anschauliche Bilder, Modelle, Si-
mulationen, Metaphern und in alltagssprachlichen Formulierungen), welche das
„Explikandum” bzw. „Explanandum“ (das zu Erklärende) heuristisch für die
exakte logische Rekonstruktion vorbereiten soll. Ersichtlich ergeben sich hier be-
458

sondere Probleme der Hermeneutik der „Übersetzung” des intuitiv erfaßten Ex-
plikandums in das logisch rekonstruierte Explikat.
Die Logik ist dabei außerordentlich erweitert worden. Man kann vielleicht
sagen, daß es für jede Art von regelgeleiteter wissenschaftlicher Praxis inzwischen
eine besondere Logik gibt. Verf. hat in seiner Logikbibliographie 300 ca. 100 ver-
schiedene Logiktypen klassifizieren können, was in etwa der Anzahl mathema-
tischer Spezialdisziplinen entspricht. Das reicht von der Logik mit vagen Begrif-
fen (Fuzzi-Logic) über die Wahrscheinlichkeitslogik und die Default-Logic
(„nichtmonotone“ Schlußlehre auf Grund von „unsicheren“ Prämissen) bis zur
Dialethischen Logik, die den Widerspruch als „wahre Aussage“ erklärt.
2. Da die logische Rekonstruktion nur klären will, was Wissenschaftler eigent-
lich meinen (können), leistet sie eine Arbeit, die man naturgemäß vom guten
logisch-mathematisch ausgebildeten Wissenschaftler selber verlangen sollte. Der
logische Empirismus bzw. die analytische Philosophie macht sich daher bei ent-
sprechendem wissenschaftstheoretischem Reflexionsniveau der Einzelwissen-
schaftler entweder entbehrlich, oder er setzt sich als Superwissenschaft an die
Stelle der Einzelwissenschaften. Dies ist bezüglich der theoretischen Physik wie
auch der Logik und Mathematik schon weitgehend der Fall. Nicht von ungefähr
sind wohl die meisten Anhänger der analytischen Philosophie ausgebildete Physi-
ker, Mathematiker und Naturwissenschaftler. Ihre Arbeiten sind auf weite
Strecken Beiträge zu diesen Wissenschaften selber im Gewande der Wissen-
schaftsphilosophie.

Zentrale Probleme: Es liegt auf der Hand, daß jede wissenschaftstheoretische


Richtung auf Grund ihrer metaphysischen Voraussetzungen bestimmte Problem-
stellungen vordringlich behandelt und zu lösen sucht. Im Falle des logischen Em-
pirismus dürfte es sich um die folgenden handeln:

1. Die Einheit der Wissenschaft: Sie gilt als etwas Herzustellendes, nicht etwa
schon Vorhandenes. Methodisch soll sie gewährleistet werden durch die Einheit
der Methode, d. h. die Anwendung axiomatischer Mathematik und mathemati-
scher Logik in der Wissenschaft. Gegenstandstheoretisch soll sie sich aus der Fun-
dierung aller Wissenschaft in der exakten Naturwissenschaft, d. h. der Physik, also
durch einen physikalistischen Reduktionismus ergeben.
Ältere Versuche, insbesondere des jungen Ernst Mach, einen psychologistischen
Reduktionismus auf die Sinnesdaten und ihre protokollarische Fixierung zu
stützen - man könnte das ein Berkeley-Programm nennen - sind kurzzeitig von
Rudolf Carnap, aber nach ihm nicht weiter verfolgt worden. An seine Stelle trat
ein physiologisch-physikalistischer Reduktionismus der „epiphänomenalen“ Be-
wußtseinsqualia.

300
L. Geldsetzer, Logic Bibliography up to 2008, in: Internet der HHU Duesseldorf 2008.
459

Naturgemäß war das sogenannte Leib-Seele-Problem immer der Probierstein, an


dem sich der physikalistische Reduktionismus stieß. Gilbert Ryle hatte es in sei-
nem Buch „The Concept of Mind“ von 1949 301 im Sinne der physikalistischen
Einheitswissenschaft zu lösen versucht, indem er alles Reden über den „Geist“ als
Kategorienverwechslung denunzierte und mit Emphase dies „Gespenst“ (des
Geistes) aus der „cartesianischen Maschine“ (d. h. aus dem Körper) austrieb. Sein
Lösungsvorschlag hat freilich nicht alle Analytiker überzeugt, und so blieb auch
das Leib-Seele-Verhältnis und die Stellung von Geist und Bewußtsein in der Ana-
lytischen Philosophie ein Dauerproblem, das jederzeit das physikalistische Ein-
heitspostulat bedroht. Ersichtlich überzeugte auch die Fortsetzung des Ryleschen
Exorzismus durch Patricia Churchland unter der prätentiösen Disziplinbezeich-
nung „Neurophilosophie“ für die materialistisch-physiologische Reduktion der
„Qualia“ (Bewußtseinsphänomene) auf Gehirnmechanik nicht alle. 302 Und so
beobachtet man gegenwärtig in der Analytischen Philosophie, wie in angel-
sächsisch verfremdeter Terminologie sämtliche Positionen der nachcartesischen
Spekulation über das Leib-Seele-Problem wieder neu rekonstruiert und diskutiert
werden, ohne daß eine Lösung in Sicht wäre.

2. Das Problem des Sinnkriteriums wissenschaftlicher Sätze: Gemäß dem positi-


vistischen Ansatz gelten nur empirisch-induktiv rechtfertigte und abgestützte
Sätze als sinnvoll. Gelingen derartige Nachweise, so gelten sie als „wahr“, und die
Rechtfertigungsverfahren als Verifikation. Es ist die Aufgabe der Wissenschaft,
alle „sinnlosen“ Elemente – mit Ausnahme der insgesamt als tautologisch und so-
mit als sinnleer definierten logischen und mathematischen Formalismen, die erst
durch empirische „Füllung” mittels dazu angenommener „Brückenprinzipien“ für
die Anwendung sinnvoll werden – aus dem Bestand wissenschaftlicher Aussagen
zu eliminieren.
Größte Schwierigkeiten bereiten hierbei das Induktionsproblem, d. h. die empiri-
sche Rechtfertigung von „gesetzlichen“ Allaussagen (bei Anwendung der exten-
sionalen Logik, die hier üblich ist); ferner die in der physikalischen Theorie häufig
vorkommenden definitorischen „unbeobachtbaren Parameter” sowie die von R.
Carnap „entdeckten“ sogenannten Dispositionsprädikate („schmelzbar” u. ä.), d.
h. Möglichkeitsbegriffe.303 Darüber wurde schon in § 9 und § 10 einiges kritisch
abgehandelt, so daß hier darauf verwiesen werden kann.

301
G. Ryle, The Concept of Mind, London 1949, auch New York 1952, ND 1975; dt. Übers.: Der Begriff des Geistes,
Stuttgart 19969, 2. Aufl. 1987.
302
P. Churchland, Neurophilosophy. Toward a Unified Science of Mind/Brain, Cambridge, Mass. 1986; vgl. auch Georg
Nordhoff, What is Neurophilosophy? A methodological Account, in: Journal for General Philosophy of Science 35, 2004,
S. 91 – 127.
303
Für Vorschläge zur Lösung des Induktionsproblems auf der Basis einer intensional-extensionalen (pyramidalen) Logik
und des Problems der Dispositionsprädikate als widersprüchlicher Begriffe sei auf L. Geldsetzer „Logik,“ Aalen 1987, S.
324 und S. 94 und ders., Logical Thinking in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements,
Dordrecht u. a. 2013, S. 9 - 14 und S. 21 verwiesen.
460

3. Wissenschaftliche Erklärung: Sie wird in der logischen Allgemeinheit sowie


in der Prognose- und Retrodiktionskraft wissenschaftlicher Theorien gesehen.
Erklärungen leiten sich ursprünglich aus dem aristotelischen Vier-Ursachen-Sche-
ma der Erklärungen her (s. § 18). Aus diesem Schema sind im Empirismus seit
Francis Bacon nur die Wirkursachen (causae efficientes) als zulässige Erklärungs-
gründe übernommen worden. Empirische Erklärungen werden nurmehr als soge-
nannte „Kausalerklärungen“ konstruiert. Das traditionelle Erfordernis, daß eine
Wirkursache zeitlich einer Wirkung vorausgehen muß, ist seit J. St. Mill dahin-
gehend gelockert worden, daß auch „konkomitante“ (d. h. gleichzeitige) Kausal-
ursachen zugelassen werden. Der Ursachenbegriff ist dadurch in zahlreiche Be-
griffe von (notwendigen und/oder hinreichenden) Bedingungen für „Ereignisse“
aufgefächert worden.304 Solche Bedingungen können jedoch sowohl rein logische
Erklärungsgründe als auch materielle Ursachen sein. Ihre Unterscheidung in den
verschiedenen Erklärungstheorien macht ein Hauptproblem des Themas aus, weil
logische Gründe keine Ursachen sind, dennoch leicht mit den logisch formali-
sierten Ursachen verwechselt oder identifiziert werden.
Die prominenteste Erklärungstheorie beruht auf dem von Carl Gustav Hempel
und Paul Oppenheim aufgestellten „nomologischen Erklärungsschema” (cove-
ring-law-model, H-O-Schema oder auch „Hypothetisch-deduktives“ bzw. H-D-
Schema, von Hempel selbst jedoch deduktiv-nomologisches Schema genannt). 305
Es läßt sich auf die erste „Unbeweisbare“ (den sogenannten Modus ponens) der
stoischen Schlußlehre zurückführen. Danach ist eine Erklärung ein logischer
Schluß aus einem allgemeinen Satz (Gesetz, Explanans, covering law) und zeit-
lich-räumlich determinierenden Antezedensbedingungen als Prämissen auf das zu
erklärende Faktum bzw. den zu prognostizierenden Zustand (Explicandum bzw.
Explanandum). Der Schluß soll dann durch Experiment (oder bei Retrodiktionen
durch historische Forschung) überprüft und „verifiziert” oder gegebenfalls „falsi-
fiziert“ werden.
Diese Erklärungsweise setzt voraus, daß man schon über ein gesichertes allge-
meines Gesetz verfügt. In diesem Falle wird die Erklärung zu einer Deduktion
nach der klassischen logischen Maxime: Was von allem gilt, gilt auch von jedem
einzelnen. Solche deduktiven Schlüsse bzw. „Ableitungen“ gelten in der Analy-
tischen Philosophie ihrerseits als sichere Beweisgrundlagen. Jedoch gibt es sie in
der physikalischen und historischen Empirie relativ selten bzw. wird ihr Allge-
meinheitscharakter weitgehend bestritten. Wohl aber wird der Ausbau der mathe-
matischen Theorien regelmäßig auf die Deduktion gestützt.
Die Ausgestaltung des H-D-Schemas für nicht-deduktive Gesetzesformen wie
induktive Verallgemeinerungen, statistische Gesetze, historische „Gesetze“ blieb

304
Vgl. dazu M. Carrier, Art. „Ursache“ in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie,
Band 4 Stuttgart und Weimar 1996, S. 442 – 444, sowie G. Gabriel, Kl. Mainzer und P. Janich, Art. „Kausalität“, ibid.
Band 2, Mannheim-Wien-Zürich 1984, S. 372 – 376.
305
C. G. Hempel und P. Oppenheim, Studies in the Logic of Explanation, in: Philosophy of Science 15, 1948, S. 135 –
175.
461

bis jetzt so problematisch, daß die Versuche von den meisten Analytikern wieder
aufgegeben wurden. Die Schwierigkeiten sind jedoch eine Folge der (von uns
vorn gerügten, auf die antike Skepsis und auf Hume zurückgehenden) falschen
Konzeption von „Induktion“ als einer „unvollständigen Verallgemeinerung“. Man
geht davon aus, daß induktiv gewonnene Gesetze zugleich Nicht-Gesetze seien.
Man würde sie dann eigentlich „Regeln mit Ausnahmen“ nennen müssen. Allge-
mein spricht man jedoch von Hypothesen, d. h. Vermutungen bzw. „normischen
Gesetzen“, die ggf. bei weiteren Überprüfungen durch neu gefundene Instanzen
widerlegt werden könnten. Die neuen Instanzen sollten dann unter die Schlußprä-
missen aufgenommen und so das Quasigesetz „nichtmonoton“ erweitert werden.
Darauf beruhende Erklärungen werden neuerdings „nichtmonotone Schlüsse“
genannt. 306 Handelt es sich aber bei Hypothesen um echte Vermutungen, so läßt
sich mit ihnen, wie in § 9 gezeigt wurde, überhaupt keine Behauptung begründen.
Außer diesen noch umstrittenen Weiterungen werden große Anstrengungen unter-
nommen, auch das sogenannte geisteswissenschaftliche Verstehen als einen be-
sonderen Typus diesem Erklärungsschema einzuordnen. Die herrschende Mei-
nung geht dahin, Verstehen als vorläufige heuristische „Erklärungsskizze” in der
Gestalt von Intuitionen anzusehen.

4. Wahrscheinlichkeit: Auf Grund der in aller Empirie vorausgesetzten Unmög-


lichkeit vollständiger Induktionen – nur in der Mathematik wird die vollständige
Induktion für möglich gehalten - teilt man den empirischen Allaussagen und Ge-
setzen nur noch Wahrscheinlichkeitswerte zu. Sie besitzen dann keinen ein-
deutigen Wahrheitswert. Empirische Aussagen erhalten somit grundsätzlich den
Charakter von Wahrscheinlichkeitsaussagen. Die Wahrscheinlichkeit einer Aus-
sage wird hier zum Gradmesser der „subjektiven” Kenntnis bzw. Unkenntnis über
die tatsächlichen Verhältnisse. Daneben wird aber auch eine „objektive” Theorie
der Wahrscheinlichkeit exhauriert: sie besteht in der Ableitung von Aussagen über
den Einzelfall aus Erkenntnissen über Kollektive, die für den Einzelfall dann „ob-
jektive Möglichkeiten” (Chancen, Dispositionen, propensities u. ä.) für die Pro-
gnostik vorgeben sollen. Das Verfahren ist in der Mikrophysik wegen der häu-
figen Unmöglichkeit der Einzelfallbeobachtung besonders verbreitet und beliebt.
Es bevölkert die physikalische Wirklichkeit mit einer Heerschar von „objektiven
Möglichkeiten”, die dem empiristischen Sinnkriterium zuwiderlaufen.
Wahrscheinlichkeitslogik und mathematische Statistik sind seit dem 17. Jahr-
hundert zu einer ansehnlichen mathematischen Disziplin zusammengefaßt und
entwickelt worden und partizipieren infolgedessen am methodologischen Status
des Mathematischen. Ihre Kalküle werden inzwischen nicht nur in der Mikro-
physik, sondern auf vielen Gebieten, in denen die Prognostik künftiger Ereignisse

306
D. M. Gabbay u. a. (Hg.): Handbook of Logic and Artificial Intelligence, Band 3: Nonmonotonic Reasoning and Un-
certain Reasoning, Oxford 1994; G. Schurz, Normische Gesetzeshypothesen und die wissenschaftsphilosophische Bedeu-
tung des nichtmonotonen Schließens, in: Zeitschrift für allg. Wissenschaftstheorie / Journal for General Philosophy of
Science 32, 2001, S. 65 – 107.
462

im Mittelpunkt des Interesses steht (ökonomische und politische Risikoabschät-


zung, Theorie der Glücksspiele) angewandt. Umso mehr besteht Bedarf, ihre Lei-
stungsfähigkeit wissenschaftstheoretisch zu kontrollieren bzw. die damit verbun-
denen Erklärungsansprüche in ihre Schranken zu weisen.307 (Vgl. dazu auch § 11).
5. Theoriendynamik: Hier geht es eigentlich um eine wissenschaftstheoretische
Begründung der Wissenschaftsgeschichte bzw. der Wissenschaftsgeschichts-
schreibung. Sich mit der Wissenschaftsgeschichte zu befassen, ist besonders für
Physiker und Mathematiker deshalb wichtig, weil die Didaktik dieser Fächer
grundsätzlich über die paradigmatischen Vorbilder „klassischer Theorien“ läuft.
Ohne Bezugnahme auf Leibniz, Newton, Frege, Hilbert u. a. dürfte ein Verständ-
nis des gegenwärtigen Zustandes von Physik und Mathematik so gut wie ausge-
schlossen sein.
Die Analytische Philosophie orientierte sich dabei zunächst an einem Typus von
Philosophie- und Wissenschaftsgeschichtsschreibung, den man als kantianisch
kennzeichnen kann. 308 Er beruht auf der Anwendung des Fortschrittsgedankens
der Renaissance auf die einzelnen Kulturbereiche. Hier wird die Wissenschafts-
entwicklung als ein „kumulativer“ Prozeß des kontinuierlichen Ausbaues der Wis-
senschaften gesehen, der zum gegenwärtigen letzten Stand der Einsichten führt,
und der seinerseits nur von diesem erreichten Standpunkt aus wiederum beurteilt
bzw. rekonstruiert werden kann. Was nicht dazu paßt, wird als „unwissenschaft-
lich“, als Fehlentwicklung oder gegebenenfalls als zu anderen Kulturbereichen
gehörig ausgeschieden. Das Passende aber wird als Vorläufer, Hinführung, Etappe
auf dem Weg des Fortschritts „entelechial“ interpretiert.
So wurde Kants Transzendentalphilosophie als „Philosophie ohne Beinamen“
und letztmögliches Ziel des Philosophierens in der kantianischen Philosophiege-
schichtskonstruktion angesetzt. Und so wird auch der neueste Zustand der Physik
und der zugehörigen mathematischen Methodologie als (vorläufiges) Ziel der
ganzen Entwicklung angesetzt und die Entwicklung selbst im Lichte dieser Ein-
sichten gedeutet. Vorbildlich für diese kantianische Einschließung der Wissen-
schaftsentwicklung, insbesondere der Mathematik und Physik, in die allgemeine
Philosophiegeschichte wurde Jakob Friedrich Fries mit seinem zweibändigen
Werk „Die Geschichte der Philosophie“ von 1837 - 1840 309
Diese Einstellung dürfte auch in der allgemeinen Wissenschaftsgeschichts-
schreibung die verbreitetste geworden sein, wie man an den einschlägigen „klas-
sischen“ Werken, etwa von John Theodore Merz, Georges Sarton, an der italie-
nischen „Grande Antologia Filosofica“ oder an den Beiträgen zur „Storia del pen-
siero filosofico e scientifico“ sehen kann. Für die Analytische Philosophie ist

307
Zur Widersprüchlichkeit der Wahrscheinlichkeitsurteile vgl. L. Geldsetzer, Logical Thinking in the Pyramidal Schema
of Concepts: The Logical and Mathematical Elements, Dordrecht u. a. 2013, S. 54 – 57 und S. 107f. sowie ders., Logik,
Aalen 1987, S. 82 ff.
308
Dazu L. Geldsetzer, Die Philosophie der Philosophiegeschichte im 19. Jahrhundert. Zur Wissenschaftstheorie der Philo-
sophiegeschichtsschreibung und –betrachtung, Meisenheim 1968, S. 21ff, 118, 133.
309
J. F. Fries, Die Geschichte der Philosophie, Halle 1837 – 1840; neue Ausgabe in J. F. Fries, Sämtliche Schriften, hgg. v.
L. Geldsetzer und G. König, Bände 18-19, Aalen 1969.
463

dafür Hans Reichenbachs „The Rise of Scientific Philosophy“ von 1951 paradig-
matisch geworden. 310
Das Problem der Theoriendynamik (der Terminus ist selber eine physikalische
Metapher!) besteht darin zu erklären, wie sich gewisse Theorien überhaupt über
längere Zeiträume in Geltung und Anwendungsfähigkeit erhalten können, wie
etwa die Newtonsche Mechanik oder seit Beginn des 20. Jahrhunderts die Ein-
steinsche relativistische Theorie der Mechanik. Dies angesichts der Tatsache, daß
die Forschung ständig fortschreitet und ständig neue Theorien hervorbringt. Die
klassische Lösung besteht in der Auffassung, daß ältere Theorien sich im Nach-
hinein als Spezialtheorien für gewisse beschränkte empirische Forschungsbereiche
erweisen, und daß entsprechend neuere Theorien „Erweiterungen“ oder „Verall-
gemeinerungen“ der dann klassisch genannten Ausgangstheorien darstellen sollen.
Eine neue Sicht der Umbrüche und Diskontinuitäten in der Wissenschaftsge-
schichte hat Thomas S. Kuhn 1962 mit seinem Buch „The Structure of Scienific
Revolutions“ 311 eingeleitet. Hier werden drei Phasen der wissenschaftlichen
Theorieentwicklung unterschieden. 1. Eine „vorparadigmatische“ Phase plura-
listischen Theorienangebots. 2. Eine „Phase der normalen Entwicklung“ gemäß
einem herrschenden „Paradigma“ bzw. Leitmodell der Forschung und der Aus-
bildung von „Schulen“. 3. Eine „revolutionäre Phase des Paradigmawechsels“, in
welcher die bislang herrschenden Forschungsroutinen durch ein neu aufgekom-
mes und mit den vormals bestehenden Zuständen „inkommensurables Paradigma“
abgelöst bzw. verabschiedet werden.
Kuhns Buch hat eine bis heute unabgeschlossene Diskussion in der Wissen-
schaftstheorie und Wissenschaftsgeschichtsschreibung über „Theoriendynamik“
und „Paradigmawechsel“ ausgelöst, woran sich auch der kritische Rationalismus
lebhaft beteiligt. 312 „Paradigma“ und „Paradigmenwechsel“ gehören inzwischen
zum öffentlichen Wortschatz. Bei der „logischen Rekonstruktion” des Theorien-
wandels wurden und werden ersichtlich viele ältere Einsichten geisteswissen-
schaftlicher Hermeneutik neu entdeckt: u. a. die „dogmatische” Abschirmung
eines „Theoriekerns” durch ad-hoc-Interpretationen seiner Begriffe für Anwen-
dungen auf spezielle Sachverhalte. Derartiges kennt man vor allem in der juristi-
schen und theologischen Dogmatik. Damit wird zugleich auch die Immunisierung
von Theorien gegenüber falsifizierenden Gegeninstanzen herausgearbeitet.

310
J. Th. Merz, A History of European Thought in the Nineteenth Century, 4 Bände 1904 – 1912, ND New York 1965; G.
Sarton, Introduction to the History of Science, 5 Bände, Washington 1927 - 1948; Grande Antologia Filosofica, hgg. von
A. Padovani, A. M. Moschetti u. a. in jeweils mehrbändigen 7 Abteilungen, Mailand 1954 ff.; Storia del pensiero filo-
sofico e scientifico, hgg. von L. Geymonat, 9 Bände, 2. Aufl. Mailand 1979; H. Reichenbach, The Rise of Scientific
Philosophy, Berkeley, Calif. u. Los Angeles 1951, dt. Übers.: Der Aufstieg der wissenschaftlichen Philosophie, Berlin
1953, ND Braunschweig 1968.
311
T. S. Kuhn, The Structure of Scientific Revolutions, Chicago 1962, 2. Aufl. 1970, dt. Übers. Die Struktur wissenschaft-
licher Revolutionen, Frankfurt a. M. 1967, 2. Aufl. 1976.
312
Zum Stand der Diskussion vgl. M. Carrier, Art. „Theoriendynamik“ in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie
und Wissenschaftstheorie, Band 4, Stuttgart und Weimar 1996, S. 274 – 278; Th. Uebel, Carnap and Kuhn: On the Relation
between the Logic of Science and the History of Science, in: Journal for General Philosophy of Science 42, 2011, S. 129
– 140.
464

Zweifellos hat sich die Analytische Philosophie mit dieser Thematik auf das ge-
nuine Gebiet der Geisteswissenschaften begeben, zu denen ja alle Geschichts-
schreibung gehört. Da die Geisteswissenschaften und ihre hermeneutische Metho-
dologie aber bei den Analytikern immer noch im Geruche stehen, keine eigent-
lichen Wissenschaften zu sein, besteht wenig Neigung, von ihnen zu lernen, ge-
schweige denn ihre hermeneutischen Verfahren für das Problem der „Theorien-
dynamik“ im Sinne der Auszeichnung echter Fortschritte, ihrer Überprüfung an-
hand schon bekannter Errungenschaften und gegebenenfalls der neuen „Ent-
deckungen“ altüberkommener Einsichten in der Wissenschaft zu nutzen.

6. Das Bedeutungsproblem. Es wurde schon gesagt, daß die Analytische Philo-


sophie Logik und Mathematik grundsätzlich als methodische Disziplinen einsetzt,
die durchweg als „Sprachen“ verstanden werden. Sprachen besitzen jeweils eige-
nen Sinn und Bedeutung. So stellt sich auch die Aufgabe, das, was an der logi-
schen und mathematischen Sprache Sinn und Bedeutung sein kann, heraus-
zustellen. Für das Verhältnis dieser formalen Sprachen zur gemeinen Bildungs-
sprache und den Fachsprachen der Einzelwissenschaften ergibt sich ein Überset-
zungsproblem.
Der Sprache als Objekt der Sprachwissenschaft wird von vornherein ein (sub-
jektiver) „Sinn- und Bedeutungsgehalt“ sowie eine lautliche und/oder schriftliche
„Ausdrucksseite“ als (objektive) Zeichengestalt zugesprochen. Von daher versteht
sich, daß das Verhältnis von Sprachinhalt (Sinn und Bedeutung) und Sprachform
(Zeichenstruktur) von den Analytikern auch auf die Gestalten der sogenannten
„idealen Sprachen“ der Logik und der Mathematik übertragen wurde.
Damit begab man sich aber auf ein weiteres Forschungsgebiet der Geistes-
wissenschaften, das selber eine bedeutende Stellung in diesen behauptet hatte und
auch im 20. Jahrhundert bedeutende Entwicklungen durchgemacht hat. Von die-
sen nahmen die Analytiker erstaunlich wenig Kenntnis. Sie erfanden die Sprach-
wissenschaft für ihre Zwecke ganz neu. Viele Analytiker nennen ihre Beiträge,
um sie von der Sprachwissenschaft abzugrenzen, „Sprachphilosophie“ und ihre
Hinwendung zu solchen Überlegungen den „linguistic turn“.
Anknüpfungspunkt dafür war G. Freges und B. Russells Auffassung, daß es sich
bei Logik und Mathematik um „formale (d. h. ideale) Sprachen“ handele. Daß
dies keineswegs der Fall ist, haben wir in § 9 zu zeigen versucht. (Dazu mehr in §
44). Frege und Russell waren jedenfalls überzeugt davon, durch Entwicklung der
logischen, meistens aber mathematischen „formalen Sprachen“ – für welche
Freges „Begriffsschrift“ von 1879 das Beispiel abgab - diese idealen Sprachen
soweit zu verbessern, daß sich bei ihrem Gebrauch viele, wenn nicht alle Ver-
wirrungen, Irreführungen und vor allem Widersprüche ausmerzen ließen, die sie
durch den Gebrauch von Gemeinsprachen veranlaßt sahen.
Darin, so können wir sagen, irrten sie sich sehr. Und das gilt auch von ihrem
erfolgreichsten Apologeten L. Wittgenstein, der sowohl seine Logik (als Ideal-
sprache) im „Tractatus-logico philosophicus“ (London 1922 u. ö.) wie auch seine
465

spätere Sprachphilosophie der „normalen Sprache“ in den „Philosophischen Un-


tersuchungen“ (Oxford 1953, 2. Aufl. 1958) geradezu für eine philosophische
„Therapeutik“ aller Denkkrankheiten der Philosophen hielt.
Frege übernahm aus der sprachwissenschaftlichen Hermeneutik die auf Philon
von Alexandrien (ca. 25 v. Chr. – ca. 10 n. Chr., vgl. dazu auch § 23) zurückge-
hende Unterscheidung von („buchstäblichem“) Literalsinn und Hintergrundsinn,
der in den Theologien gewöhnlich „sensus mysticus“ bzw. die eigentliche
Botschaft „im Text“ genannt wurde. Er nannte den Literalsinn (von mathema-
tischen Zeichen) technisch „Sinn“ (engl.: sense) und das damit Gemeinte „Be-
deutung“ (engl.: meaning). Daß „Bedeutung“ dabei sowohl auf gemeinte Objekte
wie auch auf mentale Vorstellungen bezogen wird, dürfte einen der verwir-
rendsten Problempunkte der analytischen Philosophie darstellen.
Diese Unterscheidung von Sinn und Bedeutung wurde in der Analytischen
Philosophie zur klassischen Denkform und liegt seither allen Diskussionen des
Bedeutungsproblems zugrunde. Man bemerke aber sogleich, daß die Unterschei-
dung von Sinn und Bedeutung in der Sprachwissenschaft keine wesentliche Rolle
spielt, und daß diese Termini hier meist als Synonyme gebraucht werden.
Allenfalls nennt man hier die Bedeutung des Einzelnen „Sinn“ und den Sinn des
Allgemeinen „Bedeutung“. Auch bei den analytischen Autoren ist es oft schwierig
herauszufinden, ob sie die Unterscheidung strikt durchhalten und wann und wo sie
„Sinn“ und/oder „Bedeutung“ meinen. Am besten hält man sich dazu an dieje-
nigen Überlegungen, die an Frege anknüpfen.
Für Frege waren ebenso wie für Bernard Bolzano, an den er sich hierbei an-
lehnte, die mathematischen „Bedeutungen“ in platonischem Sinne Wahrheiten
und Falschheiten an sich bzw. „Gedanken an sich“ (ohne daß sie jemand denkt!),
oder auch von Sätzen an sich. 313 Von ihnen hatte Bolzano gesagt, daß sie nur
teilweise erkannt und in Lehrbüchern aufgezeichnet worden seien. Der „Sinn“ der
mathematischen Zeichen bzw. Symbole aber sollte sich nach Frege – wie beim Er-
lernen der sprachlichen Zeichen – gleichsam direkt von ihnen „ablesen“ lassen.
Die Unterscheidung von Sinn und Bedeutung übertrug Frege in einem immer
wieder zitierten Beispiel auf das Verhältnis von Kenntnissen und den Gegenstän-
den der Erkenntnis. Der Planet Venus sei ebenso die „wahre Bedeutung“ der Be-
zeichnungen Morgenstern und Abendstern, wie die Wahrheit und Falschheit die
„wahre Bedeutung“ mathematischer „Sätze“ bzw. „Funktionen“ sei. Als Beispiel
dafür gab Frege Gleichungen wie 2 · 2 = 4 („wahr“) oder 2 + 2 = 5 („falsch“) an.
Vom logischen Standpunkt sind diese Gleichungen (mit ausgerechnetem Re-
chenergebnis) keineswegs Beispiele für logische Behauptungen. Das wurde schon
in § 9 ausführlich gezeigt. Nehmen wir an, die Ausdrücke „2 · 2“ und „2 + 2“
seien synonyme sinnvolle Zeichen, so läßt sich dies logisch als Äquivalenz „2 · 2

313
B. Bolzano, Wissenschaftslehre. Versuch einer ausführlichen und größtenteils neuen Darstellung der Logik, 4 Bände,
Sulzbach 1837, 2. Aufl. Bände 1 und 2 Leipzig 1914 – 15, ND 4 Bände Leipzig 1929 – 1931: Bolzano nennt „Wahrheiten
an sich bzw. objektive Wahrheiten … jeden beliebigen Satz, der etwas so, wie es ist, aussagt, wobei ich unbestimmt lasse,
ob dieser Satz von irgend jemand wirklich gedacht oder ausgesprochen sei oder nicht“, Band 1, S. 111.
466

= 2 + 2“ darstellen. Nun sollte jedoch der (auszurechnende) Zahlenwert 4 die


Bedeutung dieser beiden Synonyme sein – entsprechend der Bedeutung von
„Venus“ im Verhältnis zu den synonymen Bezeichnungen Morgenstern und
Abendstern. Wird die „Bedeutung“ aber selbst in die Gleichung eingestellt, so
muß sie ihrerseits zugleich „Sinn“ der Zahl 4 werden. Logisch ergibt sich dann
eine durchgehende Äquivalenz der Ausdrücke „2 · 2 = 2 + 2 = 4“. In Freges
berühmtem Beispiel müßten daher sowohl „Morgenstern“ wie „Abendstern“ als
auch „Venus“ jeweils andere Ausdrücke für einen und denselben Gegenstand sein.
Das zeigt, daß die Fregesche Unterscheidung von Sinn und Bedeutung weder in
der Mathematik noch in ihren Anwendungen durchzuhalten ist.
Zu Freges Unterscheidung von Sinn und Bedeutung ist daher vom logischen
Standpunkt aus festzustellen, daß sie nicht gemacht werden kann. Dies ergibt sich
aus der „generischen“ Identität der angeblichen Bedeutungen der formalen Spra-
che mit den Bedeutungen der jeweiligen empirischen Zeichen. Die Unterschei-
dung wird nur verständlich aus dem Bestreben von Theoretikern, die die all-
gemeinen „abstrakten“ Begriffe für gänzlich unanschaulich halten und sich den-
noch etwas als deren „Bedeutung“ vorstellen müssen, was sie dann „reines Den-
ken“ nennen.
Frege wollte zwar erklärtermaßen die Mathematik auf Logik begründen, aber er
hat in der Tat die Logik mathematisiert. Die Zahlen wurden ihm zu Mustern
logischer Begriffe, und die Gleichungen, die er Funktionen nannte, zu Mustern
behauptender Urteile. Dabei verwechselte er die logische Äquivalenz mit dem
kopulativen Urteil. Dies ist ein Fehler, dem die meisten Mathematiker aufgesessen
sind, die der Meinung sind, es ließen sich Behauptungssätze durch Gleichungen
darstellen. In der Tat sind sie aber Definitionen, die man nicht behaupten kann,
sondern frei stipulieren muß.
Man beachte außerdem, daß Frege diese Sinn- und Bedeutungstheorie ganz
ohne Berücksichtigung – und ersichtlich auch in Unkenntnis - metaphysischer
und ontologischer Voraussetzungen entwickelte. Sie ließ sich sowohl unter idea-
listischen wie auch realistischen Voraussetzungen interpretieren. Und das führte
dazu, daß sich das gemäß den gegensätzlichen Ansichten idealistischer und rea-
listischer Wissenschaftstheoretiker zu einem bislang ungelösten – besser: unlös-
baren - Problem auswuchs. Die Idealisten unter ihnen zogen Sinn und Bedeutung
auf die Seite psychischer Vorstellungen, die Realisten umgekehrt auf die Seite
ontologisch vorgebener Dinge und Sachverhalte.
Zwischen diesen Positionen vermittelten diejenigen, die Fregeschen „Sinn“ (von
Zeichen) auf die objektive, Fregesche „Bedeutungen“ aber auf die subjektive Seite
des Bewußtsein bezogen. Das aber hatte bei dieser Vermittlungsposition, die zur
vorherrschenden Meinung wurde, die Folge, daß dabei die Wahrheits- und Falsch-
heitsfrage (die Fregeschen „Wahrheitswerte“ der zweiwertigen Logik) in den Vor-
dergrund trat. Wahrheit konnte hier entsprechend dem realistischen Korrespon-
denzprinzip als Übereinstimmung von Zeichensinn und Begriffs- oder Satzbedeu-
467

tung interpretiert werden, Falschheit demnach als Nicht-Übereinstimmung beider


oder gar als Bedeutungs- oder Sinnlosigkeit der einen oder der anderen Seite.
Die sprachwissenschaftliche Behandlung des Bedeutungsproblems brachte zu-
gleich die hier üblichen Kategorien der Semantik, Syntaktik und Pragmatik ins
Spiel, mittels derer das Bedeutungsproblem vor allem diskutiert wird. Semantik
(sprachwissenschaftlich auch „Semasiologie“) ist in der Sprachwissenschaft die
Disziplin des „Bedeutungsbezuges“ sprachlicher Artikulationen; Syntaktik behan-
delt disziplinär den innergrammatischen Zusammenhang sprachlicher Äußerun-
gen; Pragmatik war seit Ch. S. Peirce pragmatischer Theorie der „Glaubensfixie-
rung durch Handlungen“ und besonders durch J. L. Austins Theorie des Eingriffes
sprachlichen Verhaltens in die Wirklichkeit (performation) eine für die Analyti-
sche Philosophie neue aber umso mehr beachtete Ergänzung. 314
Man sollte aber nicht vergessen, daß Wilhelm v. Humboldts Sprachphilosophie
schon zu Beginn des 19. Jahrhunderts Sprache als „Energeia“, d. h. als eine zu-
gleich körperliche und geistige Tätigkeit definierte und sie so von der vor ihm und
auch nach ihm üblichen Auffassung als „Ergon“ (Laut- und/oder Textwerk)
abhob. Auch Humboldt stand dabei schon vor dem Problem, die verschiedenen
sprachlich-grammatisch gestalteten „Weltanschauungen“ der Muttersprachen von
der „Welt an sich“ zu unterscheiden und diesen Unterschied zu begründen, was
auch ihm nicht gelang.
Stellen wir zunächst die idealistische Position dar, die heute weitgehend als
„Phänomenalismus“ bezeichnet wird und bei den meisten Analytikern als überholt
gilt. Sie ergab sich für die Analytische Philosophie aus dem Ansatz des Empirio-
kritizismus von Richard Avenarius und Ernst Mach. Avenarius hatte schon am
Ende des 19. Jahrhunderts mit seinem Buch „Die Philosophie als Denken der
Welt gemäß dem Princip des kleinsten Kraftmaßes 315 den Standpunkt entwickelt,
daß sowohl die sogenannte (natürliche) Außenwelt wie auch die (psychische)
Innenwelt ausschließlich in Sinnesdaten gegeben sei, hinter die nicht zurück-
gegangen werden könne. Daher bestehe die Aufgabe der Wissenschaft nur darin,
alle Begriffe und Aussagen auf diese Sinnesdaten zurückzuführen und alles nicht
auf sie Reduzierbare aus der Wissenschaft auszuscheiden. Das war ersichtlich der
idealistische Standpunkt des Georges Berkeley aus dem 18. Jahrhundert.
Diesen Ansatz hat dann Ernst Mach übernommen, für die Belange der Natur-
wissenschaft weiter ausgebaut und in die Grundlagendiskussion des Wiener Krei-
ses der Analytischen Philosophie eingeführt. Mit dem Ockhamschen Rasiermesser
(nach dem Ökonomieprinzip des „kleinsten Kraftmaßes“ der Theoriebildung) be-
schnitt er dabei radikal die physikalischen und metaphysischen Grundbegriffe der
Physik, wie Substanz, Kraft, Kausalität, Naturgesetz, Sein und Schein bzw. Er-

314
Ch. S. Peirce, How to Make our Ideas Clear (1878). Neu hgg. von K. Oehler: “Über die Klarheit unserer Gedanken /
How to make our ideas clear“, Frankfurt a. M. 1968, 3. Aufl. 1985. - J. L. Austin, How to do things with words, Oxford
1962 u. ö., dt. Übers. Zur Theorie der Sprechakte, Stuttgart 1979.
315
R. Avenarius, Die Philosophie als Denken der Welt gemäß dem Princip des kleinsten Kraftmaßes. Prolegomena zu
einer Kritik der reinen Erfahrung, Leipzig 1876, 2. Aufl. Berlin 1903; ders., Kritik der reinen Erfahrung, 2 Bände, Leipzig
1888 – 1890, 3. Aufl. 1921 – 1928.
468

scheinung, Ich. Deren residuale Bedeutungen führte er auf komplexe Sinneser-


fahrungen zurück. 316 Was dann übrig blieb war die (berkeleysche) Induktions-
methode zur Feststellung des Bedeutungsgehalts genuin wissenschaftlicher Be-
griffe aus den Sinnesdaten. Mach selber gab diese Bedeutungslehre als „wahren
Realismus“ aus. Nach dem, was in § 39 über den identischen Gehalt von Idea-
lismus und Realismus ausgeführt wird, war dies auch unter Realisten vertretbar,
wenn auch nicht präzise. Mach selbst nannte diesen Standpunkt im Lichte der
Kantischen Unterscheidung von Dingen an sich und Erscheinungen, die er als
unmöglich ansah, „Phänomenalismus“.
Diese Machsche Position hinterließ bei den Mitgliedern des Wiener Kreises, die
sich um seinen Wiener Lehrstuhl für induktive Metaphysik versammelten, deut-
liche Spuren.
Machs Bedeutungsbegriff legte L. Wittgenstein seinem „Tractatus logico-philo-
sophicus“ zugrunde. Die logischen Zeichen bzw. Symbole, insbesondere diejeni-
gen von „Elementarsätzen“, für die bei ihm offensichtlich die mathematischen
Gleichungen Modell standen, sollten mittels ihres „Sinnes“ die realen Fakten und
Sachverhalte der Welt „zeigen“. Das blieb insofern unklar, als er mit den „Ele-
mentarsätzen“ behauptende Urteile (mit Wahrheitswert) insinuierte, tatsächlich
aber nur Begriffe und Ausdrücke meinen konnte. Erst die aus „Elementarsätzen“
durch Junktoren verknüpften „aussagenlogischen“ Sätze konnten dann bei ihm
auch logische Urteile mit Wahrheitswerten – ihren „Bedeutungen“ – sein (vgl.
dazu auch das vorn in § 9 über die Aussagenlogik kritisch Gesagte).
Auch der frühe Rudolf Carnap nahm dies zum Ausgang für seine Bedeutungs-
und Sprachtheorie in seinem Buch „Der logische Aufbau der Welt“ und in seinem
Aufsatz „Die physikalische Sprache als Universalsprache der Wissenschaft.“ 317
Für seinen Sprachbegriff ließ er sich offensichtlich vom Beispiel „künstlicher“
Sprachen, insbesondere vom Esperanto leiten, das er glänzend beherrschte und
gerne mit Besuchern sprach. Esperanto (die von dem polnischen Arzt L. Zamen-
hoff 1887 erfundene Sprache) hat die Eigenschaft, unter geringstem gramma-
tischem Aufwand der Wort- und Satzbildung die Ausdrucksfähigkeit vieler (meist
romanischer) Sprachen zu erhalten. Die dadurch erreichte und erprobte „syntak-
tische“ Sparsamkeit hielt er offensichtlich für ein Vorbild der „logischen Spra-
che“, in welcher sich alles Wesentliche aller natürlichen Sprachen gleichsam
bewahren, alles Überflüssige aber ausschalten ließ. Das Wesentliche aber war für
ihn alles logisch, aber mehr noch mathematisch begründete Wissenschaftliche,
und das Überflüssige sah er in den unwissenschaftlichen, folkloristischen, beson-

316
E. Mach, Beiträge zur Analyse der Empfindungen, Jena 1886, 2. Aufl. als „Die Analyse der Empfindungen und das
Verhältnis des Physischen zum Psychischen“, 1900, 9. Aufl. 1922; engl. Übers.: Contributions to the Analysis of the
Sensations, Chicago 1897, weitere Aufl. unter dem Titel: The Analysis of Sensations and the Relation of the Physical to the
Psychical, Chicago-London 1914 u. ö., auch New York 1959.
317
R. Carnap, Der logische Aufbau der Welt. Scheinprobleme in der Philosophie, Berlin 1928, 3. Aufl. Hamburg 1966,
ND Hamburg 1974, engl. Übers. The Logical Structure of the World. Pseudoproblems in Philosophy, Berkeley-London
1967, 4. Aufl. 1974; ders., Die physikalische Sprache als Universalsprache der Wissenschaft, in: Erkenntnis 2, 1931, S. 219
– 241.
469

ders aber in metaphysischen „Sinnannahmen“ der natürlichen Sprachen, die er für


„sinnlos“ hielt.
Für „sinnlose Zeichen“ (man bemerke hier die contradictio in adiecto im Zei-
chenbegriff!) gibt Carnap eine bemerkenswerte Liste von Beispielen. Darin finden
sich „durch Wahrnehmung nicht erkennbare“ Gegenstände („In dieser Wolke sitzt
Jupiter“), Ayersche Kategorienverwechslungen („dieser Stein ist traurig“ und
„dieses Dreieck ist tugendhaft“), aufzählende Wortzusammenstellungen („Berlin
Pferd blau“ und „und oder dessen“), rein lautliche Ausdrücke („bu ba bi“) bis zu
Nebeneinanderstellungen logischer und/oder mathematischer Zeichen („» - ) ) Δ -
- «“). 318 Carnap behauptet, sie seien alle „nicht sachhaltig“, was offensichtlich
nicht der Fall ist. Dabei unterscheidet Carnap zwischen „Sachverhaltsvorstel-
lungen“, wofür er behauptende Urteile angibt, und „Gegenstandsvorstellungen“,
was den Begriffen entspricht (in Meinongs Terminologie: „Objektive“ und „Ob-
jekte“). Das sollte nun auch für die „metaphysischen“ Thesen des Realismus und
des Idealismus gelten: „Sie haben keinen wissenschaftlichen Sinn“ (ibid. S. 77).
Stellt Carnap so die Sinnebene der Gemein- und Fachsprachen und ebenso die-
jenige der Metaphysik grundsätzlich in Frage, so behauptet er ebenso kategorisch:
„Die logistische Sprache hat diesen Fehler (scl. der fehlenden Sachhaltigkeit)
nicht“ (ibid. S. 50).
Die „logistische Sprache“ bzw. das, was er dafür hielt, entwickelte Carnap dann
in seinem Buch „Logische Syntax der Sprache“.319 Er meinte, die „logische Syn-
tax“ sei selbst die erstrebte ideale Sprache. Sie sollte – ähnlich wie Esperanto die
wesentlichen Ausdrucksmittel aller anderen natürlichen Sprachen – ebenfalls die
wesentlichen Eigenschaften der einzelwissenschaftlichen (inhaltlichen) Sprachen
zusammenfassen und konservieren, so daß alles darin Ausdrückbare sich eindeu-
tig als entweder wahr oder falsch beweisen ließe. Mit Wittgenstein meint er
sogar, diese formal-logische Syntax ließe sich - über die Sprachen hinaus - auf die
Spielregeln etwa des Schachspiels anwenden, bei dem es ja ebenfalls darauf
ankommt, richtige und falsche Züge genau zu unterscheiden.
Als einzelwissenschaftliche Fachsprache bzw. „Beobachtungssprache“ sah er
mit Ernst Mach im „Aufbau“ zunächst die psychologische Fachsprache an, in der
sich von ihm sogenannte „eigenpsychische“, dann aber auch „fremdpsychische
Elementarerlebnisse“ beschreiben ließen. Die Auszeichnung der psychologischen
Sprache als Beobachtungssprache der eigenpsychischen Elementarlebnisse be-
gründete er mit dem Wittgensteinschen (auf Wilhelm Schuppes Immanenzphilo-
sophie und Richard von Schubert-Solderns Solipsismus 320 verweisendes) Kon-
zept, es handele sich dabei um einen „methodischen Solipsismus“.

318
R. Carnap, Scheinprobleme in der Philosophie. Das Fremdpsychische und der Realismusstreit, Leipzig und Berlin
1928, mit einem Nachwort von G. Patzig, Frankfurt a. M. 1966, S. 49.
319
R. Carnap, Logische Syntax der Sprache, Wien 1934, 2. Aufl. 1968, engl. Übers. The Logical Syntax of Language,
London-New York 1937 u. ö.
320
W. Schuppe, Die immanente Philosophie, Berlin 1897; ders., Der Solipsismus, Berlin1898; R. von Schubert-Soldern,
Über Transzendenz des Objekts und des Subjekts, Leipzig 1882.- Dazu R. W. T. Lamers, Richard von Schubert-Solderns
Philosophie des erkenntnistheoretischen Solipsismus (Phil. Diss. Düsseldorf), Frankfurt a. M. 1990.
470

Um auch den Physikern gerecht zu werden, nahm er auch die Sprache der Phy-
sik hinzu (vgl. den o. a. Aufsatz über die „Physikalische Sprache“), die ihm noch
geeigneter und sparsamer bei der Beschreibung von Beobachtungsdaten erschien.
Darüber hinaus zog er auch die kultur- bzw. geisteswissenschaftlichen Sprachen
in Betracht. Die Analytische Philosophie ist ihm aber nur darin gefolgt, die
„Physikalische Sprache als Universalsprache der Wissenschaft“ ernst zu nehmen,
weil in ihr alles Wesentliche – neben vielem Unwesentlichen – über die Welt aus-
drückbar sei. Dieser physikalistische Reduktionismus der sprachlichen Bedeutun-
gen galt ihm dann auch als Begründung der so miteinander über die logische
Syntaxsprache verbundenen „Einheitswissenschaft“.
Auch von den einzelwissenschaftlichen „Sprachen“ nahm Carnap an, daß sie
allzuviele Redundanzen an Ausdrucksmitteln besäßen, bei denen sich Wahrheit
und Falschheit nicht deutlich unterscheiden ließen. Um diese Redundanzen zu re-
duzieren bzw. auszuschalten, führte Carnap die „Ähnlichkeitserinnerung“ ein. Er-
sichtlich sollte dadurch eine logische Induktion von den besonderen Sinnesdaten
zu den allgemeinen Bedeutungen geleistet werden, indem aus den Ähnlichkeiten
die generischen Identitäten fixiert und die unterschiedenen spezifischen Diffe-
renzen weggelassen werden sollten. Daß sich durch eine solche Induktion bzw.
Abstraktion des Allgemeinen vom Besonderen ein Kontinuum zwischen Sinn der
von ihm sogenannten „Beobachtungssprache“ und Bedeutung der „Theorie-
sprache“ ergeben mußte, paßte freilich nicht in sein Konzept der zwei Sprachen,
nämlich der (empirischen) Beobachtungssprache und der (logischen) Theorie-
sprache.
Das Zwei-Sprachenverhältnis ruft das Übersetzungsproblem auf den Plan. Und
so glaubte auch Carnap, er könne alles sinnvoll Gesagte der Fachsprachen gleich-
sam purgatorisch in die (mathematische) Syntaxsprache übersetzen. Carnap nann-
te das „rationale Nachkonstruktion“. In der Analytischen Philosophie hieß es
dann „logische Rekonstruktion“ des Sinnes der inhaltlichen Beobachtungs-Spra-
chen in der logischen bzw. mathematischen Formalsprache. Und mit Frege wurde
das Übersetzungsverhältnis dann mehr oder weniger allgemein als Übersetzung
von „Sinn“ (der Beobachtungssprache) in „Bedeutungen“ (der mathematischen
Formelsprache) aufgefaßt.
Sein Vorhaben sah er aber durch die Entdeckung modaler Bedeutungen („Dis-
positionsbegriffe“, wie z. B. „schmelzbar“) und sich dadurch in der logischen
Syntax ergebende Widersprüche als gescheitert an. Da die Dispositionsbegriffe,
wie im § 9 gezeigt wurde, ein Anhangsproblem der mehrwertigen Logik darstel-
len, wandte sich Carnap in seinem Spätwerk dem Ausbau der Wahrscheinlich-
keitslogik zu.
In diesen Veröffentlichungen schwenkte Carnap ins realistische Lager über. Bei
den Realisten aber machte seine Unterscheidung von Beobachtungs- und Theorie-
sprache geradezu Fortüne. Sie zementierte die klassische Unterscheidung von em-
pirisch-sensualistischer Basis und methodisch-rationalem Überbau der Erkenntnis
in der Analytischen Philosophie.
471

Die Realisten unter den Analytikern kamen mit dem späten Carnap wieder auf
die Kantischen Dinge an sich zurück und identifizierten sie mit den Bedeutungen.
Da sie auch die Zeichen als wirkliche Dinge auffaßten, hielten sie auch die ideale
Sprache der logischen und mathematischen Formalismen und die Gemeinsprachen
durchweg für pure Dinge. Daher stammt ihre Vorliebe für die akustischen Lautun-
gen und die geschriebene sichtbare Textform von Sprachen, deren syntaktische
Gestaltungen sie für das Wesentliche ansahen.
Freges „Sinn von Zeichen“ modifizierten sie dadurch, daß sie (mit Wittgensteins
Tractatus) formale Zeichensysteme „an sich“ für „sinnlos“ hielten. Wobei aber
regelmäßig nicht bedacht wurde, daß Zeichen ohne „sinnhafte“ Verweisung über-
haupt keine Zeichen sein können. Sinnhaftigkeit und damit Bezeichnungsfunktion
sollte den formalen Kalkül-Sprachen erst durch ihre Anwendung auf inhaltliche
Wissenschafts-Sprachen zuwachsen.
Darauf beruht die analytische Redeweise von der „Bedeutungserfüllung“ forma-
ler Sprachen durch die sinnlich wahrnehmbaren „Modelle“ ihrer einzelwissen-
schaftlichen Anwendungsbereiche (domains). Solche „Modelle“ sind freilich in
der Beobachtungssprache beschriebene anschauliche Sachverhalte, die auf mehr
oder weniger unbekannte Sachverhalte per Analogie übertragen werden. Dasselbe
gilt von den sogenannten Simulationen (insbesondere Computersimulationen), in
welchen (vermutete) prozeßhafte Abläufe durch Computerprogramme modelliert
werden (vgl. dazu § 12).
Für den Ausbau der Konzeption der zwei Sprachen konnte man sich auf B.
Russells Typentheorie der Sprachstufen wie auf Wittgensteins Aussagenlogik be-
rufen, die das Meta-Verhältnis von zwei oder mehreren Sprachebenen und ent-
sprechenden Sinnzuschreibungen an die formalen Zeichen dieser Sprachebenen
vorgab.
Alfred Tarskis Abhandlung über „Die Semantische Konzeption der Wahrheit“ 321
galt und gilt als Muster sowohl des Aufbaus und der Unterscheidung solcher
Sprachebenen als auch der Sinnzuweisungen an ihr formales Zeichenmaterial.
Ersichtlich hat er sich dazu an der Russellschen Typentheorie der Sprachebenen
orientiert und sie als „Metatheorie der Sprachstufen“ rekonstruiert (vgl. dazu §
7,4).
Seine Unternehmung war nach eigenem Eingeständnis von vornherein darauf
ausgerichtet, daß sie „den Intuitionen der klassischen aristotelischen Konzeption
der Wahrheit gerecht wird - die ihren Ausdruck in den wohlbekannten Worten der
Metaphysik des Aristoteles finden: Von etwas, das ist, zu sagen, daß es nicht ist,
oder von etwas, das nicht ist, daß es ist, ist falsch, während von etwas, das ist, zu
sagen, daß es ist, oder von etwas, das nicht ist, daß es nicht ist, ist wahr“ (vgl. G.
Skirbekk, S, 142 f.). Und das führte zu seinem Wahrheitsbegriff: „Eine Aussage

321
A. Tarski, The Semantic Conception of Truth and the Foundation of Semantics, in: Philosophy and Phenomenological
Research 4, 1944, S. 341 - 376, dt. Übers.: Die semantische Konzeption der Wahrheit und die Grundlagen der Semantik,
in: J. Sinnreich (Hg.), Zur Philosophie der idealen Sprache. Texte, München 1972, S. 53 – 100.; auch in: G. Skirbekk
(Hg.), Wahrheitstheorien, Frankfurt a. M. 1977, S. 140 – 188.
472

ist wahr, wenn sie einen existierenden Sachverhalt bezeichnet“ (G. Skirbekk, S,
143), d. h. zum wohlbekannten Korrespondenzbegriff der Wahrheit.
Was der „existierende Sachverhalt“ ist und wie er durch eine Aussage korres-
pondierend abgebildet erkannt werden kann, bleibt hier freilich ebenso dunkel wie
Kants „Ding an sich“ in der Korrespondenz zu seiner „Erscheinng“ im Be-
wußtsein. Der „Sachverhalt“ wird auch hier auf den realistischen Glauben an die
Realität der Außenwelt begründet.
Abgesehen davon krankt Tarskis Abhandlung an der allgemeinen Fehleinschät-
zung der Funktion des Zitatwesens, d. h. des „Meta-Verhältnisses“ im Übergang
zwischen den unterschiedenen Sprachstufen. Sein objektsprachlicher Satz über
den weißen Schnee soll als Zitat in der formalen Metasprache seine semantische
Bedeutung verlieren und zu einer gehaltlosen Aussageform werden, die zugleich
die neue Bedeutung wahr oder falsch zu sein, erhält. Diese wunderbare Wandlung
ist jedoch nur verständlich, wenn die semantische Bedeutung des objektsprach-
lichen Satzes mit der metasprachlichen Bedeutung, wahr oder falsch zu sein,
identisch bleibt. D. h. daß der objektsprachliche Satz schon als wahr oder falsch
behauptet werden muß, um in der Metasprache (synonymisch) entsprechend
formalisiert werden zu können.
Die Argumentation Tarskis und insbesondere seine Wahrheitsdefinition gilt
seither als unübertroffener Standard in der mathematischen Logik. In der Tat ist er
jedoch ein Paradebeispiel für den dialektischen Charakter mathematischer Argu-
mentationen.
Der bislang noch heftig diskutierte Vorschlag einer realistischen Theorie der
Sinnzuweisung an sprachliche Zeichen stammt von Willard Van Orman Quine. Er
knüpft an Wittgensteins späte Sprachphilosophie und an Carnap an, wonach der
„Sinn“ von sprachlichen Verlautbarungen auf den „Sprachspielen“ beruhen soll-
ten. Damit trat die Sprachpragmatik an die Stelle der Tarskischen Semantik. Der
Sinn sprachlicher Äußerungen „zeige“ sich in der Praxis der Zeichenverwendung,
und dies im Kontext aller Verhaltensweisen der Zeichenspieler. Man beachte
hierbei, in welch widersprüchlicher Weise hierbei der Beobachter die Sprach-
zeichen sehen und verstehen soll, während zugleich dieses (mentale) Sinnver-
ständnis keinerlei Rolle beim Verstehen spielen soll.
Quines „behavioristische“ Sinntheorie verzichtet somit auf jeden Rückgriff auf
die subjektiven Vorstellungen, die die Sprachspieler bei ihrem sprachlichen
Verhalten haben könnten. „To mean is making sounds“ („etwas meinen heißt:
Töne von sich geben“), wie sein vielzitiertes Beispiel aus einer unbekannten Spra-
che, nämlich die Lautung „gawagai“, zeigen soll. 322 Der „Sinn“ aber soll dabei
vielfältig auslegbar und damit „gänzlich dunkel“ bleiben. Quine hält daher Freges
Sinnbegriffe für „creatures of darkness“. Diese Sinnlehre macht das Carnapsche
Problem der Abgrenzung von Eigenpsychischem und Fremdpsychischem und des

322
W. V. O. Quine, Word and Object, Cambridge, Mass. 1960, S. 29 – 33. – Zu Quines Philosophie vgl. O. R. Scholz: W.
V. O. Quine. Naturalisierter Empirismus, in: A. Hügli und P. Lübcke, Philosophie im 20. Jahrhundert, Band 2, Rein-
beck1993, S. 390 – 431.
473

subjektiven Sinnverständnisses gänzlich obsolet, was wesentlich zur Wirkung


Quines beigetragen hat. Und sie setzt dabei auch den Ryleschen Exorzismus des
Geistes (mind) aus der Maschine auf neue Weise fort.
Anders steht es jedoch mit dem eigentlichen Bedeutungsproblem. Hier blieb
auch Quine dem Fregeschen Ansatz treu. Die Bedeutungen, stets in Korrespon-
denz zur realistisch vorausgesetzten Wirklichkeit, ergeben sich aus dem logisch-
mathematischen Regelgesamt der formalisierten Sprachen. Wie schon bei Ernst
Mach scheidet der Formalismus vielerlei angebliche Bedeutungen als „sinnlos“
aus und läßt nur die formal konstruierten „values of bound variables“ (Werte von
gebundenen Variablen) als „Sein“ (to be) übrig. Jede (physikalische) Theorie
erzeugt gemäß ihrem geregelten Sprachspiel ihre eigene Wirklichkeit von Be-
deutungen. Dies auf der Grundlage der von ihr ausgezeichneten und definierten
Zeichen, deren Sinn an den Verlautbarungen von Sprechern und den formali-
sierten Texten ihrer Verfasser gesehen und abgelesen werden kann.
Das hat zur Folge, daß auch die (Fregeschen) Bedeutungen formalisierter Theo-
rien ohne eindeutige erfahrungsmäßige Stützen bleiben. Ihr Bedeutungsbezug
(semantic reference) wird dadurch „inscrutable“ (unerforschlich). Daher gibt es
auch keine „Übersetzung“ der Theoriebedeutungen von einem Sprachspiel in ein
anderes bzw. einer Theorie in eine andere. Jede Theorie muß daher als ein Ganzes
angesehen werden, dessen Sinn und Bedeutung auch nur „holistisch“ – als Ganzes
– bewertet werden kann. Dies ist Quines Kritik an Carnaps Meinung, der Sinn
einer einzelwissenschaftlichen Beobachtungsprache ließe sich in die formale
Sprache der logischen Syntax übersetzen.
Offensichtlich zieht Quine die letzte Konsequenz aus seinem empiristischen
Realismus. Sinn und Bedeutung als Überbleibsel idealistischer Psychologie wer-
den bei ihm zu „Museumsmythen“ und tendenziell aus den wissenschaftstheoreti-
schen Begriffen eliminiert. Was bleibt ist ein Pluralismus holistischer formali-
sierter Theorien. Sie bestehen aus Zeichen, denen die spezifischen Bedeutungen
der verschiedenen einzelwissenschaftlichen Theoriebegriffe zugewiesen werden.
Quine faßt dies Ergebnis in die berühmt gewordene Maxime der „Unbestimmt-
heit der Übersetzung“ (indeterminacy of translation) von Theorien – und damit
von Sprachen - zusammen. Auch diese Maxime ist dialektisch. Denn ersichtlich
kann von Übersetzung nur die Rede sein, wenn Sinn und Bedeutung in den durch
ihre Zeichen und Zeichenkombinationen unterschiedenen Sprachen identisch
bleibt. Liegt der Fall aber gar nicht vor, so kann es sich auch nicht um ein
Übersetzungsproblem handelt.
Quine lieferte damit aber die geeignete philosophische Unterlage für die
Behandlung der „künstlichen Intelligenz“ von Computern, die solche „Zeichen“
ohne Sinn und „Theorien“ ohne Bedeutung in beliebiger Variation und Ausdeh-
nung konstruieren und manipulieren lassen und dabei beanspruchen, insgesamt
das wahre Bild der Wirklichkeit zu liefern.
Quines zugespitzte Thesen, die meistens in sehr prägnanten Aperçus formuliert
sind und in allen wissenschaftstheoretischen Seminaren diskutiert werden, über-
474

zeugten freilich nicht einmal seine eigenen Schüler. Sie kamen mehr oder weniger
auf die vermittelnde Position des Phänomenalismus zurück, die sie aber eher
umschrieben als benannten. Und dadurch kam auch das Bewußtsein (mind) und
seine Leistungsfähigkeit zur Erfassung von Sinn und Bedeutung wieder ins Spiel.
Quines Kollege an der Harvard Universität Nelson Goodman hatte sich mit sei-
nem Buch „The Structure of Appearence“ von 1951 323 dazu bekannt, dem
Phänomenalismus nahe zu stehen. Goodman berief sich auf einen nomina-
listischen Logikansatz, den er gegen die herrschende extensionale (klassenlogi-
schen) Konzeption stark machte. Darin identifizierte er die „basic individuals“,
die durch Russellsche Eigennamen und Beschreibungen bezeichnet werden, offen-
sichtlich von Mach inspiriert, als „sensory items“. Von ihnen als (Fregeschen)
Sinnzeichen ausgehend, versuchte er die (Fregeschen) Bedeutungen allgemeiner
Begriffe und Aussagen logisch zu induzieren. Aber sein unzulänglicher Induk-
tionsbegriff (der wie gezeigt für die Analytische Philosophie notorisch ist) führte
sein Unternehmen nur auf die Festellung des „riddle of induction“ (Rätselhaf-
tigkeit der Induktion). 324 Danach wendete er sich in seinem Buch „Languages of
Art“ von 1968 325 den künstlerischen Weisen von Bedeutungkonstruktionen zu,
womit er zumindest der Analytischen Sprachphilosophie die Ästhetik als ein (seit
O. Neuraths Studien dazu) bis dahin von den Analytikern vernachlässigtes Gebiet
eingliederte.
Quines Nachfolger an der Harvard University, Hilary Putnam, verwandelte
dann den „externen Realismus“ zeitweilig in seine Konzeption eines „internen
Realismus“, wodurch er die rätselhaften „Objekte“ loszuwerden versuchte. Das
wurde aber, wie schon gesagt, vielfach als Idealismus verstanden und kritisiert, so
daß er wieder davon Abstand nahm.
Mittlerweile hatte aber Michael Dummet schon einen neuen „Anti-Realismus“
ausgerufen, den er auf seinen (mathematischen) Intuitionismus gründete. In seiner
Konzeption wurden die „Intuitionen“ von Sinn und Bedeutung zu reinen Gedan-
kenkonstruktionen, denen dadurch der Wahrheitsbezug zur Wirklichkeit (der
analytischen „Korrespondenz“) abhanden kam (vgl. sein Buch „Truth and other
Enigmas“, London 1978).
Diesen Wahrheitsbezug versuchte Donald Davidson mit Hilfe der Brentano-
schen Theorie der Intentionalität und der Tarskischen „Wahrheitstheorie“, wonach
jedem „repräsentierenden“ Bewußtseinsakt auch ein ontologisches Objekt entspre-
chen sollte, zu retten. Ob ihm das gelungen ist, bleibt fraglich. Auf jeden Fall
zeigt das starke Interesse der Analytischen Philosophie an der aristotelisch in-
spirierten Psychologie und Ontologie Franz Brentanos (1838 – 1917) in der engli-
schen und US-amerikanischen Wissenschaftstheorie seit den späten 60er Jahren

323
N. Goodman, The Structure of Appearance, Cambridge, Mass. 1951, 3. Aufl. Dordrecht 1977.
324
N. Goodman, Fact Fiction, and Forecast, London 1954, 4. Aufl.Cambridge, Mass. 1983, dt. Übers.:Tatsache, Fiktion,
Voraussage, Frankf. a. M. 1975.
325
N. Goodman, Languages of Art. An Approach to a Theory of Symbols, Indianapolis 1968, 2. Aufl. 1976, dt. Übers.:
Sprachen der Kunst. Ein Ansatz zu einer Symboltheorie, Frankf. a. M. 1973.
475

des 20. Jahrhunderts (fast alle Werke Brentanos wurden seit „The True and the
Evident“, London 1966, ins Englische übersetzt), daß auf seinen Grundlagen eine
erneute Runde in der „realistischen“ Diskussion des Bedeutungsproblems ange-
fangen hat.

§ 41 Der kritische Rationalismus

Kritischer Rationalismus als Filiation der Analytischen Philosophie. Zur Geschichte. Metaphy-
sische Grundlagen. Der Wissenschaftsbegriff K. R. Poppers. Zur Methode der Falsifikation. Zen-
trale Probleme: Das Demarkationsproblem. Die Bewährung von Theorien. Das Begründungs-
problem. Wahrheit und Wahrscheinlichkeit. Die evolutionäre Wissenschaftsentwicklung nach Th.
S. Kuhn. Das Leib-Seeleproblem bei Popper und Eccles.

Der kritische Rationalismus hat sich als eine Filiation aus dem Wiener Kreis her-
aus abgespalten. Mit dem logischen Empirismus teilt er die grundsätzliche Orien-
tiertheit am exemplarischen Wissenschaftsmodell der Naturwissenschaften. Die
Skepsis gegenüber dem empiristischen Lösungsversuch des Problems des Sinn-
kriteriums wissenschaftlicher Aussagen und des Induktionsproblems führte hier
zu einer metaphysischen Neuorientierung, die auch die zentralen Probleme des
logischen Empirismus in anderem Licht erscheinen läßt. Der kritische Ratio-
nalismus beruft sich auf die „kritischen“ Traditionen Kants und Fries„, aber auch
auf Hume, und versucht deren Gedankenpotenzial für die Analyse moderner Wis-
senschaft fruchtbar zu machen. Gelegentlich wird auch unter offensichtlichem
Bezug auf Kant die Bezeichnung „rationaler Kritizismus” für diese Richtung in
Anspruch genommen.
Obwohl auch der kritische Rationalismus grundsätzlich von der Physik als para-
digmatischer Wissenschaft ausgegangen ist, hat er in neueren Entwicklungen auch
die Lebenswissenschaften, insbesondere in der Gestalt der Evolutionsbiologie, als
Fundament für wissenschaftstheoretische Reflexionen genommen. Was gegen-
wärtig besonders in Deutschland und Österreich als „evolutionäre Erkenntnis-
theorie“ auftritt, kann als eine Filiation des kritischen Rationalismus angesprochen
werden, zu der sich auch K. R. Popper bekannte.

Zur Geschichte: Die Richtung wurde inauguriert von Karl Raymund Popper mit
seinem Werk „Logik der Forschung. Zur Erkenntnistheorie der modernen Natur-
wissenschaft”, die von Ph. Frank und M. Schlick, den führenden Mitgliedern des
Wiener Kreises, als Band 9 der von ihnen herausgegebenen „Schriften zur wissen-
476

schaftlichen Weltauffassung” Wien 1935 (eigentlich schon 1934) publiziert wur-


de. 326
Popper hat in England eine einflußreiche Schule gebildet, die dann auch in den
USA, Israel und in Deutschland zahlreiche Anhänger gefunden hat. In England
haben sich vor allem Imre Lakatos sowie St. Körner, Herausgeber der Zeitschrift
Ratio (engl. und dt. Ausgaben seit 1957) profiliert. Neben ihnen sei A. E. Mus-
grave in Neuseeland genannt. In den USA haben sich vor allem P. Feyerabend, J.
Agassi und Th. S. Kuhn für den kritischen Rationalismmus stark gemacht. In
Deutschland dürfte Hans Albert sein führender Kopf sein, der seinerseits eine
Reihe von Schülern von Mannheim aus auf den Weg gebracht hat. Auch G. Rad-
nitzky und sein Schüler Gunnar Anderson in Trier, Gert König und Helmut Pulte
in Bochum, Gregor Schiemann in Wuppertal sowie Hans Herbert Keuth und Axel
Bühler gehören dieser Richtung an.
Außer bei Naturwissenschaftlern hat diese wissenschaftstheoretische Richtung
besonders bei den Sozialwissenschaftlern und Ökonomen viel Anklang gefunden
und über diese wiederum in weiten Kreisen sozialdemokratischer Politiker, die in
ihr das weltanschauliche Fundament einer undogmatischen Sozialtechnologie der
kleinen Schritte entdeckten.

Metaphysische Grundlagen: Hier steht, wie die Bezeichnung „kritischer Ratio-


nalismus“ besagt, die Vernunft und ihre kritische Potenz als nicht weiter hinter-
fragbarer Ausgangspunkt im Zentrum. Aber wie schon in Kants Unternehmen,
„die Vernunft zu Verstande zu bringen” (F. H. Jacobi), nicht klar werden konnte,
was die Vernunft eigentlich sei, so besitzt auch der kritische Rationalismus einen
außerordentlich weiten Begriff davon. Ratio bzw. Vernunft ist zunächst und vor
allem das Vermögen des Theorienentwurfs. Und so geht es in dieser Richtung
auch vor allem darum.
Vernunft ist hier hauptsächlich das Vermögen kreativer und phantasievoller
Einfälle, was man ehedem eher „Phantasie“ genannt hätte. In zweiter Linie ist sie
das Vermögen der Kritik an den Theorien. Dieser Kritik ist eine Skepsis eigen-
tümlich, die dem Anspruch nach jede dogmatische Festlegung vermeidet, sich im-
mer offen hält für neue und andere Einfälle und Entwicklungen und prinzipiell
alle Sicherheit für ein Ideal, nicht für habbare und machbare Wirklichkeit hält. In
dieser Hinsicht ist der kritische Rationalismus sicher mehr Humescher Skepsis als
Kantischer Transzendentalphilosophie verpflichtet. Deswegen hat er auch trotz
mannigfaltiger Berufung und Anleihen auf und bei Kant nichts mit dem transzen-
dentalphilosophischen Neukantianismus gemein, obwohl in diesem manche ver-
wandte Gedankengänge gedacht worden sind.
Und wie der kantische Rationalismus sowohl in idealistischer wie auch rea-
listischer Weise auslegungsfähig war und ist, bleibt diese metaphysische Gret-

326
Englische Übersetzung The Logic of Scientific Discovery, New York 1959, 10. Auflage 1989. – Über Poppers
Philosophie vgl. J. R. Flor, Karl Raimund Popper, in: A. Hügli und P. Lübcke, Philosophie im 20. Jahrhundert, Band 2,
Reinbeck1993, S. 473 - 497.
477

chenfrage auch beim kritischen Rationalismus offen. Er bekennt sich ebenso gut
zu einem naturwissenschaftlichen Materialismus (und mithin Realismus) wie zu
einem gut neuplatonischen Idealismus der Sinngebilde, den der späte Popper in
seiner Lehre vom 3. Reich der „an sich bestehenden“ Ideen nach Bernard Bolza-
nos und H. R. Lotzes Vorgang wieder aufgenommen hat.
Mit dem logischen Empirismus, von dem Popper ausgegangen ist, teilte er die
Animosität gegenüber der Metaphysik, die er darum mit einigem Aufwand von
eigentlicher Wissenschaft abzugrenzen bemüht war, und wozu er eigene „Demar-
kationskriterien” entwickelt hat. Das konnte freilich ebenso wenig wie beim logi-
schen Empirismus gut gehen. So ist man auch in jüngerer Zeit in dieser Frage we-
sentlich toleranter geworden. Gerade weil die Metaphysiken unter anderem auch
ein in den modernen Wissenschaften bisher kaum genutztes Reservoir an phan-
tastischen Einfällen, Hypothesenansätzen und Vermutungen bereitstellen, ist man
mehr und mehr geneigt, jede Metaphysik willkommen zu heißen und sie für die
Formulierung neuer Forschungsmaximen und -programme auszubeuten. Darin hat
sich bekanntlich vor allem Paul Feyerabend mit seiner Maxime „Erlaubt ist, was
gefällt” 327 hervorgetan.
Da so die positive metaphysische Festlegung des kritischen Rationalismus recht
schwierig ist, dürfte seine negative metaphysische Charakteristik als Antiem-
pirismus (und Antisensualismus) mehr ergeben. Dieser wendet sich in der Tat
gegen den logischen Empirismus bzw. gegen das empiristische Moment in ihm,
während das logische Moment – als methodische Entfaltung kritischer Vernunft-
tätigkeit – durchaus beibehalten wird.
Allgemein wird man den kritischen Rationalismus als eine Einstellung kenn-
zeichnen dürfen, die das Wesen der Wissenschaft in der Erzeugung und Bewäh-
rung immer umfassenderer gedanklicher Synthesen des einzelwissenschaftlichen
Wissens sieht.

Der Wissenschaftsbegriff: Wissenschaft ist demnach ein Verfahren der Vernunft,


kühne Vermutungen („bold conjectures“ nach Popper) über die Wirklichkeit in
Form von kohärenten Hypothesen und Theorien zu entwerfen und aus ihnen
diejenige Theorie auszuzeichnen, die sich vor allen konkurrierenden Theorien als
die umfassendste den strengsten Widerlegungsversuchen (severe tests) gegenüber
(für die sie selber mittels „Fallibilitätsbedingungen“ genaue Anweisungen enthal-
ten muß) bewährt hat. Entsprechend ist auch die Wissenschaftstheorie ein Verfah-
ren der Vernunft, die umfassendste und bewährteste Theorie über die Wissen-
schaft(en) auszuzeichnen.

Zur Methode: Als solche wird vor allem die Methode der Falsifikation von Theo-
rien bzw. Hypothesen angegeben. Deswegen nennt man die ganze Richtung auch

327
P. Feyerabend, Anything goes, in: Against Method. Outline of an Anarchistic Theory of Knowledge, Minnesota
Studies in the Philosophy of Science, Band IV, S. 17 – 130, auch London 1975; erweiterte dt. Übersetzung: Wider den
Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie Frankfurt a. M. 1976.
478

zuweilen Fallibilismus oder Falsifikationismus. Dies besagt, daß 1. nur solche


Theorien als wissenschaftliche anerkannt werden sollen, die genaue Kriterien
dafür enthalten, unter welchen Bedingungen sie selber als widerlegt bzw. falsi-
fiziert gelten sollen. Daß sie 2. eben diesen Falsifikationsversuchen (severe tests)
auch tatsächlich ausgesetzt werden. Solche Verfahren sind und waren freilich in
der Wissenschaft seit jeher üblich. Sie wurden lange vor dem Aufkommen des
kritischen Rationalismus als das Verfahren von „Versuch und Irrtum“ (trial and
error) praktiziert und bezeichnet. Popper hat ihnen aber im wissenschaftlichen
Prozedere die leitende und ausschlaggebende Rolle zugewiesen.
Da Falsifikationsversuche nur über Theorienvergleiche möglich erscheinen,
spielt methodisch auch die logische Kohärenz und Stimmigkeit der Theorien eine
hervorragende Rolle. Dazu ist natürlich die logische bzw. mathematische Forma-
lisierung ein privilegiertes, jedoch keineswegs entscheidendes Mittel. Der Theo-
rienvergleich erstreckt sich nicht nur auf ausgearbeitete und insofern konsolidierte
und logisch durchkonstruierte Theorien, sondern auch auf Theorienskizzen als
„Forschungsprogramme” (Imre Lakatos), zu deren Chancenbeurteilung der kriti-
sche Rationalismus Kriterien beibringen will. Dies macht ihn für Wissenschafts-
politiker und Forschungsfinanziers besonders interessant für die Bewertung von
Forschungsvorhaben (science and technology assessment).
Für den Theorienentwurf selber gibt es angeblich keine Methode, er gilt als psy-
chologisch-kontingentes Faktum. Der Geist weht, wo er will, und der Ratio-
nalismus kann seiner Natur nach das Funktionieren der Ratio nicht aus höheren
Prinzipien ableiten. Daher gehört es zum metaphysischen Credo des kritischen
Rationalismus, daß sich die künftige Wissenschaftsentwicklung nicht exakt pro-
gnostizieren läßt. Aus dem gleichen Grunde verhält er sich skeptisch gegen ihre
Planung und „Finalisierung”.

Zentrale Probleme: Diese sind in der Hauptsache die gleichen wie die des logi-
schen Empirismus, die der kritische Rationalismus ja auf Grund anderer metaphy-
sischer Voraussetzungen und mit anderen Methoden lösen will. Unter ihnen ragen
hervor:

1. Das Abgrenzungsproblem von Metaphysik und Wissenschaft (Demarkations-


kriterium). Es liegt in der Behauptung der Falsifizierbarkeit wissenschaftlicher
Theorien und in der angeblichen Immunität der Metaphysiken und aller Pseudo-
wissenschaften gegen jede Falsifikation.
Dieser Lösungsvorschlag setzt allerdings einen kantischen Metaphysikbegriff
voraus, nach welchem Metaphysik in apriorisch-synthetischen Theorien bestehe,
die per definitionem nicht durch Empirie bestätigt werden können, sondern der
empirischen Forschung Normen und Regeln vorgeben. Und ersichtlich ist der kri-
tische Rationalismus selber eine solche normative Metaphysik, mithin nach eige-
nem Verständnis als Wissenschaftstheorie selber keine Wissenschaft (wie Imre
Lakatos auf einem Philosophiesymposium bestätigt hat).
479

2. Die Bewährung bzw. Bestätigung von Theorien. Sie kann nicht durch Induk-
tion, schon gar nicht durch „vollständige Induktion“ geschehen. Daher wird sie in
der Deduktion gesucht. Deren Anwendung führt zum Falsifikationsprinzip: Eine
wissenschaftliche Theorie muß Fälle und Fakten deduzieren und ggf. progno-
stizieren lassen, bei deren Vorliegen die Theorie als falsifiziert und widerlegt
gelten soll. Es handelt sich hier um die strategische Einsetzung des logischen
Prinzips des „Modus tollens“, das seinerseits auf die zweite stoische „Unbeweis-
bare“ Schlußform zurückgeht. Jede Theorie muß insofern Anweisungen enthalten,
nach solchen widerlegenden Instanzen zu forschen.
Insgesamt wird eine wissenschaftliche Theorie als Verbotssystem aufgefaßt, wel-
ches klare „Verbrechenstatbestände” formuliert. Sie „behauptet nicht, daß etwas
existiert, sondern daß etwas nicht existiert”. (Popper). Kommt das „Verbrechen”
dennoch vor, so taugt das theoretische Verbotssystem nichts (Dies wäre eine
juristisch und ethisch höchst fragwürdige Einstellung, an der auch die Grenzen
dieses Theoriemodells sichtbar werden!).
Hier ergibt sich für den kritischen Rationalismus das weitere Problem, wie
solche widerlegenden Instanzen erfaßt werden sollen. Läßt man Fakten (factum
brutum) oder entscheidende Experimente (experimentum crucis) zu, so hat man
schon dem Empirismus Recht gegeben. Um das zu vermeiden, verlangt der kri-
tische Rationalismus, daß es sich um theoretisch konstituierte Fakten, die ihrer-
seits positiv aus Theorien deduziert sind, handeln muß. Aber auch solche bislang
unbekannte und nur prognostizierte Fakten müssen in irgend einer Weise empi-
risch gesichert sein. Damit läuft die Falsifikationsmethode bzw. die Bestätigung
(corroboration, confirmation) von Theorien auf Theorienvergleich zwischen kon-
kurrierenden Theorien hinaus, die zur Faktensicherung geeignet erscheinen.
Es liegt auf der Hand, daß in dieser Weise Theorien niemals endgültig bestätigt
werden können, sondern daß ihre Bewährung nur auf Widerruf gilt. Erkenntnis
bleibt immer vorläufig, wahrscheinlich und verbesserungsfähig. Wissen ist daher
grundsätzlich Vermutungswissen (conjection), wie dies auch Nikolaus von Kues
schon von aller messenden mathematischen Wissenschaft festgestellt hatte.

3. Das Begründungsproblem. Auf dieses Problem ist der kritische Rationalismus


durch seine Gegner hingedrängt worden. Es steht derzeit noch immer im Vor-
dergrund wissenschaftstheoretischer Auseinandersetzungen zwischen den Rich-
tungen.
Prinzipiell sieht der kritische Rationalismus die Begründung und Rechtfertigung
von wissenschaftlichen Theorien – und auch seiner eigenen metaphysischen Posi-
tion – im Erfolg der Theorie, die sich an ihrer auch praktisch-technischen
Bestätigung bemißt. Im Hintergrund wirkt hier eine darwinistisch-evolutionäre
Vorstellung von der Entwicklung und Konkurrenz der Theorien und vom Überle-
ben der erfolgreichsten (survival of the fittest). Aber dies wird von den Gegnern
480

als blinder Dezisionismus bezeichnet, der die Antwort auf die Rechtfertigungs-
frage gerade verweigere.
Hans Albert hat den Kritikern gegenüber den Argumentationsspieß umgedreht,
indem er das Begründungsproblem als ein Trilemma („Friessches Trilemma” bzw.
„Münchhausentrilemma”, vgl. § 22) formuliert. Alle Begründungsversuche laufen
danach entweder auf einen dogmatischen Abbruch der Begründung bei nicht zu
rechtfertigenden Evidenzen und Dogmen hinaus; oder auf einen Zirkel, der das zu
Begründende voraussetzt und umgekehrt das Vorausgesetzte begründet; oder auf
ein skeptisches Offenbleiben für immer neue noch ausstehende Begründungen.
Wobei Albert selber im Sinne des kritischen Rationalismus letzteres als die beste
Problemlösung betrachtet.
Dem ist freilich entgegenzuhalten, daß eine zirkuläre Begründung überhaupt keine
Begründung ist, und daß die kritische Offenheit für weitere und andere Be-
gründungen nicht verhindern kann, daß ad hoc und bis auf weiteres Dogmen
gleichsam auf Abruf als Begründungen hingenommen werden müssen. Und dieses
ist im gegenwärtigen Zustand des kritischen Rationalismus eben das Dogma von
der kreativen und kritischen Vernunft-Phantasie.

4. Wahrheit und Wahrscheinlichkeit. Der kritische Rationalismus teilt mit dem


logischen Empirismus die Auffassung, daß wissenschaftliche Theorien (und durch
sie formulierte Gesetze) nur den Charakter der Wahrscheinlichkeit beanspruchen
können. Das Maß ihrer Wahrscheinlichkeit ist dabei ihr Bestätigungsgrad. Bestäti-
gung und Bewährung von Theorien und die „Allgemeinheit” von Gesetzen der
Natur bleiben grundsätzlich eine Sache historischer Erfahrung: Im Geiste Hume-
scher Skepsis und epikureischer Naturauffassung bleibt die Zukunft ein kontin-
gentes Feld für Überraschungen, wo alles einmal ganz anders sein kann, als es bis-
her gewesen ist.
Dies ist nun kein statistischer, sondern ein skeptischer Wahrscheinlichkeits-
begriff. Popper nennt ihn „verisimilitude”. Und wie in der antiken Skepsis stellt
sich zwangsläufig das Problem, diese Wahrscheinlichkeit an der Wahrheit zu mes-
sen. Popper tut dies auch, indem er behauptet, die wissenschaftsgeschichtliche
Entwicklung „wahrscheinlicher“ Theorien nähere sich „asymptotisch” (d. h. im-
mer mehr, aber niemals mit ihr zusammenfallend) der Wahrheit selber. Spätestens
an dieser Stelle geht denn der kritische Rationalismus und sein Wissen – mit Fries
– in Glaube und Ahndung über. Denn die noch ausstehende Wahrheit ist unbe-
kannt und kann deshalb auch nicht als Maß für die Abstände des Wahrschein-
lichkeitswissens von ihr gelten.

5. Wissenschaftsentwicklung. In Konkurrenz und steter Auseinandersetzung mit


dem logischen Empirismus hat auch der kritische Rationalismus großes Interesse
für das Problem der Wissenschafts- und insbesondere der Theorieentwicklung
aufgebracht. Popper selbst hatte die theoriebegründenden „kühnen Einfälle“ für
rein psychologische Phänomene im „context of discovery“ gehalten - und damit
481

ganz im Sinne der Selbststilisierung nobelpreiswürdiger Genies argumentiert. Erst


die wissenschaftliche Dignität solcher Einfälle und der Folgerungen aus ihnen
sollte sich dann in einer logischen Prüfung im „context of logical justification“
unter Falsifikationsbedingungen erweisen lassen. 328 Im übrigen ging er von einer
perennen Konstanz des Sinngehaltes einmal entwickelter Theorien aus. Das zeigt
sich in seiner eigenen philosophiegeschichtlichen Interpretation der Systeme von
Platon, Hegel und Marx als unmittelbar wirkende Ideenpotentiale hinter den
(damals) zeitgenössischen Ideologien des Faschismus und Kommunismus. 329
Imre Lakatos, ein ausgewiesener Mathematiker und Mathematikhistoriker, hat
diese Ideenpotentiale vor allem mathematischer Theorien unter den Gesichtspunk-
ten untersucht, wie weit sie eine Fortschrittspotenz enthalten oder „retrograd“
sind. Seine Theorie der Theorienentwicklung legte er als „Theorie der For-
schungsprogramme“ vor, die in Anspruch nimmt, progressive und dekadente For-
schungsprogramme unterscheidbar zu machen und damit auch dem „Assessment“
bei Forschungsförderungen eine Hilfestellung zu bieten. 330
Auch der schon im vorigen Paragraphen erwähnte, Physiker und Physikhisto-
riker Thomas S. Kuhn, nahm seinen Ausgang von dem durch das Falsifikations-
erfordernis nahegelegten Theorienvergleich. Er führte für das Ideenpotential
hinter einer Theorie den Begriff des „Paradigmas“ ein. Seine Vorstellungen über
die Geschichtsentwicklung stützen sich offensichtlich stark auf evolutionsbiolo-
gische Kategorien.
Paradigmen als zeitweise herrschende Theorien erscheinen ihm solange lebens-
fähig, als sie befriedigende Erklärungsleistungen beim wissenschaftlichen „Rät-
sellösen“ (puzzle-solving) erbringen. Leisten sie dies nicht mehr und haben sie
alle in ihren Ideen liegenden Potentiale dafür „erschöpft“ (man spricht auch sonst
von der „Exhaustion“, dem „Ausschöpfen“ von Theorien), so „sterben“ sie im
wörtlichen Sinne zusammen mit den sie vertretenden und benutzenden Wissen-
schaftlern aus. Neue Theorien entstehen nach Analogie einer biologischen Mu-
tation oder, wie Kuhn im marxistischen Jargon sagt, durch eine „wissenschaftliche
Revolution“. 331
So deutet Kuhn die Wissenschaftsentwicklung als eine Abfolge von Dominan-
zen der Paradigmata, die mehr oder weniger lange die „normale Wissenschaft“
(normal science) mit festen Forschergemeinschaften, Schulen und Forschungs-
routinen bestimmen und dabei Wissen akkumulieren. Die Ablösung eines Para-
digmas geschieht, wie gesagt, durch einen revolutionären Umbruch, durch eine

328
Vgl. K. R Popper, Conjectures and Refutations. The Growth of Scientific Knowledge, London 1963, 4. Aufl. 1972, ND
1984.
329
K. R. Popper, The Open Society and its Enemies, London 1945, 2. Augl. 1973; dt. Übers. Die offene Gesellschaft und
ihre Feinde, München 1957/58.
330
I. Lakatos, The Methodology of Scientific Research Programmes, in: Philosopical Papers I, hgg. von J. Worrall und G.
Currie, Cambridge-London 1978; dt. Übers. Die Methodologie wissenschaftlicher Forschungsprogramme, in: Philosophi-
sche Schriften I, Braunschweig-Wiesbaden 1982.
331
Vgl. neben der in Anm. 299 genannten Schrift „The Structure of Scientific Revolutions“ Kuhns Buch Die Entstehung
des Neuen. Studien zur Struktur der Wissenschaftsgeschichte, hgg. von L. Krüger, Frankfurt a. M. 1977.
482

„science revolution“ mittels eines neuen Paradigmas. Von ihm wird einerseits
verlangt, daß es mindestens dieselbe Erklärungspotenz aufbringt wie das abzulö-
sende Paradigma, darüber hinaus aber neue Sichten verspricht und gegebenenfalls
neue Forschungsbereiche erschließt.
Wie nun diese Kontinuität sich mit dem revolutionären Umbruch vereinbaren
läßt, stellt sich als das kontrovers diskutierte Problem der Kommensurabilität bzw.
Inkommensurabilität zwischen dem alten und dem neuen Paradigma dar. Das
biologistische Paradigma (der Mutation) spricht naturgemäß für die vollkommene
Inkommensurabilität des Alten und des Neuen. Die Rede von der „Revolution“
läßt es allerdings - nach astronomischem Paradigma - zu, daß immer wieder die-
selbe Wissenskonstellation in kommensurablen, wenn auch verschieden lautenden
(synonymen), Begriffen erreicht wird. Marxistisch aber insinuiert sie wiederum
ein inkommensurables ganz Anderes, was dann auch gleichlautende Begriffe in
verschiedenen Paradigmata zu bloß homonymen Ausdrücken macht. Da aber
mathematisches Denken lehrt, wie wir vorne zeigten, daß auch die inkommen-
surablen Größen als „Zahlbegriffe“ kommensurabel werden können, fällt es dem
Physikhistoriker nicht schwer, auch das Inkommensurable als kommensurabel zu
behandeln.

5. Das Leib-Seele-Problem. Popper selbst hat dieses auch in der Analytischen


Philosophie vielfältig diskutierte Problem zusammen mit dem Hirnphysiologen J.
Eccles in einem umfangreichen Buch über „Das Ich und sein Gehirn 332 behandelt.
Bei der schon vorn genannten metaphysischen Unentschiedenheit zwischen Rea-
lismus und Idealismus fällt es dem kritischen Rationalismus und Popper nicht
schwer, in dieser Frage den Geist bzw. das Bewußtsein als eine Realität sui gene-
ris neben der materiell-physiologischen anzuerkennen. So beschränkt sich das
Leib-Seele-Problem hier auf die Frage, ob diese beiden Realitäten untereinander
in kausaler Wechselwirkung stehen (wie Popper mit Descartes annimmt) oder ob
sie nur zwei Aspekte einer und derselben (bisher unerforschten) Grundrealität
seien (wie die Identitätslehre des Spinoza es behauptete). Da die letztere Position
freilich seit Spinozas Tagen gleichsam liegengeblieben ist, fehlen beim heutigen
Wissensstand alle Kategorien und Forschungsstrategien, sich einer solchen „iden-
tischen“ Grundrealität zu versichern.

332
K. L. Popper und J. Eccles, The Self and its Brain. An Argument for Interactionism, Berlin 1977, 2. Aufl, 1985, dt.
Übers.: Das Ich und sein Gehirn, München-Zürich 1982, 11. Aufl. 1994.
483

§ 43 Der Konstruktivismus

Der Ausgang von Konstruktionshandlungen im Handwerk und in der Experimentalphysik. Zur


Geschichte: J. G. Fichtes Pragmatismus. Hugo Dingler, Paul Lorenzen, die intuitionistische Ma-
thematik und der französische Konventionalismus Pierre Duhems, Jules Henri Poincarés und
LeRoys. Die konstruktivistische Enzyklopädie: Jürgen Mittelstraß und seine Mitarbeiter. Meta-
physische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Das Begrün-
dungsproblem. Das Problem der Protophysik. Das Problem der Wissenschafts- und Philosophie-
geschichte.

Auch der Konstruktivismus ist eine wissenschaftstheoretische Richtung, die sich


hauptsächlich um eine philosophische Grundlegung der exakten Naturwissen-
schaften und der Mathematik bemüht. Er liefert dabei geradezu eine späte Recht-
fertigung für die quadriviale Verschmelzung von Mathematik und Physik indem
er zeigt, daß beide Wissenschaften aus einem einzigen und gemeinsamen Prinzip
heraus entwickelt werden können: eben dem Prinzip der Konstruktion. Für die
Mathematik hatte sich das schon in der Auslegungsgeschichte der Euklidschen
„Elemente“ gezeigt, in der die Geometrie alle ihre Gebilde aus Konstruktions-
handlungen, in denen Punkte, Linien und Flächen bewegt werden, entstehen ließ,
wodurch dann auch die Arithmetik mitbegründet wurde (vgl. § 19).
Das Programm eines wissenschaftstheoretischen Konstruktivismus verdankt
sich dem gemeinsamen Wirken von Wilhelm Kamlah und Paul Lorenzen an der
Universität Erlangen seit den 50er Jahren des 20. Jahrhunderts. Beide etablierten
das, was man seither die Erlanger Schule des Konstruktivismus nennt. Sie bildete
in der Schülergeneration vor allem mit Friedrich Kambartel und Jürgen Mittel-
straß eine Filiale der Erlanger Schule an der neu gegründeten Universität Kon-
stanz, die sich alsbald auch eine eigene Bezeichnung als Konstanzer Schule zuleg-
te. Eine weitere Filiale unter Leitung von Peter Janich firmiert als Marburger
Schule. Konstruktivisten sind darüber hinaus an zahlreichen deutschen Hochschu-
len und auch über deren philosophische Abteilungen hinaus tätig. Dieser Kon-
struktivismus hat jedoch mit dem „geisteswissenschaftlichen“ Konstruktivismus
Nordamerikas nichts gemein (vgl. dazu § 44).
Ausgangspunkt der Erlanger Schule war das philosophische Werk von Hugo
Dingler (1881 – 1954), der 1912 in München im Fach Mathematik habilitiert wor-
den war und sich schon vorher und seitdem einer axiomatisch-konstruktiven Be-
gründung der Mathematik und Physik widmete. Für den Konstruktivismus wurde
zweifellos sein Interesse für die Rolle des Experiments in den Naturwissenschaf-
ten ausschlaggebend. 333
Der Konstruktivismus stellt an der Physik dasjenige in den Vordergrund, was
ihm entgegenkommt, und was die beiden bisher behandelten Richtungen kaum ad-
äquat würdigen konnten: ihre handwerklich-experimentelle Seite, ihre notwendige

333
H. Dingler, Das Experiment. Sein Wesen und seine Geschichte, München1928; ders., Über die Geschichte und das
Wesen des Experiments, München 1952.
484

Angewiesenheit auf Meßgeräte und Instrumente, die sich handwerklich-techni-


scher Konstruktion verdanken. Nicht zuletzt die Tatsache, daß die meisten Defini-
tionen ihrer Begriffe zugleich Handlungsanweisungen zur Durchführungen von
Messungen sind. In dieser Hinsicht berührt sich der Konstruktivismus mit dem
angelsächsischen Operation(al)ismus eines Percy William Bridgman (1882 -1961)
und über ihn hinaus mit dem Instrumentalismus und Pragmatismus. 334 Im weite-
ren Sinne wird man auch Klaus Holzkamp zu seinen Vertretern rechnen können,
der von der Psychologie ausgehend, mit einer Schrift „Wissenschaft als Handlung.
Versuch einer neuen Grundlegung der Wissenschaftslehre”, Berlin 1968, her-
vorgetreten ist.
In dem Unternehmen, tendenziell alle Wissenschaft auf erzeugende und kon-
struktive Handlungen: Sprachhandlungen, arithmetische und geometrische Opera-
tionen, Herstellung und Anwendung von Meßgeräten, zurückzuführen und da-
durch zu begründen, tritt der Konstruktivismus die legitime Nachfolge Johann
Gottlieb Fichtes an, der eben dies in seiner „Wissenschaftslehre” exemplarisch
vorgeführt, wenn auch nicht genügend mit Bezug auf einzelne Wissenschaften
ausgeführt hatte.

Zur Geschichte: Konstruktivistische Wissenschaftskonzepte reichen bis auf


Euklid zurück. Die platonisch-aristotelische Diskriminierung des Praktisch-Ba-
nausischen und die daraus entstandene Überschätzung der „Theorie“ haben sie
immer wieder zurückgedrängt. Erst mit der Nobilitierung der Handwerke und
ihrer Verwissenschaftlichung als Technik seit der Renaissance erhielten sie neuen
Auftrieb, dies zugleich mit einer neuen Interpretationskonjunktur Euklids.
Schwankten bis zum Ende des 18. Jahrhundert die Meinungen darüber, ob Kon-
struktion eine Sache der sinnlichen Anschauung, der verstandesmäßigen Begriffs-
bildung oder gar nur der handwerklich-technischen Handlungen sei und ob sie
daher nur in Handwerken, Techniken oder einzelnen wissenschaftlichen Diszi-
plinen einen angemessenen Ort einnehmen könnte, so erhebt sie Fichte zum ein-
zigen und nicht weiter hinterfragbaren Prinzip der Metaphysik: Die „Urtathand-
lung” ist allesbegründendes Faktum des Bewußtseins, des Entgegensetzens von
Subjektivität und Objektivität und der konstruktiven Entfaltung ihrer Inhalte als
Gegenstände der Geistes- und Naturwissenschaft.335
Dieses Konzept wird von Schelling im „System des transzendentalen Idealis-
mus” von 1800 weiter ausgeführt. Seine überaus spekulative, zudem ganz un-
mathematische, wenngleich heuristisch nicht unergiebige Naturphilosophie, die
besonders bei Medizinern großen Anklang fand, scheint aber das Unternehmen
einer konstruktivistischen Wissenschaftslehre insgesamt nachhaltig diskriminiert

334
P. W. Bridgman, The Logic of modern Physics, New York 1927, 2. Aufl. 1960, dt. Übers. Die Logik der heutigen
Physik, München 1932; ders., The Nature of Physical Theory, Princeton 1936, auch New York 1964.
335
J. G. Fichte, Grundlage der gesamten Wissenschaftslehre, 1774, hgg. von W. G. Jacobs, Hamburg 1970. – Fichte be-
gründet auch die Logik in den Urtathandlungen, nämlich 1. des Setzens bzw. Ponierens von Begriffen, 2. des Entgegen-
setzens von Nebenbegriffen mittels der Negation, 3. mittels der weiteren (deduktiven) Einteilung von Unterbegriffen.
485

zu haben, so daß sie bis ins 20. Jahrhundert hinein nicht wieder in Angriff
genommen wurde. 336
In Deutschland war die Wiederbelebung des Konstruktivismus eine Reaktion
auf die Grundlagenkrise der Mathematik und Logik sowie die paradoxalen Zumu-
tungen der Einsteinschen Physik. In der Cantorschen Mengenlehre, die als Kern-
bestand der klassischen Mathematik galt, hatten sich auf Grund der Zulassung
aktual-unendlicher Mengen Antinomien ableiten lassen; und diese Eigenschaft der
Mengenlehre teilte sich auch der extensionalen Logik mit. Dies beschwor die
Gefahr herauf, Mathematik und (extensionale) Logik als bis dahin unumstrittene
Beweismethodologie der Wissenschaften zu entwerten. Die Einsteinsche Relati-
vitätstheorie ließ nicht nur die ganze Euklidische Geometrie der rechten Winkel
und geraden Linien als speziellen Grenzfall allgemeinerer (Riemannscher) Geo-
metrien erscheinen, sondern sie löste auch die Homogenität der Zeit auf, die für
die klassische Physik eine grundlegende Voraussetzung gewesen war. Dies auf
Grund ihrer Annahme, daß die Lichtgeschwindigkeit für die Beobachtung von
beliebigen, auch selbst im Verhältnis zur Lichtquelle in Bewegung befindlichen
Standorten (Initialsystemen) immer konstant dieselbe sei. Bei bewegten Körpern
und Massen glich man in der Theorie diese systematische Geschwindigkeitsbe-
grenzung durch Längenkontraktionen und/oder Zeitdilatationen wieder aus. Das
führt aber zu ebenso systematischen Antinomien hinsichtlich der Bestimmung von
Gleichzeitigkeiten (sog. Uhrenparadoxon) und räumlichen Koinzidenzen. Ange-
sichts solcher Krisenlagen versprach der konstruktivistische Ansatz eine einfache
und nicht zu Widersprüchen führende Begründung sowohl der Mathematik wie
der Physik.
Für die Physik und Geometrie leistete das Hugo Dingler, indem er die Euklidi-
schen Grundbegriffe: Punkt, Linie (Gerade), Fläche durch handwerklich-konstruk-
tive Herstellungsprozesse begründete und definierte.
Durch wechselseitiges und abwechselndes Schleifen dreier Scheiben aufeinan-
der stellt der Handwerker (und der physikalische Gerätebauer) ebene Flächen her;
durch Neigung der Schleifflächen werden Kanten erzeugt, die gerade Linien defi-
nieren; in gleicher Weise werden Ecken hergestellt, deren Spitzen den Punkt de-
finieren. Die Tatsache, daß physikalische Meßgeräte für die Messung von Punk-
ten, Strecken, Flächen und Körpern ebenso hergestellt werden und somit auf klas-
sischer Euklidischer Geometrie beruhen, gilt dabei als Argument für die Primor-
dialität der Euklidischen Geometrie auch in der Physik. Die konstruktivistische
Physik verhält sich entsprechend skeptisch gegenüber der relativistischen nicht-
euklidischen Geometrie und Physik. 337
In der konstruktivistischen Arithmetik gilt die schlichte Zählhandlung als Kon-
struktionsprinzip, durch die man in endlichen Schritten zu beliebigen Größen

336
Vgl. dazu Helga Ende, Der Konstruktionsbegriff im Umkreis des Deutschen Idealismus, Studien zur Wissenschafts-
theorie Bd. 7, Meisenheim 1973.
337
H. Dingler, Die Ergreifung des Wirklichen, hgg. von W. Krampf, München 1955, neue Teilausgabe hgg. von K. Lo-
renz und J. Mittelstraß, Frankfurt a. M. 1969.
486

gelangen kann, niemals jedoch zum Unendlichen. In der klassischen Analysis


wurde jedoch auch das Unendliche als vorgegebenes mathematisches Gebilde
(„aktual Unendliches”) zugelassen. Da somit eine konstruktivistische Arithmetik
„finit” ist, d. h. nur im Endlichen verweilt, schließt sie definitorisch weite und
längst angebaute, aber dafür antinomienträchtige Gebiete aus der begründungs-
fähigen Mathematik aus. Entsprechend groß ist der Widerstand der traditionellen
„klassischen” Mathematik gegen den konstruktivistischen Ansatz, und der Grund-
lagenstreit hält unvermindert an.
Pionier der konstruktivistischen Arithmetik war Luitzen Egbertus Jan Brouwer
(1881 – 1966), der seine Theorie als „Intuitionismus” einführte, indem er die
Zählhandlungen als eine Sache der „intuitiven” Anschauung betrachtete. Im Zeit-
alter der Computer und des mathematischen und logischen Antipsychologismus
lag es freilich nahe, daß man die Zählhandlungen maschinell zu objektivieren
trachtete. Dies leistete Alan Mathison Turing (1912 – 1954) mit seiner inzwischen
berühmten „Turing-Maschine”, die allerdings selber keine echte Maschine, viel-
mehr ein finites Entscheidungs- und Rechenprogrammkonzept für Computer und
Rechenmaschinen ist. 338
Diese konstruktiven Ansätze wurden von A. Heyting, E. W. Beth und P. Loren-
zen auch für die Logik fruchtbar gemacht. 339 Die konstruktive (hier operativ
genannte) Logik betrachtet Logik grundsätzlich als geregelte Zeichenmanipulati-
on, für die sie Handlungsanweisungen gibt. Im konstruktiven Aufbau der Logik
kommt alles darauf an, nach geregeltem (und mitzulernendem) Verfahren Grund-
zeichen einzuführen und von ihnen zu immer komplexeren Ausdrücken fortzu-
schreiten, die ihrerseits das Gesamt der logischen Lehrsätze darstellen.
Eine Erweiterung dieses Ansatzes stellt das Konzept der Dialog-Logik dar, wel-
ches unter Aufnahme rhetorischer Gesichtspunkte Regeln bzw. Normen für logi-
sche Diskurse zwischen Proponenten und Opponenten aufstellt. Hier wird die
agonale Auseinandersetzung zwischen streitenden Parteien zum Handlungspara-
digma, die in „Sprachspielen” (L. Wittgenstein, Philosophische Untersuchungen)
nach geeigneten Spielregeln zu inhaltlichen Wahrheiten führen soll. 340
In jüngerer Zeit dehnt der Konstruktivismus seinen Anwendungsbereich weiter
aus. Neben die konstruktivistische „Protologik” und „Protophysik” (wie dies in
der Schule gern genannt wird) tritt der Versuch einer konstruktiven Begründung
der Ethik und der Wissenschaftstheorie selber.341 Hier wird der Anspruch erhoben,
durch die Konstruktion einer „Orthosprache (als) logisch kontrollierter kritischer
Wiederholung der Wissenschaftssprachen und ihres gemeinsamen Vokabulars ...
eine Überwindung der sogenannten szientistischen Wertfreiheit (und eine) Befrei-

338
Vgl. dazu Kl. Mainzer, Mathematischer Konstruktivismus, 1973.
339
P. Lorenzen, Einführung in die operative Logik und Mathematik, Berlin 1955, 2. Aufl. 1969; W. Kamlah und P.
Lorenzen, Logische Propädeutik, Mannheim-Wien-Zürich1967, 2. Aufl. 1973.
340
P. Lorenzen und K. Lorenz, Dialogische Logik, Darmstadt 1978.
341
P. Lorenzen und O. Schwemmer, Konstruktive Logik, Ethik und Wissenschaftstheorie, Mannheim-Wien-Zürich 1973,
2. Aufl. 1975.
487

ung vom Pluralismus vermeintlicher Grundwerte (ja sogar die Aufhebung des)
sogenannten szientistischen Unterschieds von Sein und Sollen” zu leisten.342
Vor einiger Zeit haben sich die jüngeren Mitglieder der Erlanger Schule des
Konstruktivismus mit der von Jürgen Mittelstraß in Verbindung mit Gereon Wol-
ters herausgegebenen 4-bändigen „Enzyklopädie Philosophie und Wissenschafts-
theorie“, Mannheim-Wien-Zürich 1980 - 1996 selber ein monumentales Denkmal
errichtet, aus dem man bequem die Grundeinstellung, die Beurteilungen wissen-
schaftstheoretischer und einzelwissenschaftlicher Probleme und nicht zuletzt die
Interpretation der Leistungen der philosophischen und wissenschaftlichen Klas-
siker aus der Sicht der Schule entnehmen kann. Als engerer Mitarbeiterkreis wer-
den hier benannt: S. Blasche, G. Gabriel, H. R. Ganslandt, M. Gatzemeier, C. F.
Gethmann, P. Janich, F. Kambartel, K. Lorenz, Kl. Mainzer, P. Schroeder, O.
Schwemmer, Chr. Thiel und R. Wimmer. Vergessen wir dabei auch nicht den in
diesem Werk als Vorläufer des Konstruktivismus gerühmten Johann Jakob Fein-
hals aus dem 18. Jahrhundert, der - vermutlich weitläufig mit den französischen
Bourbakis verwandt - einen gewissen jokosen Zug in die ganze Richtung
eingebracht hat. Zu den Konstruktivisten zählen darüber hinaus M. Riedel, G.
Böhme, J. Backhaus, H. v. Foerster, E. v. Glasersfeld, S. J. Schmidt und J. Düs-
berg. 343

Metaphysische Grundlagen: Verabsolutieren der Sensualismus und Rationalismus


die intellektuellen Vermögen des Menschen zu alleserklärenden metaphysischen
Prinzipien, so kann man erwarten, daß auch seine praktischen Vermögen diesem
Zwecke dienen können. Die traditionelle Gestalt solcher Metaphysik ist der
Voluntarismus, der seit Augustinus aus unerforschlichem göttlichen Willen alles
zu erklären unternahm und dabei – da der Wille ja als das Gegenteil der Ratio
definiert war – in aller Wirklichkeit einen irrationalen Grundzug entdeckte. Seine
letzte große Ausprägung ist die Willensmetaphysik Arthur Schopenhauers mit
seinem Buch „Die Welt als Wille und Vorstellung“ von 1819 u. ö.
Noch entschiedener irrationalistisch sind diejenigen Metaphysiken, die das
Triebleben, Begierde und Drang, das Unbewußte zum metaphysischen Prinzip
erheben, wie es die Lebensphilosophie mit ihren vielfältigen Filiationen, z. B.
auch der heute weithin vergessene aber seinerzeit neben Friedrich Nietzsche
außerordentlich wirkungsvolle Eduard von Hartmann mit seinem Buch „Die Phi-
losophie des Unbewußten“ von 1869, dann auch W. Dilthey getan haben. Für sie
ist alles Rationale, also auch rationale Wissenschaft, nur eine „Rationalisierung”,
ein Epiphänomen dunkler basaler Kräfte und Potenzen, die „hinter dem Rücken”

342
P. Lorenzen, Erlanger Schule der konstruktiven Wissenschaftstheorie, in: Unikurier Erlangen 3, 16 – 18, 1977, Nr. 14.
343
Eine Selbstdarstellung der Schule findet sich im Art. „Konstruktivismus“ von Chr. Thiel, S. 449 – 453 (Band 2) und
„Wissenschaftstheorie, konstruktive“ von C. F. Gethmann (Band 4), S. 746 – 758 in dem von J. Mittelstraß unter Mitarbeit
zahlreicher Konstruktivisten herausgegebenen Lexikon „Enzyklopädie Philosophie und Wissenschaftstheorie“, Mannheim-
Wien-Zürich 1980 – 1996.
488

aller Funktionäre und Agenten wirken, und zu denen nur der Eingeweihte einen
mystischen Zugang besitzt.
Diesem Erzeugungsschematismus abendländischer (idealistischer) Metaphy-
siken gegenüber war es ein revolutionäres Novum, daß Fichte die „Urtathand-
lung” als noch fundamentaleres Erzeugungsprinzip voranstellte und zeigt, wie
sich Triebe, Wille, sinnliche Erfahrung und rationales Denken selber als Modifi-
kation solchen Urhandelns konstruieren lassen. Es war damit eine tatsächlich neue
Metaphysik begründet: die reinste Gestalt des Pragmatismus (von griech. pragma
= Handlung).
Man muß jedoch zugeben, daß die transzendentalphilosophische Tradition, in
der er stand, sowohl Fichte selber als auch seine Interpreten daran hinderte, die
Reichweite dieser Neuerung recht zu würdigen. Er hatte sie in der Sprache einer
„Ich-Philosophie” vorgetragen, die nach abendländischer substanzmetaphysischer
Denkgewohnheit insinuierte, daß das Ich (das absolute wie auch das empirische)
der Träger von Handlungen und somit das eigentliche metaphysische Urprinzip
sei. Ersichtlich liegt aber die Pointe von Fichtes „Wissenschaftslehre” darin, das
Ich und seine Vermögen selber aus Handlungen abzuleiten.
Wie schon gesagt, ist Schelling im „System des transzendentalen Idealismus”
von 1800 den gleichen Weg gegangen und hat noch viel klarer als Fichte heraus-
gearbeitet, wie sich die Konstitution der materiellen Welt aus sinnlichen Akten,
die der geistigen und kulturellen Welt aus rationalen, die der moralischen Welt
aus Willenshandlungen und schließlich die Welt der Kunst und der freien
„poetischen” Schöpfungen (einschließlich der von ihm für die einzig wahre gehal-
tene Philosophie als Mythologie) aus allen diesen zusammen nebst den unaus-
schöpfbaren Quellen des Unbewußten ergibt. Da Schelling aber mit dem Unbe-
wußten beginnt und bei ihm endet, ist er damit eher zum Vater aller modernen
Irrationalismen geworden, als daß sein „Pragmatismus” jemals angemessen zum
Tragen gekommen wäre.
Um dieses irrationalistische Element im älteren Pragmatismus zu konterka-
rieren, hat sich der Konstruktivismus enger an die „praktische Philosophie“ Kants
angeschlossen, die ja auch schon durch Kant selbst als Begründungsfundament für
die „theoretische Philosophie“ herausgestellt worden war. Auch die einschlägige
Terminologie Kants kommt daher im Konstruktivismus vielfach zum Tragen. Die
pragmatisch-konstruktiv erschlossenen Begründungselemente werden als „aprio-
risch“ ausgegeben. Insbesondere restituiert der Konstruktivismus - gegen die Ana-
lytische Philosophie (und G. Frege) - auch die mathematische Begründungstheorie
im Kantsischen Sinne als eine „apriorisch-synthetische“ Theorie.
Es ist allerdings die Frage, ob unsere Zeit schon für einen wohlverstandenen
Pragmatismus reif sein kann, der wirklich alles aus Handlung ableitet und nicht
sogleich wieder Handlung aus anderen Faktoren zusammensetzt. Zu sehr ist man
ja gewohnt, in gut aristotelischer Tradition Handlung (actus) als Akzidenz einer
Träger-Substanz (Mensch, Kollektiv, Forschergemeinschaft) zu denken und nach
Motivationen, Handlungskonzepten, Handlungsnormen, Handlungsergebnissen
489

und -produkten usw. zu fragen. Der Pragmatismus müßte alles dies selber aus
Handlung ableiten. Davon dürfte er aber bisher noch weit entfernt sein.
Gleichwohl ist der wissenschaftstheoretische Konstruktivismus heute wohl die
am meisten ausgearbeitete Gestalt des Pragmatismus. Er nimmt handwerklich-
technische Herstellungshandlungen, die Kenntnis-, Erkenntnis- und Lernhand-
lungen gleichsam mit und in sich tragen, zum exemplarischen Modell. Es liegt
auch auf der Hand, daß dies Modell für die Begründung der Physik besondere
Erklärungskraft besitzen muß. Denn hier gibt es ja traditionell auch eine Expe-
rimentalphysik, es geht also um viel Handwerklich-Technisches, und die Theorie
ist oft nur Artikulation undurchschauter experimenteller Praxis, die sich mit ihr
entwickelt. Noch mehr müßte das freilich für die Kunst sowie Technik und Hand-
werke gelten, um deren philosophische Begründung sich der Konstruktivismus
bisher kaum gekümmert hat.
Auch für die Ableitung von Geometrie und Computer-Mathematik zeigt das Mo-
dell eine natürliche Affinität, indem es ihren menschlich allzu menschlichen Ur-
sprung und ihre Grenzen dartut. Freilich auf Kosten aller überkommenen und
liebgewordenen platonischen Vorstellungen vom An-sich-Sein der mathema-
tischen Sinngebilde. Die wesentliche Pointe besteht wohl darin, daß vom Kon-
struktivismus gleichsam das Allerheiligste im modernen Selbstverständnis des
Menschen, das Denken selber, diesem Erklärungsmodell unterworfen wird. Und
doch berührt sich dies mit guten idealistischen sprach- und denktheoretischen
Traditionen etwa W. v. Humboldts, aber auch der modernen „Speech-act-theory”.
Hier erscheint das Denken unauflöslich in äußeres Sprech- und Zeichenhandeln
verwoben. Der Konstruktivismus ist in dieser Beziehung ein Kommentar zu Hein-
rich von Kleists berühmten Diktum von der „Verfertigung der Gedanken beim Re-
den”.
Daß die Zeit noch nicht reif sei für einen echten Pragmatismus, haben wir schon
angedeutet. Man sieht es etwa in Hugo Dinglers Rückfall in den schieren Volun-
tarismus, der „den Zugang zum Unmittelbaren durch ein einfaches Ausschließen
der bewußten rationalen Prozesse” erreichen möchte, „das willensmäßig jeden
Augenblick zu Gebote steht, und durch das Wissen um die Unhintergehbarkeit des
aktiven Willens.” 344
Das anschauliche Modell aller begründeten Willensentschlüsse in Sachen, die so
leicht nicht als „Konstruktionen” erklärt werden können, ist der Rechts-Vertrag.
(lat. conventio = Willensübereinkunft). So liegt es auch nahe, dieses Modell für
die Begründung und Erklärung „rein geistiger Dinge” heranzuziehen. Der Kon-
ventionalismus war immer schon in Einzelwissenschaften der Platzhalter des
metaphysischen Voluntarismus. Das heißt aber auch, daß nur ein Voluntarist ihn
für plausibel und nicht weiter hinterfragbar halten kann. Denn es ist ja immer
sinnvoll zu fragen, aus welchen Gründen Verträge mit welchen Zielen, unter wel-
chen Umständen und von wem abgeschlossen werden. An diesem Leitfaden

344
H. Dingler, Grundriß der methodischen Philosophie, Füssen 1949, S. 26.
490

kommt man (unter Juristen) rasch zu Gründen der Konvention oder auch der Ver-
hinderung von Konventionen oder der „kompromißlerischen” Verundeutlichung
des Inhalts von Konventionen, die dann durch Zeitaufschub gewährende Inter-
pretationslasten der einen oder anderen Partei zum Vorteil ausschlagen – dies
meist als Glücksspiel.
Dingler jedenfalls hat für die Begründung der Logik einen solchen Konventio-
nalismus angenommen und die „Wahl” logischer Grundsätze als Verfahrensan-
weisungen für eine Sache des Willensentschlusses („Dezernismus”) und der Über-
einkunft gehalten. Und das hatte Folgen für die Transformation des Ansatzes zum
Konstruktivismus in der Erlanger Schule. Wie weit das Prinzip jedoch durch zu-
sätzliche Überlegungen über Einfachheitsgesichtspunkte bei der Auswahl von
Maximen und Grundsätzen eingeschränkt oder gar aufgehoben worden ist, ist eine
offene Frage. Immerhin befand er sich dabei in guter europäischer Gesellschaft
etwa Pierre Duhems (1861 – 1916), Jules Henri Poincarés (1854 – 1912) und
LeRoys (1870 – 1954), die den Konventionalismus schon sehr fruchtbar für Wis-
senschaftsgeschichtsschreibung und Wissenschaftstheorie der Naturwissenschaf-
ten und Mathematik benutzt hatten.

Der Wissenschaftsbegriff. Er ist sehr exklusiv und von hohem Anspruch. Wissen-
schaft ist das, was durch die konstruktivistische Wissenschaftstheorie als „exakter
Fundamentalwissenschaft” begründbar ist. Sie ist das Gesamt derjenigen Tätigkei-
ten, die sich auf Grund ihrer Begründetheit für die Konstruktion der „geistigen”
Gebilde (der Logik, Mathematik und Ethik) und die Rekonstruktion der „Gesamt-
heit des Gegenstehenden” (Dingler) d. h. der Gegenstände der Naturwissenschaft
und jeder echten Wissenschaft geeignet erweisen.
Wissenschaftstheorie ist als „exakte Fundamentalwissenschaft” begründender
Teil dieser Wissenschaft. Sie wird gekennzeichnet durch das einer konstruktiv be-
gründeten Wissenschaft vorangestellte Epitheton „Proto-“. Sie zeichnet einfachste
exemplarische Handlungen (des Sprechens, Manipulierens und Erzeugens derart
aus, daß bei deren rekursiver Anwendung auf sich selber Regeln und Normen für
alle wissenschaftliche Tätigkeit miterzeugt werden. Diese „Erstelemente“ für die
Begründung faktischer Wissenschaften werden hier allgemein in dann sogenann-
ten „Protodisziplinen“ erarbeitet.

Zur Methode: Diese ist naturgemäß die Konstruktion selber. Sie liefert die wissen-
schaftstheoretischen Begründungen für die wissenschaftliche Tätigkeit, nämlich
Regeln und Normen für den Aufbau von logischen Kalkülen und Anweisungen
für die Herstellung und die Anwendung von wissenschaftlichen Instrumenten,
besonders Meßgeräten.
Ihre Durchführung wird von weiteren methodischen Kautelen flankiert: 1. Von
dem Prinzip der „pragmatischen Ordnung”. Es soll die in der Praxis häufig vor-
491

kommenden zirkulären Begründungen vermeiden. 345 2. Von dem (konservativen)


Prinzip der „Exhaustion der Theorien”, wonach begründete Theorien bis zum
Äußersten durch interpretative Ausgestaltung und Zusatzhypothesen zur Erklä-
rung der Wirklichkeit „auszuschöpfen” und nicht ohne höchste Not aufgegeben
werden sollen. 346 Ersichtlich liegt hier der entscheidende Differenzpunkt zum
kritischen Rationalismus. Ebenso beruht auf diesem Prinzip die konstruktivisti-
sche Insistenz darauf, daß die klassische Mechanik gegenüber der relativistischen
noch längst nicht genügend exhauriert sei, um ihr das Feld zu überlassen.

Zentrale Probleme: Aus dem Wissenschafts- und Wissenschaftstheoriebegriff er-


gibt sich schon, daß der Konstruktivismus keine eigentlichen wissenschaftstheore-
tischen Probleme hat, vielmehr im wesentlichen genuin einzelwissenschaftliche
Probleme in seiner Sicht behandelt. Er ist somit wesentlich ein Konkurrenzunter-
nehmen zu bestimmten Einzelwissenschaften, denen er – soweit sie nicht mit ihm
übereinstimmen – definitorisch den Wissenschaftscharakter bestreitet. Nicht von
ungefähr sind auch die meisten Vertreter des Konstruktivismus „gelernte” Mathe-
matiker und Physiker, die z. T. wesentliche Beiträge zu diesen Einzelwissenschaf-
ten erarbeitet haben. Eben deswegen dürfte das Hauptproblem die „philosophi-
sche” Klärung des metaphysischen Ausgangsprinzips und seine metaphysik-
geschichtliche Anknüpfung an die entsprechenden abendländischen Traditionen
sein, zu der wir oben einen kleinen Betrag zu leisten versuchten.
1. Das Begründungsproblem. Da der ganze Konstruktivismus eine Begrün-
dungstheorie ist, muß er viel grundsätzlicher an dies Problem herangehen als etwa
der kritische Rationalismus. Grosso modo ist die „exakte Fundamentalwissen-
schaft” ein Normensystem für wissenschaftliches Handeln. Ersichtlich bieten sich
daher zur Diskussion des Problems der Einführung und Auszeichnung einer
Grundnorm alle die Denkmodelle an, die schon in der Rechtsphilosophie und
Ethik verhandelt worden sind. Und hier spielte der Konventionalismus in der Ge-
stalt der Staats- und Gesellschaftsvertragstheorien schon immer eine bedeutende
Rolle. Viele Vertreter des Konstruktivismus neigen zu dieser Lösung (die wir
nicht für tragfähig halten).
Dem pragmatistischen Grundansatz dürfte allerdings eher die „positivistische”
Lösung der Deduktion der Grundnorm aus der „Faktizität des Seins” entsprechen.
Entgegen der fast als naturwüchsige Selbstverständlichkeit geltenden (kantischen)
Entgegensetzung von Sein und Sollen ist die „normative Kraft des Faktischen” ja
ein alter juristischer Topos, in dem die Entstehung von Rechts- und Sittennormen
aus faktischen Gebräuchen und Gewohnheiten gedacht wird. In diesem Sinne
kann der Konstruktivismus zeigen, wie auch sprachliche, logische und technische
und insgesamt wissenschaftliche Normen aus faktischen Handlungsweisen ables-
bar und somit als ihre Beschreibungen erstellbar sind.

345
Vgl. dazu Ed. May, Über das Prinzip der pragmatischen Ordnung und seine generelle philosophische Bedeutung, in:
Hugo Dingler, Gedenkbuch zum 75. Geburtstag, hg. v. W. Krampf, München 1956, S. 131 ff.
346
Dazu Alf Nyman, Hugo Dingler, Die Exhaustionsmethode und das Prinzip der ‚Einfachstheit„, ibid. S. 153 ff.
492

Hier verlagert sich das Begründungsproblem auf das der Abgrenzung und
Auswahl der normativen Fakten bzw. exemplarischen Handlungen. Die Crux des
juristischen und ethischen Positivismus ist, daß auch das Verbrechen normative
Kraft besitzt und leicht zu verbrecherischen „Rechtssystemen” verallgemeinert
werden kann. Entsprechendes gilt auch für – im Sinne des Konstruktivismus –
nichtwissenschaftliches Tun, das sehr wohl auch Regeln und Normen hat. Ersicht-
lich wird hier nur das Exhaustionsprinzip zum Nothelfer, das althergebrachter
Wissenschaftlichkeit (und etablierter Rechtsordnung) einen gewissen Vorsprung
vor revolutionären Alternativen einräumt. Aber hier zeigt sich auch die Grenze
des konstruktivistischen Begründungsbegriffs.

2. Das Problem der Orthosprache. Die zu entwickelnde Orthosprache ist das


Analogon zur physikalistischen Wissenschaftssprache des logischen Empirismus.
In der Orthosprache (orthós griech.= aufrecht, wahr, richtig) müßten aus primi-
tivsten Sprachhandlungen konstruktiv die Logik, die Mathematik sowie die sie
anwendenden Wissenschaftssprachen mit ihren Syntaktiken, Semantiken und
Pragmatiken entwickelt und der Kernbestand einer „wissenschaftlichen” Alltags-
sprache formuliert werden können. Dies ist die Repristination des Leibnizschen
Programms einer „characteristica universalis”. Jeder Versuch zu seiner Reali-
sierung – die sicher nicht sobald in Aussicht steht – ist angesichts einer zuneh-
menden babylonischen Sprachverwirrung in den Wissenschaften ein verdienst-
liches Unternehmen.

3. Das Problem der Protophysik. Die Protophysik ist die konstruktive Begrün-
dungswissenschaft der Physik. Sie definiert die physikalischen Grundbegriffe
Raum, Zeit und Masse in Konstruktionsanweisungen für die Herstellung von
Meßgeräten dieser Größen und für die Durchführung ihrer Messungen um. Dabei
ist sie um den Nachweis bemüht, daß sich so die relativistischen Antinomien und
Paradoxien vermeiden lassen. Ihre spezielle Entfaltung stellen daher Theorien der
„Geometrie”, der „Chronometrie” und der „Hylometrie” dar. Die Protophysik
selber als Theorie von Meßgrößen wird protologisch bzw. durch die konstruktive
Arithmetik begründet.347
Die Protophysik ist in der konstruktivistischen Wisenschaftstheorie selbst zum
Paradigma anderer Protowissenschaften worden, um die sich die jüngste Genera-
tion der Schule bemüht. Da das protophysikalische Begründungsprogramm aber
keineswegs abgeschlossen, vielmehr heftig um-stritten ist, bestehen die Proto-Un-
ternehmungen in Anwendung auf die Kultur- und Geisteswissenschaften vor
allem darin, sich anderer pragmatistischer Traditionen als Ideenlieferanten zu ver-

347
Vgl. R. Inhetween, Konstruktive Geometrie. Eine formentheoretische Begründung der euklidischen Geometrie, Mann-
heim-Wien-Zürich 1983; P. Janich, Die Protophysik der Zeit, Mannheim-Wien-Zürich 1969, 2. erw. Aufl. u. d. T. Die
Protophysik der Zeit. Konstruktive Begründung und Geschichte der Zeitmessung, Frankfurt a. M. 1980, engl. Übers.
Protophysics of Time. Constructive Foundation and History of Measurement, Dordrecht 1985; O. Schlaudt, Zur Proto-
physik der Zeit: Eine Antwort auf die vorgebliche Widerlegung von H. Andreas nebst einer Anmerkung über die Tragweite
protophysiklischer Begründungsansprüche, in: Journal for General Philosophy of Science 42, 2011, S. 157 – 167.
493

sichern. Die Hauptquelle dafür dürften die in der Sprachpragmatik entwickelten


Ansätze sein.

4. Das Problem der Wissenschafts- und Philosophiegeschichte. Angeregt von und


in Auseinandersetzung mit den Sichten der übrigen wissenschaftstheoretischen
Schulen hat auch der Konstruktivismus entschieden Stellung zu diesem Problem-
kreis bezogen. Ausweis und richtungsweisend dafür war Jürgen Mittelstraß„ Buch
„Neuzeit und Aufklärung. Studien zur Entstehung der neuzeitlichen Wissenschaft
und Philosophie“.348 Darüber hinaus zeugen die historischen Bezugnahmen in der
schon genannten „Enzyklopädie Philosophie und Wissenschaftstheorie“ vom Ge-
wicht dieser Problematik. Auch hier ist eine unilineare Fortschrittsidee leitend, die
das berücksichtigte Material als Genealogie des Konstruktivismus und konstruk-
tiver Wissenschaft deutet. Der Konstruktivismus verlängert sich hier in einen
Rekonstruktivismus einschlägigen Vorgänger und Vorgängerideen, der fast alle
philosophischen Klassiker für sich reklamiert und ihre „konstruktiven“ Gedanken-
motive in der Sicht und mit den formalen Mitteln der Schule interpretiert.

§ 44 Die „kritische Theorie“ der Frankfurter Schule und der dialektische


Materialismus.

Zur Geschichte: das Frankfurter Institut für Sozialforschung unter Horkheimer und Adorno und
seine Entwicklung. Staats- und Parteimarxismus in der ehemaligen DDR und der Marxismus in
der BRD. Politische Maximen. Metaphysische Grundlagen: der dialektische Materialismus von
Marx und Engels und der naturwissenschaftliche Materialismus und Monismus. Die Ausgestaltung
der Hegelschen Dialektik. Der Wissenschaftsbegriff. Zur Methode: der Universalzusammenhang
des Wissens. Die kritische Hinterfragung. Die Vermittlung der Gegensätze. Zentrale Probleme.
Die Einheit und Klassifikation der Wissenschaften. Die Gesetzlichkeit der Wissenschaftsentwick-
lung und ihre Planung. Das Wahrheitsproblem. Die Parteilichkeit und der Wahrheitsdiskurs.

Die „kritische Theorie“, wie sie von ihrem Begründer Max Horkheimer genannt
wurde, 349 ist die prominenteste deutsche Filiation des Neo-Marxismus. Sie hat
sich auch über den Niedergang des deutschen und östlicher Staatsmarxismen

348
J. Mittelstraß, Neuzeit und Aufklärung. Studien zur Entstehung der neuzeitlichen Wissenschaft und Philosophie, Berlin-
New York 1970.
349
M. Horkheimer, Traditionelle und kritische Theorie, 1937, jetzt in: Kritische Theorie I/II. Eine Dokumentation, hg. v.
A. Schmidt, 2. Aufl. 1972.
494

hinaus erhalten. Wir wollen ihr hier eine ausführlichere Betrachtung widmen, um
dem Vorurteil zu begegnen, marxistisches Denken sei mit dem erwähnten Nieder-
gang des staatlich organisierten Marxismus ebenfalls bedeutungslos geworden.
Davon kann in der Tat keine Rede sein.
Sie ist nicht, wie die bisher behandelten Richtungen, in erster Linie und grund-
sätzlich Wissenschaftstheorie. Wohl aber enthält sie als allgemeine philosophische
Richtung wesentliches kritisches Potenzial zu einer Kritik, nicht minder aber auch
der politischen Planung und Administration der Wissenschaft, was es rechtfertigt,
ihren Beitrag zur Wissenschaftstheorie besonders zu würdigen.
Während die bisher behandelten Richtungen ein bestimmtes Moment an der
Wissenschaft: die sinnliche Beobachtung, das rationale Denken und die kreative
Phantasie oder das regelgeleitete Operieren zum Erklärungsmotiv aller Wissen-
schaft hochstilisieren, ordnet die kritische Theorie wie der Marxismus überhaupt
Wissenschaft in umfassendere Zusammenhänge ein und versucht sie als sozial-
ökonomisches Phänomen in bestimmten historischen Erscheinungsformen zu
erklären. Daher stehen im Mittelpunkt der Bemühungen die Diagnose dessen, was
Wissenschaft faktisch ist, die historische Aufklärung ihrer Genesis, der Entwurf
eines Ideals richtiger und guter Wissenschaft und die politisch-propagandistische
Förderung seiner Verwirklichung.
Da der Marxismus allgemein und die kritische Theorie insbesondere aller-
größten Wert darauf legen, eine „wissenschaftliche Philosophie” darzustellen und
sich als solche von religiösen, literarischen oder künstlerischen Ideologien zu un-
terscheiden, hat der Wissenschaftsbegriff entsprechend größte Bedeutung für das
Selbstverständnis und die Abgrenzung der kritischen Theorie von allen anderen
Richtungen.
Diese Bedeutung kann kaum überschätzt und ernst genug genommen werden
angesichts der Tatsache, daß dieser Wissenschaftsbegriff in Westeuropa und den
USA seit den 68er Jahren zu einer Kulturrevolution in den Bildungs- und Univer-
sitätssystemen geführt hat und überdies die aktuelle Bildungs- und Wissenschafts-
politik in vielen Ländern Europas und darüber hinaus auch der UNESCO be-
stimmt. Angesichts dieser praktischen Umsetzung, vielfältiger Interpretationsrich-
tungen innerhalb der marxistischen Theorie und einer oftmals sektiererischen Eso-
terik der Artikulations- und Argumentationsformen stellt die Diagnose dessen, um
was es sich dabei eigentlich handelt, erhebliche Anforderungen.

Zur Geschichte: Die kritische Theorie ist aus der Konzeption des Frankfurter In-
stituts für Sozialforschung, einer ursprünglich privaten Stiftung des Industriellen
Hermann Weil im Jahre 1923 entstanden. Erster Direktor dieses Instituts war Karl
Grünberg, sein dritter Max Horkheimer, der gleichzeitig einen für ihn neu
errichteten Lehrstuhl für Sozialphilosophie an der Universität Frankfurt a. M. in-
nehatte. Publikationsorgan war die „Zeitschrift für Sozialforschung”, die als Fort-
setzung des „Archivs für die Geschichte des Sozialismus und der Arbeiter-
bewegung” von 1932 bis 1941 in 9 Bänden erschien, und zwar zunächst in
495

Leipzig, ab Band 2/2 in Paris und ab Band 8/3 in New York (als „Studies in Philo-
sophy and Social Science“). Dorthin war das Institut nach seiner Beschlagnah-
mung und Schließung durch die Nazis transferiert worden. Engste Mitarbeiter
Horkheimers waren Friedrich Pollock, Herbert Marcuse, Leo Löwenthal, Erich
Fromm und Theodor W. Adorno.
Das Frankfurter Institut wurde 1951 neu begründet. Unter der Leitung von Max
Horkheimer (1895 – 1973) und Theodor W. Adorno (1903 – 1969) prägte es eine
Generation jüngerer Philosophen, die von hier aus Lehrstühle zumeist an
Reformhochschulen übernahmen. Führender Kopf der jüngeren Generation war
zweifellos Jürgen Habermas (geb. 1929), der auch jetzt noch als publikumswirk-
samster Propagandist der Richtung präsent ist.
Horkheimer wandte sich in seinen letzten Jahren erklärtermaßen vom Marxis-
mus ab. Die einstige offizielle sowjetische Historiographie ordnete die „Frankfur-
ter Schule“ als „bürgerlichen Reformismus” ein und distanzierte sich entspre-
chend von ihr. 350 Das spricht jedoch nicht dagegen, die kritische Theorie als die
wirkungsvollste neomarxistische Richtung in Deutschland anzusehen.
Neben der spezifisch westdeutschen Ausprägung des dialektischen Marxismus
der Frankfurter Schule gab und gibt es die Vertreter des ehemaligen DDR-Marxis-
mus, von denen sich einige auch der Wissenschaftstheorie und darin vor allem der
Kritik der vom kapitalistischen Wirtschaftssystem gesteuerten „bürgerlichen“
Wissenschaften gewidmet haben. Unter ihnen seien erwähnt Manfred Buhr, der
mit J. Schreiter 1979 ein Buch „Erkenntnistheorie - Kritischer Rationalismus –
Reformismus. Zur jüngsten Metamorphose des Positivismus“ herausgebracht hat;
Georg Klaus, der mit M. Buhr das damals repräsentative „Philosophische Wör-
terbuch“ (Leipzig 1964) und danach das „Wörterbuch der Kybernetik“ (Berlin
1967) herausgab und sich vor allem mit Fragen der Logik und Kybernetik befaßt
hat. Günter Kröber hat sich als Direktor des Instituts für Theorie, Geschichte und
Organisation der Wissenschaft an der Akademie der Wissenschaften der DDR
dem Aufbau einer eigenen Theorie der „Wissenschaft als soziale Kraft“ gewid-
met, so in seiner Programmschrift „Wissenschaftswissenschaft – Wissenschafts-
theorie – Wissenschaftsbegriff“ 351 und zahlreichen späteren Arbeiten. Herbert
Hörz trat mit Arbeiten zum Verhältnis „Marxistische Philosophie und Naturwis-
senschaften“ hervor.352 Das philosophische Personal der ehemaligen DDR dürfte
(neben den Mitarbeitern aus anderen sozialistischen Ländern) annähernd voll-
ständig im Autorenverzeichnis des von Erhard Lange und Dietrich Alexander
herausgebenen „Philosophenlexikon“ aufgeführt sein. 353

350
J. N. Davidov, Die Evolution der Sozialphilosophie der Frankfurter Schule, in: Neueste Tendenzen und Probleme der
Philosophie in der Bundesrepublik Deutschland, Moskau 1978 S. 212 ff. (in russ. Sprache); dazu L. Geldsetzer, Neueste
Tendenzen und Problemstellungen der Philosophie und Wissenschaftstheorie in der Bundesrepublik Deutschland aus der
Sicht sowjetischer Beobachter, in: Zeitschrift für allgemeine Wissenschaftstheorie X/2, 1979, S. 394 ff.
351
In: Marxistisch-leninistische Wissenschaftstheorie. Grundlegung und Gegenstand. Kolloquienreihe des UTW der Aka-
demie der Wissenschaften der DDR, Heft 1, Berlin 1971.
352
Vgl. das Sonderheft unter diesem Titel der Deutschen Zeitschrift für Philosophie, Berlin 1974.
353
E. Lange und D. Alexander (Hg.) Philosophenlexikon, Berlin 1982, S. 967 – 973.
496

Unter den ihnen mehr oder weniger nahestehenden westdeutschen Marxisten hat
sich besonders Hans Jörg Sandkühler in Bremen auch intensiv der Wissen-
schaftstheorie gewidmet. So in seiner zweibändigen „Enzyklopädie Philosophie“
und in dem in Zusammenarbeit mit dem Istituto Italiano per gli Studi Filosofici in
Neapel (an welchem einige prominente DDR-Marxisten nach 1989 Lehraufgaben
übernahmen) herausgegeben Werk „Europäische Enzyklopädie zu Philosophie
und Wissenschaften“ 354.
Die ideengeschichtliche Verankerung im Marxschen Denken selbst und über es
zurück in der Philosophie des Deutschen Idealismus und in der Aufklärung bleibt
wesentlich und muß für das Verständnis berücksichtigt werden. Nur so sind die
charakteristischen Züge der kritischen Theorie und der marxistischen Wissen-
schaftstheorie, mit denen sie in so weiten Kreisen Anklang gefunden haben, zu
verstehen. Diese dürften die folgenden sein:
1. Das Pathos der Aufklärung, mit dem sie die Kritik aller gesellschaftlichen In-
stitutionen, den Sturz der Autoritäten und die Selbstaufklärung des Bewußtseins
des Einzelnen – dies mit lebhafter Unterstützung der Psychoanalyse – wie der
gesellschaftlichen Gruppen betreibt. Trotz Horkheimers und Adornos Warnung
vor der „Dialektik der Aufklärung” 355 , die schon öfter die Herrschaft der
Vernunft in den Terror der Vernunft umschlagen ließ, ist dieses Pathos auch in der
gegenwärtigen Emanzipationsbewegung ungebrochen geblieben, die den
Menschen von allen Zwängen der Natur und der Gesellschaft, erst recht seiner
eigenen Geschichte befreien möchte.
2. Das ganzheitliche, ja totalitäre Denken, das „dialektisch” alles mit allem in
Verbindung stellt und somit auch über alles und jedes eine Aussage und Prob-
lemlösungen bereithält. Es verdankt sich der Hegelschen „Phänomenologie des
Geistes”, die das Universum der Natur und des Geistes in eine dialektische Ge-
samtevolution hineinstellte. An die Stelle der Evolution des Geistes ist die
Gesamtevolution der Materie, gleichsam die „Phänomenologie der Materie” getre-
ten. Wie immer ein solches Denken ausfallen mag, es kommt einem in der heuti-
gen Wissensexplosion ungestillten Bedürfnis eines architektonischen Vernunft-
strebens entgegen, das durch spezialistische Segmentierung des Wissens und
Denkens und den Verlust des Überblicks über das Ganze zutiefst frustriert ist.
3. Das unerschütterliche und gelegentlich naiv wirkende Vertrauen auf die Lei-
stungsfähigkeit der positiven Wissenschaften, besonders der Historiographie, der
Sozialwissenschaften und Politischen Ökonomie sowie der Pädagogik und Philo-
logie. Von ihnen liefert die erste die Einsicht in den historischen Prozeß, in dem
man steht und dessen Extrapolation die Utopie der zukünftigen heilen Welt dedu-
zieren läßt. Die zweite liefert die Diagnose der Gegenwart und die kritischen
Kategorien der „Hinterfragung” aller scheinhaften Verbrämung der ökonomischen
Basis. Die dritte liefert die „wahre” Auslegung der Klassiker und sichert die ubi-

354
H. J. Sandkühler, Enzyklopädie Philosophie, 2 Bände, Hamburg 1999, 2. erw. Aufl. in 3 Bdn, Hamburg 2010; ders.,
Europäische Enzyklopädie zu Philosophie und Wissenschaften, 4 Bände, Hamburg 1990.
355
M. Horkheimer und Th. W. Adorno, Dialektik der Aufklärung, Amsterdam 1948, 7. Aufl. Frankfurt a. M. 1980.
497

quitäre Anwendungsfähigkeit der Einsichten von Marx und Engels, insbesondere


deren Festschreibung in den Kurrikula aller Ausbildungsinstitutionen.

Metaphysische Grundlagen: Aus der Bezeichnung „Kritische Theorie” läßt sich


für die metaphysische Charakteristik nichts entnehmen. Jede Theorie ist kritisch –
gegenüber anderen. Es ist aber schon die Frage, ob die Frankfurter Schule über-
haupt eine einzige Theorie besitzt und nicht vielmehr ein Konglomerat von Theo-
rien unter dem methodologischen Etikett der Dialektik locker zusammenstellt.
Im Hintergrund steht in der Tat der dialektische Materialismus. Bei ihm ist es
wiederum die Frage, wie ernst seine Bezeichnung genommen werden kann ange-
sichts der Tatsache, daß maßgebliche Interpreten die Lehre von Marx und Engels
für einen Humanismus, für einen Ökonomismus, für einen Historismus, für die
fortgeschrittenste Gestalt der Naturwissenschaft u. ä. gehalten haben.
Knüpfen wir an die Bezeichnung dialektischer Materialismus an. Der Materia-
lismus geht davon aus, daß Materie die nicht weiter hinterfragbare Arché aller
Wirklichkeit sei. Er trägt dementsprechend die Beweislast für den Nachweis, daß
alles in der Welt materiell, d. h. Entfaltung und Entwicklung der Materie sei. Die
Plausibilität des Materiebegriffs gewinnt er aus der historischen Tradition des
Materialismus seit Leukipp und Demokrit sowie aus den Erfolgen der Naturwis-
senschaft des 18. bis ins 20. Jahrhunderts, die tendenziell schon große Bereiche
der Naturwissenschaften, insbesondere die ganze Chemie, unter Prinzipien der
atomistischen Physik gestellt hat. In Verfolgung dieses Programmes für eine
einheitliche Welterklärung versucht der dialektische Materialismus auch die
Bereiche des Lebens, der Zivilisation und Kultur – was er den Überbau nennt – als
Entfaltungsstufen „materieller Verhältnisse“ darzustellen.
Er steht mit dieser Programmatik nicht alleine. Auch der naturwissenschaftliche
Materialismus des 19. Jahrhunderts und seine Weiterentwicklung zum monisti-
schen Energetismus Wilhelm Ostwalds und Ernst Haeckels im 20. Jahrhundert,
der die Bereiche des Lebendigen und der Kultur unter Gesichtspunkten der Ener-
giebilanzierung als Systeme physikalischer Energiehortung und Energieverwen-
dung betrachtet, haben eine verwandte Programatik vertreten. Nicht zuletzt gingen
das auf solchen Traditionen beruhende faktische Denken und die Überzeugungen
wohl der meisten exakten Naturwissenschaftler und eines aufgeklärten Publikums
ebenfalls in diese Richtung. Die „physikalistische” Ausrichtung aller bisher be-
handelten wissenschaftstheoretischen Richtungen ist selber Ausdruck dieser Über-
zeugungen. In der Tat gilt heute die physikalistisch-materialistische Ableitung der
anorganischen und organischen Chemie und über sie der lebendigen Substanzen
(bis zur Hirnphysiologie) als Gemeinplatz. Und die physikalistische Ableitung
von Bewußtseinsprozessen selbst, die man dann gerne als „Hirnprozesse” an-
spricht, über ihre computermäßige Simulation gilt vielen als schon gelungen, an-
deren als eine Frage der Zeit und der Mittel, die auf solche Forschungen ver-
wendet werden. Die Nagelprobe wäre hier die Konstruktion eines wissensspei-
chernden und in Konkurrenz zu den Fachleuten eigenständig wissenschaftliche
498

Theorien und Urteile produzierenden Computers oder die chirurgische oder phar-
makologische Induktion beliebiger aber bestimmter Denkweisen und Vorstel-
lungen in lebendigen Bewußtseinen. Alles dies ist ja in der Science-fiction-Lite-
ratur schon vielfach ausgemalt worden und scheint dann in den Forschungsergeb-
nissen der Hirnphysiologie und Computertechnik Bestätigung zu finden.
Wäre dies schon Wirklichkeit, so stünde dem metaphysischen Siegeszug des
Materialismus nichts mehr im Wege. Bis dahin allerdings ist es immer noch leich-
ter und theoretisch befriedigender, die Materie zu denken als das Denken zu mate-
rialisieren.
Was die Dialektik betrifft, so ist sie aus zwei historischen Motiven entstanden.
Das eine ist die platonische Dialogik, nämlich das Verfahren, aus gegensätzlichen
Gesprächsansätzen zu gemeinsamen Überzeugungen zu gelangen, aus These und
Antithese eine Synthese zu gewinnen. Das zweite ist die Kantische Antinomien-
lehre in der transzendentalen Dialektik der „Kritik der reinen Vernunft“, welche
zeigen sollte, daß jeder Versuch der rationalen Beantwortung metaphysischer
Grundprobleme zu gleicherweise beweisbaren, aber kontradiktatorischen Thesen
führt. Daraus schloß Kant auf den selber „dialektischen” Charakter der Vernunft.
Beide Motive hat Hegel in seiner „Logik” aufgenommen und zu einer Methode
vereinigt. Hegels Dialektik, die er selber freilich nur für eine Vorstufe des speku-
lativen Denkens hielt, überdies keineswegs auf alle Wissenselemente bezieht 356,
wurde im dialektischen Materialismus als eine Methode eingeschätzt, jedes zu
Denkende als die Einheit von Widersprüchen zu denken. Danach ergibt sich die
Aufgabe, alle Einheiten kritisch in ihre widersprüchlichen Elemente aufzulösen
wie auch widersprüchliche Elemente schöpferisch zu einheitlichen Synthesen zu-
sammenzubringen. Durch rekursive Anwendung des Verfahrens sollte sich dann
das Gesamt des wahren Wissens als eine Kette (ein System) „aufgehobener”
Widersprüche konstruieren lassen. Wobei das „Aufheben“ selbst gemäß hegel-
scher Definition dialektisch zugleich als Überwindung wie als Konservierung zu
verstehen ist.
Diese Methode wird als Ausdruck und „Widerspiegelung“ der „Realdialektik”
aufgefaßt, die den Aufbau der Realität selbst bestimme. Dies macht einen großen
Unterschied zu allen anderen materialistischen und auch nur methodisch-dialekti-
schen Denkweisen. Dialektik wird hier zur ursprünglichen Charakteristik der Ma-
terie selbst und teilt sich allen ihren Manifestationen mit.
Da nun der Begriff der Dialektik ursprünglich an logischen oder dialogischen
Wider-Sprüchen festgemacht war, stellt sich das Problem, in der Realität selber
dasjenige auszumachen, was dem logischen oder dialogischen Widerspruch ent-
spricht, wenn es nicht bei einer bloß metaphorischen Übertragung des Begriffs
bleiben soll. Hier folgt man weitgehend den naturphilosophischen Konstruktionen
Hegels und Schellings und den historischen Konstruktionen Hegels: Als Wider-

356
Vgl. dazu L. Geldsetzer, Über das logische Prozedere in Hegels Phänomenologie des Geistes, in: Jahrbuch für Hegel-
forschung, hgg. von H. Schneider, 1, 1995, S. 43 - 80.
499

sprüche gelten alle Antagonismen der Natur und der Geschichte, erst recht alle
Meinungsgegensätze auf der ideologischen Ebene.
Über die Konstruktion der Naturphänomene aus Antagonismen, gegenläufigen
Kräften und Bewegungen usw., die auch sonst in der Physik üblich ist, läuft der
dialektische Materialismus auf weite Strecken mit der sonstigen naturwissen-
schaftlichen Theorie parallel und gewinnt dadurch seine „wissenschaftliche” Plau-
sibilität. In gleicher Weise nimmt er historische, soziologische und ökonomische
Antagonismen (zwischen Parteien, zwischen Herrschern und Beherrschten, zwi-
schen Ausbeutern und Ausgebeuteten, zwischen den gesellschaftlichen Gruppen
überhaupt und zwischen Völkern, Nationen und Kulturen) als Ausgangspunkte für
dialektische Konstruktionen ihrer „Aufhebung”. Und umgekehrt jede historische,
soziologische und ökonomische Einheit als Manifestation eines eigentlich zugrun-
deliegenden Antagonismus, den es kritisch aufzudecken – zu enthüllen – „bewußt
zu machen“ gilt.
Wie alles dialektische Denken macht auch der dialektische Materialismus oft
aus der Not wissenschaftlicher Problemlagen - Probleme sind selbst die Kon-
frontation gegensätzlicher Meinungen zum selben Thema - die Tugend dia-
lektischer Problemlösung. So hält er Probleme für gelöst, wenn er gegensätzliche
Meinungen zu einem Problem in einer einprägsamen Konkordienformel ver-
schmilzt. Von dieser Art sind die Formeln vom „dialektischen Sprung”, vom
„Umschlag der Quantität in (neue) Qualität”, und ähnliches, die für nichtdia-
lektisches Denken eher vehicula ignorantiae darstellen. Die Dialektiker sind aber
gewöhnlich schnell bei der Hand, undialektische Problemlösungen, die sich als
effektiv erwiesen haben und weite Anerkennung finden, zu übernehmen.
Die Position des dialektischen Materialismus ist nach Karl Marx dadurch ge-
wonnen, daß er den Hegelschen Idealismus „vom Kopf auf die Füße” stellt. Das
kann nur heißen, daß er eine Spielart des metaphysischen Realismus darstellt.
Doch legt sich der Marxismus darüber selber nicht fest. Als „Realismus“ bezeich-
net er selber vor allem den scholastischen Ideen-Realismus. Als metaphysischer
Realismus hat er das Problem der Vermittlung von Realität und Bewußtsein, von
Sein und Wissen vom Sein. Grundsätzlich wird alle Erkenntnis und (wahre) Wis-
senschaft als „Widerspiegelung” der Realität im Bewußtsein (das selber als mate-
rielle Realität gedeutet werden muß) erklärt. Es gilt also das (aristotelische) Wahr-
heitskriterium der adaequatio rei et intellectus, d. h. der Übereinstimmung bzw.
Korrespondenz von Sein und Bewußtsein.
Im Gegensatz zu anderen Spielformen des Realismus gilt jedoch weder das
Sein, noch das Bewußtsein, und somit auch nicht ihre Vermittlung als etwas Sta-
tisches. Wie die Materie sich dialektisch zu immer höheren komplexen Gestalten
entwickelt – bis zum Bewußtsein im Menschen - so das Bewußtsein selber in der
Geschichte des menschlichen Geistes von primitiven mythischen Vorstellungen
zu immer klareren wissenschaftlichen Inhalten. Wahres Wissen muß daher stets
auf der Höhe des Seins in Übereinstimmung mit dem letzten Stand der Seinsent-
wicklung stehen; falsches Wissen bleibt entweder hinter der Seinsentwicklung
500

zurück - wird „ideologisch” - oder es greift unkontrolliert dieser Entwicklung vor


- wird „utopisch”.357
Aus diesem Schematismus gewinnt der dialektische Materialismus seine kri-
tisch-polemischen Hauptkategorien. Alles andere Denken bleibt angeblich hinter
ihm zurück - so insbesondere alle „bürgerliche Ideologie“ - oder entwirft phan-
tastische Zukunftsvisionen, denen nichts entspricht. So haben Marx und Engels
insbesondere den „utopischen Sozialismus“ von Pierre Joseph Proudhon u. a. im
Frankreich ihrer Zeit kritisiert. Aber auch die internen Auseinandersetzungen wer-
den nach diesem Schematismus geführt: Es gibt für den Schulanhänger keine
größere Sünde als die, nicht auf dem „letzten Diskussionsstand” zu sein.
Als Kriterium der richtigen Übereinstimmung von Sein und Bewußtsein, mithin
als Wahrheitskriterium für die Wissenschaft, gilt die Praxis. Praxis ist selber die
dialektische Einheit von Sein und Bewußtsein, Erkenntnis ihre vornehmste, wenn
auch nicht einzige Gestalt. Die typisch menschliche Gestalt aller Praxis ist die Ar-
beit. Hier sind die Analysen Hegels im Kapitel über „Selbständigkeit und Unselb-
ständigkeit des Selbstbewußtseins; Herrschaft und Knechtschaft” in der „Phäno-
menologie des Geistes“ von 1807 und die Marxschen Analysen im „Kapital” 358
immer grundlegend geblieben.
Es liegt auf der Hand, daß sich der dialektische Materialismus an dieser Stelle
mit dem Pragmatismus und Konstruktivismus berührt und daher auch ein frucht-
bares Gespräch mit diesen Strömungen führt. Überdies sieht er in dieser Frage
klarer sein Fichtesches Erbe. Doch muß man auch von dieser Version des Prag-
matismus sagen, daß er noch zu jung ist, um in allen seinen Auswirkungen und
Anwendungen überschaubar zu sein. Mit der berühmten Marxschen Formel der
11. Feuerbachthese: „Die Philosophen haben die Welt nur verschieden interpre-
tiert; es kömmt darauf an, sie zu verändern” 359 ist es hierbei nicht getan. Die
Formel bedarf selber der Interpretation und verträgt deren viele. Doch wird man
festhalten können, daß keine Philosophie so hohen Wert auf die revolutionäre
Veränderung der Welt und die wissenschaftlich-diskussionäre Veränderung des
Bewußtseins legt wie der dialektische Materialismus. Hierin verbindet sich sein
Pragmatismus mit einem ungebrochenen Fortschrittspathos des 19. Jahrhunderts.

Der Wissenschaftsbegriff: Angesichts dessen, daß der dialektische Materialismus


höchsten Wert auf seine eigenen Wissenschaftlichkeit und alles Wissenschaftliche
legt, daß ihm diese Wissenschaftlichkeit von den meisten seiner Gegner gerade
abgesprochen wird, daß er bezüglich der Wissenschaft vielerlei historische und
systematische Unterscheidungen vornimmt, ist es recht schwer, einen spezifischen

357
Vgl. die klassische Darstellung bei Karl Mannheim, Ideologie und Utopie, Bonn 1929, 6. Aufl. 1978.
358
G. W. F. Hegel, Phänomenologie des Geistes (1807), hgg. v. J. Hoffmeister, 6. Aufl. Hamburg 1952, Kapitel 4 A:
„Selbständigeit und Unselbständigkeit des Selbstbewußtseins; Herrschaft und Knechtschaft“, S. 141 – 150.- K. Marx, Das
Kapital. Kritik der politischen Ökonomie, Band 1 (1867), 7. Aufl. Frankfurt-Berlin-Wien 1969, Kapitel 5 über „Arbeits-
prozeß und Verwertungsprozeß“, S. 148 – 168. - S. auch F. Engels, Anteil der Arbeit an der Menschwerdung des Affen,
11. Aufl. Berlin 1963.
359
K. Marx, Die Frühschriften, hgg. von S. Landshut, Stuttgart 1955: „Die deutsche Ideologie (1845/46)“, S. 541.
501

Wissenschaftsbegriff zu eruieren. Hinzu kommt, daß nach dialektischer Konstruk-


tion auch der Wissenschaft in ihr widersprüchliche Elemente vereint sein müssen.
Dieser Widerspruch zeigt sich hauptsächlich darin, daß Wissenschaft sowohl als
Bestandteil der materiellen Basis einer Gesellschaft wie auch als Bestandteil ihres
ideologischen Überbaus gesehen wird. In ersterer Hinsicht ist sie unter ökonomi-
schen Bedingungen absolut dominierendes Produktionsmittel, das in der „wis-
senschaftlich-technischen Revolution” der Gegenwart die Spitzenposition als
Transformation menschlicher Arbeitskraft erlangt hat. In letzterer Hinsicht ist sie
auch Teil des Überbaus, der diese Basisentwicklung widerspiegelt und einem ent-
sprechend entwickelten „wissenschaftlichen“ Bewußtsein Ausdruck gibt.
In der Frankfurter Schule ist dieser Wissenschaftsbegriff noch weiter ausgebaut
und zugleich kritisch gegen jeden anderen gewendet worden. Unter Aufnahme
von Differenzierungen des Soziologen und Philosophen Max Scheler, der Comtes
Drei-Stadiengesetz als Anregung zu einer Typologie von „Herrschafts-, Bildungs-
und Heilswissen” benutzte 360, legte Jürgen Habermas in seiner außerordentlich
wirkungsvollen Studie über „Erkenntnis und Interesse” von 1961 361 den Inter-
essensbegriff einer entsprechenden Wissenschaftsklassifikation und -Kritik zu-
grunde. Er unterscheidet als basale Interessen des Menschen 1. diejenigen auf Be-
herrschung und Ausbeutung der Natur, 2. auf Kommunikation und Verständigung
über Handlungsziele und 3. auf Emanzipation des Menschen von den Zwängen
der Natur und Gesellschaft. Diese sind ihm zugleich „naturwüchsige” Antriebe
zur Entwicklung und Ausgestaltung der Naturwissenschaften, der Geisteswissen-
schaften und einer – in der Frankfurter Schule propagierten – emanzipatorischen
Wissenschaft.
Daraus ergibt sich die Programmatik einer Kritik an „bürgerlicher” Wissen-
schaft. Sie besteht darin nachzuweisen, daß das legitime Interesse an Naturaus-
beutung und Naturbeherrschung, das die technischen Naturwissenschaften hervor-
gebracht hat, mittlerweile im Zeichen eines nur noch „positivistischen Wissen-
schaftsverständnisses” auch auf die Geisteswissenschaften übergegriffen habe und
diese zu einer Maschinerie der Menschenbeherrschung und -Ausbeutung gemacht
habe, in der jeder Ansatz emanzipatorischen Denkens erstickt werde.
Positiv gewendet wird man als Wissenschaftsbegriff der Frankfurter Schule de-
finieren können: Wissenschaft ist diejenige Gestalt gesellschaftlicher Arbeit,
durch die die erkenntnisleitenden Interessen der Naturbeherrschung und Natur-
ausbeutung, der intersubjektiven Handlungsorientierung und der Emanzipation
von Zwängen - als Freiheit - befriedigt und verwirklicht werden.
Wissenschaftstheorie ist dementsprechend der emanzipatorische Reflexionspro-
zeß über die erkenntnisleitenden Interessen selber und die Möglichkeiten ihrer
Realisierung. Sie ist keine eigenständige philosophische Disziplin (in solchen Ka-
tegorien denkt der dialektische Materialismus nicht), sondern die thematische

360
M. Scheler, Die positivistische Geschichtsphilosophie des Wissens und die Aufgaben einer Soziologie der Erkenntnis,
in: Kölner Vierteljahreshefte für Sozialwissenschaften 1, 1, 1921.
361
J. Habermas, Erkenntnis und Interesse, Frankfurt a. M. 1968, neue Aufl. 1973.
502

Zusammenführung aller relevanten Einzelwissenschaften (Wissenschaftsgeschich-


te, Soziologie, Ökonomie, Betriebslehre, Psychologie, Pädagogik usw.) unter der
Leitung eines normativ gewendeten emanzipatorischen Ideals richtiger und wah-
rer Wissenschaft.

Zur Methode: Als solche wird die Dialektik angegeben. Sie leistet in der Art, wie
sie verwendet wird, dreierlei.
1. Die Herstellung eines enzyklopädischen Universalzusammenhangs des Wis-
sens. Der Verstoß gegen diesen Aspekt der Dialektik führt zu „abstraktem Den-
ken”, d. h. der Betrachtung von Einzelheiten außerhalb und gelöst von ihrem Kon-
text. Da dieser Kontext durch die Kritische Theorie selber definiert ist, erscheint
jede andersartige Betrachtung per definitionem als „abstrakt“ und somit als falsch.
2. Die „kritische Hinterfragung” aller Gegebenheiten auf ihnen zugrunde liegen-
de Widersprüche und Antagonismen. Im allgemeinen setzt die Konstatierung von
Widersprüchen die Anwendung klassischer zweiwertiger Logik voraus, und diese
wird auch vom dialektischen Materialismus und von der Kritischen Theorie
verwendet. Eine über viele Jahre geführte Debatte über die „dialektische Logik”
in der ehemaligen DDR, die in der „Deutschen Zeitschrift für Philosophie” proto-
kolliert ist (1955 ff.), hat jedenfalls zu keinem positiven Ergebnis darüber geführt,
ob es eine eigene marxistisch-dialektische Logik überhaupt gibt und was sie sein
könnte. Das hinderte gleichwohl nicht, diesen Aspekt der Dialektik als eine heu-
ristische Methode zur Auffindung und Fixierung von Widersprüchen und Antago-
nismen anzusehen. Ihre scharfsinnige und kreative - um nicht zu sagen phan-
tastische - Einsetzung zur „Enthüllung”, „Entlarvung” und „Bewußtmachung“ des
Eigentlichen hinter seinen „scheinhaften” Verbrämungen - dies in der Frankfurter
Schule gewöhnlich in Verbindung mit psychoanalytischen „Bewußtmachungsstra-
tegien” - macht wesentlich das für so viele Anhänger faszinierende und attraktive
Moment an dieser Methode aus.
3. Die „Vermittlung der Gegensätze”, von Hegel als „dialektische Aufhebung”
beschrieben, ist die synthetische Kehrseite der kritischen Analyse. Sie empfiehlt
sich als die Problemlösungsmethode durch praktische (revolutionäre) Tat und
intellektuelle Synthesis. So erhebt der dialektische Materialismus den Anspruch,
die Grundprobleme abendländischer Philosophie entweder schon gelöst zu haben
oder sie, sobald der „Widerstand reaktionärer Kräfte und Interessen” gebrochen
ist, lösen zu können. Seine Lehrsätze sind selber „dialektische Vermittlungen”
von Freiheit (Emanzipation) und Notwendigkeit, Materie und Bewußtsein, Indi-
viduum und Kollektiv, Staat und Gesellschaft, Theorie und Praxis, usw.

Zentrale Probleme: Diese ergeben sich aus der Kritik sogenannter bürgerlicher
Wissenschaft und aus dem Bemühen um den Entwurf und die Realisierung eines
Ideals „marxistischer”, „kritischer” oder „emanzipatorischer” Wissenschaft. Eben-
so besteht hier ein Unterschied zwischen dem, was der dialektische Materialismus
und die Kritische Theorie als Problem behandeln und dem, was von jedem ande-
503

ren Standpunkt aus als ihre Probleme angesehen werden könnten. Beschränken
wir uns auf ersteres.

1. Einheit und Klassifikation der Wissenschaften.

Die Einheit der Wissenschaften wird in ihrer Begründung durch die philoso-
phischen Lehren von K. Marx und F. Engels gesehen. Darin liegt sogleich ein
Abgrenzungskriterium gegen jede Gestalt „scheinbarer” und uneigentlicher
Wissenschaft, insbesondere die sogenannte bürgerliche. Da die Lehren von Marx
und Engels sehr auslegungsfähig sind, stellt ihre „schöpferische Interpretation”
(Kritiker sprechen hier auch von „revolutionärer Veränderung”) und Adaptation
an die weiterentwickelten Verhältnisse ein ständiges Problem dar. Die ständige
Arbeit an diesem Problem erzeugt gewissermaßen als Abfallprodukt die Denun-
zierung und Diskriminierung häretischer Interpretationen als „revisionistischer”,
„klein-, groß- oder spätbürgerlicher” Abwiechungen, „reaktionärer Verfäl-
schungen” etc., die gleichwohl immer für spätere allfällige Rehabilitationen bei
ideologischen Neuorientierungen bereitgehalten werden.
Die Wissenschaftsklassifikation führt im allgemeinen die klassische Unterschei-
dung von Natur- und Geistes (bzw. Kultur-) Wissenschaften unter den Titeln der
Natur- und Gesellschaftswissenschaften fort. In der ehemaligen Sowjetunion war
Bonifatii Michailovitch Kedrows Buch über die „Klassifikation der Wissen-
schaften“ 362 der klassische Bezugspunkt. In Deutschland hat, wie vorne schon
erwähnt, Jürgen Habermas die „erkenntnisleitenden Interessen” (Erkenntnis und
Interesse, 1961) als Grundlage einer erweiterten Klassifikation zur Geltung brin-
gen wollen. Abgesehen von den erheblichen Problemen, ob Naturbeherrschung
bzw. hermeneutische Verständigungstechnologie tatsächliche, tragfähige, wünsch-
bare und somit normative Interessen von Natur- bzw. Geisteswissenschaften sind
und durch welche Art von Wissenschaft sie festgestellt werden könnten, ist sein
Konzept einer emanzipatorischen Wissenschaft einerseits so allgemein (schon
Francis Bacon bezog derartiges auf alle Wissenschaften: „Wissen macht frei!”),
anderseits so vage, daß es unschwer neben den traditionellen Formen „bürger-
licher” Gelehrsamkeit den krudesten Dilettantismus als Wissenschaft legitimiert.
In dieser Programmatik ist die Kritische Theorie eine Allianz mit dem wissen-
schaftstheoretischen „Dadaismus” eines Paul Feyerabend („Anything goes“) ein-
gegangen, die inzwischen nachhaltige Folgen im deutschen und auch in anderen
nationalen Bildungssystemen hervorgerufen hat.

2. Die Gesetzlichkeit der Wissenschaftsentwicklung und ihre Planung.

Diese Problematik steht an erster Stelle gesellschaftsplanerischer Theoriebildung.


Die verbreitete Meinung ist die, daß durch Planung der Wissenschaft in For-
362
B. M. Kedrow, Klassifikacija nauk, Moskau 1961, 2. Aufl. 1965, dt. Übersetzung von L. Keith und L. Pudenkowa u. d.
T. Klassifizierung der Wissenschaften, 2 Bände Köln 1975 - 1976.
504

schung und Lehre die Mittel erreicht werden, überhaupt alle lösbaren Probleme zu
lösen und das Glück der Menschheit sicherzustellen. Seit Francis Bacons Utopie
von der „Neuen Atlantis” ist diese Meinung in vielen Zukunftsromanen und in der
Science-fiction-Literatur so sehr verbreitet worden, daß sie ohnehin als einer der
erfolgreichsten Mythen der Moderne gelten darf .
In der Tat sind die größten Veränderungen in der neuzeitlichen Zivilisation
durch Planung und plangerechte Ausführungen erreicht worden. Und diese Pla-
nungen waren durchweg selber wissenschaftliche Leistungen. Hier hat das mo-
derne Ingenieurwesen und die Technik das große Vorbild abgegeben, nach wel-
chem man alle Lebensverhältnisse in den Griff zu nehmen trachtet. „Social engi-
neering” nennen es die Angelsachsen. Nichts liegt daher näher als der Schluß, die
Planung und plangerechte Durchführung der Wissenschaft selber sei der Schlüssel
zur Planung und wissenschaftlichen Gestaltung aller Dinge.
Unverkennbar stehen hier die höchsten Werte zur Debatte: Freiheit gegen
Zwang, Individualismus gegen Kollektivismus, Fortschritt gegen Stagnation oder
Rückschritt, Glück und Wohlstand gegen Elend und Not, Macht und Stärke gegen
Abhängigkeit und Unterdrückung usw. Und alles dies wird wechselseitig für und
gegen die Planung, für und gegen das Gewährenlassen in Anspruch genommen.
Die Gretchenfrage betrifft immer das Wirtschaftssystem: Planwirtschaft oder
Marktwirtschaft? Verweisen die Anhänger der „freien” Marktwirtschaft auf die
ungeheure Produktivität des kapitalistischen - d. h. ungeplanten – Wirtschafts-
systems, so die Anhänger der Planwirtschaft auf die ebenso ungeheure Effizienz
einer durchgeplanten Kriegswirtschaft. Kritisieren die ersteren die ungeheuren
„Reibungsverluste” der Planwirtschaft, so die letzteren die ungeheure Verschwen-
dung an Ressourcen und die Belastung der Umwelt durch zügellose Bedürfnisent-
wicklung und -befriedigung.
Während sich die Ideologen noch übers Prinzipielle streiten, zeichnet sich frei-
lich längst der Weg der goldenen Mitte ab: Die Planwirtschaften planen die
Nischen ungeplanter Entfaltungsmöglichkeiten mit ein, wie man heute in Kon-
tinentalchina sieht. Die kapitalistischen Systeme planen die „Rahmenbedingun-
gen” fürs Ganze und intervenieren (meist über die Steuergesetzgebung, die in-
zwischen eine wahre Steuerungsgesetzgebung geworden ist) ins einzelne. Und
ersichtlich gilt das alles längst auch für Wissenschaftspolitik.
Gleichwohl schlägt die ideologische Großorientierung auf die Auffassungen von
der Geschichte und Planbarkeit der Wissenschaft durch. Während Kuhn, Popper
und Lakatos die Kontingenz und prinzipielle Nicht-Planbarkeit der Wissenschaft
behaupten, geht der dialektische Materialismus und die Kritische Theorie von
ihrer planerischen „Finalisierung” aus. Dazu bedarf es der genauen Erkenntnis
ihrer historischen Entwicklungsgesetze, die sich dann planerisch in die Zukunft
extrapolieren lassen.
Entsprechend wurde etwa in der vormaligen Sowjetunion und in Polen unter
dem Titel einer „Wissenschaftswissenschaft” (Naukovedenje) sehr intensiv nach
505

den „Entwicklungsgesetzen” geforscht.363 Im früheren Westdeutschland arbeitete


das Starnberger Institut unter Leitung von Jürgen Habermas und Carl Friedrich
von Weizsächer an entsprechenden Problemstellungen. 364 Diese Studien bestehen
– wie schon im vorigen angedeutet – in einer Zusammenführung der verschiede-
nen relevanten Einzelwissenschaften für die Aspektbetrachtung des Wissen-
schaftsprozesses: Die „Psychologie der großen Männer” und der wissenschaft-
lichen Kreativität, die Quantifizierung des Informationsprozesses365, die Betriebs-
wirtschaftslehre der Leitung und Motivierung des wissenschaftlichen Personals,
die Ökonomie des Grenznutzens finanzieller Aufwendungen für die Forschung 366
und nicht zuletzt eine „marxistische” Wissenschaftsgeschichtsschreibung, für wel-
che John Desmond Bernal als Klassiker gilt.367
Man wird nicht zuviel behaupten, wenn man sagt, daß solche Forschungen ge-
radezu im Brennpunkt der einstigen sowjetischen Wissenschaftstheorie standen
und bei erheblichem Förderungsaufwand dort eine erstaunliche Blüte der „Gei-
steswissenschaften” hervorgerufen haben. Ihre vielfach interessanten Ergebnisse
sind wegen der Sprachbarrieren im Westen kaum zur Kenntnis genommen wor-
den, auch nicht von der Kritischen Theorie.

3. Das Wahrheitsproblem.

Wir sagten schon, daß auf Grund des realistischen metaphysischen Hintergrunds
das Wahrheitsproblem im Sinne der aristotelischen Lehre von der adaequatio rei
et intellectus zu lösen gesucht wird. Wahrheit ist grundsätzlich Übereinstimmung
des Denkens mit der Wirklichkeit.
Dieses Grundschema wird allerdings durch die materialistisch-dialektische On-
tologie und die dialektische Theorie des Denkens modifiziert: Das Sein ist dialek-
tisch evoluierende Materie; die Erkenntnis muß demnach im gleichen Takt der
Bewegung folgen bzw. mit ihr übereinstimmen. Das Übereinstimmungsverhältnis
ist selber ein dialektisches der Einwirkung der Realität aufs Denken und des Den-
kens auf die Realität: die Einheit von Theorie und Praxis. Liest man auch bei
Marx und Engels in der „Deutschen Ideologie” den vielzitierten Satz: „Nicht das
Bewußtsein bestimmt das Leben, sondern das Leben bestimmt das Bewußt-
sein”, 368 so soll das nach üblicher Interpretation doch nur bedeuten, daß dies

363
Vgl. dazu E. M. Mirski, Wissenschaftswissenschaft in der UdSSR, in: Zeitschrift für allgemeine Wissenschaftstheorie
3, 1972, S. 127 – 144; Bohdan Walentynowicz, Wissenschaft der Wissenschaft in Polen, in: Zeitschrift für allgemeine Wis-
senschaftsstheorie 3, 1971, S. 145 – 155.
364
Vgl. G. Böhme, W. van den Daele, W. Kron, Die Finalisierung der Wissenschaft, in: Zeitschrift für Soziologie, 2,
1973.
365
Vgl. V. V. Nalimov und Z. M. Multschenko, Wissenschaftsmetrie. Das Studium der Wissenschaftsentwicklung als In-
formationsprozeß, russ. Moskau 1969.
366
Vgl. D. J. de Solla Price, Science of Science, in: Bulletin of Atomic Scientists 21, Nr. 8, 1965.
367
J. D. Bernal, Science in History, 1954 u. ö., dt. Übers.: Wissenschaft, 4 Bände, Reinbek 1970.
368
K. Marx, Die Frühschriften, hgg. von S. Landshut, Stuttgart 1955: „Die deutsche Ideologie (1845/46)“, S. 549.
506

„letzten Endes” und „im Prinzip” so sei, im übrigen aber vielfältige dialektische
Rückwirkungen des Bewußtseins aufs Sein stattfinden.
Hier bleibt – wie in allen realistischen Erkenntnistheorien – die Versicherung
und Vergewisserung über das „Sein an sich” ein mystischer Prozeß. Denn jede Er-
kenntnis von ihm, in Theorien und letztlich in Wissenschaft konstituiert, ist eben
Erkenntnis und gehört zum Bewußtsein vom Sein, ist nicht das Sein selber. Auf
dieser Unterscheidung von Sein und Erkenntnis beruht ja gerade jeder Realismus.
Ausdruck dieser mystischen „Seinsverbundenheit” des wahren Denkens und
Bewußtseins ist die Forderung nach dem richtigen „Standpunkt” im Sein, der
zugleich Seinsverhältnis und Erkenntnisperspektive ist.
Über seine Fixierung ist denn auch viel in ontologischer Sprache verhandelt
worden. Die wirkungsvollste Theorie darüber hat wohl Georg Lukács in seinem
Werk „Geschichte und Klassenbewußtsein” von 1923 369 aufgestellt. Danach ist
nur der Standpunkt der Arbeiterklasse im modernen industriellen Wirtschafts-
system eine Position, auf der sich die tatsächlichen Seinsverhältnisse bewußt-
seinsmäßig adäquat widerspiegeln lassen. Alle anderen liefern nur ein „ideolo-
gisch verzerrtes“ Bild dieser Verhältnisse.
Was der „proletarische” Standpunkt selber sei, wird in marxistischer Ge-
schichtsforschung festgestellt. Sie konstruiert die „objektiven” Bedingungen des
Klassenbewußtseins auch für die Fälle, wo die historischen Bedingungen noch
nicht zur tatsächlichen Bildung einer Arbeiterklasse geführt haben oder wo die
Arbeiterklasse wie im Falle des westlichen Marxismus durch eine angeblich pro-
letarisierte Klasse „freischwebender Intelligenz“ oder direkt durch die Studenten-
schaft ersetzt worden ist.

4. Parteilichkeit und Wahrheitsdiskurs.

Aus diesen Seinsbedingungen ergibt sich zwangsläufig die Forderung nach „Par-
teilichkeit” der Erkenntnis und aller Wissenschaft.
Das hat natürlich viel Anstoß erregt, vor allem bei den Vertretern „vorausset-
zungsloser” und „vorurteilsloser” Wissenschaft, denen sie als offenes Bekenntnis
zu angeblich längst überholten Formen dogmatischer Offenbarungslehren gilt.
Und in der Tat hat die Art und Weise, wie die Parteilichkeit von Marxisten ge-
fordert, praktiziert und gegen Andersdenkende ausgespielt wird, viel mit kirch-
lichen Umgangsformen zu tun. Abgesehen davon aber ist die Parteilichkeit kein
Privileg und nichts Eigentümliches für den Marxismus, sondern nur die hier üb-
liche Formel für die sehr richtige Einsicht, daß Wissenschaft ohne Voraussetzun-
gen allenfalls eine Selbsttäuschung ist.
Nimmt man ernst, daß es ohne Voraussetzungen nicht geht, so kann man sich
(metaphysisch) darüber streiten, welche die richtigen und wahren sind. So gehört
es auch zu den wichtigsten Streitpunkten in der innermarxistischen Diskussion,
369
G. Lukács, Geschichte und Klassenbewußtsein. Studien über die marxistische Dialektik, Berlin 1923, auch Neuwied-
Berlin 1968.
507

welches „historische Subjekt” jeweils faktisch Kandidat für die Ausfüllung der
proletarischen Klassenbewußtseinsposition sein könnte. Ist es der Arbeiter- und
Bauernstaat, so wird sein staatliches Bildungs- und Wissenschaftssystem die
Position ausfüllen. Ist es eine Arbeiterpartei, so werden die Repräsentanten und
Funktionäre dies tun. Dies zeigt sich im wissenschaftlichen Anspruch der Polit-
büros und der „linken“ Gewerkschaften. Daneben steht es jedermann frei, sich für
den Formulierer und Sprecher des historischen Subjekts zu erklären. Dies tat die
linke 68er-Generation der Studenten in Deutschland unter Führung der Kritischen
Theorie, die sich dazu auf den objektiv proletarischen und subproletarischen
Lebensstandart studentischer Existenz und ihren privilegierten Zugang zu den
Erkenntnispotenzialen der Universitäten berief.
Ersichtlich litt der Anspruch der Protagonisten des wahren Klassenbewußtseins
stets darunter, wenn sie aus dem Adel (wie im Falle F. Lassalles und Lenins), aus
der mittleren oder Großbourgeoisie (wie im Falle von Marx und Engels, Hork-
heimer und Adorno) stammen oder durch das „System” alsbald durch lukrative
Posten in den paritätisch besetzten Aufsichtsräten und Vorständen der Konzerne
oder im Universitätssystem korrumpiert werden. Darauf hat die Kritische Theorie
mit einer neuen Wahrheitstheorie geantwortet, die mittlerweile großes Aufsehen
erregt hat und noch immer lebhaft diskutiert wird.
Es handelt sich um die Diskurstheorie der Wahrheit von Jürgen Habermas, die
er in mehreren Veröffentlichungen entwickelte.370 Auch diese ist eine Theorie von
den Seinsbedingungen des Wahrheitsgeschehens, nicht eine Theorie zur Begrün-
dung wahrer Sätze. Sie knüpft an die Platonische Dialektik als Dialogik an und
trägt auch der Definition der Frankfurter Schule vom Wesen der Geisteswissen-
schaften als hermeneutischer Verständigungswissenschaft Rechnung: Wahrheit ist
grundsätzlich das Resultat von Diskursen, dasjenige, worüber man sich in Ausein-
andersetzungen über Argumente und über die Regeln ihrer Zulässigkeit verstän-
digt. Dies entspricht an sich schon dem Selbstverständnis der linken Bewegungen,
Wahrheit als den „letzten Diskussionsstand”, hinter den man auf keinen Fall „zu-
rückfallen” dürfe, und über die anzuwendende „Geschäftsordnung“ aufzufassen.
Faktische Diskurse stehen gewöhnlich unter Zeitdruck, werden abgebrochen,
durch rhetorische und Geschäftsordnungstricks manipuliert, mit Kompromissen
oder Mehrheitsresolutionen beendet. Oft dokumentieren sie gar die Unversöhn-
lichkeit von Standpunkten. Weitgehend hängen sie vom Kenntnis- und Wissens-
stand der Beteiligten ab. Habermas hat für alle derartigen Impedimente besondere
neutralisierende Bedingungen für einen „kontrafaktischen” und „herrschaftsfrei-
en“, d. h. durch solche einschränkenden Bedingungen nicht behinderten idealen
Diskurs entworfen, der das Erscheinen von Wahrheit als Übereinstimmung aller
„vernünftigen“ Diskussionspartner sichern soll.

370
J. Habermas, Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz, in: J. Habermas und N.
Luhmann, Theorie der Gesellschaft oder Sozialtechnologie – Was leistet die Systemforschung? Frankfurt a. M. 1971, S.
101 – 141; ders., Theorie des kommunikativen Handelns, 2 Bände, Frankfurt 1981. – Vgl. dazu G. Figal, Jürgen Habermas,
in: A. Hügli und P. Lübcke, Philosophie im 20. Jahrhundert, Band 1, Reinbeck 1994, S. 378 – 281.
508

Dies bedeutet einen Übergang zu einem grundsätzlich idealistischen Wahrheits-


modell der „adaequatio intellectus et intellectus”, der Übereinstimmung des Den-
kens mit sich selber und mit dem Denken anderer Intelligenzen. Es ist ein
Wahrheitsbegriff der intersubjektiven Übereinstimmung. Hier liegen denn auch
die Anknüpfungspunkte, wo sich auch der kritische Rationalismus und der Kon-
struktivismus und erst recht der Hermeneutizismus für diese Theorie interessieren:
sie läßt sich leicht auch in der Sprache der „asymptotischen Wahrheitsannähe-
rung” (K. R. Popper) oder der Wahrheitskonstruktion durch Diskurs-Logik (der
Erlanger Schule) darstellen.
Gleichwohl bleibt Habermas„ Wahrheitskonzeption realistisch, insofern der
ideale kontrafaktische Diskurs nur der Ort des Seins ist, an dem sich Wahrheit als
Reflex des Seins selber in Bewußtseinen zeigt. Da diese Theorie traditioneller-
weise dem Parlamentarismus zugrunde liegt, bedeutet sie einerseits einen grund-
legenden Beitrag zur Politisierung der Wissenschaft in dem Sinne, daß sie ihre
Probleme durch Diskussion in den mitbestimmenden Gruppen „parlamentarisch”
zu lösen habe. Andererseits wird man sich nicht wundern, daß in ihrer Kritik alle
längstetablierten Argumente des Antiparlamentarismus (Donoso Cortes, Carl
Schmitt) wieder aufleben.
Die von Habermas aufgestellten Bedingungen des idealen Diskurses auf Grund
„unverzerrter Kommunikation” zwischen den Teilnehmern laufen sämtlich darauf
hinaus, die Schranken der Endlichkeit (Zeit, Raum, individuelle Unterschiede) zu
beseitigen. Ersichtlich wird dadurch der freie Diskurs zur Geschichte der Wis-
senschaft selber, an deren Ende in ferner Zukunft vielleicht irgendwann die
Wahrheit unverzerrt erscheint.
509

§ 44 Die Wissenschaftstheorie der Geisteswissenschaften in der Lebensphilo-


sophie, Phänomenologie und in der Existenzphilosophie: Die Hermeneutik des
Strukturalismus und die postmoderne Dekonstruktion
Zur Geschichte: Schellings Lebensphilosophie und ihre Entfaltung im 19. Und 20 Jahrhundert. Nietzsche, Dilthey, Spencer,
Bergson. Metaphysische Grundlagen 514. Der Wissenschaftsbegriff 519. Die Sprachwissenschaft von de Saussure bis
Derrida 530. Die Geschichtswissenschaft 531. Methodenlehre 535. Zentrale Probleme und Themen: Einheit und Klassi-
fikation der Wissenschaften 546. Die Entwicklung der Wissenschaften 547. Erkenntnistheoretische und ontologische
Grundlagen 550. Hermeneutik als allgemeine Methodenlehre des Verstehens 555. Dogmatische Hermeneutik und ihre
Kanons in den Geisteswissenschaften, insbesondere in der Theologie 561, Jurisprudenz 562, Ökonomik 564, hinsichtlich
der klassischen Literatur 565 und in der Mathematik 565. Zetetische Hermeneutik und ihre Kanons vor allem in den ge-
schichtlichen Geisteswissenschaften 575. Das Verstehen 579. Wahrheit in der Sprache 583. Die Verkunstung der Geistes-
wissenschaften und die Verwahrheitung der Kunst 588. Heidegger u. a. als denkende Dichter 597. Die Kunst als wissen-
schaftliche Forschung 607 – 612.

Die Wissenschaftstheorien der vorgenannten Richtungen erheben naturgemäß


auch den Anspruch, die Probleme der Geisteswissenschaften zu ihrem Gegenstand
zu machen. Aber die Einlösung der damit gegebenen Aufgaben blieb gegenüber
den Hauptanliegen, die Naturwissenschaften zu durchleuchten, erheblich zurück.
Teilweise wird den Geisteswissenschaften von dieser Seite seriös wissenschaft-
licher Charakter abgesprochen; teilweise gelten sie noch immer als zurückge-
bliebene Wissenschaftsnachhut, die nur durch Übernahme naturwissenschaftlicher
Methoden und Standards ihren Entwicklungsrückstand aufholen und zu genuinen
Wissenschaften werden könnten. Schon gar nicht hat sich hier ein Bewußtein
davon gebildet, was die Naturwissenschaften der philologisch-historischen Arbeit
der Geisteswissenschaften verdankt, und was von den geisteswissenschaftlichen
Forschungsergebnissen zugleich Basis ihrer eigenen Arbeit geworden ist.
Da sich die Geisteswissenschaften einschließlich der neuerdings sogenannten
Kulturwissenschaften als ein sehr heterogenes Gebilde darstellt, besteht dring-
licher Bedarf, einerseits genauer zu diagnostizieren, was sie sind, andererseits
nach philosophischen Begründungen ihrer Ausgestaltung Umschau zu halten.
Letztere dürfte am meisten die Lebensphilosophie vorgebracht haben, die wir des-
halb als Leitfaden benutzen.
Die Lebensphilosophie ist neben dem Materialismus eine der bedeutendsten
philosophischen Strömungen Westeuropas. Wie der Materialismus sich auf das
Erklärungspotential der exakten Naturwissenschaften beruft, so die Lebensphilo-
sophie auf die Biologie. Ihr Gegenstand, das Leben, wird als nicht mehr hinter-
fragbares Wirklichkeitselement genommen, alles andere muß als Lebensphäno-
men gedeutet werden. Übereinstimmend mit ältesten griechischen Auffassungen
gilt die materielle Natur als „tote” Natur, also muß sie zuvor gelebt haben. („Na-
tur“ selber von lat. nasci = gebären, hervorbringen). Auch alles Seelische und
Geistige und a fortiori Wissenschaft ist dann Produkt zugrunde liegender leben-
diger Kräfte.
Dabei wird der Grundbegriff von lebendiger Natur, nämlich der Organismus, Er-
klärungsmodell par excellence. Die bedeutendste Errungenschaft der theore-
510

tischen Biologie des 19. Jahrhunderts, der Evolutionsgedanke – philosophisch


vorgeprägt in den großen Entwicklungssystemen der Neuzeit eines Leibniz,
Herder, Schelling und Hegel - bildet zusammen mit dem Organismusmodell als
Konzept ganzheitlicher Strukturen überall das Grundschema theoretischer Zusam-
menhangsstiftungen.
Die Weite des lebensphilosophischen Ansatzes umgreift eine entsprechende
Breite philosophischer Unterströmungen, in denen oftmals das lebensphiloso-
phische Grundmotiv schwer erkennbar ist. Man hat hier auf die Verwendung des
Organismus- und Evolutionsbegriffs und eventuelle Transformationen derselben
zu achten. Auch der Begriff des Lebens selbst unterliegt vielerlei zeitgenössischer
Anpassung. Aber man wird ihn auch in den phänomenologischen Grundbegriffen
von „Lebenswelt“ und „transzendentalem Leben“, im Existenz- und Daseinsbe-
griff der Existenz- und Existenzialphilosophie, im „nacherlebend-verstehenden
hermeneutischen Bewußtsein” der Hermeneutikbewegung und in den lebendig
sich wandelnden Strukturen vom „Strukturalismus“ zum „Dekonstruktionalis-
mus“, dem Pendant des Wandels lebendigen Wachstums zur Auflösung im Tode,
wiedererkennen.
Aus diesem lebensphilosophischen Ansatz ergeben sich wissenschaftstheore-
tische Motive und Gesichtspunkte, die gegenwärtig das Selbstverständnis der-
jenigen Geisteswissenschaftler prägen, die die Geisteswissenschaften nicht als un-
reifen und mehr oder weniger chaotischen Annex der eigentlichen Wissenschaft,
d. h. der exakten Naturwissenschaften und ihrer mathematischen Methodologie
begreifen. Offensichtlich ist es ihnen jedoch noch nicht gelungen, eine lebens-
philosophisch begründete Wissenschaftstheorie zu einer den zuvor dargestellten
wissenschaftstheoretischen Strömungen entsprechenden disziplinären Entfaltung
und Konsolidierung auszuarbeiten.
Für diese Situation dürfte noch immer der enge Anschluß der Geisteswissen-
schaften an den trivialen Teil der antiken und mittelalterlichen „freien Künste“
verantwortlich sein, der sich seit der Abtrennung der neueren Philosophischen
Fakultätswissenschaften von den quadrivialen Wissenschaften der Mathematisch-
Naturwissenschaftlichen Fakultäten stetig verfestigt hat. 371
Angesichts der unbestreitbaren Tatsache, daß die Mathematik im Quadrivium
stets eine exemplarisch „exakte“ Geisteswisenschaft war und ist, deutet ihre
grundsätzliche Nichtbeachtung in der Wissenschaftstheorie der Geisteswissen-
schaften auf ein dringendes Forschungsdefizit hin, das weder durch einige An-
sätze zur „Universalisierung der hermeneutischen Methodologie“ der Geisteswis-
senschaften noch durch mancherlei Anwendungen der Mathematik in ihnen aus-
gefüllt wird.

371
Zum Aufkommen der Bezeichnung „Geisteswissenschaft“ schon seit dem Ende des 18. Jahrhunderts vgl. L. Geld-
setzer, „Die Geisteswissenschaften – Begriff und Entwicklung“, in: Wissenschaftstheorie 1, hgg. von H. Rombach, Frei-
burg-Basel-Wien 1974, S. 141 -151.
511

Zur Geschichte: Als Gründervater der modernen Lebensphilosophie kann Fried-


rich Wilhelm Joseph Schelling (1775 – 1854) angesehen werden. Unter Aufnahme
mystisch-theologischer Motive vom All-Leben des Absoluten (Giordano Bruno,
Jakob Böhme, Gottfried Wilhelm Leibniz) hat er mit seinem Begriff des „allge-
meinen Organismus” das Leben zum „unvordenklichen” Grundprinzip aller Wirk-
lichkeitserklärung erhoben. Von ihm her bleibt der Lebensphilosophie in allen
ihren Gestalten ein grundsätzlicher Irrationalismus eigen. Denn alle Ratio, Intel-
ligenz, Vernunft, Geistiges und die Geisteswissenschaft selbst wird zum Epiphä-
nomen hinter und unter ihnen wirkender dunkler, unbewußter irrationaler Lebens-
kräfte.
Der Lebensphilosophie haftet daher ein Grundparadox an: Sie will auf Begriffe
bringen und bewußt machen, was sie doch selber als Dunkles und Unbewußtes
definiert. Schelling hat dies einen „unvermeidlichen Zirkel” genannt, und viele
Nachfolger haben aus dieser Not eine Tugend gemacht. Da das Leben selber vol-
ler Widersprüche sei, könne es im Denken als einem epiphänomenalen Reflex des
Lebens nicht anders sein. Daher die Zuflucht vieler Lebensphilosophen zur Dia-
lektik als einer Logik des Widerspruchs und der Paradoxien.
Paradoxe sind Signale für logische Widersprüche. Zirkelhafte Erörterungen
eröffnen die Wege zu beliebigen Behauptungen. So ist auch die Lebensphiloso-
phie in der Breite ihrer Ausgestaltungen ein „irregulare aliquid corpus doctrinae”
geworden - wie Samuel von Pufendorf einst die Verfassung des Hl. Römischen
Reiches Deutscher Nation bezeichnete. 372 Schon frühzeitig hat sie Heinrich
Rickert einen „Lebenssumpf” genannt.373
Sie erstreckt sich vom allgemeinen „romantischen” Affekt gegen alles „System-
philosophieren” wie in Friedrich Schlegels „Vorlesungen über die Philosophie des
Lebens” von 1827 über Arthur Schopenhauers Willensmetaphysik zu Friedrich
Nietzsche, Oswald Spengler und zur anthropologischen Bewegung der Existenz-
philosophie. In Frankreich von François-Pierre Maine de Biran (1766 – 1824) zu
Emile Bergson (1859 – 1941) mit seiner Lehre vom „Élan vital” in seinem Buch
„L‟évolution créatrice“ von 1907. Im angelsächsischen Bereich ist ein Markstein
das „System der synthetischen Philosophie” von Herbert Spencer (1820 – 1903).
Es ist eine universale Entwicklungsphilosophie, die Spencer in seiner Gesamt-
ausgabe von 19 Bänden von 1861 bis 1902 vorgestellt hat. Neben ihm zeigen die
Spielformen des pragmatistischen Denkens von William James, Charles Sanders
Peirce, Josiah Royce und Ralph Waldo Emerson lebensphilosophische Einschlä-
ge. Nicht zuletzt treten sie beim späten Wittgenstein zutage, wo die von ihm
sogenannten „Lebensformem“ weitreichende Erklärungsfunktion übernehmen.
Der maßgebliche Theoretiker lebensphilosophischer Wissenschaftstheorie, und
zwar ausdrücklich einer „geisteswissenschaftlichen”, ist Wilhelm Dilthey (1833 –

372
Unter dem Pseudonym Severinus de Monzambano, De Statu Imperii Germanici, Den Haag 1667.
373
H. Rickert, Die Philosophie des Lebens, Darstellung und Kritik der philosophischen Modeströmung unserer Zeit, Tü-
bingen 1920, S. 155 ( 2. Aufl. 1922).
512

1911) gewesen. 374 An ihn knüpfen denn auch positiv oder kritisch die neueren
Beiträge zur lebensphilosophischen Wissenschaftstheorie an. 375 Er hat in ihnen
die „hermeneutische” Wendung verursacht, nach welcher das Wesen der Geistes-
wissenschaften im „Verstehen als Nacherleben” ursprünglicher Lebensvollzüge
bestehen soll, „hinter die nicht zurückgegangen werden kann”. Diese Lebens-
vollzüge sind für Dilthey zugleich auch der Gegenstand der Geschichtswis-
senschaft, die daher überhaupt den Stoff zur Erkenntnis des Menschen bereitstellt.
Denn „was der Mensch sei, erfährt er nur aus der Geschichte“ lautet eine seiner
bekanntesten Maximen.
Diltheys Ansatz, der das Verstehen auf die Kategorien einer von ihm neu
begründeten „beschreibenden und zergliedernden Psychologie” stützen sollte, 376
knüpfte nicht an die Einsichten der deutschen Gründerväter der modernen Psy-
chologie, nämlich J. F. Fries, J. F. Herbart und Ed. Beneke an. Sie hatten sicheres
psychologisches Wissen auf die Introspektion gegründet und Aussagen über frem-
des Seelenleben für hypothetisch und spekulativ erklärt. Dilthey schloß sich dem-
gegenüber an die idealistische hermeneutische Tradition Friedrich Ernst Daniel
Schleiermachers (1768 -1834) und seines Lehrers Julius Braniss (1792 – 1873) an,
die fremdes Bewußtsein durch ein direktes „Verstehen“ für zugänglich hielten und
so den „Geist“ auf allen Stufen und in allen Gestalten seiner subjektiven und ob-
jektiven Äußerungen erfassen wollten. Das hat seine hermeneutische Grundlegung
der Geisteswissenschaften von vornherein auf eine fragwürdige Grundlage ge-
stellt.
Die Kritik am Psychologismus, wie sie vor allem von Edmund Husserl und
Martin Heidegger mit dem Ruf „Zu den Sachen selbst” und einer wirkungsvollen
Propagandierung der Phänomenologie als universaler Methode der Erfassung der
„Lebenswelt” betrieben worden ist, hat zwar den Psychologismus nachhaltig
diskriminiert, richtete sich aber keineswegs gegen Diltheys neue „beschreibende
Psychologie“, sondern setzte sie konsequent fort.
Husserls Spätphilosophie führt zu einer mystischen Lehre vom „transzenden-
talen Leben” der Intersubjektivität in seinen „Méditations cartésiennes“ von 1932,
die ihrerseits Anknüpfungspunkte für eine soziologistische Interpretation dieser
Intersubjektivität als Diskursgemeinschaft der „Community of investigators” (Ch.
S. Peirce, Hans-Otto Apel) bietet.
Heideggers Fundamentalontologie, die das Verstehen von Sein und Lebenswelt
als „Existential“, d. h. als Grundkategorie des menschlichen Daseins ausweist und
es an den ursprünglichen handwerklich-künstlerischen Umgang mit „zuhandenem

374
W. Dilhey, Einleitung in die Geisteswissenschaften. Versuch einer Grundlegung für das Studium der Gesellschaft und
der Geschichte, Leipzig 1883, 7 Aufl. 1973; ders., Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften, Ber-
lin 1910, 6. Aufl. Stuttgart 1973; ders., Die Philosophie des Lebens. Eine Auswahl aus seinen Schriften, 1867 – 1910, hgg.
von H. Nohl, Frankfurt a. M. 1946. – R. A. Makkreel, Dilthey. Philosoph der Geisteswissenschaften, Frankfurt a. M. 199,
sowie F. Rodi, Erkenntnis des Erkannten. Zur Hermeneutk des 19. und 20. Jahrhunderts, Frankfurt 1990.
375
Vgl. dazu das seit 1983 von Frithjof Rodi herausgegebene „Dilthey-Jahrbuch für Philosophie und Geschichte der
Geisteswissenschaften“.
376
W. Dilthey, Ideen über eine beschreibende und zergliedernde Psychologie, Berlin 1894, in: G. Schr. Band 5, S. 144.
513

Zeug” bindet („Verstehen“ ist hier im Sinne von „sein Handwerk verstehen“ zu
verstehen), führt zu einem Reduktionismus, den man Artismus nennen könnte.
Und zwar, weil der Umgang der Dichter mit der Sprache, der Maler und Plastiker
mit dem „Welt-Bilden” – aber auch, wie man in seinem Sinne ergänzen könnte –
der Handwerker und Bauern mit Hammer, Sichel und Spaten den ursprünglichen
Verständigungshorizont aller wissenschaftlichen Weltauslegung beschreiben soll.
Da freilich das Handwerk traditionell als „banausisch“ gilt und noch immer
schlechte Presse in Wissenschaftlerkreisen hat, steht hier der künstlerische „Artis-
mus” als Ästhetizismus bei weitem im Vordergrund. Er ist bei der neuzeitlichen
engen Verzahnung von Dichtung und Literaturwissenschaft zugleich ein Philolo-
gismus, der das Wesen der Sprache als „Haus des Seins” bei Heidegger zum
„transzendentalen Apriori” aller Welterklärung hochstilisiert. So mit hermeneu-
tischen Mitteln bei Hans-Georg Gadamer und Hans-Otto Apel, mit strukturalisti-
schen Mitteln bei Ferdinand de Saussure und seinen Anhängern, mit dekonstruk-
tiven Analysen bei Derrida und seinen Freunden.
Aber auch die im engeren Sinne biologistischen Reduktionismen gehören zum
Umkreis der Lebensphilosophie. Hier führt eine gerade Linie von Hans Drieschs
„Vitalismus“377 zur Anthropologie und Institutionenlehre von Arnold Gehlen, die
auch die Wissenschaft selber als „Entlastungsinstitution” gegenüber den vitalen
„Antrieben” des Innenlebens und den „Reizüberflutungen” der äußeren Lebens-
welt der Spezies Mensch begreift.378 Erich Rothacker, Verfasser einer „Logik und
Systematik der Geisteswissenschaften“ von 1926 erklärt in seiner „Kulturanthro-
pologie“ die „Kulturen als Lebensstile”,379 die sich nach biologisch-behavioristi-
schem Reiz-Reaktionsschema im Lebenskampf der menschlichen Rassen unter-
einander und mit der Umwelt herausbilden. Und dies berührt sich eng mit der US-
amerikanischen „cultural anthropology” eines Franz Boas und eines Bronislaw
Malinowski und der späteren französischen „strukturalen Anthropologie” von
Claude Lévi-Strauss,380 die die Lebensordnungen und Institutionen der sogenann-
ten Naturvölker aus den unbewußten kollektiven Wahlen von Lebensstilen ablei-
teten.
Alle diese Entfaltungen spezieller Fragestellungen zum Lebensprozeß kulmi-
nieren in der Frage nach dem Wesen des Menschen. Die philosophische Anthro-
pologie ihrerseits hält dabei an der alten aristotelischen These fest, daß der

377
H. Driesch, Der Vitalismus als Geschichte und als Lehre, Leipzig 1905, 2. rev. Aufl. u. d. T. Geschichte des Vitalismus,
Leipzig 1922; ders., Wirklichkeitslehre. Ein metaphysischer Versuch, Leipzig 1917, 3. Aufl. 1930.
378
A. Gehlen, Der Mensch. Seine Natur und seine Stellung in der Welt, Berlin 1940, 12. Aufl. Wiesbaden 1978.
379
E. Rothacker, Probleme der Kulturanthropologie, Bonn 1948, 2. Aufl. 1965; ders., Logik und Systematik der
Geisteswissenschaften, München-Berlin 1927, 2. Aufl. Bonn 1948, ND Darmstadt 1970; ders., Kulturen als Lebensstile”,
in: Zeitschrift für deutsche Bildung, 1934.
380
F. Boas, The Mind and Primitive Man, 1911, 2. Aufl. 1938; ders., Kultur und Rasse, Leipzig 1914, ders., Race,
Language and Culture, New York 1940. - B. Malinowski, A Scientific Theory of Culture, and Other Essays, Chapel Hill
1944, dt. Übers. Eine wissenschaftliche Theorie der Kultur und andere Aufsätze, Frankfurt a. M. 1975. – Dazu W. E.
Mühlmann, Geschichte der Anthropologie, Bonn 1948; ders. und E. W. Müller (Hg.), Kulturanthropologie, Köln-Berlin
1966. – Cl. Lévi-Strauss, Anthropologie structurale, Paris 1958, dt. Übers.: Strukturale Anthropologie, Frankfurt a. M.
1967, 2. Aufl. 2 Bände 1973 – 1975.
514

Mensch ein „Sprachwesen“, ein „animal logon echon“ sei. Das wurde stets in dem
Sinne verstanden, daß die menschliche Verfügung über seine Sprache zugleich die
Grundlage seiner Vernünftigkeit bzw. aller Rationalität darstelle. Wenig beachtet
wurde dabei, daß die Definition „Mensch = Sprachwesen“ durchaus auch bedeu-
ten kann, daß er ein „polyglottes Sprachwesen“ ist. Wie anders könnte er sonst mit
mehreren Muttersprachen aufwachsen und sich sogenannte Fremdsprachen bis zur
völligen Beherrschung aneignen?
Jedenfalls hat die Sprache und ihre Rolle auch in der Lebensphilosophie und
ihren Verzweigungen stets eine besondere Rolle gespielt und der Sprachwissen-
schaft und ihren Forschungsergebnissen eine Hauptposition als exemplarischer
Geisteswissenschaft gesichert.
Aber die Evolution des Lebens macht auch diese Position fragwürdig. Der in
der Existentialphilosophie und im Existenzialismus der zweiten Nachkriegszeit
noch vielbeschworene „Humanismus“ wird konterkariert von einem „Anti-Huma-
nismus“, der zwar noch nicht weiß, was er ist, aber ersichtlich gespeist wird vom
„Übermenschen-Ideal“ eines Nietzsche. Seine evolutionären Spielformen kündi-
gen sich an im „Menschenpark“ und im „Weltrat der Weisen“ Peter Sloterdijks,
in der „Diktatur der Künstler“ Jonathan Meeses, in der Züchtungsgestalt des chir-
urgisch oder durch Doping verbesserten Kraft- und Schönheits-Modells des Men-
schen, im geklonten Funktionsspezialisten oder gar im hybriden Mensch-Maschi-
nen-Zombie.

Metaphysische Grundlagen: Für die Lebensphilosophie ist das Leben Grund aller
Realität. Mithin erklärt sie alles als lebendig, ohne das Leben selbst erklären zu
wollen oder zu können. Dieser Standpunkt hat zunächst eine faszinierende Plau-
sibilität: Wer fragt und denkt, der lebt; wer und was tot ist, der und das muß zuvor
schon gelebt haben.
Daß solches Denken sehr alt ist, zeigt schon der vorsokratische Hylezoismus,
der das Leben in die Materie (Hyle = Stoff, aber auch Wald, Baum; materie =
Stoff, aber auch Bauholz) hineindeutete, zeigt der Ursprung der Begriffe „Physik”
(griech. phyein = wachsen) und „Natur” (lat. nasci = gebären), zeigen nicht zuletzt
die ältesten religiösen und theologischen Gottesattribute, die das höchste Wesen
als den „lebendigen Gott”, das „All-Leben” oder den „Weg, die Wahrheit und das
Leben” charakterisieren.
Wie bei allen so alten Metaphysiken (etwa auch beim Materialismus und beim
Spiritualismus) ergeben sich daraus fruchtbare heuristische Gesichtspunkte für die
Forschung, die alles als lebendig erklären muß und in diesem Lichte erst auf
vieles Einzelne aufmerksam wird. Und natürlich muß in einem arbeitsteiligen
Wissenschaftssystem die Biologie als Spezialwissenschaft vom Leben eine Füh-
rungsrolle dabei übernehmen, ihren eigenen Titelbegriff selber „mit Leben zu er-
füllen”. Ihre Forschungsresultate werden zu Attributen des Lebens, die immer
neue und weitere Anwendungen auf die Mannigfaltigkeiten des Wirklichen erlau-
ben.
515

In der Biologie waren bahnbrechende Ereignisse die Lamarcksche und Darwi-


nische Evolutionstheorie, die es erlaubte, alle Lebensgestalten als evolutionäre
Ausprägungen und Entfaltungen einer einzigen Lebensmatrix aufzufassen, den
Menschen selbst in diese Evolution hineinzustellen und in weiteren Anwendungen
der Evolutionstheorie in den einzelnen Geisteswissenschaften deren Gegenstände
als Lebensobjektivationen zu deuten. 381 Die biologische Evolutionstheorie aber
verdankt sich ihrerseits der „Historisierung“ der vordem klassifizierenden Be-
schreibung der pflanzlichen und tierischen Lebensformen in der Botanik und Zoo-
logie. So ist der biologische Evolutionismus selbst auf die Kategorien der Histo-
riographie gestützt und übernimmt diese aus der Geschichtsschreibung der Philo-
sophischen Fakultät.
Zusammen mit Darwins Hypothese vom Überleben des Angepaßtesten im
Kampf ums Dasein („survival of the fittest” im „struggle for life”) war die biolo-
gische Evolutionstheorie und zusammen mit ihr die Geschichtsschreibung im 19.
und 20. Jahrhundert so erfolgreich in der Erklärung – und Legitimierung – kapi-
talistischer Ausbeutung, des Kolonialsystems, des Rassenegoismus, der Men-
schenzüchtung und des Geniekultes und ihrer so verhängnisvollen Folgen, daß
man bis heute weithin ihren hypothetischen Status vergessen hat. Zugleich hat der
Darwinismus das Selbstverständnis der modernen Menschheit untermauert, daß
eben der Mensch als biologisches Evolutionsprodukt an der Spitze der „Primaten“
aller Lebewesen stehe.
Zu den Wesensmerkmalen nicht nur der Primaten, sondern vieler pflanzlicher
und tierischer Lebewesen, das durch die Evolutionsbiologie besonders ausge-
zeichnet wurden, gehört die Geschlechtlichkeit. Fortpflanzung und „geschlecht-
liche Zuchtwahl“ des Menschen setzt die natürlichen anatomischen und physio-
logischen Unterschiede von Mann und Frau als conditio sine qua non der Evolu-
tion voraus. Schon die antike Heilkunst hat das beachtet, und die Medizinische
Fakultät der Neuzeit hat es in ihrem Disziplinenkanon festgeschrieben.
Zu allen Zeiten sind aus dem Geschlechtsunterschied weitreichende Folge-
rungen über die „Natur“ des Männlichen und Weiblichen beim Menschen gezo-
gen worden. So vor allem bezüglich der körperlichen und psychischen Leistungs-
fähigkeit, der Arbeitsteilung und der sittlichen und rechtlichen Stellung von Mann
und Frau in den Gesellschaften und Kulturen. Alle diese Gesichtpunkte sind je-
doch in der neueren Genderforschung in den Geisteswissenschaften in den Ver-
dacht und die Kritik geraten, Irrtümer und Fälschungen des abendländischen
Patriarchats zu sein (s. u.).
Einflußreich waren die Beiträge, die von deutschen Darwinisten im Monisten-
bund um Ernst Haeckel (1834 – 1919) und Wilhelm Ostwald (1853 – 1932) zum
Lebensbegriff und Lebensproblem beigesteuert worden sind. Dem Materialismus
381
J.-B. de Lamarck, Philosophie zoologique, ou exposition des considérations relatives à l‟histoire naturelle des animaux,
2 Bände, Paris 1809, dt. Übers. Jena 1876. – Ch. Rob. Darwin, On the Origins of Species by Means of Natural Selection,
or the Preservation of Favoured Races in the Struggle for Life, London 1859, 6. Aufl. 1872, dt. Übers.: Über die
Entstehung der Arten in Thier- und Pflanzen-Reich durch natürliche Züchtung, oder Erhaltung der vervollkommneten
Rassen im Kampfe ums Daseyn, Stuttgart 1860, 2. erw. Aufl.1863.
516

und Physikalismus um die Jahrhundertwende galt der sogenannte zweite Haupt-


satz der Wärmelehre, d. h. der von William Thomson (Lord Kelvin 1824 - 1907)
und Rudolf Clausius (1822 - 1888) formulierte Entropiesatz als energetisches
Grundgesetz der Physik und damit der „toten Natur“. Der Entropiesatz konstatiert
für alle physikalischen Systeme die absolute Zunahme der „Entropie“ (= Nach-
innen-Wendung), d. h. des Energieausgleichs und damit der Einebnung aller Ener-
gieniveauunterschiede in geschlossenen physikalischen Systemen. Aus ihm fol-
gerten die einen den schließlichen „Wärmetod des Kosmos”, andere prognosti-
zierten den „Kältetot“. Diesem Zweiten Hauptsatz der Thermodynamik als empi-
risch gesichertem Grundgesetz des Kosmos – es schließt auch die Möglichkeit
eines physikalischen „perpetuum mobile” aus und wird u. a. heute zur Definition
einer absoluten Zeitrichtung im Kosmos (Zeitpfeil) benutzt – setzten monistische
Energetisten ein Lebensgesetz der „Ektropie“ (= Nach-außen-Wendung, jetzt oft
auch als „Negentropie“ bezeichnet) entgegen.382
Danach gilt überall, wo Leben ist, das Gegenteil des physikalischen Entropie-
gesetzes, nämlich das Ektropiegesetz, nach welchem im Bereich des Lebendigen
immer neue und größere Energieniveauunterschiede aufgebaut werden. 383
Ersichtlich hat das Folgen für das geisteswissenschaftliche Weltbild gehabt.
Nicht nur sind ja physikalische Versuchsanordnungen zur Erstellung „geschlos-
sener Systeme“ und alle Experimente Eingriffe des Lebens in tote Natur, so daß
sich auch die experimentelle Empirie des Zweiten Hauptsatzes der Wärmelehre
ektropischer Gesetzlichkeit verdankt. Auch der physikalische Zeitbegriff wird in
einem lebensgesetzlichen Zeitbegriff geradezu umgekehrt - die Evolution des
Lebens erscheint als „Rückkehr” zum physikalischen Ursprung. Aber die geistes-
wissenschaftlichen Zeittheoretiker gingen noch nicht so weit, daß sie etwa den
Ausgriff des Lebens in kosmische Dimensionen und die Anverwandlung atomarer
Energie zu ungeheuren Prothesen lebendiger Wirkungszentren ins Auge gefaßt
hätten. Gleichwohl bemühten sie sich um einen dem naturwissenschaftlichen
Zeitbegriff entgegenzusetzenden geisteswissenschaftlichen Zeitbegriff. 384

382
Über die Entwicklung der Zeitvorstellungen und des Entropiebegriff in der Astronomie und Physik, Geologie, Biologie
und Psychologie, in der Philosophie und über Zeitmessung vgl. J. Zeman (Hg.), Time in Science and Philosophy. An Inter-
national Study of Some Current Problems, Amsterdam-London-New York 1971. – Eine Kritik der westlichen Zeit-
vorstellungen vom Standpunkt der indischen Philosophie enthält der Beitrag von R. Reyna, Metaphysics of Time in Indian
Philosophy and its Relevance in Particle Science, S. 227 - 239.
383
Vgl. G. Hirth, Energetische Epigenesis und epigenetische Energieformen, 1898; ders., Die Ektropie der Keimsysteme,
1900; F. Auerbach, Ektropismus oder die physikalische Theorie des Lebens, Leipzig 1910; W. Ostwald, Energetische
Grundlagen der Kulturwissenschaften, 1909. – Zur damaligen Literaturlage vgl. F. Ueberweg, Grundriß der Geschichte der
Philosophie, 4. Band: Die deutsche Philosophie des 19. Jahrhunderts und der Gegenwart, völlig neu bearb. 12. Aufl hgg.
von T. K. Oesterreich, Berlin 1923, § 27: „Die Entwicklungslehre und der Monismus“, S. 314 – 331 und 705 – 707 sowie
§ 56, Abschnitt 1: „Die biologische Metaphysik“, S. 586 – 600 und S. 721f.
384
Neben Husserls Zeitanalysen ist hinzuweisen auf Emile Bergsons Definition einer Art stehender gelebter Zeit als
„Durée“ (Dauer). Vgl. seinen Oxforder Vortrag von 1911: „Die Wahrnehmung der Veränderung“, in: E. Bergson, Denken
und schöpferisches Werden, Meisenheim 1948, S. 149 – 179. -- M. Heidegger erklärte die „Zeitlichkeit“ als Existential
menschlichen Daseins und die physikalische Zeit als „abkünftigen Modus“ davon. Vgl. Sein und Zeit, 7. Aufl. Tübingen
1953, S. 406 ff. - Der Soziologe George Gurvitch entwickelte zur Charakteristik der soziologischen Phänomene acht
Kategorien von „gesellschaftlichen Eigenzeiten“, die freilich wenig beachtet wurden. Vgl. G. Gurvitch, La multiplicité des
temps sociaux, in: ders., La vocation actuelle de la sociologie, Band 2, 2. Aufl. Paris 1963, S. 325 - 430. Dazu L. Geld-
setzer im Nachwort zu: G. Gurvitch, Dialektik und Soziologie, Neuwied 1965, S. 308 – 310.
517

Im Ambiente solcher Denkweisen ist die Psychoanalyse Sigmund Freuds (1856


– 1939) ebenfalls zu einem wichtigen Beitrag zur Konkretisierung des Lebens-
begriffs geworden. In der Nachfolge Herbartscher Lehre vom Dynamismus des
Unbewußten, von Eduard von Hartmanns „Philosophie des Unbewußten“ von
1869, aber auch unter Aufnahme mancher Motive der Schellingschen Naturphilo-
sophie, begründet die Psychoanalyse alle bewußten psychischen Erscheinungen in
der Tiefe unbewußter Triebdynamismen (daher auch ihre Selbstbezeichnung als
„Tiefenpsychologie”), die sie in einer quasi-physikalischen Mechanik expliziert.
Hier erscheint das Leben als nicht weiter hinterfragbarer Quellpunkt von „Trieb-
energien”, der die Stauung, die Ablenkung, das Widerspiel aller Manifestationen
individueller und kulturell stilisierter Verhaltensweisen und Zivilisationsinstitu-
tionen und nicht zuletzt Denkweisen erklären soll. Dabei stellte Freud angesichts
der Zerstörungsorgien des ersten Weltkrieges in der Schrift „Zeitgemäßes über
Krieg und Tod“ von 1915 und in „Jenseits des Lustprinzips“ von 1920 zwei
Grundtriebe: Eros und Todestrieb in den Vordergrund, die ersichtlich nach dem
Vorbild ektropischer und entropischer Energiegesetze entworfen sind. Der Le-
benstrieb des Eros baut auf, differenziert, evoluiert; der Todestrieb nivelliert, zer-
stört, regrediert.
Die Psychoanalyse hat besonders deshalb Aufsehen erregt, weil sie, wie man
mit Goetheschen Worten sagen könnte, „des Lebens Weh und Ach so tausendfach
aus einem Punkte” zu erklären und zu kurieren beanspruchte, nämlich aus dem
Sexualtrieb (Libido) und den Transformationen seiner Energie. Ähnliches Auf-
sehen hatte übrigens auch Carl von Linnés Pflanzensystem im 18. Jahrhundert
erregt, weil es die „unschuldigen” Pflanzen nach ihren Geschlechtsorganen klassi-
fizierte. Dabei setzte der Arzt Sigmund Freud die damaligen medizinisch-klini-
schen und damit biologischen Forschungsresultate bezüglich des Geschlechts-
unterschiedes als selbstverständlich voraus, zog aber daraus erheblich weiter-
reichende Folgerungen über die „psychische Natur“ von Männern und Frauen, als
das vor ihm der Fall war. 385
Die medizinischen Fakultäten halten sich bekanntlich sehr zurück, die Psycho-
analyse in ihren Disziplinenkanon aufzunehmen, obwohl sie sich ansonsten für die
„psycho-somatischen“ Forschungen und Therapien aufgeschlossen zeigen. Auch
Wissenschaftstheoretiker halten sie eher für eine Pseudowissenschaft. 386 Das hat
nicht verhindert, daß sie eine großindustrielle Verbreitung in privaten Instituten,
Kliniken und Verbänden gefunden hat. Vor allem hat sie in allen westlichen Län-
dern die öffentliche Aufmerksamkeit auf das Geschlechterproblem konzentriert
und, wie man sagen kann, erheblich zur „Sexualisierung“ des Öffentlichen und
aller Medien beigetragen. Entsprechend haben sich die Geisteswissenschaften und

385
S. Freud,Vorlesungen zur Einführung in die Psychoanalyse, Wien 1917; ders., Das Unbehagen in der Kultur, Leipzig-
Wien-Zürich 1930.
386
Vgl. A. Grünbaum, Psychoanalyse in wissenschaftstheoretischer Sicht, Konstanz 1978; M. Buzzoni, The Operatio-
nalistic and Hermeneutic Status of Psychoanalysis, in: Journal for General Philosophy of Science / Zeitschrift für
allgemeine Wissenschaftstheorie 32, 2001, S. 131 – 165; A. A. Derksen, The Seven Strategies of the Sophisticated Pseudo-
Scientist: A Look into Freud‟s Rhetorical Tool Box, ibid. S. 329 – 350.
518

insbesondere die Philologien des Geschlechterthemas angenommen (s. u.). Da-


durch empfiehlt sich die Lebensphilosophie in der psychoanalytischen Variante
nunmehr als eine ubiquitär einsetzbare Diagnostik, Anamnese und Therapie aller
echten und vorgeblichen Gebrechen und Leiden dieser Wirklichkeit aus den Ge-
schlechterverhältnissen.
Neben diesen wohl wichtigsten Ausgestaltungen des Lebensbegriffs sind noch
eine Reihe positiver Beiträge der Wissenschaft vom Leben zu nennen, die lebens-
philosophisch universalisiert und heuristisch ausgewertet worden sind. Die biolo-
gische Morphologie (Gestaltlehre) diente in Oswald Spenglers Kulturmorphologie
in seinem vielgelesenen zweibändigen Werk „Der Untergang des Abendlandes“
von 1918 und 1922 als Leitidee. Die mannigfaltigen Verhaltensforschungen an
einzelnen Tierarten etwa von Konrad Lorenz, die Biozönose-Forschungen von
Jakob von Uexküll, werden vielfach auf den Menschen und die Gesamtkultur
übertragen – sie bestätigen die alte Einsicht des Cusaners und des Pico della
Mirandola, daß der Mensch sich die Lebensformen aller Tierarten zum Vorbild
nehmen und manchmal zu eigen machen kann.
Nicht zuletzt gehört zum Einsichtenbestand der Biologie diejenige von der
„Lernfähigkeit” der Organismen, auf der jede Weiterentwicklung beruhen soll.
Wenn aber Lernen ein tief im Leben verankertes Daseinsprinzip ist, so muß das
Folgen für die Verallgemeinerungsfähigkeit pädagogischer Theorien haben. So ist
es kein Wunder, daß die Lebensphilosophie die prominentesten Pädagogen der
ersten Hälfte des 20. Jahrhunderts inspiriert hat: Dilthey selbst gilt als ein Klas-
siker auch in diesem Fache387, dann Eduard Spranger mit seiner Pädagogik der
„Lebensformen”, Theodor Litt, der das „Führen oder Wachsenlassen” themati-
sierte, Hermann Nohl, Otto Friedrich Bollnow und viele andere. Die Terminologie
der Pädagogik selbst verrät viel Bezug zur Biologie oder zumindest dem gärtne-
risch hegenden und pflegenden Umgang mit den Lebensgestalten – vom Kinder-
garten bis zum wissenschaftlichen und Lehrerbildungspflanzgärtlein („Seminar“).
Haben die älteren geisteswissenschaftlichen Pädagogen sich noch auf das junge
und grüne Leben als Objekt ihrer Forschung, Hege und Pflege beschränkt, so
lassen die neueren nunmehr ihre Fürsorge und Bevormundung allen Altersstufen
und Gestalten des Lebens angedeihen. Nicht nur wird jedermann und jederfrau
unter allen Umständen „lifelong learning” zugemutet, vielmehr muß auch jeder,
so lange er lebt, als unmündig gelten, da die Mündigkeit (sprich: Emanzipation) ja
ein Ende der Lernfähigkeit und pädagogischer Vormundschaftskompetenz bedeu-
ten würde.
Diese Version lebensphilosophischer Pädagogik ist zusammen mit psychoanaly-
tischer Bewußtmachungstechnologie und marxistischer Hinterfragungs- und Ent-
hüllungsdialektik zum bevorzugten Instrument politischer Veränderungsstrategien
geworden. Und dabei spielten die Pädagogen eine hervorragende Rolle. Als le-

387
H.-H. Groothoff, Wilhelm Dilthey – Zur Erneuerung der Theorie der Bildung und des Bildungswesens, Hannover
1981.
519

bendige Verkörperung dessen, was zu lernen ist, administrieren sie als „Didak-
tiker“ im Bewußtsein ihres „Lernvorsprungs” der übrigen Bevölkerung den letzten
Stand der Einsichten, den sie als Evolutionsprodukt des Lebens begreifen. Von
den vor allem mit Pädadogen besetzten Akkreditierungsagenturen bis zur OECD
bestimmen sie, was zu lernen und zu wissen notwendig ist, und evaluieren die
Lehrer aller Stufen der nationalen Bildungssysteme. Und da man gemäß der Evo-
lutionstheorie nie wissen und voraussehen kann, ob eine wissenschaftliche Evolu-
tion bzw. Mutation und dementsprechend der Wechsel ganzer Bildungssysteme
lebensdienlich oder katastrophal ausfällt, lassen sie es gerne darauf ankommen
und lehnen jede Verantwortung für die auf Grund ihrer Politikberatung herbei-
geführte Bildungssituation ab.
Proteisch wie das Leben selbst, hat auch die Lebensphilosophie die Neigung,
sich niemals festzulegen, denn das würde Erstarrung und Tod bedeuten.

Der Wissenschaftsbegriff. Wissenschaft ist in erster Linie ein Evolutionsprodukt,


Manifestation und Ausdruck des Lebens selbst. Sie entsteht aus dem Leben, den
Taten und Schriften der „großen Männer” und „großen Frauen“ der Wissenschaft.
Und sie besteht in der lebendigen Kommunikation darüber, was das zu bedeuten
hat. Daher stehen die Geisteswissenschaften paradigmatisch für Wissenschaft
schlechthin. Denn sie befassen sich in ihren historisch-philologischen Disziplinen
mit den in Werken und Texten gleichsam geronnenen und erstarrten Lebensäuße-
rungen, denen sie in permanenten Diskursen zu neuem Leben verhelfen.
Die Wiederbelebung des Abgelebten aus Werken und Texten stellt sich nach
diesem Wissenschaftsbegriff als Verstehen, bzw. als Interpretation, Explikation,
Exegese, Auslegung dessen dar, was sich als Spur des einstigen Lebens der
Autoren in Quellen und Dokumenten erhalten hat. Aus ihnen, so setzt man voraus,
ergibt sich Sinn und Bedeutung, die zu kennen und zu erkennen Anliegen und
Aufgabe der Geisteswissenschaften sei. Sinn- und Symbolverstehen ist daher der
Nerv der Geisteswissenschaften. Hermeneutik als Methode wie als Grundlagen-
theorie steht im Zentrum aller ihrer wissenschaftstheoretischen Reflexionen.
Das reicht von Diltheys Konzept der auf das Verstehen begründeten Geisteswis-
senschaften über Husserls so wirkungsvolles Kapitel über „Ausdruck und Be-
deutung” aus den „Logischen Untersuchungen“ von 1900 - 1901, welches die zu-
grundeliegenden „Erlebnisse” analysiert, über Ernst Cassierers monumentale
„Philosophie der symbolischen Formen” von 1923 - 1929 und seine Studien „Zur
Logik der Kulturwissenschaften”, Martin Heideggers „Sein und Zeit” von 1927,
das die Frage nach dem Sein auf die „Frage nach dem Sinn von Sein” zurückführt,
bis zu Hans-Georg Gadamers „Wahrheit und Methode. Grundzüge einer philo-
sophischen Hermeneutik” von 1960, das die Autorität der Klassiker betont und
den „wirkungsgeschichtlichen“ Durchschlag ihrer Sinnstiftungen auf jedes aneig-
nende und fortbildende „Verstehensvorurteil” dartut. 388
388
W. Dilthey, Die Entstehung der Hermeneutik (1900), in: Ges. Schriften Band 5, Leipzig-Berlin 1924, S. 331: Herme-
neutik als „Hauptbestandteil der Grundlegung der Geisteswissenschaften“; E. Husserl, Logische Untersuchungen, Band 2,
520

Dieser Wissenschaftsbegriff konnte sich auf die beiden dominierenden Wissen-


schaften der neuen „trivialen“ Philosophischen Fakultät berufen. Das waren die
Geschichtsschreibung und die „entwickelnde“ historische Sprachwissenschaft.
Sehen wir genauer zu, was sich aus den beiden Stämmen Philologie und
Historiographie im modernen Konzept von Geisteswissenschaft erhalten hat und
wie sie sich zur Geltung gebracht haben.

In der Sprachwissenschaft der Neuzeit hat sich auf Grund der biblischen Berichte
der Topos einer „adamitischen Ursprache“ erhalten, die erst durch den frevel-
haften Turmbau zu Babel in verschiedene inkommensurable Einzelsprachen zer-
teilt worden sei. Die Renaissancephilologie ging ziemlich selbstverständlich da-
von aus, daß das Griechische die Muttersprache auch der lateinischen Tochter-
sprache sei und versuchte dies durch die zahlreichen offensichtlichen Wortstamm-
identitäten beider Sprachen zu beweisen. Aber dagegen wurde auch immer wieder
auf das Hebräische als biblisch bezeugte Ursprache der Menschheit hingewiesen.
Die Annahme einer gemeinsamen Ursprache der Menschheit und die „Ableitung“
aller anderen Sprachen durch Nachweis von deren „Wurzeln“ in einem gemein-
samen Sprachmaterial gehört zu den Gründungstopoi der neuzeitlichen Sprach-
wissenschaft.
Zu den christlichen Wurzeln des Sprachdenkens gehört auch das neutestament-
liche Pfingstereignis. Es besagt, daß „jeder in seiner Sprache sprach“ und doch
alle sich verstanden. Und das lenkte die Aufmerksamkeit auf den Unterschied
zwischen dem Gemeinsamen und dem Trennenden der verschiedenen Sprachen.
Das Pfingsereignis beschreibt das, was man als die materielle Lautseite vom
dadurch transportierten Sinn von Sprache unterscheidet. Es suggeriert, daß diese
äußere Lautseite, so unterschiedlich sie auch sein mag, in allen Sprachen einen
und denselben Sinn und damit identische Bedeutungen ihrer Elemente in sich
berge.
Die Einheit des Sinnes aller Sprachen wurde durch Platons Ideenlehre Grund-
lage des Sprachdenkens bis zur Hochscholastik, und sie wurde auch Grundlage
späterer idealistischer Sprachphilosophien. Ideen sind hier die Bedeutungselemen-
te. Die verschiedenen Lautsprachen drücken als „Phänomene“ diese Bedeutungen
je verschieden aus. Augustinus hat diese „Sprachtheorie“ in seiner Unterschei-
dung vom „inneren Wort“ und seiner „äußeren Verlautbarung“ festgehalten und
der Nachwelt hinterlassen. Noch Raimundus Lullus setzt diese Lehre in seiner
Missionstätigkeit voraus, als er – jenseits aller Sprachverschiedenheit – den ideel-

Halle 1901, Kap. 1; E. Cassirer, Philosophie der symbolischen Formen, 3 Bände Berlin 1923 – 1929, ND Darmstadt 1973 -
1975; ders., Zur Logik der Kulturwissenschaften, Göteborg 1942, ND Darmstadt 1971; M. Heidegger, Sein und Zeit, Halle
1927, 15. Aufl. Tübingen 1979.; H.-. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik,
Tübingen 1960, 5. Aufl. 1986. - Dazu J. Wach, Das Verstehen. Grundzüge einer Geschichte der hermeneutischen Theorie
im 19. Jahrhundert, 3 Bände, Tübingen 1926 – 1933, ND Hildesheim 1965, sowie E. Betti, Allgemeine Auslegungslehre
als Methodik der Geisteswissenschaften, Tübingen 1967; N. Henrichs, Bibliographie der Hermeneutik und ihrer Anwen-
dungsbereiche seit Schleiermacher, Düsseldorf 1968, 2. Aufl. München 1972.
521

len Gehalt des Neuplatonismus für alle Völker als gemeinsame Welt- und Gottes-
anschauung propagierte.
Auch Leibniz ging ganz und gar auf den Spuren der Lautetymologien aus Pla-
tons Dialog „Kratylos“ und entwickelte daraus ein Programm etymologischer
Wortforschung, das nachmals die vergleichende Sprachforschung mächtig beför-
derte. 389 Aus seiner „Monadologie“ läßt sich jedoch herauslesen, daß die einzel-
nen Monaden bzw. Geister diesen ideellen Sprachsinn nicht in gleicher Weise
„spiegeln“, sondern je nach ontologischem Rang und „Sehepunkt“ der einzelnen
Monade individuell verschieden.
Mit dieser Theorie löste Leibniz die platonische Einheit des Sinnes verschie-
dener Sprachen auf und ersetzte sie durch einen Pluralismus der Stand- und Ge-
sichtspunkte. Den Sinngehalt der „natürlichen“ Sprachen verknüpfte Leibniz mit
den vermeintlich unausgereiften oder weiterentwickelten Zuständen der Einsich-
ten und Denkweisen der alten und neueren Völker.
Um jedoch die Einheit eines „wahren Sinnes“ zu retten, entwickelte er auf der
Grundlage der „lullischen Kunst“ seinen berühmten Vorschlag einer „künstli-
chen“ Characteristica universalis, d. h. einer gänzlich wissenschaftlichen Univer-
salsprache. In diesem Vorbild aller späteren Idealsprachen sollten die Laute bzw.
die Buchstaben und ihre Kombinationen direkt den Sinn der Begriffe aller wissen-
schaftlichen Disziplinen repräsentieren. In ihren Verbindungen untereinander er-
gaben sich dann Kunstwörter (genauer: Buchstabengruppen), welche die aus den
axiomatischen Grundbegriffen abgeleiteten spezielleren Begriffe der Einzelwis-
senschaften durch die einzelnen Buchstaben innerhalb der Kunstwörter repräsen-
tierten.
Für einen besonderen Vorzug seiner Characteristica universalis hielt er es, daß
man sich – wie in der Mathematik der Buchstabenrechnungen – bei der einmal
festgelegten Bedeutung der Begriffe davon entlasten konnte, sich deren Bedeu-
tung immer wieder in Erinnerung zu bringen. Leibniz verglich diesen „Sprach-
gebrauch“ der künstlichen Sprache mit dem Geld- und Wechselverkehr, bei dem
man sich getrost auf den kurranten Wert der Rechnungseinheiten verlassen könne,
ohne stets jeden einzelnen Handel abrechnen zu müssen, wenn nur die Schlußab-
rechnung stimme.
Bekanntlich hat Leibnizens Charakteristica universalis als nicht gesprochene,
sondern nur geschriebene Idealsprache zunächst weitere Versuche ihrer Verbesse-
rung hervorgerufen, so bei G. Dalgarno und J. Wilkins. 390 Als „Idealsprache“ ist
ihre Programmatik danach gänzlich aus der disziplinären Sprachwissenschaft bzw.
Linguistik ausgeschieden. Dafür wurde sie zur Domäne der Mathematiker.

389
G. W. Leibniz, Unvorgreifliche Gedancken betreffend die Ausübung und Verbesserung der Teutschen Sprache (1717),
daraus „Über das Wesen der Sprache“ und „Etymologie“, in: H. Junker (Hg.), Sprachphilosophisches Lesebuch, Heidel-
berg 1948, S. 24 – 38.
390
J. Wilkins, Essay towards a Real Character and a Philosophical Language, London 1668; G. Dalgarno, Ars signorum,
London 1691 . - Vgl. dazu L. Couturat und L. Léau, Histoire de la langue universelle, Paris 1903, 2. Aufl. 1907.
522

Wilhelm von Humboldt trat mit seiner idealistischen Sprachtheorie später noch
einmal in die Spuren von Leibniz. Und deshalb wurde er von den seinerzeitigen
Realisten kaum verstanden, wenn er auch wegen seiner umfassenden Kenntnis
fast aller Hauptsprachen der Welt, worin ihm keiner der damaligen Sprachforscher
gleichkam, sehr bewundert wurde.
Seinen idealistischen Begründungsansatz dürfte W. v. Humoldt von Fichte über-
nommen haben, obwohl er diesen nicht erwähnt. Wie nämlich Fichte die Logik
aus der freien Setzungstätigkeit des Geistes deduziert, so Humboldt in Parallele
dazu die Sprache. Sprache ist ihm eine „Energie des Geistes“ – er hätte ebenso gut
Fichtes „Urtathandlung“ dafür in Anspruch nehmen können. Und das bedeutet,
daß die Sprache wesentlich nur im einzelnen Sprechakt wirklich existiert. Und
wie bei Fichte der Geist im „Setzen“ des Selbst („Ich“, Subjekt) und im Ent-
gegensetzens des Anderen („Nicht-Ich“ bzw. Natur, Objekt) und sodann in
weiteren Einteilungen und Unterscheidungen die logischen allgemeinen und be-
sonderen „Begriffe“ erzeugt, so erzeugt sich die sprachliche „Energeia“ als
„Organ des Geistes“ durch die freie Wahl von artikulierten Lauten alle inhalt-
lichen Sprachelemente, in denen der Geist sich selbst und alles, was er sich zum
Gegenstand macht, ausdrückt und versteht.
Darauf, daß die Sprache nicht in der geronnen Gestalt von Texten und Literatur
aufgeht, sondern im jedesmaligen Sprechen besteht, legte von Humboldt den
allergrößten Wert. 391 Das unterscheidet seine Sprachauffassung von allen zeitge-
nössischen und auch späteren Sprachtheorien.
Die erste Lautwahl des (monadischen) Geistes, die sich in den Etymologien der
Sprachfamilien zeigt und perpetuiert, legt ein für allemal ein Schema des Ge-
brauchs einer bestimmten „Muttersprache“ fest. Sie wird für die Sprachgenossen
zur „Zwischenwelt“ zwischen der Welt der geistigen Energeia und der sinnlichen
Wahrnehmungswelt. Jede Muttersprache bestimmt durch ihre Lautwahlen für ihre
Wörter und ihre grammatischen Formen eine „innere Form“, die sowohl die Gei-
ster einer Sprachgemeinschaft wie jedes zugehörigen Individuums prägt und die
Verständnismöglichkeiten ihrer „Weltansichten“ präjudiziert. Diese Theorie von
der „sprachlichen Zwischenwelt“ ist von den US-amerikanischen Sprachforschern
Benjamin L. Whorf (1897 -1941) Edward Sapir (1884 – 1939) wieder aufgenom-
men worden, die sie in der angelsächsischen Sprachwissenschaft als „Sapir-
Whorfsche Hypothese“ verbreiteten.

391
W. v. Humboldt, Über die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluß auf die geistige Ent-
wicklung des Menschengeschlechts (1836): „Die Sprache, in ihrem wirklichen Wesen aufgefaßt, ist etwas beständig und in
jedem Augenblicke Vorübergehendes. Selbst ihre Erhaltung durch die Schrift ist immer nur eine unvollständige, mumien-
artige Aufbewahrung, die es doch erst wieder bedarf, daß man dabei den lebendigen Vortrag zu versinnlichen sucht. Sie
selbst ist kein Werk (Ergon), sondern eine Tätigkeit (Energeia). Ihre wahre Definition kann daher nur eine genetische sein.
Sie ist nämlich die sich ewig wiederholende Arbeit des Geistes, den artikulierten Laut zum Ausdruck des Gedankens fähig
zu machen. Unmittelbar und streng genommen, ist dies die Definition des jedesmaligen Sprechens; aber im wahren und
wesentlichen Sinne kann man auch nur gleichsam die Totalität dieses Sprechens als die Sprache ansehen“; zit. nach H.
Arens, Sprachwissenschaft. Der Gang ihrer Entwicklung von der Antike bis zur Gegenwart 2. Aufl. Freiburg-München
1969, S. 206. Hier auch weitere Humboldt-Texte S. 172f, S. 179 - 187, S. 206 - 218.
523

Im Gedanken von der „inneren Form“ knüpfte von Humboldt an den leibniz-
schen Perspektivismus der Monaden an. Und wie Leibniz den daraus resultieren-
den Relativismus und Pluralismus der Weltanschauungen durch die künstliche
Idealsprache konterkarierte, so von Humboldt durch die These, daß man nur durch
das Erlernen von Fremdsprachen aus den Einseitigkeiten der Muttersprache
herauskommen und zur Viel- oder Allseitigkeit eines universalen Weltbildes ge-
langen könne. Und so konnte Wilhelm von Humboldt auch die These vertreten,
daß alle Sprachen trotz ihrer Verschiedenheit zugleich nur eine einzige Sprache
der Menschheit seien.
Gegenüber dieser im Kontext des deutschen Idealismus entwickelten Sprach-
theorie von Humboldts entwickelte sich die Sprachwissenschaft der Philosophi-
schen Fakultät in der zweiten Hälfte des 19. Jahrhunderts jedoch im Rahmen der
realistischen metaphysischen Voraussetzungen des Aristoteles und der Stoa.
Platons Schüler Aristoteles hatte die platonische Unterscheidung von Sprach-
lautung und Sinngehalt grundsätzlich festgehalten. Aber er begründete sie anders
als Platon. Für ihn waren die Ideen „zweite Substanzen“, die auf der Grundlage
gemeinmenschlicher Erfahrung von „ersten Substanzen“ als deren Abbilder in je-
dem Bewußtsein erscheinen. Dieselben Abbilder der ersten Substanzen werden
jedoch in den verschiedenen Sprachen durch deren Laute und Schriftzeichen ver-
schieden repräsentiert. 392
Diese aristotelische Sprachlehre trat mit der Wende zum Aristotelismus in der
Hochscholastik in den Vordergrund des Sprachdenkens. Das Interesse wandte sich
gemäß seiner realistischen Erkenntnistheorie der realen Welt und damit der Ver-
schiedenheit der Laut- und Schriftsprachen als Bestandteilen der sinnlich wahrge-
nommenen Realität zu. Gleichwohl erhielt sich auch die Überzeugung, daß durch
Vergleich und Übersetzungen von Laut- und Schriftsprachen so etwas wie ein
gemeinsamer Sinngehalt und eine gemeinsame Bedeutung ihrer Elemente festzu-
stellen sei.
Die neuzeitliche Empirie der Sprachenkenntnis suchte nunmehr auf verschie-
denen Wegen die Einheit des Sinnes aller Sprachen aus ihrer lautlichen Vielfalt,
nicht mehr aus den sie erzeugenden geistigen Kräften, zu induzieren. Hierzu boten
sich die Ähnlichkeiten und Verwandtschaften zwischen einigen von ihnen, insbe-
sondere der klassisch-antiken und neuerer romanischer und germanischer Spra-
chen als Ausgangsphänomene an.
Die Herleitung neuerer Sprachen von älteren Vorgängersprachen führte gleich-
sam von selbst zu einer historisch-entwickelnden Sprachbetrachtung in Fortset-
zung der stoischen „Etymologie“. Und dies lange bevor der Entwicklungsgedanke
in der Geschichtsschreibung angewandt wurde.

392
Aristoteles, Peri hermeneias / De interpretatione, hgg. v. P. Gohlke, Paderborn 1951, S. 86.: „Die Sprache ist Zeichen
und Gleichnis für die seelischen Vorgänge, die Schrift wieder für die Sprache. Und wie nicht alle dieselben Schriftzeichen
haben, bringen sie auch nicht dieselben Laute hervor. Die seelischen Vorgänge jedoch, die sie eigentlich bedeuten sollen,
sind bei allen die gleichen, und auch die Dinge, die jene Vorgänge nachbilden, sind die gleichen“.
524

Auch dazu diente die Vorstellung von der „adamitischen Ursprache“ und ihrer
Aufteilung gemäß den Söhnen des Noah, nämlich Sem, Ham und Japhet nach der
biblischen Sintflut zur Unterscheidung der semitischen, arabischen und europäi-
schen Sprachstämme als Vorlage.
Am auffälligsten bewährte sich diese Betrachtungsweise, nachdem zu Beginn
des 19. Jahrhunderts das indische Sanskrit und seine Literatur vor allem durch
Friedrich Schlegel und seinen Bruder August Wilhelm Schlegel im Westen
bekannter gemacht wurde.393 Die Folge war der Aufstieg der Indogermanistik mit
dem Forschungsprogramm, die Genealogie der germanischen, romanischen und
slawischen aus einer noch vor-sanskritischen Ursprache zu rekonstruieren. 394 Daß
es neben diesem Sprachtypus noch andere Sprachstämme gab, die nicht darauf
zurückgeführt werden konnten, war längst bekannt. Diesen Sprachfamilien wid-
mete sich sodann die vergleichende Sprachwissenschaft.
Die dazu entwickelten Kategorien stellten sich als Unterscheidung isolierender,
agglutinierender und flektierender Sprachtypen dar, auf welche und innerhalb
derselben ebenfalls der Entwicklungsgedanke zur Anwendung gebracht wurde.
Bis ins 20. Jahrhundert hielt sich die Vorstellung, daß der isolierende Sprach-
typus, für den das Chinesische als Hauptbeispiel galt, die älteste Entwicklungsstu-
fe darstelle. Aus diesem sollte sich zunächst durch Verknüpfung einzelner Wörter
untereinander (Wörter werden miteinander „verklebt“) der agglutinierende, dann
durch Wandlungen des Vokalismus („Beugungen“) und Präfixe und Suffixe an
den Stammwörtern der flektierende Typus ergeben. Die Übergänge innerhalb die-
ser Typen und der Sprachtypen selbst wurden auf „Lautgesetze“ zurückgeführt,
mit denen man nach dem Vorbild naturwissenschaftlicher Gesetze die Verände-
rungen im Lautbestand der Sprachen entwickelnd beschrieb.
Mit der darwinischen Entwicklungslehre erhielt die adamitische These eines ge-
meinsamen Stammbaums aller Sprachen neuen Auftrieb. Sie beherrschte die
zweite Hälfte des 19. Jahrhunderts. Ihr Hauptvertreter, der geradezu die darwi-
nisch-biologistische Entwicklungsterminologie in der Sprachwisssenschaft ein-
führte, war August Schleicher. 395 An ihn schlossen die deutschen „Junggrammati-
ker“ an, die zugleich entwickelnde und vergleichende Sprachwissenschaft der
großen Sprachfamilien der Welt in Angriff nahmen.
Der um die Wende zum 20. Jahrhundert führenden deutschen historischen und
vergleichenden Sprachwissenschaft trat jedoch kurz nach der Wende zum 20.

393
F. Schlegel wirkte vor allem durch sein Buch „Über die Sprache und Weisheit der Inder“, 1808, sein Bruder Aug. W.
Schlegel durch seine Ausgabe der „Bhagavat-Gita“, Bonn 1823, und des „Ramayana“ – Werkes, Bonn 1829 – 1846. Letz-
terer hatte auch die erste Professur für Sanskritstudien an der damals neuen Universität Bonn inne.
394
Zur Entwicklung der allgemeinen Sprachwissenschaft im 19. Jahrhundert vgl. Holger Pedersen, The Discovery of
Language. Linguistic Science in the 19th Century (aus dem Dänischen übersetzt von John Webster Spargo), 5. Aufl. Bloo-
mington-London 1972; auch H. Arens, Sprachwissenschaft. Der Gang ihrer Entwicklung von der Antike bis zur Gegen-
wart, 2. Aufl. Freiburg-München 1969. Arens betont im Nachwort Ziel und Zweck der Sprachwissenschaft: „Es ist im
Grunde der exemplarisch menschliche Versuch, die Struktur des Lebens selbst zu erfassen und so am Ende auch den Men-
schen besser zu erkennen“ (S. 739).
395
A. Schleicher, Über die Bedeutung der Sprache für die Naturgeschichte des Menschen, Weimar 1865, in: H. Junker
(Hg.), Sprachphilosophisches Lesebuch, Heidelberg 1948, S. 186 – 191.
525

Jahrhundert eine Alternative entgegen. Ausgangspunkt für diese Wendung waren


die Vorlesung des Genfer Sprachforschers Ferdinand de Saussure (1857 – 1913),
die als „Cours de linguistique“ 1916 postum herausgegeben wurden. 396 Das Werk
stellte eine „synchronische“, den jeweils gegenwärtigen Sprachzustand erfor-
schende Konzeption von Sprachwissenschaft der bis dahin herrschenden „diachro-
nischen“, d. h. historischen Sprachentwicklung erforschenden Sprachwissenschaft
gegenüber.397
Obwohl de Saussure im dritten Teil seines Werkes auch sehr ausführlich auf
die diachronische Sprachwissenschaft eingeht, die er während seines Studiums in
Leipzig und Berlin bei den deutschen Meistern des Faches studiert hatte – er
schloß das Studium mit seiner Leipziger Promotion 1881 ab - hat man seinen we-
sentlichen Beitrag doch stets als synchronische Linguistik gewürdigt und daran
angeknüpft. Dies führte zu einem „Paradigmawechsel“ in der Sprachwissenschaft.
Das neue synchronische Sprachkonzept trägt der Tatsache Rechnung, daß die
jeweils lebende Generation von Sprachgenossen nur vom jeweils gegenwärtigen
Sinngehalt der Wörter ein Bewußtsein besitzen, während jeder frühere (etymo-
logische) Sinngehalt grundsätzlich ins Vergessen versunken ist. Etymologisches
Wissen um frühere Wortbedeutungen sind eine Sache der Sprachgelehrten, nicht
der aktuellen Sprachgemeinschaft.
Seine neue Konzeption nannte de Saussure „Semiologie“: die „Wissenschaft
von den sprachlichen Zeichen“. Sprachliche Zeichen waren hier im Gegensatz zur
üblichen Auffassung, daß es sich dabei um Laute oder Schriftzeichen handele, als
„etwas im Geiste tatsächlich Vorhandenes, das zwei Seiten hat“ definiert. Das
sprachliche Zeichen ist nach de Saussure ein Bewußtseinsphänomen „im Gehirn“.
Es assoziiert ein „Lautbild“ (image auditive, image acoustique) mit einer „Vor-
stellung“ der jeweiligen Wortbedeutung. Das Lautbild ist selbst eine erinnernde
Vorstellung des geschriebenen Wortes und/oder seiner Aussprache bzw. Lesung.
Es wird „signifiant“ (Bezeichnendes) genannt. Die Vorstellung der Wortbedeu-
tung heißt „signifié“ (Bezeichnetes). Ihre Verknüpfung im Bewußtsein soll „belie-
big“ (arbitraire) sein, gemeint ist: konventionell innerhalb der jeweiligen Sprach-
gemeinschaft. Daß de Saussure das Zeichen für ein Bewußtseinsphänomen hält,
versteht sich daher, daß er strikt zwischen Sprache (langue) als systematischem
Strukturzusammenhang, und gesprochener Sprache (parole), die den Bezug auf
die Wirklichkeit herstellt, unterscheidet.
Diese Theorie knüpfte an J. Lockes „Zeichenlehre“ an und wurde danach in der
Linguistik fast allgemein vertreten.398 Sie empfahl sich vor allem durch die Über-
396
F. de Saussure, Cours de linguistique générale (Vorlesungen seit 1906), hgg. von C. Bally und A. Sechehaye, Paris-
Lausanne 1916, 4. Aufl. hgg. v. Tullio de Mauro, Paris 1995; dt. Übers.: Grundfragen der allgemeinen Sprachwissenschaft,
Berlin-Leipzig 1931, 2. Aufl. Berlin 1967.
397
F. de Saussure, Cours de linguistique générale, Paris 1995, S. 175: “L‟opposition entre les deux points de vue –
synchronique et diachronique – est absolute et ne souffre pas de compromis.” - Vgl. G. Helbig, Geschichte der neueren
Sprachwissenschaft unter dem besonderen Aspekt der Grammatik-Theorie, Leipzig 1971, 2. Aufl. München 1973. Helbig
läßt die „neuere Sprachwissenschaft“ geradezu mit F. de Saussure beginnen.
398
Vgl. dazu S. Meier-Oeser, Art. „Signifikation“, in: J. Ritter und K. Gründer (Hg.), Historisches Wörterbuch der Philo-
sophie, Band 9, Basel 1995, Sp. 759 – 795.
526

nahme des mathematischen Strukturkonzeptes aus den exakten Wissenschaften


und seine Anwendung auf die Lautverhältnisse der Sprachen. Es verschaffte der
„allgemeinen Linguistik“ das Ansehen einer exakten Naturwissenschaft. Was
jedoch Sinn und Bedeutung als „Vorstellungen im Bewußtsein“ selbst sind und
wie sie zustande kommen, darüber gibt es hier keine Auskunft.
Für das neue Forschungsprogramm galt es nunmehr, die Unterscheidung der
Lautzeichen („signifiants“) im Sprachgebrauch von Sprachgemeinschaften („paro-
le“) zu registrieren und die dadurch bewirkte Differenzierung von mentalen Laut-
bildern („signifiés“) zu beschreiben. Sodann galt es, ihre gegenseitigen Beeinflus-
sungen in einem Strukturgebilde darzustellen, das man dann als „Sprachsystem“
(„la langue“) auffaßte. Die neue Richtung wurde dann auch als „Strukturalismus“
bezeichnet. 399
Es waren vor allem französische Philosophen, die der husserlschen Phänome-
nologie und der heideggerschen Existentialphilosophie nahestanden, die das Kon-
zept de Saussures wie eine Offenbarung aufnahmen. Der husserl-heideggersche
Schlachtruf „Zu den Sachen selbst“ schien sich nun auch auf diesem Gebiet in die
Tat umsetzen zu lasssen. Die strukturalistische Phonologie beschrieb alles, was
den Lautbestand der Sprache ausmachen sollte, machte alle anderen sprachlichen
Erscheinungen uninteressant und ließ für eine phänomenologische „Wesensschau“
nur die differentielle Struktur des phonetischen Materials der Sprache übrig.
Getreu dem Anspruch de Saussures, daß die „Semiologie“ eine Wissenschaft
sei, „welche das Leben der Zeichen im Rahmen des sozialen Lebens unter-
sucht“,400 wurde ihr Strukturmodell der Beziehungen von „signifiant“ und „signi-
fié“ auf zahlreiche nichtsprachliche Bereiche übertragen. So durch Claude Lévi-
Strauss auf die Verwandtschaftsbeziehungen und die Mythen in den Populationen
der Ethnologie, durch Maurice Merleau-Ponty auf eine neue „Phänomenologie“
der Sozial- und Geschichtswissenschaft, von Roland Barthes auf die „Kodes
supratextueller Bedeutungen“, von Jacques Lacan auf die Gegenstände der Psy-
choanalyse, von Paul Ricoeur auf die Weiterentwicklung der französischen
Existenzphilosophie zu einer Hermeneutik der Vermittlung („médiation“) von
Existenz und Welt. Und auch noch Michel Foucault legte sie seiner „Diskursana-
lyse“, d. h. der Erforschung der „Regeln“ intellektueller und historischer Entwick-
lungen zugrunde.
Besonders weitreichende Anwendung der saussureschen Semiologie werden in
den meist von FeministInnen und für sie an zahlreichen Hochschulen etablierten
Genderstudien vorgenommen.401
399
Zur Entstehung und zu den Stationen der Ausgestaltungen vgl. J. M. Broekman, Strukturalismus. Moskau – Prag –
Paris, Freiburg-München 1971.
400
F. de Saussure, Cours de linguistique générale, Paris 1995, S. 33: “La langue est un système de signes exprimant des
idées, et par là, comparable à l‟écriture, à l‟alphabet des sourds muets, aux rites symboliques, aux formes de politesse, aux
signaux militaires, etc. etc. Elle est seulement le plus important des ces systèmes. On peut donc conçevoir une science qui
étudie la vie des signes au sein de la vie sociale”.
401
Zum gegenwärtigen Stand der Genderstudien in Deutschland und im deutschsprachigen Europa vgl. die Beiträge in
Forschung und Lehre 11/14, S. 880 – 897. Aus einer „Berliner Datenbank Genderprofessuren“ geht hervor, daß es an den
deutschen, österreichischen und schweizerischen Universitäten und Fachhochschulen derzeit 223 Genderprofessuren gibt,
527

Auch die Genderstudien sind aus den lebensphilosophischen Wurzeln er-


wachsen. In der „weiblichen Existenz“ soll sich das weibliche Wesen in genuiner
Weise und nur den Frauen selbst offenbaren. In vielen Sprachen finde es im
weiblichen Wortgeschlecht (genus femininum) der Substantiva keinen oder nur
unzulänglichen Ausdruck, während das genus masculinum überall dominiere: bis
zur Identifizierung der Wortbedeutungen von „Mann“ und „Mensch“ (franz.
Homme = Mensch und zugleich Mann).
Simone de Beauvoir schrieb das Buch „Das zweite Geschlecht“ als eine Anthro-
pologie der Frauen. Sie ging davon aus, daß ihre Beschreibung - von der Wiege
bis zur Bahre und im Spiegel der Human- und Literaturwissenschaften - eine
gänzlich neue Sicht auf das Wesen des Weiblichen darbiete. Alle bisherigen
Theorien über die Frauen seien dagegen grundsätzlich durch die patriarchalische
Männersprache und die darin transportierten Männerphantasien über das Weib-
liche verfehlt. 402 Die Frau erscheint bei de Beauvoir als „kastrierter Mann“. Sie
kann dieser Festlegung nur entgehen, wenn, wie sie meinte, im hohen Alter das
Geschlecht keine Rolle mehr spiele und die Frauen selber Männer werden.
Seither haben viele Frauen ihre Bestimmung in der Nachahmung der Männer
gefunden - und damit die Dominanz des männlichen Lebensmodells eher bestärkt.
Die Genderstudien jedoch haben alle anthropologischen und existenzphiloso-
phischen Thesen über den Menschen als „phallozentrische Ideologie“ einer männ-
lich dominierten Natur- und Geisteswissenschaft kritisiert, aus welcher das weib-
liche Geschlecht in seiner nur von den Frauen selbst erlebbaren Wirklichkeit aus-
geschlossen sei.
Das hat bekanntlich in Deutschland schon zu gesetzlichen Sprachreformen ge-
führt, durch die jeder maskulinen Gattungsbezeichnung eine oft neu gebildete fe-
minine Form zur Seite gestellt werden muß, wenn nicht gar die maskulinisch klin-
genden Wörter aus der Sprache ausgetilgt werden. Alles offizielle Schrifttum muß
nunmehr stets die weibliche und männliche Personenbezeichhnung explizit benen-
nen. Viele schreiben deshalb jetzt statt „man“ (das phonetisch genau so ausge-
sprochen wird wie „Mann“) „die Person“. 403
Inzwischen ist dieser Standpunkt von der US-amerikanischen Professorin für
Rhetorik und Komparatistik Judith Butler überboten worden.404 Nach ihr sind alle
Aussagen über die „substantielle Identität“ von jeweils Männern und Frauen

von denen zehn mit Männern besetzt sind. In Deutschland finden sich die meisten Genderprofessuren in den Sozial-
wissenschaften (26), in den Erziehungswissenschaften (18) und in den Literaturwissenschaften (15). Die meisten dieser
Professuren hält Nordrhein-Westfalen mit 40, Berlin mit 36 Stellen vor. (vgl. S. 890f.).
402
S. de Beauvoir, Le deuxième sexe, 2 Bände, Paris 1949 u. ö., gekürzte dt. Übersetzung: S. de Beauvoir, Das andere
Geschlecht, Hamburg 1960, S. 94 und S. 147: „Man kommt nicht als Frau zur Welt, man wird es. Kein biologisches,
psychisches, wirtschaftliches Schicksal bestimmt die Gestalt, die das weibliche Menschenwesen im Schoß der Gesellschaft
annimmt … Im Mann und nicht in der Frau hat sich bis jetzt der Mensch ‚an sich„ verkörpern können.“
403
Im jüngeren angelsächsischen Schrifttum wird das maskuline Pronomen he politisch korrekt durch das weibliche she
ersetzt. Das erweckt den Anschein, als gäbe es keine männlichen Autoren mehr.
404
J. Butler, Gender Trouble: Feminism and the Subversion of Identity, New York 1990, dt. Übers. Das Unbehagen der
Geschlechter, Frankfurt a. M. 2003; dies., Undoing Gender, 2004, dt. Übers. Die Macht der Geschlechternormen und die
Grenzen des Menschlichen, Frankfurt a. M. 2009. – Dazu Therese Frey Stoffen u. a., Gender Studien. Wissenschaftstheo-
rien und Gesellschaftskritik, Würzburg 2004; Franziska Schößler, Einführung in die Gender Studies, Berlin 2009.
528

grundsätzlich fragwürdige „binäre Codierungen“. Männliche und weibliche Be-


zeichnungen sind rein sprachliche Konstrukte, die mit der Wirklichkeit nichts zu
tun haben. Damit eröffnet Butler weite Spielräume für selbstgewählte Ge-
schlechtsformen des „Queer-Seins“, was durch das sprachliche „Neutrum“ der
alten und vieler neuerer Sprachen schon vorgegeben erscheint. Daß nicht alle
Feministinnen mit dieser extremistischen These einverstanden sind, liegt auf der
Hand.
Besonders in Deutschland und in den USA ging der Strukturalismus enge Verbin-
dungen mit Ludwig Wittgensteins „Theorie der Sprachspiele“ und der „Familien-
ähnlichkeit der Begriffe“ aus seinen „Philosophischen Untersuchungen“ von 1953
ein. Danach sollte sich (semantischer) Sinn und Bedeutung von Wörtern „aus dem
Gebrauch“ bzw. der Verwendung der Wörter in „Sprachspielen“ ergeben. Der
Sprachgebrauch als „Spiel mit Worten“ wurde hier gewöhnlich als das, was de
Saussure „parole“ (Sprachgebrauch) genannt hatte verstanden.
Das brachte zusätzliche Verwirrungen in den lebensphilosophischen Wissen-
schaftsbegriff. Auch bei den Wissenschaftstheoretikern der „normalen Sprache“
(ordinary language philosophy) war alles Wissen an die Gemeinsprache gebun-
den. Wittgenstein hat in seiner späteren Hauptschrift Sprache als „Ausdruck von
Lebensformen“ definiert. Darunter darf man kollektive Verhaltensweisen ver-
stehen, zu denen auch der Gebrauch der Sprache als Kommunikationsmittel
gehört. Pessimistisch wie Schopenhauer und viele Feministinnen sah auch
Wittgenstein in den Sprachgebräuchen verbreitet krankhafte Veränderungen bis
hin zur „Verhexungen“ und „Verblendungen“ des Denkens durch die Sprache, die
das Philosophieren und die Wissenschaften beeinträchtigen. Wozu offensichtlich
die Anwendung seiner Sprachgebrauchstheorie bei den Wittgensteinianern nicht
wenig beigetragen hat.
Auch Wittgenstein ließ Wissenschaft im „therapeutisierten“ Sprachgebrauch
aufgehen. Sinn und Bedeutung sind jedoch bei ihm weder mentale Abbilder von
Sachverhalten und Gegenständen, noch Gegenstände selber, und auch nicht men-
tale Lautbilder, schon gar nicht geistige Gebilde. Es sind antrainierte Lebens-
formen des „Regelbefolgens“ bei der Wortwahl und bei der grammatisch-syntak-
tischen Verbindung von Wörtern zu Sätzen. Man könnte auch sagen: Sprachsinn
ist hier nichts anderes als sprachliche Etikette der individuellen und öffentlichen
Rede.
Das paßte gut zum angelsächsischen Pragmatismus. Es reduzierte jedoch die
Sprache und mit ihr Wissenschaft auf pure soziale „Performanz“, wie sich alsbald
bei den Verehrern Wittgensteins zeigte. Das Konzept paßt offensichtlich auch auf
jede inhaltslose politische Rede, auf das alltägliche „how are you?“, auf poetische
Ergüsse, auf das sich überbietende Interpretieren des Interpretierten in den Philo-
logien und nicht zuletzt auf die Zeichenmanipulationen in der Mathematik und
Logik, wenn sie nur irgend einer Regel folgen. Aber auch das Regelbefolgen
führte, wie Wittgenstein selbst bemerkte, auf das Regelverstehen zurück. Und
dieses eröffnet stets Spielräume für beliebige Artikulationen. Denn selten lassen
529

sich Regeln (und Normen allgemein) so formulieren, daß sie nur eine einzige Art
der Befolgung zulassen.
Der Strukturalismus wie auch der „Performatismus“ (wie man die Sprachge-
brauchstheorie nennen könnte) konstituierten beide ihre wissenschaftlichen Ob-
jekte im jeweils aktuellen Sprechen und Benutzen der Sprachen. Das fixierte die
Aufmerksamkeit auf das Reden und Hören, wie man ihnen im modernen Wis-
senschaftsbetrieb in der Lehre und auf den Symposien und Kongressen exem-
plarisch begegnet. Es war zu erwarten, daß sich Protest dagegen melden würde.
Was war mit den sogenannten toten Sprachen, die ganz außer Gebrauch geraten
waren, und deren Verständnis doch Grundlage der Entwicklung der neuzeitlichen
Philologie selbst war. Und was war mit den ungeheuren Textmassen, die sich in
den Bibliotheken, Archiven, Datenbanken und Computerdateien anhäuften, die
doch den stolzesten Besitz der Geisteswissenschaften ausmachen?
Es war Jacques Derrida (1930 – 2004) der den linguistischen Strukturalismus
durch das, was er „Dekonstruktion“ nannte, sowohl zu verbessern als auch zu
konterkarieren versuchte. Seine Freunde und Anhänger haben daraus die neue
Methode des „Dekonstruktionismus“ in der Linguistik und Literaturwisenschaft
gemacht.
Seine als Destruktion des strukturalistischen Paradigmas vorgetragene Interven-
tion kritisierte die bisherige Sprachwissenschaft als puren „Logozentrismus“. Da-
mit meinte er – es ist jedoch hier wie bei den meisten seiner Innovationen schwer
herauszufinden, was er eigentlich meinte - , daß alles Sprachdenken fälsch-
licherweise von bestimmten Bedeutungsidentitäten nach dem Muster der „logoi“
(worunter er vermutlich definierte Begriffe verstand) ausgehe. Das Argument
trifft ersichtlich auf alle diejenigen Sprachtheorien zu, die davon ausgehen, daß
die Logik und insbesondere die Begriffslogik das Strukturprinzip der Sprachen
schlechthin sei, und daß daher so etwas wie Sprachlogik überhaupt Grundlage
aller Logiken sei. Das wurde allerdings schon vorne als Irrtum dargetan.
Mit der Logozentrismusthese hob Derrida die von de Saussure herausgearbeitete
Beziehung zwischen Zeichen und Bezeichnetem (signifiant und signifié) auf. Für
Derrida gibt es nur Zeichen. Was Saussure und die Sprachwissenschaft bislang
noch Bezeichnetes bzw. Bedeutung nannten, ist nur ein anderes Zeichen. Die
Gesamtheit der Zeichen bestimmt Derrida nunmehr als „Text“. Das geht weit über
schriftliche Lautfixierung hinaus. „Das, was ich Text nenne, ist praktisch alles. Es
ist alles, das heißt, es gibt einen Text, sobald es eine Spur gibt, eine differentielle
Verweisung von einer Spur auf eine andere“ 405
Mit der Text-These wird die Sprache zum Instrument einer permanenten Ver-
gegenwärtigung von Gedanken gemacht. Diese „Präsentifikation“ sah Derrida
auch in Husserls (und Augustinus„) Konzept vom Zeitbewußtsein, das ja in erin-
nernden Retentionen und vorgreifenden Protentionen sowohl alle Vergangenheit

405
Zit. nach P. Engelmann, Postmoderne und Dekonstruktion, Texte französischer Philosophen der Gegenwart, Stuttgart-
Bad Cannstatt 2004, S. 20.
530

wie die Zukunft in Gegenwart verwandelt.406 Dem phonologischen momentanen


Wesenshören gesprochener Sprache stellt Derrida damit eine Buchstabenschau
gegenüber, die er „Grammatologie“ nannte. 407
Er demonstrierte das, indem er neben das französische Wort „différence“, das ja
ein Schlüsselterminus de Saussures für die Unterscheidungsfunktionen der Phone-
me war, das Wort „différance“ stellte, das ebenso lautet, aber nur in seiner Schrift-
gestalt von „différence“ unterscheidbar ist. 408 Die „differance“ ersetzt die saussu-
resche „difference“ von signifiant und signifié.
Inzwischen hat man nach Hinweisen Derridas dem neuen Terminus différance
die Bedeutung von „Aufschub“ und „Verzögerung“ zugeschrieben. Woran sich
eine noch anhaltende Diskussion entzündete, ob und wie sich der Aufschub bzw.
die Verzögerung als neue Qualität von geschriebenen Texten interpretieren lasse,
die ihnen, die in der Regel früher geschrieben als gelesen werden, eine Art Un-
sterblichkeit in den sie interpretierenden Nachfolge-Texten verleihen.
Die Pointe dieser neuen Sicht war, daß dieser Aufschub der (husserlschen)
„Bedeutungserfüllung“ in den Texten jeden Text mit einem Subtext versah, in
welchem sich etwas „Ungesagtes“ verberge, das gerade die eigentliche Bedeutung
eines Textes ausmachen sollte. Diese These Derridas machte seine Texttheorie
interessant für die Hermeneutiker, die nun im „Ungesagten“ der Subtexte (die
auch „Hypertexte“ sein können) den wahren Hintersinn hinter dem Literalsinn der
Text wiederfinden sollten. Dieser Hintersinn wurde für Derridas Anhänger zum
eigentlichen Skopos aller Textinterpretationen.
Die textliche Verwendung von „Begriffen“ (logoi) zeigt nach Derrida stets eine
„gewaltsame Hierarchie“ an, in welcher ein dominierender Begriff einen Ge-
genbegriff konstituiert oder wenigstens erahnen läßt, der den ungesagten wahren
Sinn enthält. „Einer der beiden Ausdrücke beherrscht (axiologisch, logisch usw.)
den anderen, steht über ihm. Eine Dekonstruktion des Gegensatzes besteht zu-
nächst darin, im gegebenen Augenblick die Hierarchie umzustürzen“.409
Derrida nennt diesen Interpretationskanon Umkehrung bzw. Verschiebung.
Hauptbeispiel ist hier etwa die Opposition von gesprochener Sprache und Schrift
selbst, die die wahre Bedeutung von Schrift als Text bisher verdeckt habe. Nicht
anders verhalte es sich dann bei Oppositionen wie Kultur/Natur, Mensch/Tier,
Mann/Frau, Subjekt bzw. Autor/Objekt bzw. Text u. a., die von den Anwendern
dieser Interpretationsart konstruiert werden und immer wieder neues Licht auf
dieselben Texte werfen sollen.

406
J. Derrida, La voix et le phénomène. Introduction au problème du signe dans la phénoménologie de Husserl, Paris 1967,
dt. Übers.: Die Stimme und das Phänomen. Ein Essay über das Problem des Zeichens in der Philosophie Husserls,
Frankfurt a. M. 1979.
407
J. Derrida, De la Grammatologie, Paris 1967, dt. Übers. von H.-J. Rheinberger und H. Zichler, Grammatologie, Frank-
furt a. M. 1983, 5. Aufl. 1994. – Gemeint ist nicht eine „Wissenschaft (von) der Grammatik, sondern eine Buchstaben-
wissenschaft. Man sollte sie „Literalwissenschaft“ nennen.
408
J. Derrida, L‟écriture et la différence, Paris 1967, dt. Übers. von R. Gache, Die Schrift und die Differenz, Frankfurt
a. M. 1972.
409
Derrida, Positionen, Graz-Wien 1986, S. 88, zit. nach P. Dahlerup, Dekonstruktion. Die Literturtheorie der 1990er,
Berlin-New York 1998, S. 40.
531

Texte, die von Kultur handeln – so unterstellt diese These – vernachlässigen


oder verschweigen die Bedeutung von Natur. Anthropologische Texte beachten zu
wenig, daß der Mensch ein Tier ist, und sie werden deshalb der Bedeutung der
Tiere nicht gerecht. Derrida hat sich bekanntlich selbst zu einem Tier erklärt und
für das Tierwesen den Begriff „animot“ vorgeschlagen (L‟animal que donc je
suis, 2008). Daß die (meisten) Texte „phallokratisch“ sind, blendet die Bedeutung
der Frauen aus. Das Insistieren auf Autoren und Subjekten in literarischen Texten
verkennt, daß es überhaupt um Objekte geht, usw.
Es dürfte leicht zu erkennen sein, daß es sich bei der Dekonstruktion um die
Fortschreibung der alten marxistischen und psychoanalytischen Ideologiekritik
mit den Mitteln der Texthermeneutik handelt, die sich erneut als „Revolution“ al-
ler Machtverhältnisse (da doch „alles Text ist“) versteht. Die von Derrida pro-
pagierte „Umkehrung“ und sein „Umstürzen der Hierarchien“ zeigen dies deutlich
genug an. Und die ganze dekonstruktivistische Bewegung betreibt in der Tat be-
sonders in der US-amerikanischen geisteswissenschaftlichen Ausbildung gar
nichts anderes.
Es bleibt zu betonen, daß es sich beim Dekonstruktivismus nicht um eine neue
Etappe der Entwicklung der Linguistik und Literaturwissenschaft schlechthin han-
delt. Sie ist bisher noch eine linguistische Modeströmung, die sich zugleich mit
der 68er Jugendbewegung in den geisteswissenschaftlichen Fakultäten ausge-
breitet hat und deren Schicksal teilt. Deshalb steht sie auch unter heftiger Kritik
der älteren und traditionellen linguistischen Schulen, erst recht auch unter der
Kritik der Wissenschaftstheoretiker der vorgenannten Schulrichtungen.

Neben der Sprachwissenschaft als Linguistik und Philologie ist die Geschichts-
schreibung sozusagen das andere Standbein der Geisteswissenschaften.
Von Aristoteles wurde die „historíe“ als Protokollierung empirischer Erfahrung
und so als methodische Faktenkunde in die Wissenschaften eingeordnet. Daneben
wurde sie aber auch als „génos epideiktikón“ (aufzeigende Gattung) der Rhetorik
geführt, wo sie Lob und Tadel über vergangene Taten und Ereignisse ausspricht.
Dieser rhetorische Zug hat sich im Anspruch der Historikerzunft, eine Art perma-
nentes Weltgericht darzustellen, über die Jahrhunderte erhalten, und er macht sich
bis heute in den Bewertungen historischer Ereignisse bemerkbar.
Seit der Antike hat sich die Geschichtsschreibung in den Dienst der Machthaber
gestellt. In dem Maße, wie die Macht sich durch das Recht zu legitimieren suchte,
wurde sie eine Hilfsdisziplin der Jurisprudenz und von dieser institutionell ge-
pflegt. Auch diese Nähe zu allem Staatlichen, zu den weltlichen und kirchlichen
Mächten, zum Politischen hat sich in ihren Hauptgegenständen und Lehrgebieten
erhalten. Noch immer konzentriert sich die universitäre Geschichtswissenschaft
auf alles Staatliche, Politische, Diplomatische, Kriegerische und dies in engster
Verbindung mit den diesbezüglichen Rechtsangelegenheiten.
Naturgemäß besteht in allen Wissenschaften Bedarf an der Protokollierung und
Sicherung von Fakten und Daten, und das ist auch seit Aristoteles die Grundlage
532

jeder Wissenschaft geblieben. Die Ausrichtung der Historiographie im Rahmen


der Philosophischen Fakultäten und Fachbereiche auf den staatlich-politischen
Sektor hat alle übrigen „Historiographien“ von sich ausgeschlossen und den
entsprechenden Fachwissenschaften überlassen. Wissenschaftsgeschichte, Tech-
nikgeschichte, Kunstgeschichte, Literaturgeschichte, Religionsgeschichte sowie
Philosophiegeschichte sind nicht ihre Angelegenheit. Die von ihr im 19. Jahrhun-
dert zeitweise gepflegte allgemeine Kulturgeschichte, die die genannten Diszipli-
nen einschloß, ist wieder aus den Kurrikula verschwunden.
Diese letztgenannten Bereiche von Historiographie gehören jedenfalls dazu,
wenn von den Funktionen und der Bedeutung von Geschichte als „Geistesge-
schichte“ in den Geisteswissenschaften die Rede ist. Und wie bei diesen die Tat-
sachenbeschreibung und Datenfixierung noch immer im Mittelpunkt des Inter-
esses steht, so auch bei denjenigen, die als Nutzer, Leser und Lehrer die For-
schungserträge der Fakultätshistoriographie zur Kenntnis nehmen. Die Erschlies-
sung neuer Quellen und das Entdecken bisher unbekannter Relikte und alles, was
auf historische Daten und Fakten Bezug hat, erregt Aufmerksamkeit und wird bis
in die Feuilletons der Presse diskutiert. Weniger richtet sich das Interesse auf die
historischen Bewertungen durch die Historiker, da man bei ihnen fast durchweg
die anwaltliche Vertretung einer parteilichen Sicht der Materien erspürt oder vor-
aussetzt.
Deskriptionen werden in den Geisteswissenschaften noch immer wie schon zu
des Aristoteles Zeiten als sprachliche Abbildungen von Vorlagen („Objekt“ be-
deutet genau dies) verstanden. Daher beurteilt man auch die historischen Be-
schreibungen gemäß dem realistischen Wahrheitskriterium. Die wahre Beschrei-
bung soll ihrem Gegenstand „entsprechen“ bzw. korrespondieren. Die falsche Be-
schreibung „entspricht nicht“ dem Gegenstand bzw. verfälscht ihn und beschreibt
damit etwas anderes.
Da man jedoch Beschreibungen schon dem Wortsinn nach erst einmal für zu-
treffend und somit für wahr hält, sucht man eventuelle Falschheit von Beschrei-
bungen an logischen Widersprüchen in den beschreibenden Dokumenten dingfest
zumachen. Viele falsche Beschreibungen sind jedoch widerspruchslos. Sie können
deshalb falsch sein, weil sie etwas ganz anderes beschreiben als was sie vorgeben.
Und deshalb werden sie meist nicht als falsch erkannt. Im Gegenteil gelten sie oft
als besonders interessante, „neue Perspektiven eröffnende“ Sichten auf das vor-
gebliche Objekt. Und damit tragen sie besonders in den Geisteswissenschaften zu
erheblichen Verwirrungen bei.
Solange ein beschriebenes Objekt vor Augen liegt, kann man die Beschreibung
mit ihm vergleichen. Dies ebenso, wie man eine Photographie mit ihrem Ge-
genstand vergleichen kann. In den Naturwissenschaften sind die Objekte in der
Regel dauerhaft und/oder reproduzierbar, so daß man ihre Beschreibungen mit
ihnen vergleichen kann. Das verhält sich jedoch in den Geisteswissenschaften
gänzlich anders. Ihre historischen Objekte: Ereignisse, Prozesse, Zustände, Perso-
nen und ihre Schicksale usw., kurz die „res gestae“, sind vergangen bzw. zunichte
533

geworden. Diejenigen, die solche Objekte als „Zeitzeugen“ vielleicht beobachtet


und beschrieben haben (und als solche werden die alten „Historiker“ gerne als
„Quellen“ behandelt), haben uns nicht die beschriebenen Objekte hinterlassen,
sondern nur ihre Beschreibungen als „historiae rerum gestarum“.
Manchmal haben sie auch Örter und Dinge beschrieben, die als Relikte und
Zeugnisse noch vorhanden sind. Diese Relikte werden dann immer wieder als
Beweismittel der „Objektivität“, der Zuverlässigkeit der Historiker und der Wahr-
heit ihrer Beschreibungen herangezogen.
Jedoch die überwiegende Masse historischer Beschreibungen besteht nicht in
solchen Beschreibungen gegenwärtiger Relikte. Ihre Objekte sind vergangen, das
heißt: es gibt sich nicht mehr, d. h. es gibt sie überhaupt nicht. Die angeblich ab-
bildenden historischen Beschreibungen, Berichte und Narrative sind deswegen
keine Abbilder, sondern nur noch Bilder. Was das jedoch bedeutet, darüber gibt es
kaum eine wissenschaftstheoretische Reflexion in den Geisteswissenschaften.
Die letzten, die diesen Charakter der res gestae noch durchschauten und die so-
genannten res gestae deshalb mit der historia rerum gestarum ineins setzten, wa-
ren Hegel und Johann Gustav Droysen (1808 – 1884). 410 Aber deren idealistische
Geschichtsauffassung wird heute unter der Dominanz des realistischen „Paradig-
mas“ kaum verstanden – auch nicht von Heidegger und Gadamer, die sie anson-
sten als Kronzeugen für ihre Geschichtsvorstellungen anführten.
Beschreibungen werden oft Interpretationen genannt und mit diesen ver-
wechselt. Unterscheidet man diesbezüglich, so stellt sich wohl der größte Teil
geisteswissenschaftlicher Veröffentlichungen als Beschreibung ihrer Objekte dar.
Das Hauptmittel für solche Beschreibung ist die Einordnung des Objektes in die
Chronologie und Geographie, die in der alten Gelehrtensprache auch „die beiden
Augen der Geschichte“ genannt wurden. Von dieser Einordnung hängt die Unter-
scheidung von „früher“ und „später“ ab, also von dem, was auf einen Autor oder
ein Werk einwirken konnte und worauf das Werk selber eingewirkt hat. Darüber
hinaus aber auch die zeitgenössische Umgebung bzw. das Milieu, in dem ein
Autor gelebt hat und ein Werk entstanden ist.
Die historischen Gemälde und Panoramen sind in allen Schriftkulturen zu
Vergleichsmaßstäben und gleichsam Folien der Beschreibung aktueller Lebensla-
gen und Umstände geworden. Die Beschreibungen der „großen Männer“ des

410
J. G. Droysen, Historik. Vorlesungen über Enzyklopädie und Methodologie der Geschichte, (1858), hgg. von R.
Hübner, München-Berlin 1937, 2. Aufl. 1943: „Es heißt die Natur der Dinge, mit denen unsere Wisssenschaft beschäftigt
ist, verkennen, wenn man meint, es da mit objektiven Tatsachen zu tun zu haben. Die objektiven Tatsachen liegen in ihrer
Realität unserer Forschung gar nicht vor. Was in irgendeiner Vergangenheit objektiv vor sich gegangen ist, ist etwas ganz
anders als das, was man geschichtliche Tatsache nennt. Was geschieht, wird erst durch die Auffassung als zusammen-
hängender Vorgang, als ein Komplex von Ursache und Wirkung, von Zweck und Ausführung, kurz als Eine Tatsache be-
griffen und vereinigt, und dieselben Einzelheiten können von andern anders aufgefaßt, sie können von andern mit andern
Ursachen oder Wirkungen oder Zwecken kombiniert werden“ (S. 133 f.). – „Denn die Geschichte ist nicht das erste
beste Auffassen der einzelnen Geschehnisse, sondern die geistige Vorstellung von dem, was da geschehen war, das Ge-
schehene nach seiner Bedeutung, seinem Zusammenhang, seiner Wahrheit“ (S. 137). – „Das Ergebnis unserer historischen
Forschung ist … nicht die Herstellung der Vergangenheit, sondern ein Etwas, dessen Elemente, wie latent und eingehüllt
immer, in unserer Gegenwart liegen“ (S. 273). Zitiert nach F. Wagner, Geschichtwissenschaft, 2. Aufl. Freiburg-Mün-
chen1966, S. 219f. und 225f.
534

Plutarch, die Philosophen-Leben des Diogenes Laertios, die Narrative des Livius,
Tacitus, Caesars sind durch die gymnasiale Schulbildung noch jetzt gleichsam
Brillen, durch die wir immer noch (meist außerordentliche) Lebensläufe betrach-
ten und politische Vorgänge einschätzen. Mancher, der sich selbst für „groß“ hält,
mißt sich an ihnen als Vorbildern.
Dabei kommt die Philologie ins Spiel. Die klassische Altertumskunde war einer-
seits historische Forschung als Prüfung der Vertrauenswürdigkeit der alten Nar-
rative. Sie prüfte und „bewies“ nicht durch Vergleich der vorgeblichen histo-
rischen Wirklichkeit mit den Beschreibungen, sondern durch den Vergleich der
Berichte untereinander. Und damit stand und steht sie – wie alle historische
Forschung – unter dem idealistischen Wahrheitskriterium der Kohärenz, Logizität
und Umfassendheit („Komprehensibilität“) des historischen Gesamtbildes.
Andererseits leistete die Altertumskunde als klassische Philologie Überset-
zungsarbeit. Dazu mußte sie die neueren Zielsprachen überhaupt erst auf das Arti-
kulationsniveau der antiken Sprachen bringen, was sie auf vielerlei Weisen be-
trieb. Seit der Renaissance war es vor allem die Kreation hybrider Importwörter
aus griechischen und lateinischen Bestandteilen in die neueren Nationalsprachen,
von der alle wissenschaftliche Terminologie bis heute lebt. Und das erlaubte eine
Art Kopie der antiken historischen Bilder durch deren Abbilder in den neueren
Sprachen.
Je mehr die historischen Beschreibungsmaterialien mit dem Gange der Ge-
schichte selbst anwuchsen, desto mehr wuchs das Bedürfnis nach Zusammen-
fassung, kompendiarischer Behandlung und Vergleichung. Damit nahm auch die
logische Induktion des Gemeinsamen und Übereinstimmenden einen großen Auf-
schwung. Johann Martin Chladenius sprach von „verjüngten Bildern“. Hegel
nannte es „Abbreviation“.411 Gemeint war die Induktion allgemeiner Begriffe auf
der Grundlage der langen und ausführlichen Narrative. Die ausführlichen Narra-
tive schnurrten gleichsam auf Fachbegriffe zusammen. Die umständliche Be-
schreibung einer kriegerischen Auseinandersetzung wurde zur „Schlacht“. Und so
auf allen Feldern der spezialisierten Geisteswissenschaften.
Wie in § 9 über die logische Induktion dargestellt wurde, können Induktionen
aus inviduellen Sachverhalten je nach Induktionsrichtung zu recht verschiedenen
Allgemeinbegriffen und Kategorien führen. Das macht sich bei den historischen
Induktionen besonders bemerkbar und ermöglicht die bekannten Probleme par-

411
J. M. Chladenius, Einleitung zur richtigen Auslegung vernünftiger Reden und Schriften, Leipzig 1742, ND. in: L.
Geldsetzer (Hg.,) Instrumenta Philosophica Series Hermeneutica V, S. 213: „Wenn wir aus einer oder mehreren
Geschichten, die wir deutlich erkannt haben, mit Fleiß eine undeutliche Vorstellung machen, so heisset diese ein verjüngtes
Bild. In diesen verjüngten Bildern braucht man, weil die individuellen Umstände ausgelassen werden, mehr allgemeine
Wörter.“ – G. W. F. Hegel, Vorlesungen über die Philosophie der Geschichte (auf der Grundlage der Werke von 1832 – 45
Band 12), Frankfurt a. M. 1970, S. 16: „Eine Geschichte der Art, welche lange Perioden oder die ganze Weltgeschichte
überschauen will, muß die individuelle Darstellung des Wirklichen in der Tat aufgeben und sich mit Abstraktionen behel-
fen, epitomieren, abkürzen, nicht bloß in dem Sinne, daß Begebenheiten und Handlungen wegzulassen sind, sondern in
dem anderen, daß der Gedanke der mächstigste Epitomator bleibt. Eine Schlacht, ein großer Sieg, eine Belagerung sind
nicht mehr sie selbst, sondern werden in einfache Bestimmungen zusammengezogen.“
535

teilicher Bewertung und Einschätzung derselben Daten und Fakten, wie es auch
Droysen bemerkte.
Wie alle „-Graphien“ strebte auch die Historiographie in der Philosophischen
Fakultät danach, eine „theoretische“ Wissenschaft zu werden indem sie ihre Daten
und Fakten in kausale Zusammenhänge einstellte und dadurch erklärte. Im 18.
Jahrhundert war es die von Voltaire als neue Disziplin eingeführte Geschichts-
philosophie, die der Historiographie theoretische Erklärungsgesichtspunkte liefer-
te. Im 19. Jahrhundert war es die Soziologie Auguste Comtes und die Geschichts-
philosophie Hegels, später die politische Ökonomie von Karl Marx, die als Ka-
tegorienlieferant neben die damaligen Geschichtsphilosophien trat. Sie alle stehen,
ergänzt durch die neueren soziologischen und ökonomischen Theorien, auch jetzt
zur Verfügung und werden in den jetzt „geschichtswissenschaftlich“ genannten
historischen Studien sichtbar. 412

Zur Methodenlehre in den Geisteswissenschaften. Wie in den vorangehenden Pa-


ragraphen wiederholt betont wurde sind die Geisteswissenschaften aus den tri-
vialen Anteilen der platonischen „sieben freien Künste bzw. Wissenschaften“ und
den mittelalterlichen „höheren Fakultäten“ Theologie und Jurisprudenz entstan-
den. Ihre Schwerpunkte blieben deshalb die grammatisch-rhetorisch-dialektischen
Disziplinen (das „Trivium“) der einstigen Philosophischen Fakultät. Sie haben
sich im Verlauf des 19. Jahrhunderts von den quadrivialen mathematisch-natur-
wissenschaftlichen Disziplinen abgetrennt und in der übrig bleibenden neuen
„Philosophischen Fakultät“ als historisch-philologische Einzelwissenschaften ver-
selbständigt. Auch für die einst „höheren“ Fakultäten der Theologie und Jurispru-
denz blieben sie methodische Arsenale. Nur die Medizinische Fakultät hat sich in
entsprechender Weise aus den methodischen Arsenalen der (quadrivialen) Natur-
wissenschaften bewaffnet, die in der fakultätseigenen Popädeutik als „Physikum“
organisiert wurde.
Daraus erklärt sich zunächst der tiefe Riß zwischen den neuzeitlichen Geistes-
und Naturwissenschaften, der zuweilen zu vollständigem Unverständnis gegenein-
ander ausartete, meist aber bei Superioritätsattitüden jeweils der einen oder ande-
ren Wissenschaftlergemeinde stehen blieb.
In beiden Traditionen sind jedoch die von Aristoteles formulierten Anforderun-
gen an jede Wissenschaft stets in Geltung geblieben, wie sie schon vorn im § 18
herausgestellt wurden. Halten wir auch hier nochmals fest:
Es geht darum, 1. zunächst durch umfassende Beschreibung ihrer Objekte ihre
Fakten- und Datenbasis unter der Leitfrage: „was ist das?“ auszuarbeiten. Die Be-
schreibungen der Objekte führt zu dem, was vorne wissenschaftliche Kenntnis
genannt wurde. 2. die durch Deskriptionen gesicherten Fakten theoretisch-erklä-

412
Einblicke in diese Entwicklungstendenzen der „Geschichtswissenschaft“ bieten H.-M. Baumgartner und J. Rüsen (Hg.),
Seminar: Geschichte und Theorie, Frankfurt a. M. 1976, sowie W. Prinz und P. Weingart (Hg.), Die sog. Geisteswissen-
schaften: Innenansichten, Frankfurt a. M. 1990, hier besonders J. Kocka, Veränderungen in der Geschichtswissenschaft.
Eine „Geisteswissenschaft“?, S. 134 – 137.
536

rend in Zusammenhänge untereinander einzustellen. Dies geschieht noch immer


am Leitfaden des Vier-Ursachenschemas, das vier Versionen von Warum-Fragen
beantwortet. Nämlich die Fragen nach der Form, nach dem Gehalt („Materie“),
nach der Wirkursache, und nach dem Zweck (meist „Sinn“ oder „Bedeutung“
genannt) der zuvor beschriebenen Fakten. Hierbei ist zu beachten, daß alles, was
in diesen Dimensionen als Ursache in Frage kommen kann, seinerseits schon als
Datum bzw. Faktum beschrieben und dadurch bekannt sein muß. Erst diese Zu-
sammenhangsstiftung zwischen den Kenntniseinheiten führt zur wissenschaft-
lichen Erkenntnis.
Was von diesen vier Leitfäden der Forschung in den Geisteswissenschaften in
Geltung geblieben ist, zeigt sich in jeder geisteswissenschaftlichen Arbeit. Zu
erledigen ist nämlich: a. Die „Materialrecherche“ an Hand von Quellen, Biblio-
graphien, Zitationen bezüglich eines Themas. b. Die Formiertheit des Themas
durch Kategorien und Begriffe und ggf. Normen. Dies betrifft in erster Linie die
Zuordnung des Materials zu einer Disziplin, sodann den Gattungs-, Art- oder Un-
terart- bzw. individuellen Charakter der Objekte durch begriffliche Einordnung
und/oder Subsumption unter Normen und Regeln. c. Die Identifizierung der Her-
kunft bzw. des Schöpfers des Objekts und darüber hinaus aller „Einflüsse“, die
auf das Objekt eingewirkt haben als deren kausale Ursachen. d. Die Deutung bzw.
Interpretation seiner Bedeutung bzw. seines Sinngehaltes im Rahmen umfassen-
derer teleologischer Zwecke. Letzteres ist die in den Geisteswissenschaften vor-
herrschende hermeneutische Erklärungsweise.

Die Deskriptionen nehmen in allen geisteswissenschaftlichen Disziplinen eine


hervorragende Stellung ein. Das ergibt sich schon aus ihren historio-graphischen
Wurzeln. Historische Deskriptionen heißen jetzt gewöhnlich „Narrative“, aktuelle
Beschreibungen werden häufig als „Phänomenologie“ vorgestellt.
Auch die husserlsche Phänomenologie hat sich erst akademisch durchsetzen
können, als sie sich als neue Deskriptionsmethode empfahl. Die hier prätendierte
„Unvoreingenommenheit“ und ihr Motto „Zu den Sachen selbst“ hat diese be-
schreibende Tendenz nur verstärkt. Alles sollte gemäß Husserl allseitig bzw. „in
allen Abschattungen“ beschaut und gänzlich neu beschrieben werden. Diese
Deskriptionsarbeit soll, wie schon bei Aristoteles, die Frage nach dem „Was“ (tò
tí) des Objektes sinnlicher Anschauung beantworten.
Husserl glaubte, aus einer allseitigen Beschreibung eines Gegenstandes ergäbe
sich durch die von ihm propagierte „Wesensschau“ („Noesis“) ein eindeutiger
„Wesensbegriff“ („Noema“) der Sache. Dies nicht nur bei sinnlich wahrnehm-
baren Objekten wie z. B. Farben, sondern auch bei den logischen und mathema-
tischen Objekten, für die er eine „kategoriale Anschauung“ in Anspruch nahm.413
413
E. Husserl, Logische Untersuchungen, 2. Band, Halle 1901, 2. Aufl. 1921, Einl. S. 5f.: „Die logischen Begriffe als
geltende Denkeinheiten müssen ihren Ursprung in der Anschauung haben; sie müssen durch ideierende Abstraktion auf
Grund gewisser Erlebnisse erwachsen und im Neuvollzug dieser Abstraktion immer wieder neu zu bewähren, in ihrer
Identität mit sich selbst zu erfassen sein… Wir wollen ‚auf die Sachen selbst„ zurückgehen„ “. - Vgl. zu Husserl: A.
Diemer, Edmund Husserl. Versuch einer systematischen Darstellung seiner Phänomenologie, 2. Aufl. Meisenheim 1962.
537

Er dehnte in seinen Göttinger Vorlesungen von 1904/5 seine Beschreibungen auch


auf die „retentionalen“ und „protentionalen“ – auf Erinnerungsinhalte des Vergan-
genen und auf Zukunftsvorstellungen ausgerichteten – Intentionen des „Zeitbe-
wußtseins“ aus. Damit wollte er einen eigenen geisteswissenschaftlichen Zeitbe-
griff formulieren, der die Vergangenheit ebenso wie die Zukunft als „Vergegen-
wärtigung“ in das Gegenwartsbewußtsein integrierte. Er knüpfte dabei an die Zeit-
konzeption des Augustinus an, über die er schrieb: „Die Kapitel 13 - 28 des XI.
Buches der Confessiones muß auch heute noch jedermann gründlich studieren, der
sich mit dem Zeitproblem beschäftigt. Denn herrlich weit gebracht und erheblich
weiter gebracht als dieser große und ernst ringende Denker hat es die wissen-
schaftliche Neuzeit in diesen Dingen nicht.“ 414
Husserls Deskriptionsübungen, die er in seinen Lehrveranstaltungen vorführte
und in seinen späteren Veröffentlichungen in immer neuen Variationen darstellte,
haben nicht nur in den Geisteswissenschaften, aber besonders hier, dazu geführt,
daß die Bezeichnung „Phänomenologie“ geradezu mit „Deskription“ gleichgesetzt
wurde. Davon künden die verbreiteten Veröffentlichungen, die das Wort „Phäno-
menologie“ im Titel tragen. Hier kann man regelmäßig umfangreiche Beschrei-
bungen in alten und neuen Sichten auf die thematischen Objekte erwarten.

Die Theoriebildung in den Geisteswissenschaften geschieht auf der Grundlage der


so beschriebenen Daten und Fakten. Daß sie dabei noch immer den vier aristote-
lischen Dimensionen folgen, läßt sich auch unter den modernen Bedingungen der
Forschung zeigen.
Auch die geisteswissenschaftlichen Theorien sind durchweg Antworten auf die
Frage nach dem „Warum?“ 415 Die Antworten setzen auch hier die Verfügung über
schon gesicherte Daten und Fakten voraus, die als „Ursachen“ (heute nennt man
das gewöhnlich „Bedingungen“) in Frage kommen.
Die kausale Dimension i. e. S. (causa efficiens) hat in den Geisteswissenschaf-
ten stets denselben Rang behauptet wie in den Naturwissenschaften. Überall wo
nach dem Ursprung, den Anfängen, den Auslösern und Anlässen für etwas ge-
sucht wird, geht es um Kausalursachen.
Die Kausalursache bedient vor allem das in den Geisteswissenschaften noch
immer zunehmende Interesse an den „Autoren“ der Lebensäußerungen, die sich in
Leistungen und Werken in den Bereichen der verschiedenen Disziplinen aus-
weisen. Daher glaubt man, es gäbe kein Verstehen ohne vorgängige Auskultation
des Lebenslaufs, der „Erlebnisse“ und der Lebenslagen des jeweiligen Schöpfers,
sei er Dichter, Maler, bildender Künstler, Musiker oder auch Architekt, Ingenieur
oder Wissenschaftler. Dilthey hat es mit seiner Frühschrift über das „Leben

414
E. Husserl, Vorlesungen zur Phänomenologie des inneren Zeitbewußtseins, hgg. von M. Heidegger, Halle 1928, S. 2.
415
Vgl. für die Geschichtsforschung A. Veraart, Art. „Droysen“ in: Enzyklopädie Philosophie und Wissenschaftstheorie,
hgg. von J. Mittelstraß, Band 1, Mannheim 1980, S. 501f.: „Geschichte als >das Werden der menschlich-sittlichen Welt<
wird unterschieden nach den >Stoffen, an dem sie formt<, nach den >Formen, in welchen sie gestaltet< (die >sittlichen
Mächte<), nach den >Arbeitern, durch welche sie aufbaut< und nach den >Zwecken, die sich in ihrer Bewegung
vollziehen<“.
538

Schleiermachers“ und die „Jugendgeschichte Hegels“ vorgemacht, und Georg


Misch hat die „Selbstbiographie“ der Kreativen zu einer exemplarischen Disziplin
erhoben.416 In dieser Disziplin haben psychologische und psychoanalytische Kate-
gorien eine dominierende Stellung gewonnen.
Viele Geisteswissenschaftler richten ihre Aufmerksamkeit und ihr Interesse in
solchem Maße auf die „Autoren“ von Werken, daß sie sich erst in zweiter Linie
mit den werkhaften Objekten ihrer Fächer befassen, die ohnehin durch den Kanon
des klassisch Gewordenen als bekannt vorausgesetzt werden. Erst die Biographien
und Lebensumstände der Autoren, ihre unbewußten und bewußten „Komplexe“,
„Marotten“ und neuerdings vor allem ihre geschlechtlichen Orientierungen erklä-
ren die Entstehung ihrer Werke und Leistungen.417 Hier Neuigkeiten des Mensch-
lich-Allzumenschlichen aufzudecken und auszubreiten darf stets auf Interesse
auch eines weiteren Publikums rechnen. Jedoch gehört zur kausalen Dimension
auch alles, was mit dem „Einfluß“, d. h. der Einwirkung früherer Daten und Fak-
ten auf einen Autor und damit auf sein Werk zu tun hat. Und so liegt es in der
Natur der Kausalforschung, Kausalketten immer weiter zurück zu verfolgen.
Tritt die Autorschaft als Kausalursache in den Mittelpunkt des Forschungsinte-
resses, so kann das nur bedeuten, daß der Autor selbst als Faktum und Datum
Ausgangspunkt für eigene Vier-Ursachenerklärungen wird. D. h. man wird seine
Lebensspuren als Material aufspüren, seine charakterliche und soziale Formung
als „Vertreter von…“ konstruieren, seine eigene Entwicklung und deren genea-
logische Vorgeschichte eruieren, und schließlich sein Werk als das Resultat dieser
drei Dimensionen bzw. als deren Wirkung interpretieren.
Man sollte dabei bemerken, daß sogenannte anonyme und/oder pseudonyme
überkommene Werke entweder Anlaß für (oft Jahrhunderte währende) Recher-
chen nach ihren Autoren ausgelöst haben oder auch in den Windschatten des
Interesses geraten. Man hält sie dann gerne für Kompilationen aus Werken ande-
rer Autoren, unterschätzt damit aber auch oft ihre tatsächliche Bedeutung. Außer-
dem kann jede Autorschaft fast beliebig in Frage gestellt werden. Und das hat
bekanntlich in zahlreichen Fällen zu perennen Schulstreitigkeiten geführt. Ein
alter Philologenwitz schildert das so: Der wahre Autor der platonischen Schriften
war nicht der uns bekannte Platon, der Lehrer des Aristoteles, sondern ein anderer
Schriftsteller gleichen Namens, der zufällig zur gleichen Zeit wie der bekannte
Platon in Athen lebte!
Eigentlich erklären die kausalen Ursachen die „wirkungsgeschichtlichen“ Zu-
sammenhänge. „Wirkungsgeschichte“ wird freilich seit Dilthey als Nachwir-

416
W. Dilthey, Das Leben Schleiermachers, Berlin 1870, 2. Aufl. 1922, neu hgg.von M. Redeker, Berlin 1966; ders., Die
Jugendgeschichte Hegels, Berlin 1905, 5. Aufl. Stuttgart 1975; ders., Das Erlebnis und die Dichtung, Leipzig 1906, 15.
Aufl. Göttingen 1970. – G. Misch, Geschichte der Autobiographie, Band 1: Altertum, Leipzig 1907, 4 Bände 1949 – 1967;
ders., Studien zur Geschichte der Autobiographie, 4 Bände, Göttingen 1954 – 1957.
417
Für den Altmeister der französischen Literaturhistorie Gustave Lanson gilt es, „d‟arriver à découvrir pour chaque
phrase le fait, le texte ou le propos qui a mis en branle l‟intelligence ou l‟imagination de l‟auteur.“ Zit. nach W. Babilas,
Tradition und Interpretion. Gedanken zur philologischen Methode (Langue et Parole 1), München 1961, S. 51. Auch für
Babilas hat „Die Absicht des Autors“ zentralen Stellenwert (ibid. S. 15f.).
539

kungsgeschichte verstanden, also auf die Auswirkung eines Werkes auf die Nach-
welt bezogen. Daher ist dieser Terminus heute zweideutig und gelegentlich irre-
führend.
Es ist die teleologisch orientierte Forschungsdimension, die auf die Nach- und
Auswirkung ausgerichtet ist. Hierbei geht hier um die Einflüsse, die Autor und
Werk auf die Nachwelt bis zur Gegenwart und auf deren Verstehensweise vom
Werk erzielt haben. Da solcher Einfluß nur post festum als Wirkung bekannt wird
und beschrieben werden kann, wird das mit Dilthey, wie gesagt, meist als
„Wirkungsgeschichte“ bezeichnet. Die Auswirkungen werden hier durch Schlüsse
und „Ableitungen“ vom Autor und Werk her in Bezug auf deren Ziele und
Zwecke beschrieben. Es handelt sich um Teleologie-Konstruktionen, in denen die
„Botschaft“ bzw. die Intention des Artefaktschöpfers noch immer als seine aristo-
telische „Entelechie“ aufgefaßt wird.
Die teleologische Erklärung im Vier-Ursachenschema ist in den Geisteswissen-
schaften die eigentliche hermeneutische Dimension. Alles was als Interpretation
von Sinn und Bedeutung von Artefakten vorgebracht werden kann, ist eine zeit-
lich spätere Antwort auf die Fragen, Anregungen, Provokationen und das, was
man noch immer mit dem scholastischen Begriff „Impetus“ bezeichnen kann, die
ein Artefakt seiner Nachwelt über- und aufgibt .
Meistens hält sich diese teleologisch-hermeneutische Forschung nur an die Ab-
sichten und den Willen der Autoren. Das ist aus dem Rechtsinstitut der Testa-
mente bekannt genug. Deshalb steht in dieser Hinsicht beim Verstehen der Werke
dasjenige, was der Autor „hat sagen wollen“, bei weitem im Vordergrund und soll
insofern eine Art Vermächtnis ausmachen. Freilich sind die Kriterien dafür zwei-
felhaft. Die „Absicht“ bzw. „Intention“ des Autors ist nur einer unter vielen
Zwecken und Zielen in dieser teleologischen Dimension, die alle auch ihre Hete-
rogonien besitzen können. Auch Testamentsvollstrecker haben seit jeher große
Spielräume für die Interpretation des letzten Willens eines Erblassers.
Selber aus der Praxis besonders der Philologien und Historiographien, aber auch
aus der Praxis der Theologie und Jurisprudenz erwachsen, sinnvolle Antworten
auf sinnvolle Fragen aus profanen und Heiligen Schriften und Gesetzestexten zu
gewinnen, handelt es sich bei Interpretationen um ein Kuriosum. Hat doch schon
Platon festgestellt, daß Texte bzw. Schriften „stumm bleiben“, wenn man sie
befragt, und deshalb das Gespräch mit lebendigen Gesprächspartnern empfohlen.
Und doch gehen wohl die meisten Hermeneutiker davon aus, daß Schriften und
Bücher zu uns reden, „etwas zu sagen haben“. Und so meinen sie, daß Schriften
gleichsam Gefäße voller Sinn und Bedeutung seien, der aus ihnen „auszuschöp-
fen“ sei. Mittlerweile wird dieser Hermeneutik sogar universaler Anspruch vindi-
ziert.418
In der Tat hat die Hermeneutik die methodisch-trivialen Beiträge der alten
Logik und Dialektik sowie der Rhetorik in sich aufgenommen und mit einer fort-

418
H.-G. Gadamer, Die Universalität des hermeneutischen Problems, in: Kleine Schriften Band I, Tübingen 1967.
540

entwickelten und erweiterten Grammatik verschmolzen. Hermeneutik ist derzeit


die modernisierte Gestalt des alten Triviums. Ihre Bezeichnung erinnert noch im-
mer an den Götterboten Hermes (lat. Merkur), der den Menschen Botschaften der
Götter und den Göttern die Gebete der Menschen übermittelt. Diese Übermittlung
ist auch Maklerdienst, weswegen Hermes bzw. Merkur schon in der antiken Welt
der Schutzpatron der Kaufleute und Makler, aber auch der Schmuggler, Diebe und
Betrüger geworden ist.
Auch das aktuelle Geschäft der Geisteswissenschaftler besteht noch immer zu
einem großen Teil in solchen Maklerdiensten der Sinnvermittlung. Das zeigt sich
darin, daß so viele Ausleger noch immer die Botschaften vergöttlichter Genies
einer staunenden und gläubigen Klientel verkünden oder, wie man oft sagt: „ver-
kaufen“; und sie verdienen dabei noch je nach Geschick ein „Hermeneutikon“
(griech. = Maklercourtage, auch Trinkgeld).
Das Tagesgeschäft des Geisteswissenschaftlers besteht dabei zu einem beacht-
lichen Teil im Übersetzen von Texten von einer in eine andere Sprache, sei es
ganzer Bücher, sei es von Zitaten aus Fremdsprachen sowohl für seinen Hausge-
brauch wie für seine Leser. Auch dabei verweist die Tatsache, daß jede Überset-
zung nur zeitlich nach dem zu übersetzenden Artefakt zustande kommt, auf die
teleologische Dimension des Übersetzens als Nachwirkung.
Die einst selbstverständliche Kompetenz der Geisteswissenschaftler zum Über-
setzen und die damit verbundene Kultur des Sprachenstudiums ist freilich durch
die neueren stark reduzierten Studienanforderungen erheblich vermindert worden.
An Stelle gründlicher Latein- und Griechischkenntnisse und je nach Forschungs-
gebiet zusätzlicher Sprachkenntnisse wird überall die neue angelsächsische „Lin-
gua franca“ empfohlen und vorausgesetzt. Was nicht schon ins Englische über-
setzt worden ist, wird beim Anhalten dieser Tendenz in absehbarer Zeit für die
Geisteswissenschaften nicht mehr existieren.
Was im 18. Jahrhundert noch in lateinischer Sprache für alle Gelehrten lesbar
und verständlich war und darum keiner Übersetzung bedurfte, das wurde seit dem
19. Jahrhundert in die Nationalsprachen übersetzt – und nicht immer als Über-
setzung oder Interpretation lateinischer oder griechischer Vorlagen kenntlich ge-
macht. Darum erschien so manches den Zeitgenossen als neu, was es tatsächlich
nicht war. Ähnlich ergeht es heutzutage den Studierenden und vielen Forschern:
sie halten alles, was sie in der lingua franca lesen können, für gänzlich neuartig.
Auf das Übersetzen baut dann das weitere Erläutern und Interpretieren in den
Geisteswissenschaften auf. Werden die nichtliterarischen Kunstwerke zum Ob-
jekt, also Gemälde, Statuen, Gebäude, Musik, so wird ihre Interpretation nach
dem Vorbild der literarischen Übersetzungen verstanden und betrieben. Die nicht-
schriftlichen Kunstwerke werden – wie das „Buch der Natur“ bei Augustin und
bei den Renaissance-Naturwissenschaftlern – als Quasibücher verstanden, deren
Schriftzeichen dem Nichteingeweihten unverständlich sind oder bleiben, und de-
ren Sinn daher in Sprache übersetzt werden muß.
541

Kluge Künstler beließen es dabei und hielten sich an die Warnung vor der so-
genannten Selbstinterpretation: „Maler, male, rede nicht!“ Und je mehr Überset-
zungen es von ihren Werken gab, desto berühmter wurden sie. Weniger kluge
Künstler und/oder Pseudokünstler versuchten zu allen Zeiten ihre eigenen Werke
zu erklären und legten sich dabei ohne Not selber fest. Da aber jede Interpretation
ihr Objekt als Spiegel benutzt (wie später genauer gezeigt werden soll), kann man
als Sinn der Kunstwerke nur das aus ihnen „herauslesen“, was diese als unter-
legten und herangetragenen Sinn widerspiegeln. Und so muß man sich nicht wun-
dern, daß das, was die Kunstexperten als Werkinterpretationen vortragen, genau
dasselbe ist wie das, was auch sonst irgendwo in Texten nachlesbar ist. Das er-
zeugt den Anschein, als sei dadurch ein einheitlicher und gemeinsamer Sinnbesitz
über alle Sprachen und Kulturartefakte verteilt, die sich am Spiel der Interpretatio-
nen beteiligen.
Es bleibt hier zu bemerken, daß viele Geisteswissenschaftler ebenso wie die
meisten Naturwissenschaftler meinen, es gäbe überhaupt keine finalen Ursachen.
Diese Meinung hat sich seit Francis Bacon (1561 – 1626) in der neuzeitlichen
Wissenschaft ausgebreitet. Sie richtete sich gegen die damals noch üblichen theo-
logischen Erklärungen aus dem Willen und der Voraussicht Gottes, des Schöpfers
aller Dinge. Daß jedoch auch in den Naturwissenschaften teleologische Prinzipien
erhalten haben, wurde vorn schon gezeigt. Da die teleologische Erklärung in den
den letzten Dezennien in den Geisteswissenschaften als „Hermeneutik“ eine do-
minierende Stellung eingenommen hat, soll ihr weiter unten eine ausführlichere
Behandlung gewimet werden.
Die auf das Materielle (die causa materialis) ausgerichtete Forschung hat es
traditionell vor allem mit dem Papier zu tun, auf dem die Texte geschrieben sind.
Nicht ganz zu Unrecht hat Wilhelm Ostwald in einer seiner „Monistischen Sonn-
tagspredigten“ daher die Geisteswissenschaften auch „Papierwissenschaften“ ge-
nannt. Die Texte ihrerseits sind auf dem Papier (oder Pergament) geschriebene
oder gedruckte materielle Schriftzeichen, die heute elektronisch gespeichert und
wiedergegeben werden. Die Hauptmagazine dieses Materials sind natürlich die
Bibliotheken und die neueren Dokumentationszentren. Bibliothekskataloge sind
selbst schon Forschungsinstrumente zur Materialerschließung, mit denen sich ver-
traut zu machen früher schon einen erheblichen Teil der Ausbildung im Fach
ausmachte.
Nicht ohne Grund hat sich vom Namen der antiken Bibliothek von Alexandria,
dem „Museion“, auch hergeleitet, was man an historisch-relikthaften Objekten der
Geisteswissenschaften in den archäologischen und kulturhistorischen Museen vor-
findet, nämlich Artefakte aller Art und aus aller Welt. Alle diese Artefakte sind
durch das Computerwesen und die digitale Text- und Bildarchivierung in großem
Ausmaß in Abbildungen zugänglich geworden, und diese Zugriffsmöglichkeiten
werden rasch immer weiter ausgebaut.
Aber die auf die Materialien gerichtete geisteswissenschaftliche Forschung hat
sich zusammen mit dem Aufkommen des Computerwesens und der digitalen
542

Speicherungen von schriftlichen und bildlichen Dokumenten entscheidend verän-


dert. Bibliotheken sind überall in Dokumentationszentren umgewandelt worden.
Das Bibliographiewesen ist digitalisiert und z. T. durch direktes Abrufen von Tex-
ten und Bildern ersetzt worden. Das dem einzelnen Forscher zur Verfügung ste-
hende Material ist – zusammen mit den Neudefinitionen der Forschungsbereiche
und ihren zugehörigen Objekten – ungeheuer vermehrt worden. Zugleich damit
ist auch die Verarbeitung des Materials technisch vereinfacht und z. T. mechani-
siert worden. Das hat wiederum zur Folge, daß sich die Kopien von Kopien ins
Unendliche vermehren. Die derzeit mittels der Computerfahndung betriebene
Aufdeckung von Plagiaten in wissenschaftlichen Veröffentlichungen übersieht,
daß auch die Vorlagen immer schon zu einem gewissen Teil aus Plagiaten älterer
Vorlagen bestehen, die bis ins 18. Jahrhundert hinein nicht mit Zitatzeichen kennt-
lich gemacht, sondern als Lehrbuchwissen unter Gelehrten als bekannt voraus-
gesetzt wurden.
Die heutige Zunahme fraudulöser Plagiate (und Paraphrasen) verdankt sich
ersichtlich zu einem großen Teil der Überspezialisierung von prüfenden Lehrern
und Forschern, die allzu großzügig Themen und Probleme zur Bearbeitung auf
Gebieten vergeben, von denen sie wenig oder keine Ahnung haben. Sie können
deshalb kaum erkennen und kontrollieren, ob es sich bei den vorgebrachten Argu-
menten um altes Lehrgut oder selbständige neue Gedanken handelt. Sieht man
dabei außer auf deckungsgleiche Formen, die computermäßig im digitalisierten
Material aufgedeckt werden können, auch auf die übernommenen Gedanken und
Ideen, so reichen sie oft bis auf antike Quellen zurück.
Das Material stellt sich für die einzelnen Geisteswissenschaften recht verschie-
den dar. Für die Sprachwissenschaft bzw. Linguistik sind die artikulierten Laute
der menschlichen Stimme das Ausgangsmaterial. Die Artikulationsmöglichkeiten
liefern hier einfachstes Sprachmaterial, die es von anderen Geräuschen unter-
scheiden. Schallplatte und Recorder haben erst in neueren Zeiten deren Fixierung
ermöglicht und daraus „sprachliche Thesauri“ gemacht. Dieses primitivste
Sprachmaterial artikulierter Laute wird dann in vielen Abstufungen durch die pho-
netischen und grammatischen Formen, die auf diese Weise sichtbar bzw. hörbar
werden, dokumentiert und auf gemeinsame Strukturen, die „sprachlichen Univer-
salien“, abgesucht.
Die meisten Sprachforscher gehen fast selbstverständlich davon aus, daß die
phonetischen und grammatischen Formen in irgend einer Weise – man könnte sa-
gen: auf mystische Weise - den Sprachen zugleich Sinn und Bedeutung verleihen.
Wir können uns in dieser Frage entschieden der Meinung J. G. Hamans an-
schließen.419 Die Antwort ergibt sich daraus, daß Sinn und Bedeutung des sprach-

419
J. G. Hamann hat das Problem in seiner „Metakritik über den Purismus der reinen Vernunft“ (in: C. H. Gildemeister,
Hamanns Leben und Schriften, Gotha 1857-1873, Band 5, S. 7) klar erfaßt, indem er fragte: „Ist es möglich, aus der
Materie des Wortes Vernunft, seinen sieben Buchstaben oder zwei Silben – ist es möglich, aus der Form, welche die
Ordnung dieser Buchstaben und Silben bestimmt, irgend etwas von dem Begriff des Wortes Vernunft herauszubringen? …
Ist es ferner möglich, … aus dem Verstande die empirische Anschauung eines Wortes zu finden? Ist es möglich, aus dem
Begriffe der Vernunft die Materie ihres Namens, d. i. die sieben Buchstaben oder zwei Silben im Deutschen oder irgend
543

lichen Materials grundsätzlich aus ihren finalen Ursachen, d. h. den Ergebnissen


von Interpretationen und Übersetzungen gewonnen werden. Diese werden jedoch
nicht aus dem Material „geschöpft“, sondern aus dem Wissensschatz der Inter-
preten an das Material herangetragen. Das wird unten im Abschnitt über das her-
meneutische Prozedere genauer gezeigt werden.
Das gilt auch für das Material der Geschichtswissenschaft, das ja zu einem
großen Teil als schriftliche Quellen vorliegt. Es gilt ebenso auch für alle über-
kommenen Relikte, z. B. Instrumente, Bau- und Kunstwerke. Aus ihrem Material
läßt sich ihr Sinn und ihre Bedeutung nicht erschließen, sondern nur aus den
Zwecken ihrer Verwendung. Sofern man diese nicht kennt, führt die Interpretation
zu einem „Non liquet“. Was jedoch zu keiner Zeit Grabräuber, Fälscher und
Sammler daran gehindert hat, ihre Seltenheit als ihre Bedeutung anzusehen und
diese als ihren Marktwert zu verstehen.
Die auf die Formursachen ausgerichtete Dimension geisteswissenschaftlicher
Forschung hat es vor allem mit der Begriffsbildung zu tun. Für die Formen spielen
daher die Logik und in manchen Fällen die Mathematik eine Hauptrolle. Wie von
allen Wissenschaften erwartet man auch von den Geisteswissenschaften klare und
deutliche Begriffe, in denen sie ihre Materialien ordnen und darbieten und damit
erklären.
In der Geschichtswissenschaft stammen die Formbegriffe in der Regel aus der
Induktion der gemeinsamen Merkmale des in den Narrativen ausgebreiteten Ma-
terials. Sie sind begriffliche Abbreviationen, wie schon Chladenius und Hegel
richtig gesehen haben. In den Theorien der Geschichte spannen sie die geistige
Welt der Vergangenheit als ideellen Besitz der Nationen und der Menschheit auf.
Wie jedoch vorn gezeigt wurde, lassen sich auf der Grundlage derselben Fakten
und Daten recht verschiedene Induktionsrichtungen einschlagen, je nachdem wel-
che Merkmale als generische Allgemeinheiten oder als Spezifikationen eines
historischen Phänomens angenommen werden. Historiker bedienen sich in ihren
Artikulationen meist der Alltagssprache und appellieren damit an eine Evidenz
ihrer Fachbegriffe, die der Leser leicht aus eigener Erfahrung nachvollziehen
kann. Bezüglich der Abbreviationen wie der von Hegel als Beispiel genannten
„Schlacht“, aber auch der von Max Weber vorgeschlagenen „idealtypischen Be-
griffe“ von Herrschaftsformen bis hin zu den Epochenbezeichnungen und dem,
was darin einbegriffen sein soll, gibt es unter Fachhistorikern wenig Übereinstim-
mung.
In der Sprachwissenschaft bringt sich der Unterschied realistischer und idea-
listischer metaphysischer Begründung hauptsächlich in der Gewinnung ihrer
Formbegriffe zur Geltung.
Für die realistische Sprachwissenschaft besteht das Ausgangsmaterial aller
Sprachen in artikulierten Lauten und gegebenenfalls in zeichenmäßigen Fixie-
rungen derselben. Diese sind stets sinnlich wahrnehmbare Entitäten. Daraus lassen

einer anderen Sprache zu finden?“ (Zit. nach H. Junker, Sprachphilosophisches Lesebuch, Heidelberg 1948, S. 43).
Hamanns Anwort ist ein ebenso klares Nein!
544

sich durch logische Induktion nur solche Merkmale herausstellen, die ebenso
sinnlich wahrnehmbare Eigenschaften des Sprachmaterials ausweisen. So z. B. die
sogenannten Moneme, Vokale, Konsonanten, Silben, Wörter und Satzformen mit
ihren zahlreichen Arten und Unterarten. Die klassischen schon durch die antiken
Grammatiker herausgestellten Wortarten sind bekanntlich Substantive, Eigen-
schaftswörter und Verben, daneben zahlreiche Formen von Partikel sowie Inter-
jektionen. Bei den Satzformen sind es vor allem die behauptenden Aussagen, die
Fragen, die Imperative und Desiderative. Auch die in der neueren Sprach-
wissenschaft als „Sprachfunktionen“ herausgestellten semantischen, syntaktischen
und pragmatischen (ggf. lokutionären und illokutionären bzw. performativen)
„Dimensionen“ bis hin zur „generativen und transformative Grammatik“ Noam
Chomskis sind solche Formen.
In diesen linguistischen Formbegriffen liegt freilich keinerlei Hinweis auf Sinn
bzw. Bedeutung dieser Sprachbestandteile, wie der „Magus aus dem Norden“
Hamann richtig festgestellt hat. So fruchtbar und unentbehrlich diese realistischen
Formbegriffe als Kategorien zur Beschreibung und Klassifizierung akustischen
und zeichenmäßig fixierten Sprachmaterials auch sind, so läßt sich doch daraus
nur ein Teilaspekt der Sprachphänomene erklären, keineswegs aber die wesent-
liche Eigenschaft der Sinn- und Bedeutungshaftigkeit der Sprache. Der „geistige“
Aspekt der Sprache ist, wie schon gesagt, nur in der teleologischen Forschungs-
dimension, mithin durch Interpretationen aufzuarbeiten. Dazu aber ist stets die
vollständige Beherrschung zumindest einer Sprache Voraussetzung, d. h. ein Ver-
stehen ihrer Bedeutungen, von wo aus der Sinn anderer Sprachen durch Über-
setzungen (als Interpretationen) erschlossen wird.
In den Literaturwissenschaften wird die Sinn- und Bedeutungsbefrachtung der
verwendeten Sprachzeichen bzw. Texte noch weithin als selbstverständlich vor-
ausgesetzt. Diese Selbstverständlichkeit verdankt sich zunächst der einfachen Tat-
sache, daß die Literatur traditioneller Weise ein Produkt des Mitteillungswillens
von sinnhaften Botschaften ihrer Schöpfer ist. Das kann man freilich heute nicht
mehr von allem, was als Literatur diskutiert wird, voraussetzen. Automatisches
Schreiben (écriture automatique), dadaistische Lautnotationen, Buchstabenpoesie
und viele „Bücher“ mit bloß als graphische Bilder verwendeten Schriftzeichen
oder gar mit leeren Seiten verblüffen immer wieder den Leser, der darin einen
Sinn und eine Botschaft sucht – die ihm freilich dann auch nur durch einfalls-
reiche Interpreten (Sinnmakler) vermittelt wird.
Die Idee, daß das Wesen der Sprache auf dem Sinn- und Bedeutungsgehalt ihrer
Lautungen beruhe, geht auf die Platonische Ideenlehre zurück. Platons „Ideen“
sind nichts anderes als die „mit dem geistigen Auge zu erschauenden“ (im reinen
Denken erfaßbaren) Sinn- und Bedeutungsgehalte der sinnlich wahrgenommenen
lautlichen Sprachphänomene. Das konnte er allerdings nur behaupten, weil er
seine griechische Sprache beherrschte. Platon hat es im Dialog „Kratylos“ schon
an den Bedeutungen einzelner griechischer Buchstaben und Silben und der Laute,
für die sie stehen, zu demonstrieren versucht. Von daher speist sich bis in die
545

Renaissance eine „etymologische“ Wortforschung, die in den Lauten und Laut-


verbindungen von Wortstämmen einer und/oder mehrerer verwandter Sprachen
ihren ursprünglichen Sinn zu erfassen suchte.
Der Kirchenvater Augustinus entwickelte aus der platonischen Ideenlehre seine
Lehre vom „inneren Wort“, das in der „äußeren“ Kommunikation seinen laut-
lichen und schriftlichen (phänomenalen) Ausdruck suchte. Und das wurde wie-
derum Grundlage der theologischen Interpretation der neutestamentlichen Stelle
des Johannesevangeliums, „das Wort (= der göttliche Geist als Sohn) ward
Fleisch“. Auch W. von Humboldt hat diese Meinung noch festgehalten, wenn er
in einer freilich etwas zweideutigen Weise von der „sich ewig wiederholenden
Arbeit des Geistes, den artikulierten Laut zum Ausdruck des Gedankens fähig zu
machen“, sprach. Erst Hamann hat u. E. den Sachverhalt richtig gestellt.
In ihrer Forschung verfahren auch die Literaturwissenschaften nach dem Vier-
Ursachenschema, und sie haben sich dazu eigene Begriffe von Sinn und Bedeu-
tung definiert. Diese fallen jedoch keineswegs mit den linguistischen Kategorien
zusammen.
Da der Gegenstandsbereich der modernen Literaturwissenschaften alle einzel-
sprachlichen Textsorten umfaßt, haben sie es in der Regel mit sprachlichem Ma-
terial zu tun, das allenfalls teilweise zu Begriffen verarbeitet ist. Die sinnvollen
Wörter der Gemeinsprachen besitzen – abgesehen von wissenschaftlichen Fachbe-
griffen, die in den allgemeinen Sprachgebrauch aufgenommen worden sind -
keine geregelten Extensionen für ihren Anwendungsbereich. Wir können sie im
Unterschied zu den Fachbegriffen „Ideen“ nennen.420 Man begnügt sich weitge-
hend mit sogenannten Wortfeldern, in denen mehrere verschiedene Wörter einen
„Sinnbezirk“ strukturieren und nach gewissen Bedeutungsschwerpunkten glie-
dern.421 Diese Forschungsrichtung, die vor allem von Leo Weisgerber ausgebaut
wurde, nennt sich „Sprachinhaltsforschung“ und signalisiert damit ihr Festhalten
an der Idee eines Enthaltenseins von Sinn in den Lautgestalten der Sprachen.
Dieser Umgang mit den Wortbedeutungen wurde zwar von H. Lipps als „herme-
neutische Logik“ stilisiert. Sie hat jedoch mit dem, was im Sinne der klassischen
formalen wie auch der modernen (mathematischen) Logik „Logik“ genannt wird,
nichts gemein, sondern versteht sich selber geradezu als Kritik und angebliche
Überwindung derselben.422

Zentrale Probleme und Themen: Die lebensphilosophische Wissenschaftstheorie


stellt in den Mittelpunkt ihrer Reflexionen, wie und in welchen Formen das Leben
in der Wissenschaft Ausdruck findet. Da sich hier gegenüber der materialistischen
Wissenschaftstheorie nur der „Träger” bzw. die „Basis” für die Erklärungen ge-
420
Dazu L. Geldsetzer, Wörter, Ideen und Begriffe. Einige Überlegungen zur Lexikographie, in: Ch. Strosetzki (Hg.). Lite-
raturwissenschaft als Begriffsgeschichte (Archiv für Begriffsgeschichte, Sonderheft 8), Hamburg 2010, S. 69 – 96.
421
Paradigmatisch: J. Trier, der deutsche Wortschatz im Sinnbezirk des Verstandes, Heidelberg 1931; darauf aufbauend:
L. Weisgerber, Vom Weltbild der deutschen Sprache, Düsseldorf 1949, 2. Aufl. 2 Bände 1953-1954.
422
Vgl. H. Lipps, Untersuchungen zu einer hermeneutischen Logik (1938), neue Ausgabe in H. Lipps, Werke, Band 2,
Frankfurt a. M. 1976; dazu E. Scheiffele, Der Begriff der hermeneutischen Logik bei Hans Lipps, Tübingen 1971.
546

ändert hat, teilt sie mit jener in vielen Punkten die realistischen Auffassungen be-
züglich der wissenschaftstheoretischen Problemstellungen und führt mit ihr
fruchtbare Auseinandersetzungen über ihre Lösungsmöglichkeiten.

1. Einheit, Klassifikation und Zersplitterung der Wissenschaften. Für die Lebens-


philosophie ist die Unterscheidung von Natur- und Geisteswissenschaften, wie sie
Wilhelm Dilthey im Anschluß an romantische Vorläufer (Ignaz Paul Vital Trox-
ler, Lorenz Oken, vor allem Schleiermacher) mit dem Leitspruch: „Die Natur er-
klären wir, das Seelenleben verstehen wir” in seinem Psychologieprogramm von
1894 formuliert hat, die Ausgangslage. Sie überläßt der Naturwissenschaft die
„Erklärung“ der Natur gemäß den Naturgesetzen und konzentriert sich aufs Ver-
stehen als „Nacherleben“ der Lebensäußerungen durch die und in den Geisteswis-
senschaften. Da sie aber alle Systembildungen, Klassifikationen und Architekto-
niken als Erstarrungen lebendiger Entwicklungen perhorresziert, hat sie sich weit-
gehend mit dieser Grundunterscheidung zufrieden gegeben. Innerhalb derselben
aber propagieren die Geisteswissenschaften die sogenannte Interdisziplinarität und
davon abgeleitet die „Intertextualität“ (Jacques Derrida, Julia Kristeva) ihrer
schriftlichen Objekte und darüber hinaus aller Artefakte.
Andererseits betonen sie auch die Einheit der Wissenschaften im Zeichen des
Universalitätsanspruchs der Hermeneutik. Darin liegt auch, daß es keinen prinzi-
piellen Unterschied zwischen Philosophie und Wissenschaft gibt. Nach Vorbil-
dung und Neigung sind wohl die meisten Lebensphilosophen selber Geisteswis-
senschaftler, d. h. Philologen (oft Altphilologen) und Historiker, zu denen im 20.
Jahrhundert die Ökonomen, Soziologen, Psychologen und Pädagogen hinzutraten.
Von daher neigen sie dazu, die spezifischen Probleme ihrer Disziplinen philoso-
phisch zu verallgemeinern oder – wie man sagen könnte – zu transzendentalphilo-
sophischen Fragen hochzustilisieren.
Probleme ergeben sich durch Methodenwanderungen und die zunehmende Ver-
wissenschaftlichung vieler bisher nichtwissenschaftlicher Berufs- und Tätigkeits-
bereiche.
Unter den Methodenwanderungen steht die Mathematisierung von Einzelwis-
senschaften oder Teilen derselben im Vordergrund. Damit wird zugleich eine
Zugehörigkeit zu den exakten Wissenschaften nach Maßgabe der Physik vin-
diziert, was das jeweilige Prestige erhöht. Das macht sich vor allem in der Sprach-
wissenschaft, in der Soziologie und Psychologie sowie in der Ökonomie bemerk-
bar. Es ist jedoch zu beachten, daß die Mathematik selbst eine exemplarische
Geisteswissenschaft ist. Ihre methodische Anwendung ist in einzelnen geistes-
wissenschaftlichen Fächern schon lange üblich. Als Beispiel sei an die Auseinan-
dersetzung zwischen J. F. Fries und J. F. Herbart über die Anwendbarkeit der
Mathematik im Bereich der (introspektiven) Psychologie erinnert, die von Fries
abgelehnt, von Herbart aber propagiert wurde.
Am meisten haben neuere politische Organisationsmuster für Veränderungen in
den Geisteswissenschaften gesorgt. Dazu gehört die deutsche Rahmen-Hochschul-
547

gesetzgebung von 1980, die die traditionelle Fakultätenordnung durch eine Fach-
bereichsordnung ablöste. Diese neue Ordnung sollte die z. T. unübersichtlich groß
gewordenen Fakultäten in kleinere Einheiten nach dem Gesichtspunkt der
Disziplinennähe aufteilen.
In der Tat kamen in den neuen Fachbereichen viele Fächerallianzen nach zu-
fälligen Sympathien und Kooperationen des beteiligten Personals zustande. Im
selben Maß ging das in den Fakultäten gepflegte Bewußtsein von dem, was eine
solide fakultäre Einzelwissenschaft ausmacht, verloren. Es setzte ein Wildwuchs
von neuen „Fächern“ unter ebenso neuen Bezeichnungen ein, die vor allem ver-
sprachen, ein beliebiges Problem zu „beforschen“. Da diese neuen „Wissenschaf-
ten“ jedoch auch Lehr- und Ausbildungsverpflichtungen übernehmen mußten, re-
sultierten daraus neu definierte Studiengänge, die ihren Lehrstoff „interdiszipli-
när“ zusammenrafften und damit den grundständigen Fakultätsfächern Konkur-
renz machten. Diese neuen Entwicklungen wurden jedenfalls von den politischen
Instanzen als „image-bildende Profilierung“ der jeweiligen Hochschule lebhaft
begrüßt und mit Sonderausstattungen an Personal- und Sachmitteln belohnt. Eine
neuere Sichtung deutscher Hochschulstudiengänge kommt auf die Zahl von 1800
veschiedener Kurrikula.
Weitere Probleme ergeben sich aus Mehrfachvertretung von Fächern in ver-
schiedenen Fachbereichen. Ein altes Beispiel ist die Verankerung der „geisteswis-
senschaftlichen“ Psychologie in der Philosophischen Fakultät und der „klinischen
Psychologie“ und Psychiatrie in der Medizinischen Fakultät. Neu gegründete
Fachbereiche entwickeln die Tendenz, sich grundständige Disziplinen ergänzend
anzugliedern, ohne stets auch die Expertise des Umgangs mit deren Inhalten zu
besitzen.
Nicht zuletzt sind die Geisteswissenschaften eine Art Auffangbecken für viele
praktische Berufsbildungsgänge geworden, die in „akademische Studiengänge“
umgewandelt worden sind und entsprechende akademische Qualifikationen und
Titel verleihen. Umso schwieriger ist es daher geworden, noch einen Überblick
über das Gesamt der geisteswissenschaftlichen Fächer und Disziplinen, erst recht
aber über den akademischen Wert ihrer Diplome zu gewinnen.

2. Die Entwicklung der Wissenschaften und insbesondere der Geisteswissen-


schaften. Dies Thema steht seit langem und originär im Zentrum lebensphilo-
sophischer Forschung, auch schon lange, ehe dergleichen als wissenschaftstheore-
tisch relevant angesehen wurde. Der Rückbezug der Geisteswissenschaften auf
ihre eigenen Disziplinen-Geschichten zusammen mit dem Bezug auf die Ge-
schichte ihrer Gegenstände gehört spätestens seit der „Renaissance”, die ja selber
eine „Wiederbelebung“ und eine geschichtliche Anknüpfung an die antike Wis-
senschaft war, zu ihrem Spezifikum, das sie von den Naturwissenschaften unter-
scheidet.
Literatur- und Sprachgeschichte sind seit der Renaissance die Schwerpunkte
aller geisteswissenschaftlichen Forschung. Es galt zunächst, sich der griechischen
548

und lateinischen Sprache für die damalige lateinische Lingua franca des Wissen-
schaftbetriebs zu versichern. Auch die Naturwissenschaften erhielten durch die
philologisch-historische Aufarbeitung ihrer antiken und mittelalterlichen Doku-
mente die neue Grundlage, die erst die berühmte „kopernikanische Revolution“
des naturwissenschaftlichen Weltbildes ermöglichte.
Die Hinwendung zur Antike gestaltete sich schon im 17. Jahrhundert zu einer
allgemeinen Entwicklungsgeschichte der Kulturen aus, wie etwa bei G. W. Leib-
niz, G. Vico, Voltaire und Herder. Auf der philosophischen Ebene führte sie zu
einer „entwickelnden“ Philosophiegeschichtsschreibung und zu Anfängen einer
philosophischen Begriffsgeschichte. Zusammen mit den Beiträgen weiterer Diszi-
plinen der Geisteswissenschaften ist sie von W. Dilthey zur umfassenden Geistes-
geschichte ausgebaut worden.423
Einer der Pioniere der „Geistesgeschichte“ war der Lebensphilosoph und Nobel-
preisträger Rudolf Eucken (1846 – 1926). Mit zahlreichen Schriften zur Lebens-
philosophie und zur Geschichte des „Geisteslebens“ hat er diesen Geist in weiteste
Bildungskreise gebracht.424 Diese Kultur- und Wissenschaftsgeschichte hatte den
Evolutions- und Fortschrittsgedanken zum Leitprinzip genommen. Durch die le-
bensphilosophische Begründung wurden der Entwicklungs- und der Fortschritts-
gedanke nochmals verstärkt und gleichsam potenziert, so daß er allenthalben als
die pure Selbstverständlichkeit galt.
Zeigt die Geschichte in ihrer chronologischen Darstellungsweise auch Teleolo-
gismen und Kausalismen jeder Art, so werden sie doch nur post festum konstatiert
und überdies nur als „Quasi-Gesetze”, als Analoga oder gar nur Metaphern natur-
wissenschaftlicher Gesetzlichkeiten aufgefaßt. Das gilt für Diltheys Lehre vom
allgemeinen „Wirkungs- und Strukturzusammenhang des Geschichtlichen” eben-
so gut wie von Gadamers „Wirkungsgeschichte”.
Diesem Paradigma evolutionärer Wissenschaftsgeschichtsbetrachtung gehört
auch die in den letzten Jahren vieldiskutierte und auch bei den vorgenannten
Schulen erwähnte Studie des Physikers und Physikhistorikers Thomas S. Kuhn
über „Die Struktur wissenschaftlicher Revolutionen” von 1962 an.425 Obwohl sie
der Terminologie nach alte – und man muß sagen: höchst umstrittene – Kate-
gorien der politischen Geschichtsschreibung auf die Geschichte der Naturwissen-
schaften (und nur auf diese) überträgt, indem sie hier Phasen der „normalen” und
der „revolutionären” Wissenschaftsentwicklung unterscheidet, ist der Verständnis-

423
Vgl. L. Geldsetzer, Art. “Geistesgeschichte” in J. Ritter (Hg.), Historisches Wörterbuch der Philosophie, Band 3, Basel-
Stuttgart 1974, Sp. 207 – 210; ders., Art. „Ideengeschichte“, ibid. Band 4, Basel-Stuttgart 1976, Sp. 135 – 137, ders., Art.
„Philosophiegeschichte“, ibid. Band 7, Basel 1989, Sp. 912 – 921. Vgl. dazu auch G. Santinello u. a. (Hg), Storia delle
storie generali della filosofia, 5 Bände Brescia 1979 - 1981 und Padua 1988 - 1995; das Werk liegt bis zum 3. Band auch
in englischer Übersetzuung vor.
424
R. Eucken, Geschichte der philosophischen Terminologie”, Leipzig 1879; Über Bilder und Gleichnisse in der Philo-
sophie, Leipzig 1880; Die Einheit des Geisteslebens in Bewußtsein und Tat der Menschheit, Leipzig 1888; Die
Lebensanschauungen der großen Denker, Leipzig 1890; Einführung in eine Philosophie des Geisteslebens, Leipzig 1908;
Mensch und Welt. Eine Philosophie des Lebens, Leipzig 1918; Die geistigen Forderungen der Gegenwart, Berlin 1928.
425
T. S. Kuhn, The Structure of Scientific Revolutions, Chicago 1962, 2. Aufl. 1970, dt. Übers. Die Struktur wissenschaft-
licher Revolutionen, Frankfurt a. M. 1967, 2. Aufl. 1976.
549

hintergrund ersichtlich der von konstanter Ausbreitung der Arten und mutatio-
neller und somit nicht voraussehbarer, zufälliger Entstehung neuer Arten, deren
Erfolg dann auch letztlich vom „Aussterben” der Anhänger des überkommenen
normalen Wissenschaftsparadigmas abhängen soll. Auch die hermeneutischen
Fragen des „Bedeutungswandels“ gleichlautender (homonymer) Begriffe bzw.
Termini im Übergang von alten zu neuen Theorien werden hier nach Art des
biologischen Funktionswandels von Organen behandelt.
Den Anschluß an die genuin biologische darwinistische Entwicklungstheorie
suchte dann auch die „Evolutionäre Erkenntnistheorie“ zu gewinnen. Ausgehend
von Th. S. Kuhns „Theoriendynamik“ wird die gesamte Wissenschafts- und Tech-
nikentwicklung als Anpassung des erkennenden Menschen an seine Umwelt und
als (technische) Ausgestaltung von Umweltnischen zu deren Lebensdienlichkeit
für den Menschen dargestellt.426
Es wäre erstaunlich, hätte sich die lebensphilosophische Wissenschaftstheorie
nicht auch der Kategorien von Krankheit, Krise, Niedergang und Tod bedient, um
Entwicklungstendenzen der Wissenschaft zu beschreiben. Man sieht das bei Os-
wald Spengler, der im „Untergang des Abendlandes” (der Titel stammt allerdings
vom Verleger des Werkes) auch die „faustische Wissenschaft“ nach ihrer Akme in
den Orkus versinken läßt. Aber im allgemeinen bleibt auch hierbei der Hinter-
grund ein Glaube an die ungebrochene und immer fortschreitende Evolution zum
Besseren, Höheren und Wahreren.
Husserl diagnostizierte zwar 1936 „Die Krisis der europäischen Wissenschaf-
ten”, aber nur, um seiner transzendentalen Phänomenologie umso wirkungsvoller
die Rolle des Retters zusprechen zu können.427 Heidegger denunzierte vielfach die
Verhüllung und Verbergung des „Seins“ durch die technische Wissenschaft und
die sie inaugurierende „Metaphysik“ seit Platon und Aristoteles. Dies aber nur,
um so entschiedener die hermeneutische Vermittlung mit vorsokratischer „Seins-
offenbarung“ betreiben zu können, in deren Geist er die „Seinsvergessenheit”
überwinden zu können glaubte. Und auch die Psychoanalyse macht auf diesem
Hintergrund reichlich Gebrauch von Krisen- und Krankheitsbulletins. Aber auch
Ludwig Wittgenstein, der mit seinem Spätwerk großen Einfluß auf die Gei-
steswissenschaften ausübte, betrieb sein Philosophieren erklärtermaßen als „The-
rapie“, was ja auch die Diagnose einer philosophischen Epidemie voraussetzt.428

426
Vgl. K. R. Popper, Objective Knowledge. An Evolutionary Approach, London 1972, dt. Übers. : Objektive Erkenntnis.
Ein evolutionärer Entwurf, Hamburg 1973, 2. Aufl. 1974; K. Lorenz, Die Rückseite des Spiegels. Versuch einer Naturge-
schichte des menschlichen Erkennens, München 1973, 2. Aufl.1977; R. Riedl, Biologie der Erkenntnis. Die stammesge-
schichtlichen Grundlagen der Vernunft, Berlin-Hamburg 1980; G. Vollmer, Evolutionäre Erkenntnistheorie. Angeborene
Erkenntnisstrukturen im Kontext von Biologie, Psychologie, Linguistik, Philosophie und Erkenntnistheorie, Stuttgart 1975.
- Dazu kritisch: Eve-Marie Engels, Erkenntnis als Anpassung? Eine Studie zur evolutionären Erkenntnistheorie, Frankfurt
a. M. 1989.
427
E. Husserl, Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einführung in
die phänomenologische Philosophie (1936), hgg. von Walter Biemel, in: Husserliana Band 6, Den Haag 1954 u. ö.
428
Wittgenstein hat sich im Jahre 1947 folgendermaßen geäußert: „Es ist nicht unsinnig, zu glauben, daß das wissenschaft-
liche und technische Zeitalter der Anfang vom Ende der Menschheit ist; daß die Idee vom großen Fortschritt eine Ver-
blendung ist, wie auch von der endlichen Erkenntnis der Wahrheit; daß an der wissenschaftlichen Erkenntnis nichts Gutes
550

Jedoch sind es immer die anderen, die krank und eventuell todgeweiht sind, wäh-
rend die eigene Theorie sich in strotzender Lebenskraft entwickelt.

3. Erkenntnistheoretische und ontologische Grundlagen. Die lebensphilosophi-


sche Begründung der Geisteswissenschaften privilegiert eine realistische Erkennt-
nistheorie und Ontologie. Da es auch für die Naturwissenschaften lebensphilo-
sophische Begründungstheorien gibt, hält man umso mehr den Realismus für eine
allgemeine Voraussetzung aller Wissenschaften. Viele Geisteswissenschaftler se-
hen sich dadurch in der realistischen Grundeinstellung bestätigt.
Ontologie als philosophische Grunddisziplin hat sich seit jeher als Entfaltung
der realistischen Voraussetzung eines selbständigen bewußtseinsunabhängigen
(ding-an-sichhaften) „Seins“ verstanden. Aristoteles hat sie als letztbegründende
Metaphysik konzipiert und sie als „Lehre vom Sein“ (ontología) definiert. Gei-
steswissenschaftliche Ontologie hat daher auch alles Geistige dieser Vorausset-
zung unterworfen. Man könnte sagen, sie hat den Geist „verseint“ und ihn auf
diese Weise zu einem selbständigen Erkenntnisobjekt gemacht. So spricht man
vom „geistigen Sein“ und vom „objektiven“ oder „objektivierten“ Geist“ (Nicolai
Hartmann). H.-G. Gadamer hat es auf die vielzitierte Formel gebracht: „Sein, das
verstanden werden kann, ist Sprache“.
Der naturwissenschaftliche Realismus definiert auch die zeitlichen Dimensionen
der Vergangenheit und der Zukunft als Seinsweisen. Daher bezieht sich natur-
wissenschaftliche Erkenntnis ebensowohl auf den je gegenwärtigen Weltzustand
wie auf die Vergangenheit und die Zukunft des Kosmos, indem sie zwischen
diesen Zuständen kausale Bezüge herstellt und in sogenannten Retrodiktionen und
Prognosen Abbilder des zeitlichen Naturseins (vom „Urknall“ bis zum Wärme-
oder Kältetod des Universums) entwirft. Die sich daran orientierende Geistes-
bzw. Kulturgeschichte wird dadurch zu einem Teil der Naturgeschichte.
Diese naturwissenschaftliche Ontologie ist - trotz der vorn erwähnten Vorschlä-
ge eigener Zeitbegriffe für die Geisteswissenschaften – auch im geisteswissen-
schaftlichen Realismus (und daneben in populären Wirklichkeitsvorstellungen)
beibehalten worden.
Das zeigt sich in der Geschichtswissenschaft seit der zweiten Hälfte des 19.
Jahrhunderts im historischen Realismus. Er setzt für historische Beschreibungen
die an sich seiende Realität des vergangenen Seins als schon erkanntes oder noch
unerkanntes Objekt der historischen Forschung voraus. Auf dieser Grundlage wird
dann auch eine wissenschaftliche Prognosefähigkeit des historischen Wissens für
das zukünftige Sein angenommen.
J. St. Mill hat in seiner „Logik“ die prognostische Kapazität der Geisteswissen-
schaften („moral sciences“) mit derjenigen der Meteorologie verglichen, die nur
wegen der unübersichtlichen Anzahl der relevanten Kausalfaktoren noch nicht in
der Lage sei, sichere Wetterprognosen zu erstellen. Auf solche Überzeugungen

oder Wünschenswertes ist und daß die Menschheit, die nach ihr strebt, in eine Falle läuft.“ Zit. nach K. Wuchterl und A.
Hübner, Wittgenstein, Reinbek bei Hamburg 1979, S. 129f.
551

gründet sich auch die markante Rolle, die vor allem Historiker in der Politik-
beratung und in Talkrunden spielen, wenn sie solche Prognosen künftiger Ent-
wicklungen abgeben.
Halten wir also fest: der historische Realismus behauptet die objektive Realität
der Vergangenheit. Ja, er hält sie oft sogar für ein „notwendiges“ Sein, da sie an-
geblich keinerlei Veränderungen unterliegen könne und meistens weit besser
bekannt sei als jede kontingente Gegenwart. Der Bereich des Zukünftigen, der in
Prognosen ausgemalt wird, heißt dann „mögliches“ Sein.
Mit dem Realismus wird die Unterscheidung von Objekt und Subjekt in den
Geisteswissenschaften grundlegend. Auch hier teilt der historische Realismus mit
dem naturwissenschaftlichen Realismus die Tendenz, sich ganz auf das Objekt zu
konzentrieren und das Subjekt als „Subjektives“ auszuschalten. Was nicht gelin-
gen kann, sondern zu dialektischen Folgen führt. Denn Subjekte sind die indivi-
duellen oder kollektiven Bewußtseine, die das historische Wissen „speichern“.
Und dieses historische Wissen wird zugleich gemäß dem realistischen Korrespon-
denzprinzip als „Abbildung des Objektes im Subjekt“ definiert.
An den Objekten interessiert die Geisteswissenschaften nicht dasjenige, was der
Natur zuzuschreiben ist und von den Naturwissenschaften erforscht wird. Es inter-
essieren vielmehr diejenigen Eigenschaften, die als Spuren menschlicher Bear-
beitung an natürlichem Material ausweisbar sind. Es handelt sich bei diesen Spu-
ren um sinnlich wahrnehmbare Zeichen an gegenwärtigen materiellen Trägern,
die auf etwas verweisen, was selbst nicht sinnlich wahrgenommen wird. Und
diese Zeichenverweisung erklärt erst, daß und warum Sinn und Bedeutung, auf die
in solchen Zeichen verwiesen wird, als Objekte der Geisteswissenschaften etwas
anderes sind als „ontologisches“ Sein.
Die Verweisungen dieser Artefaktspuren werden für denjenigen, der die Spuren
überhaupt als Zeichen erkennt, zu Evokationsauslösern von Erinnerungen an et-
was früher Wahrgenommenes. Das hat Platon als das berühmte Aha-Erlebnis bei
der sinnlichen Wahrnehmung der Phänomene, das die Anamnesis der Ideen aus-
löst, deutlich beschrieben. Es sind diese Erinnerungen, die das Vergangene zu
einer geistigen Gegenwart machen. Das aber wirft ein anderes Licht auf die On-
tologie der Zeitdimensionen und führt auf die Zeittheorie des Augustinus zurück:
Die Vergangenheit und alles Vergangene ist ontologisch vernichtet, aber „in der
Seele“, d. h. im Bewußtsein ist die Vergangenheit als Erinnerung aktuell und prä-
sent.
Hauptspur und Hinweis-Zeichen auf die Geschichtlichkeit der Artefakte ist ihr
Alter. Das Alter und seine Zeichennatur ist gänzlich in der physikalischen Zeit-
ontologie verankert und verstärkt infolgedessen alle Vorurteile über die „Realität
der Vergangenheit“ auch in den Geisteswissenschaften. Denn das Zeitmaß für die
Altersbestimmung gibt überall der „Sonnenumlauf“ im Jahreszyklus vor. In der
physikalischen Kosmologie wird das Alter der Gestirne und des ganzen Kosmos
noch stets in Jahren berechnet (derzeit ca. 14 Milliarden Jahre). Dies auch für Ver-
gangenheiten, in denen es eine Periodik heliozentrischer Planetenkonstellationen
552

als Maßenheiten nicht gegeben hat. Gleichwohl interpretiert die Kosmologie die
Rotverschiebung im Spektrum der gegenwärtig bei irdischen Meßgeräten ankom-
menden Signale aus entferntesten kosmischen Regionen als Alterspuren des
Lichtes und schließt daraus auf eine kosmische Vergangenheit.
Die geologischen und biologischen Altersbestimmungen setzen sich in den Be-
reich der archäologischen und kulturellen Altersbestimmungen fort und nehmen in
der geschichtswissenschaftlichen Chronologie, die sich ihrerseits immer wieder an
astronomischen Singularitäten (wie das Auftreten von Kometen) ausrichtet, gera-
dezu naturwüchsigen Charakter an.
Unterschiedliche Alter und Alterungszustände sind Varietäten der Eigenschaften
von natürlichen Dingen und Lebenwesen. Wer etwas als „alt“ erkennt, muß sich
an die Zustände des Jung- oder Neuseins erinnern können und zugleich bemerken,
daß das Alte eine Art von Dingen ist, die er jederzeit auch als junges bzw. neues
Ding wahrnehmen kann. Und entsprechend evoziert auch das als jung wahrge-
nommene Ding die phantasierte Vorstellung davon, wie es in der Zukunft „alt
aussehen“ würde. Das ist es, was Aristoteles als „Entelechie“ der Lebewesen be-
schrieben hat, die ihren Reifezustand in jedem früheren Zustand schon als „Ten-
denz“ in sich tragen.
Das Alter ist daher nicht die Vergangenheit selbst, denn die Alterspuren sind nur
Zeichen an Gegenwärtigem. Man kann allenfalls sagen, daß sowohl die Natur wie
auch jeder Mensch und die ganze menschliche Kultur ihre Vergangenheit als ge-
genwärtige Zeichen mit sich führen. Dies jedoch nur in der Gestalt solcher
Zeichen, welche die Erinnerung, die phantastische Ausmalung oder die Kon-
struktion dessen evozieren, was in der Vergangenheit längst zum Nichts geworden
ist oder in einer unwirklichen Zukunft liegt und deswegen gerade nicht zum Sein
gehören kann.
Alles, was in dieser Weise Altersspuren aufweist, erhält seine Verständlichkeit
und Beglaubigung also nicht durch einen Vergleich mit Zuständen „wie es gewe-
sen war“ (Leopold v. Ranke), sondern mit dem, was jeweils in der Gegenwart eine
Erinnerung auslöst. D. h. mit dem, was in derselben Art und Gattung von Lebe-
wesen und Dingen als jung und alt, als abgenutzt und neu beobachtet wird. Gäbe
es nicht die Generationen und Alterskohorten, so könnte sich kein alter Mensch
erinnern oder vorstellen, was und wie er in seiner Jugend gewesen ist. Und ebenso
kann sich kein junger Mensch vorstellen, was im Alter aus ihm werden wird, es
sei denn gemäß dem Bilde, das ihm die alt gewordenen Zeitgenossen zeigen.
Diese Eigenschaften der Altersspuren erweisen die Falschheit der realistischen
ontologischen „Verseinung“ der Vergangenheit, und ebenso der erkenntnistheo-
retischen Objektkonstruktion von Sinn und Bedeutung im Realismus. Die ideali-
stische Sicht der Dinge wirft ein anderes Licht auf diese Sachverhalte und ent-
täuscht die darin liegende Täuschung.
Die Ontologie der Zeitzeichen ist zwar grundlegend für die Geschichte. Darüber
hinaus ist sie aber auch relevant für die Sprachwissenschaft als anderes Standbein
der Geisteswissenschaften. Die Sprache ist – anders als die historischen Zeitzei-
553

chen – schon immer unter dem Gesichtspunkt ihrer Zeichenhaftigkeit behandelt


worden. Vielleicht – und vieles spricht dafür – ist Sprache die wichtigste Sorte al-
ler Artefakte.
Ihre Zeichenhaftigkeit ist an Geräusche für das Gehör und an Gestalthaftigkeit
für das Auge und die Hand gebunden. Geräusche und Gestalten sind die natür-
lichen Zeichen an denjenigen Artefakten, die sich als die beiden wichtigsten
Sprachverwendungen herausgebildet haben: die Lautsprachen und die Schrift-
sprachen einschließlich der ikonischen. In diesen Sprachgestalten verweisen die
wahrgenommenen Geräusche und die Gestalten auf Sinn und Bedeutung, die bei
der Sprachverwendung nicht sinnlich wahrgenommen werden, sondern aus der
Erinnerung „hinzu gedacht“ (ein Ausdruck des Sextus Empirikus) werden müs-
sen.
Bestimmte Geräusche als artikulierte Laute sind pure Nachahmungen von natür-
lichen Geräuschen, die in Abwesenheit der natürlichen Geräuschquelle an diese
Quellen erinnern („Wau-wau-Theorie“ à la Herder, dann vor allem von H. Lotze
ausgearbeitet). Sie hervorzubringen und artikulieren zu können dürfte den ge-
meinsamen Ursprung von Gesang und Musik markieren. Da Geräusche und Laute
jedoch flüchtige Artefakte sind, deren Evokationsfunktionen kurz und variations-
reich sind, dürfte die Lautsprache später als die Schriftsprache entstanden sein.
Schriften sind artikulierte Bilder. Das gilt auch von den alphabetischen und an-
deren Buchstaben, auch den Zahlzeichen, die ihren ursprünglichen Bildcharakter
noch ahnen lassen. Bilddarstellungen sind ihrer Natur nach relativ beständig, zu-
weilen außerordentlich dauerhaft (wie die Höhlenmalereien). Ihre Evokations-
leistung kann momentan sein, aber auch längere Betrachtung erfordern. Dadurch
ist auch ihre Evokationsfunktion nachhaltiger. Sie regen „zum Denken an“, was
nichts anderes heißen kann, als evozierte Erinnerungen darauf hin zu prüfen, ob
und wie sie mit einem „Schrift-Bild“ zusammenstimmen.
Ikonische Schriftzeichen wie die aus Radikalen zusammengesetzten komplexen
chinesischen Schriftzeichen evozieren bis heute eine mehr oder weniger große
Menge von Vorstellungen. In Wortzusammenstellungen können sie daher ausge-
dehnte Sinn- und Bedeutungskomplexe evozieren. Der Umgang mit ihnen und
das, was man ihr Verständnis nennt, kann lange Reflexion erfordern und setzt
reiches Erleben und aufmerksames und geschultes Erinnern voraus. Das spricht
ebenfalls dafür, daß die Ausbildung von ikonischen Schriftsprachen älter ist als
diejenige von Lautsprachen. Aber da archäologische Bild- und Figurenfunde in
der Regel als Kunstwerke (mit nichtsprachlichem Sinn) verstanden werden, wer-
den sie nicht als älteste Sprachzeichen erkannt.
Das Bedürfnis, dauerhafte Bilder flüchtiger artikulierter Laute zu erfinden,
dürfte sich bei allen Formen des Tausches unter Populationen als Sicherung bzw.
als eine Art Pfandwesen (des „do ut des“) ergeben haben. Die gesprochene Verab-
redung vergißt sich leicht, und daher waren Zeichen dafür, daß etwas ver- und
besprochen wurde, Garanten der sozialen Verläßlichkeit. Daher beziehen sich die
ältesten Schriften besonders auf Geschäfte, Verträge und Gesetze.
554

Aber die gesprochenen Laute der Wörter einer bestimmten Sprache verweisen
nicht von sich aus auf etwas anderes. Sie sind selber Dinge neben anderen, die zur
Umwelt gehören. Und ebenso wie uns die Dinge durch Beobachtung und Umgang
mit ihnen bekannt und vertraut werden, so werden auch die einzelnen Wörter der
„Muttersprache“ durch Hören und Nacherzeugen dem Kleinkind erst einmal als
Geräusche bekannt und vertraut.
Daß die gesprochenen Wörter zu Zeichendingen werden können, muß in einer
besonderen Anstrengung gelernt werden, und dies für jedes Wort einzeln und
besonders. Worauf die Wort-Zeichen verweisen, ist ihr Sinn bzw. ihre Bedeutung,
und diese beruhen auf den Konventionen der einzelnen Sprachgemeinschaften.
Da Sinn und Bedeutung keine sinnlich wahrnehmbaren Dinge sind, werden sie
auch nicht mit Zeichen verwechselt. Wohl aber sind sie bildhafte Vorstellungen
von Dingen, daher auch von den Wörtern selbst. Diese Vorstellungen werden
durchweg aus der Erinnerung an das Lernen der Sprach-Verweisungen erzeugt.
Oft erinnert man sich ja, wann und unter welchen Umständen man von einem
(neuen) Wort Kenntnis erlangt hat. Und gelegentlich stößt man auf Modewörter,
öfter aber auf Fachwörter spezieller Berufe (auch der Wissenschaft), deren Ver-
weisungen zwar vorausgesetzt, deren Sinn aber durchaus unverständlich bleibt.
Sie können ganzen Generationen als sinnloses Phrasenmaterial dienen, deren
sozialer Gebrauch nur in Kommunikationen von „Gerede“, d. h. artikulierten Ge-
räuschen besteht. Dies ist besonders augenfällig, und wie man auch sagen könnte
„ohrenfällig“, hinsichtlich der Kunstwörter, die aus Anfangsbuchstaben von Fach-
begriffen zu Akronymen zusammengesetzt sind. Sie machen die Gebrauchsanwei-
sungen vieler Geräte und insbesondere den ganzen IT-Bereich für die meisten
Benutzer unverständlich.
Heute ist der „Äther“ durch die Funkindustrie ein kolossaler Behälter von
Geräuschen, von denen neben den Musikartefakten die gesprochenen Sprachen
den größten Anteil darstellen. Das Hauptmerkmal der Sprachbotschaften ist, daß
sie für den größten Teil der Menschheit (außerhalb des unmittelbaren Sendebe-
reichs) unverständlich sind.
Ob oder daß sie Sinn und Bedeutung haben, kann der sprachunkundige Hörer
allenfalls vermuten, eben weil sie in den Funkmedien ertönen. Der sprachkundige
Hörer muß ihnen Sinn und Bedeutung erst zuordnen, um sie überhaupt als
Sprache zu erkennen. Er kann das aber nur, wenn die Lautungen Erinnerungen an
wahrgenommene Dinge, Vorgänge und Handlungen in ihm hervorrufen, die er
früher beobachtet und durch Wörter und Sätze zu identifizieren gelernt hat, und
die ihm in der Rundfunksendung wieder begegnen.
Fassen wir diese Überlegungen in einer logischen Pyramide des metaphysischen
Prinzips und der ontologischen und erkenntnistheoretischen Begriffe zusammen,
die allem Umgang mit Sprache und mit der Geschichte zugrunde liegen.
a. Das Prinzip bzw. der metaphysische Axiombegriff besteht hierbei im Begriff
der geistigen Aktivität. Dafür hat schon Wilhelm von Humbold die klassische
Bezeichnung Energeia vorgeschlagen.
555

b. Diese Aktivität konkretisiert sich in den beiden Arten der sinnlichen Wahr-
nehmung bzw. Beobachtung und der erinnernden Vorstellung bzw. Imagination.
G. Berkeley hat die Identität des sinnlich Wahrgenommenen mit dem Sein nach-
gewiesen („esse = percipi“); G. F. Hegel die Identität des „Er-Innerten“ mit dem
Geistigen in seiner „Phänomenologie des Geistes“. Die beiden Arten der geistigen
Aktivität sind damit zugleich konstitutiv für die natürliche und die artifizielle
Gegenwartswelt einerseits und für die Welt der erinnerten Ideen andererseits.
Beide „Welten“ lassen sich in jeweils zwei Unterarten einteilen.
c. Die Welt des sinnlich Wahrgenommenen teilt sich in die Natur und die Kultur
(Artefakte). Die Welt der Sinngebilde teilt sich in die Vergangenheitswelt der
Geschichte und in die Welt des sprachlichen Sinnes und der Bedeutungen. Jedoch
sind die Bereiche des Geschichtlichen und des sprachlichen Sinnes durch ihre
jeweiligen Verständniszugänge des Erinerns und Vorstellens engstens verwoben.
Als Unter-unter-Arten aus diesen ergeben sich:
d. Natur teilt sich in die physikalisch-chemische „tote“ Natur und die biolo-
gische „lebendige“ Natur. Kultur (Artefaktwelt bzw. die Welt menschlicher Pro-
dukte) teilt sich dihäretisch in die Güterwelt handwerklicher Produktionen und in
die Welt der technischen Produkte.
Die Welt der Kunstproduktionen hat Anteile sowohl handwerklicher wie techni-
scher Herstellung und ist daher als dialektischer Begriff aus der Verschmelzung
beider zu definieren. Auf der Dialektik des Kunstbegriffs beruht die „Freiheit“ der
Kunstproduktion. Der widerspruchsvolle Charakter der Kunst erklärt, warum sich
die Kunstwerke weder auf pures Handwerk noch reine Technik zurückführen las-
sen, obwohl sie sich nur auf beides stützen können. Dies grenzt echte Kunstwerke
zugleich von beidem und von allem, was nicht Kunst ist, ab. Nicht-Kunst ist zwar
oft als Kunst gemeint, aber sie besteht dann in zweckentfremdetem Handwerk
oder funktionsloser Technik.
Wie schon W. v. Humboldt und viele andere richtig bemerkt haben, sind die
Sprachen insgesamt Kunstwerke. Sie haben deshalb Anteil an der Dialektik aller
Kunstwerke. Sowohl ihre Lautzeichen wie erst recht ihre Schriftzeichen sind wohl
die wichtigsten und bedeutendsten Kunstwerke der Menschheit. Und wie bei allen
Kunstwerken bleiben ihr historischer und systematischer Sinn- und Bedeutungs-
gehalt stets Ziel unabgeschlossener und unabschließbarer (zetetischer) hermeneu-
tischer Forschung und/oder (dogmatischer) institutioneller Festlegung.

4. Hermeneutik als allgemeine Methodenlehre des Verstehens


Aristoteles hat mit seiner Schrift „Über die Interpretation“ (griech.: Peri herme-
neias; lat. De interpretatione) die Hermeneutik als Teildisziplin der Logik begrün-
det. Ihr Gegenstand ist der Bereich der Bedeutungen bzw. des Sinnes. Sinn und
Bedeutung sind, wie im vorigen Abschnitt dargelegt, Vorstellungen, die im Be-
wußtsein durch sprachliche Zeichen evoziert werden. Sie sind nach Aristoteles
556

„Abbilder der sinnlich wahrgenommenen Dinge“.429 Diese aristotelische Bedeu-


tungsdefinition ist für diejenigen hermeneutischen Theorien verbindlich geblie-
ben, die die Verstehensbemühung als Forschung zur Erfassung von Sinn aus und
in den Zeichen begreifen.
Die Hermeneutik ist von Aristoteles offensichtlich als Kritik an der platonischen
Ideenlehre entwickelt worden. Nach Platon sind die – mit einem „geistigen Auge
zu schauenden“ – Ideen selbst Sinngebilde bzw. Bedeutungen, und diese sind die
wahre Wirklichkeit. Sie bilden nicht Dinge ab, sondern verleihen den sonst flüch-
tigen und vielfältigen Erscheinungen der sinnlichen Erfahrung erst Realität, Ein-
heitlichkeit und Stabilität durch Teilhabe (methexis, participatio) an ihnen. Da
auch Lautungen und Schriftzeichen der Sprache zu den sinnlich wahrgenom-
menen Phänomenen gehören, erhalten auch diese in der platonischen Lehre Sinn
und Bedeutung nur durch die Teilhabe an der Sinnwirklichkeit der Ideen.
Auch diese platonische Bedeutungslehre ist in mehr oder weniger deutlicher
Gestalt bis heute aktuell geblieben. Sie gibt den Hintergrund für diejenigen Her-
meneutiktheorien ab, die das Verstehen als eine Praxis der Sinngebung begreifen.
Platon nennt es „Glauben“ (pistis) und „Meinung“ (dogma), wenn sinnliche Phä-
nomene im Lichte der Ideen erfahren werden. In der neuplatonischen Tradition
verbinden sich die stoischen Begriffe „Dogma“ (lat. decretum, Rechtsvorschrift)
und „placitum“ (Lehrmeinung) mit dem platonischen Dogmenbegriff und ver-
schaffen ihm den Rang von Argumenten zur Letztbegründung von religiösen und
rechtlichen Glaubens- und Gesetzessystemen.
Der Gegensatz der aristotelischen und der platonischen Auffassung vom Ver-
hältnis der Sinngebilde zur Wirklichkeit liegt auch dem mittelalterlich-scholasti-
schen Universalienstreit zugrunde und verfestigte dadurch die hermeneutischen
Positionen.
Im Universalienstreit vertraten die radikalen Aristoteliker bzw. Nominalisten die
Meinung, daß die Laut- und Schriftzeichen als Teile der materiellen Wirklichkeit
Sinn und Bedeutung in der Gestalt der Universalien nach und gemäß den Dingen
(„post rem“) als Denkbilder im Bewußtsein hervorrufen. Umgekehrt vertraten die
(von den Aristotelikern so genannten) „Ideenrealisten“ bzw. Platoniker die Mei-
nung, daß Sinn und Bedeutung unabhängig und selbständig – als „Gedanken
Gottes vor der Schöpfung der Welt“ und im „conscientialen“ Mit-Wissen der
Menschen - vor den materiellen Zeichen und Dingen (ante rem) bestünden, und
daß erst im Nachhinein gewisse materielle Dinge durch In-Beziehung-Setzung zu
solchem Sinn zu Zeichen oder Symbolen würden. Vermittelnd traten die gemäßig-
ten Aristoteliker auf, die Sinn und Bedeutung in die Zeichen selbst verlegten.
Auf diesem Hintergrund ist Verstehen von Texten für die Aristoteliker we-
sentlich ein „Ausschöpfen“ von Sinn und Bedeutung aus den Textzeichen und
somit ein Lernprozess des Lesers hinsichtlich der Bildung seines subjektiven Wis-
sens aus verstandenem Textsinn. Für die Platoniker aber bleiben die Textzeichen

429
Aristoteles, Peri hermeneias / De interpretatione, hgg. v. P. Gohlke, Paderborn 1951, S. 86.
557

nur ein Anlaß, immer schon vorgegebenes und an den Text herangebrachtes Wis-
sen (hermeneutische „Vor-Urteile“) im Bewußtsein zu aktualisieren: Texte wer-
den zu einer Art materieller Evokationsmaschine von Ideen im Bewußtsein des
Lesers, die als Sinndeutung und Interpretation theoretische Gestalt annehmen und
an die Textzeichen herangetragen werden. Die Texte und Dokumente erhalten im
Bereich des Verstehens die Funktion von Spiegeln: Sie erzeugen die Illusion, daß
in ihnen zu sehen bzw. zu verstehen sei, was man doch hinzubringen und vor sie
hinstellen muß.
Diese gegensätzlichen platonisch-idealistischen und aristotelisch-realistischen
Einstellungen bestimmen dann auch das Verhältnis des Lesers zum Buch und all-
gemeiner des Intellektuellen zur Buch- und Schrift- bzw. Zeichenkultur in der
Neuzeit.
Für den aristotelisch-realistischen Interpreten wird jeder Text und jedes Kul-
turdokument zum Forschungsgegenstand, aus dem nach bestimmten hermeneu-
tischen Regeln der in ihm vorausgesetzte Sinn bzw. die Bedeutung erschlossen
und gelernt werden kann und soll. Und das führt zu der heutigen Einstellung und
Erwartung, daß mit der Vermehrung von Texten und Artfakten zugleich auch
immer neuer Sinn geschaffen werde.
Für den platonisch-idealistischen Interpreten sind Texte und Dokumente, um
nur von diesen zu reden, nur Gedächtnisstützen, anhand derer ein je gegenwär-
tiges Wissen in Interpretationen exemplifiziert und in der Anamnesis aktualisiert
wird. Diese Einstellung zieht eine gegenteilige Einschätzung der Textproduktion
nach sich: Die anwachsenden Textmengen verhalten sich für den wissenden Inter-
preten geradezu umgekehrt proportional zu dem Sinngehalt, den sie zu evozieren
vermögen.
Die beiden hermeneutischen Grundeinstellungen haben in der Geschichte der
Hermeneutik in den beiden unterschiedlichen Typen ihren Niederschlag gefunden,
die wir als dogmatische (anwendende) und zetetische (forschende) Hermeneutik
näher beschreiben.430

Die dogmatische Hermeneutik entwickelt sich aus den platonischen Voraussetzun-


gen. Sie ist die Methodologie des interpretierenden Umganges mit institutionell
ausgezeichneten ‚autoritativen‟ Texten und Dokumenten. Diese sind gleichsam
besonders ausgewählte Spiegel, die von den Institutionen aufgestellt und ständig
poliert werden. Zu diesen gehören in erster Linie die sogenannten heiligen Schrif-
ten und die in Geltung stehenden Gesetzestexte, die ihrerseits die Grundlage für
die Ausbildung der dogmatischen Disziplinen der Theologie und der Jurisprudenz
darstellen. Die Institutionen sind die religiösen Glaubensgemeinschaften und die
weltlichen Mächte, schließlich aber auch die Wissenschaften.
Die dogmatische Hermeneutik wurde jeweils im Rahmen dieser Disziplinen als
biblische Hermeneutik der Theologie und als juristische Hermeneutik des Rechts
430
Die Termini „dogmatisch“ und „zetetisch“ habe ich dem kantischen Sprachgebrauch entnommen. Vgl. I. Kant, Nach-
richt von der Einrichtung seiner Vorlesungen 1765 – 1766, in: Werke, Akad.-Ausg. Band 2, S. 307.
558

entwickelt. Nach ihrem Beispiel sind spätestens seit der Renaissance auch die
sogenannten Klassiker der Profanliteratur in der Philologie dogmatischen Inter-
pretationsverfahren unterworfen worden. Klassische Texte sind in allen Diszi-
plinen der Geisteswissenschaften säkulare Sinn- und Bedeutungsmagazine gewor-
den, deren dogmatische Interpretationen Anworten auf die Probleme des Selbst-
verständnisses und der Sinngebung der Individuen, Gruppen oder ganzer Nationen
in ihren jeweiligen Zeitlagen geben. Insbesondere sind in der neuzeitlichen Wis-
senschaft Lexika und Enzyklopädien, Lehr- und Handbücher als ‚dogmatische‟
Texte behandelt worden. Erst in der Gegenwart deutet sich auch in der Wirt-
schaftswissenschaft ein Bewußtsein vom dogmatischen Einsatz ökonomischer
Klassikertheorien vor allem in der Wirtschaftspolitik an.
Dogmatische Hermeneutik regiert auch den Umgang mit den Kunstwerken, ins-
besondere die Aufführungspraxis der darstellenden Künste. Diese Aufführungen
nennt man selbst Interpretationen. Sie setzen jeweils ein „kunstmäßiges Ver-
stehen“ des dogmatisch vorausgesetzten Sinnes der Kunstwerke, der Tragödien
und Kommödien sowie der literarischen Texte und der musikalischen Notationen
voraus.
M. Heideggers These, daß jedes Verstehen aus dem praktischen „Umgang mit
Zeug“ erwachse, sowie H.-G. Gadamers Hermeneutik des „kunstmäßigen Verste-
hens“ knüpfen an dieses Interpretationskonzept an. Bei beiden spielt die „Vorur-
teilsstruktur des Verstehens“ eine hervorragende Rolle, und das erweist die Wirk-
mächtigkeit des platonischen Ansatzes.
E. Betti hat den verschiedenen Formen der Interpretationspraxis besondere
Aufmerksamkeit gewidmet. Sein Ansatz knüpft jedoch an die aristotelische Tra-
dition an, die Sinn und Bedeutung in den Zeichen selbst sucht und finden will.
Darüber hat zwischen Gadamer und Betti eine lebhafte aber fruchtlose Auseinan-
dersetzung stattgefunden.
Trotz der traditionellen Einschränkung der Hermeneutik auf die Geisteswis-
senschaften ist aber auch im Zusammenhang der naturwissenschaftlichen und der
formalen (logischen und mathematischen) Methodologie vielfach von Interpre-
tation die Rede. Man spricht hier von Interpretation bzw. Deutung von Fakten und
Phänomenen einerseits (in statistischen Erhebungen, Versuchsprotokollen u. ä. oft
auch „Bewertung“ genannt) und von der Interpretation formaler Kalküle anderer-
seits. Ersichtlich geht es auch hierbei um Übersetzung bzw. Übertragung eines
vorausgesetzten strukturellen Sinnes von Formalismen (Kalkülen, Strukturkernen
von Theorien) auf Phänomene und ihre Zusammenhänge, und umgekehrt von
Eigenschaften und Zügen phänomenal-anschaulicher Gegebenheiten (Modelle)
auf formale Strukturen. Auch diese stehen unter Regeln einer dogmatischen Her-
meneutik. Davon soll im nächsten Abschnitt ausführlicher die Rede sein.
Solche Regeln gebieten z. B., daß Theorien zu exhaurieren und nicht ohne Not
aufzugeben sind; daß Phänomene zu ‚retten‟ und nicht ohne besondere Gründe als
artifizielle Produkte von Versuchsanordnungen oder gar Meßfehlern gedeutet
werden sollten; daß formale Kalküle durch mindestens ein Modell, d. h. norma-
559

lerweise durch mehrere Modelle deutbar sein müssen, u. ä. Freilich sind diese
hermeneutischen Einschüsse in der Methodologie der Naturwissenschaften, die
auf die neuplatonische Tradition einer Naturinterpretation (interpretatio naturae,
„Lesen des Buches der Natur“) zurückgehen, noch keineswegs in einem angemes-
senen Klärungszustand. Gleichwohl wird man auch sie als Ausprägungen dogma-
tischer hermeneutischer Verfahren charakterisieren können.
Die Einstellung des „Dogmatikers“, sei er Theologe, Jurist oder Lehrer eines be-
stimmten Faches, ist – noch immer gut platonisch – die, daß er sich auf die „dog-
matischen“ Texte beruft. Und er tut es in der Regel nur ad hoc, aus gegebenem
Anlaß zur Beantwortung einer bestimmten Glaubens- oder Gewissensfrage, zur
Entscheidung eines Rechtsfalles, zur Aufführung eines bestimmten Schauspiels
oder Musikwerkes oder zur Vergewisserung über einen bestimmten Lehrgegen-
stand. Er würde sich als Dilettant oder Laie erweisen, wenn er nicht aus seiner
Ausbildung bzw. aus dem Studium das dazu nötige Vor-Wissen mitbrächte, um
die einschlägigen Argumente aus der Literatur heranzuziehen, sich über sie zu
vergewissern und sie als Beweismittel oder Stützen für seine Interpretation zu
verwenden.
Die dogmatische Hermeneutik weist im Unterschied zur zetetischen spezifische
Charakteristika auf. Als wesentlich wird gewöhnlich der „applikative Aspekt“
herausgestellt: die Anwendungsbezogenheit. Sie besteht darin, daß eine dogma-
tische Auslegung nur ad hoc, d. h. zur Beantwortung bestimmter Fragen und zur
Lösung von bestimmten Problemen (Glaubensfragen, Rechtsfällen, Übersetzun-
gen, Aufführungen, Problemlösungen u. ä.) eingesetzt wird. Durch die dogma-
tische Interpretation wird ein institutionell gestützter Textsinn so aufbereitet, daß
er für die Anwendung auf praktische Fragen nutzbar wird.
Gleichwohl sollte man hier genau zwischen der eigentlichen Interpretation und
der Anwendung des dadurch gewonnenen Textsinnes auf die Probleme unter-
scheiden. Die Anwendung auf den Fall unterliegt ihrerseits nicht hermeneuti-
schen, sondern logischen Regeln der Subsumption des Einzelnen und Besonderen
(des Falles bzw. des Problems) unter das Allgemeine des hermeneutisch festge-
stellten Textsinnes: dieser liefert die logischen Prämissen für die schlußmäßige
Deduktion einer Antwort auf die gestellten Fragen bzw. eines Urteils über den
anstehenden Fall.
Für die dogmatische Interpretation gelten folgende Kriterien bzw. „Kanons“:

1. Sie ist strikt fachgebunden (disziplinär). D. h. sie hat immer von den in den
relevanten kanonisierten Texten vorgegebenen Ideen bzw. Theorien des jewei-
ligen Faches auszugehen, die im Fache als letzter Stand des Wissens gelten. Diese
theoretischen Vorgaben erschließen „kanonische“ Spielräume für die Interpreta-
tionen. Der Fachmann muß sie kennen und unterscheidet sie in der Regel sehr
genau von allen ‚Allotria‟ dilettantischer, unfachlicher oder fachfremder Interpre-
tationsgesichtspunkte.
560

2. Die dogmatische Hermeneutik macht keine Wahrheitsansprüche. Sie kennt


daher auch keine Wahrheitskriterien. Wenn gleichwohl in jeder Dogmatik mehr
oder weniger emphatisch die „Wahrheit“ z. B. der Heiligen Schrift, des Gesetzes,
eines Kunstwerkes oder eines Lehrgehaltes, darin eingeschlossen auch mathema-
tische Formeln, beschworen wird, so geschieht dies in übertragener Bedeutung,
um der jeweiligen Angelegenheit Gewicht zu geben. Gemeint ist mit dieser dog-
matischen „Wahrheit“, daß auf keine anderen Begründungen zurückgegriffen
werden soll als eben die „Dogmen“ und die sie gewährleistende Autorität. Da-
rüber wurde in § 3 schon ausführlich gehandelt.

3. Die dogmatische Hermeneutik gibt Kriterien für die Qualität und Effizienz
der Interpretation vor. Eine dogmatische Interpretation kann gut oder schlecht,
fachgerecht (kompetent) oder dilettantisch (inkompetent), elegant oder über-
zwerch, brillant oder abgeschmackt, scharfsinnig oder dumm, konzise oder redun-
dant, im Grenzfall noch zulässig (pertinent, „möglich“) oder abwegig (extrava-
gant, „unmöglich“) genannt werden, nicht aber wahr oder falsch.

4. Das Effizienzerfordernis besagt auch, daß eine dogmatische Interpretation


immer gelingen muß. Es gilt das Non-liquet-Verbot. Die dogmatische Interpre-
tation hat somit stets ein Ergebnis zu zeitigen, das den Bezugstext als „sinnvoll
und einschlägig“ für die erwünschten Antworten, Entscheidungen und Anwendun-
gen erscheinen läßt.

5. Dabei setzt man bei dogmatischen Texten, solange sie in Geltung stehen („in
Kraft sind“) immer eine „überschießende Sinnfülle“ voraus, die grundsätzlich
nicht auszuloten ist. Die Heilige Schrift ist ‚höher als alle Vernunft‟, das Gesetz
ist ‚klüger als der Gesetzgeber‟, der Klassiker ‚hat uns immer noch etwas zu
sagen‟, Musiknoten und Drehbücher können zu immer neuen und anderen Auf-
führungen dienen, und auch das gute Lexikon oder Lehrbuch („Nachschlage-
Werk“) bietet immer mehr als das, was man ad hoc gerade verwenden kann.

6. Die dogmatischen Auslegungsregeln erlauben mindestens alternative, meist


jedoch mehrfache (konkurrierende) Interpretationsmöglichkeiten. Für die Durch-
führung von Einzelinterpretationen haben insbesondere die Jurisprudenz und
Theologie spezifische Regeln – hermeneutische Kanons – entwickelt, die solche
konkurrierenden Interpretationen ermöglichen. Sie sind zugleich darauf ausge-
richtet, die jeweiligen dogmatischen Texte als Bezugstexte auszuzeichnen, sie von
anderen Textsorten abzugrenzen und zugleich die Fachgebundenheit, Qualität und
Effizienz sowie notwendiges Gelingen der Auslegungen zu gewährleisten.

Geben wir dazu einige Beispiele für die Anwendung dieser Kanons in den klas-
sischen dogmatischen Disziplinen sowie dort, wo man sie bisher kaum durch-
schaut hat.
561

1. Die Theologie ist im Abendland eine der „höheren Fakultäten“. Ihr Hauptkenn-
zeichen ist, daß sie auf der „Heiligen Schrift“ beruht, deren Sinngehalt sie als
Offenbarung des Gottes verwaltet und auslegt. Wie eine Theologie dies zustande
bringt, ist nach den verschiedenen „Bekenntnissen“ verschieden. In christlichen
Fakultäts-Theologien gibt es in der Regel eine Spezialdiszipin der Bibelexegese,
die besonders als „Dogmatik“ bezeichnet wird. Dies im Unterschied zu den
übrigen theologischen Disziplinen, die der Forschung und Lehre der relevanten
Sprachen, der Archäologie, der Kirchengeschichts usw. gewidmet sind. Letztere
verwenden die „zetetische Hermeneutik“.
Für die dogmatische Auslegung sind in den christlichen Theologien charakte-
ristisch die Kanons (griech.: Gesetze) vom zwei- oder mehrfachen Schriftsinn. Der
buchstäbliche (Literal-) Sinn oder vordergründige Sinn wird vom eigentlichen
(kerygmatischen) Sinn oder Hinter-Sinn (sensus mysticus) unterschieden. Diese
Unterscheidung geht auf Philon von Alexandrien zurück. Die bekannteste Regel
zur Exegese des mehrfachen Schriftsinnes wurde von Johannes Cassianus (ca. 360
– nach 430 . Chr.) als Kanon des vierfachen Schriftsinnes formuliert. Sie lautet in
späterer Formulierung: Littera gesta docet, quid credas allegoria; moralis quid
agas, quo tendas anagogia (Der buchstäbliche Sinn lehrt die Fakten, die Allegorie
den Glaubensinhalt, der moralische Sinn das, was zu tun ist, der ‚erbauliche‟,
wonach zu streben ist. Vgl. auch § 23).
In der katholischen Theologie des lateinischen Westens ist diese Kanonik des
mehrfachen Schriftsinnes bis heute erhalten gelieben. Sie ist jedoch so ausgestaltet
worden, daß die durch die Kirche selbst ausgezeichneten „Lehrer“ mit ihren Lehr-
meinungen bestimmenden Einfluß auf die Auslegung der heiligen Schrift gewon-
nen haben. Sie liefern – parallel zur Auslegung der römischen Gesetze in den von
Kaiser Justinian promulgierten „Digesten“ (Rechtsgutachten) der berühmten
Rechtslehrer – gewissermaßen die multiplen Präjudizien für die Auslegungsmög-
lichkeiten der Hl. Schrift.
Die Kritik an dieser Kanonik hat in der alten römischen Kirche immer wieder
den Vorwurf der Verfälschung des eigentlichen genuinen Sinnes der Hl. Schrift,
d. h. des „sensus mysticus“, erhoben. Das führte zu den zahlreichen „fundamenta-
listischen“ Sektenbildungen unter Leitung selbsternannter Lehrer, Propheten oder
„Erleuchteten“, die diesen genuinen Sinn der biblischen Offenbarung erkannt zu
haben glaubten und ihn ihren Anhängern verkündeten. Die Reaktion von Seiten
der katholischen Kirche auf diese Fundamentalismen war und ist noch immer die
Verurteilung solcher Auslegungsansprüche als Häresie, Ketzerei und Sektierer-
tum.
Auch der Protestantismus der Renaissance war eine Fundamentalkritik an der
katholischen Auslegungskanonik. Er berief sich jedoch, anders als die mittelal-
terlichen Fundamentalismen, auf die avancierte Philologie der Renaissance, um
den einzigen und „wahren“ Sinn allein und ausschließlich aus den biblischen
Texten (und zwar nur den als solche von ihm anerkannten) zu eruieren. „Das Wort
562

sie sollen lassen stahn!“ und „sola scriptura!“ war bekanntlich der Schlachtruf
Martin Luthers, und seine Übersetzung des alten und neuen Testaments aus den
hebräischen bzw. aramäischen und griechischen Quellen sollte der philologisch
begründete „Beweis“ für das einzig mögliche Verständnis der göttlichen Offenba-
rung sein.
Das für diese philologisch begründete protestantische Hermeneutik repräsen-
tative Werk ist die „Clavis Scripturae Sacrae“ (Schlüssel zur Hl. Schrift) des
Lutherfreundes und Mitstreiters Matthias Flacius Illyricus (M. Vlacich aus Albona
im heutigen Kroatien, 1520 – 1575). Es ist zuerst 1567 und zuletzt in 12. Auflage
1719 erschienen. Es enthält im ersten Teil ein umfassendes Bibellexikon und im
zweiten Teil des Flacius eigene Theologie, die ihrerseits mit dem Abschnitt „Über
den Erkenntnisgrund der Hl. Schrift“ beginnt.431 Die hier teils „aus der Hl. Schrift
selbst entnommenen“, aber auch „nach unserm Urteil gesammelten oder ausge-
dachten Regeln“ haben bis heute immer wieder die Aufmerksamkeit protestan-
tischer Theologen auf sich gezogen und die hermeneutischen Diskussionen an-
geregt.
Protestantische Dogmatiker betonen zwar auch seither den Vorrang des Bibel-
textes für das Verständnis der biblischen Botschaft. Doch sie haben aus der katho-
lischen Tradition auch die Berufung auf anerkannte Kirchenlehrer und auf deren
verschiedene Interpretationsgesichtspunkte übernommen. Aus der Bevorzugung
des einen oder anderen Interpretationskanons haben sich die verschiedenen „Be-
kenntnisse“ entwickelt, die gleichwohl sämtlich zur christlichen Religion gehö-
ren.432

2. Die Jurisprudenz als ebenfalls „höhere Fakultät“ beruht auf der Verwaltung
und Auslegung geltender Gesetze. Auch diese Aufgabe wird in Spezialdisziplinen
wahrgenommen, die jeweils als „Dogmatiken“ der verschiedenen Rechtsgebiete
ausgewiesen werden.
Auch die juristischen Dogmatiken haben für ihre Gesetzesinterpretationen meh-
rere in Alternativen verknüpfte Auslegungskanons zur Verfügung.
Der Gesetzestext ist entweder eindeutig gemäß „planem“ bzw. „deklarativem“
Wortverständnis oder er läßt mehrere Deutungen zu. Ist er mehrdeutig, so wird er
nach vorgängigem Beispiel höherer Auslegungsinstanzen (Präjudiz) interpretiert.
Das ist in der Regel am sichersten und wird besonders im angelsächsischen Case-
Law gepflegt. Die Präjudizien sind selbst Interpretationen, die aus dem Kontext
der Gesetzesmaterie („ratio legis“) oder auch gemäß der historischen Intention des
Gesetzgebers („Wille des Gesetzgebers“) gewonnen wurden. Verschränkt damit
kann ein einzelner Gesetzesterminus gegebenenfalls im üblichen Wortsinn oder

431
L. Geldsetzer (Hg. und Übers.), Matthias Flacius Illyricus, De Ratione Cognoscendi Sacras Literas / Über den
Erkenntnisgrund der Heiligen Schrift (aus der Clavis Scripturae Sacrae, ed. 1719). ND in Instrumenta Philosophica Series
Hermeneutica III, Düsseldorf 1968.
432
Zur theologischen Hermeneutik vgl. G. Ebeling, Art. „Hermeneutik“ in: Die Religion in Geschichte und Gegenwart.
Handwörterbuch für Theologie und Religionswissenschaft, 3. Aufl. Tübingen 1959, Sp. 242 – 262;
563

restriktiv (restrictio, eingeschränkter Begriffsumfang) oder erweitert (ampliatio,


ausgeweiteter Anwendungsbereich des Begriffs, im Strafrecht unzulässig!) inter-
pretiert werden. Vielerlei Denkfiguren für die Verknüpfung von Rechtsbegriffen
zu Auslegungstopiken lassen sich auch aus der Analogie zu Denkfiguren aus je-
weils anderen Rechtsbereichen gewinnen.
Durch Begriffserweiterungen und Analogien lassen sich auch sogenannte Ge-
setzeslücken zuverlässig schließen. Deshalb ist auch die interpretative Behauptung
einer Gesetzeslücke, die auf ein Non liquet hinausliefe, in vielen Gesetzeskodifi-
zierungen explizit als unzulässig erklärt worden.
Viele Gesetzestermini werden auch von vornherein im Gesetz als „ausfüllungs-
bedürftig durch die Rechtssprechung“ ausgewiesen, was der richterlichen Inter-
pretation erhebliche dogmatische Spielräume eröffnet. Im Umgang mit allen die-
sen Kanones bewährt sich am meisten juristischer Takt und Gespür für das, was
unter besonderen Umständen als Argumentation für eine Interpretation überzeu-
gen kann.433
Nicht nur für die Rechtsanwendung, sondern auch für die Gesetzgebung stellt
die Rechtsdogmatik eine Prinzipienalternative zur Verfügung, die sich gewöhnlich
hinter dem Gerechtigkeitsprinzip des „Ius suum cuique tribuere“ („Jedem sein
Recht zukommen lassen“, bei Cicero, De natura deorum III, 38, und in den Justi-
nianischen Institutionen 1, 1, 3 - 4) verbirgt. Das Gerechtigkeitprinzip wird ge-
wöhnlich unter Berufung auf Aristoteles so definiert, daß es darauf ankomme,
„Gleiches gleich und Ungleiches ungleich zu bewerten und zu behandeln“.
Aristoteles hat für diese Alternative zwei Gerechtigkeitsbegriffe formuliert: die
distributive (dianemetikòn díkaion, „zumessende“) und die kommutative (diortho-
tikòn díkaion, wechselseitig „ausgleichende“) Gerechtigkeit. 434 Sie sind bei Ju-
risten und Gesetzgebern bis heute wohlbekannt. Merkwürdiger Weise wird die
kommutative Gerechtigkeit meist als Anweisung zur Gleichbehandlung des Glei-
chen interpretiert. Man meint dann, sie liege allen Gleichstellungsbestrebungen in
modernen Gesellschaften zugrunde. Die Formel steht jedoch gerade für das Ge-
genteil: Sie gebietet, Ungleiches gleich zu behandeln. Schon gar nicht legt sie fest,
was und wer als gleich oder ungleich behandelt werden darf und soll. Das bleibt
sowohl dem Gesetzgeber wie auch dem Gesetzesausleger überlassen.

433
Zur juristischen Hermeneutik vgl. H. Jäger, Studien zur Frühgeschichte der juristischen Hermeneutik, in: Archiv für
Begriffsgeschichte 18, 1974, S. 35 – 84; L. Geldsetzer (Hg.), A. F. J. Thibaut, Theorie der logischen Auslegung des
römischen Rechts (ND der 2. Aufl. Altona 1806), Einl.: „Zur Geschichte der juristischen Hermeneutik bis auf Thibaut“, S.
XV – XLIII; Jos. Esser, Vorverständnis und Methodenwahl in der Rechtsfindung. Rationalitätsgarantien in der richter-
lichen Entscheidungspraxis, Frankfurt a. M. 1970; St. Meder, Zetetik versus Dogmatik? Eine Grundfrage der juristischen
und theologischen Hermeneutik, in: St. Meder u. a. (Hg.), Juristische Hermeneutik zwischen Vergangenheit und Zukunft,
Baden Baden 2013, S. 225 – 244.
434
Aristoteles, Nikomachische Ethik, hgg. von Fr. Dirlmeier, Frankfurt a. M. 1957, S. 108 - 116. Aristoteles bezieht die
erstere auf die ungleiche „Zuteilung von Ehren“, worunter man auch die zu seiner Zeit sehr belastenden Ehrenämter verste-
hen muß; letztere bezieht er auf den Interessenausgleich zwischen geschäftlichen Vertragspartnern. Da aber ungleiche
Belohnungen und Belastungen, und ebenso die Gleichbehandlung von Geschäftspartnern ersichtlich zu Ungerechtigkeiten
führen kann, hat Aristoteles nach seiner ethischen Maxime, stets die „Mitte zwischen den Extremen“ einzuhalten, eine die
Alternativen vrmittelnde höhere Gerechtigkeit, die sogenannte „Billigkeit“ (epieikés, auch „Gerechtigkeit schlechthin;
dikaion) als Kompromiß zwischen der distributiven und der kommutativen Gerechtigkeit formuliert und empfohlen.
564

In der modernen parlamentarischen Gesetzgebung liegt die distributive Gerech-


tigkeit als „linke“ oder „soziale Gerechtigkeit“ allen Initiativen zur Gleichstellung
(oder auch Gleichmachung) der Bürger zugrunde, indem sie die „Starken belastet“
und die „Armen bzw. Schwachen subventioniert“. Die kommutative Gerechtigkeit
ist dagegen als „rechte (oder konservative) Gerechtigkeit“ darauf ausgerichtet, die
Unterschiede der Bürger aufrecht zu erhalten und zu gewährleisten, indem sie alle
„ohne Ansehen der Person“, d. h. ohne Rücksicht auf ihre individuellen, gesell-
schaftlichen und besonders ökonomischen Unterschiede gleichbehandelt. Sie wird
zwar in öffentlichen Diskussionen kaum noch erwähnt, aber dennoch häufig
angewandt.
Da die Rechtsdogmatik stets bemüht ist, alles Recht und die Gesetze als eine
Rechtseinheit zu behandeln, werden die Gerechtigkeitsalternativen jeweils als spe-
zielle Interpretationsweisen in den einzelnen Rechtsgebieten angewendet.
Als Hauptbeispiel sei die distributive Lohn- und Einkommensteuer erwähnt
(meist noch zusätzlich progressiv ausgestaltet), die auf Ausgleich der Vermögens-
niveaus ausgerichtet ist. Ihr stehen gegenüber die kommutative Kopf- und Mehr-
wertsteuer (die Arme und Reiche mit dem gleichen Steuersatz belasten). Das
Strafrecht war in den Ständegesellschaften distributiv (mit unterschiedlichen
Gerichten und Strafen für die verschiedenen Stände) ausgestaltet. In den Demo-
kratien wurde es kommutativ „ohne Ansehen der Person“ ausgerichtet. Jedoch
stellen neuerdings die Geldstrafen im Strafrecht „gemäß unterschiedlicher Tages-
einkommen der Straftäter“ sowie die „Deals“ (ausgehandelte Strafen) Einschüsse
distributiver Gerechtigkeit dar.
Da die Rechtsdogmatiker schon immer wußten, daß die extremen Gerechtig-
keiten wiederum ungerechte Rechtsfolgen zeitigen können („Summum ius summa
iniuria“ bei Cicero, De officiis I, 33), wird der weise Gesetzgeber und Rechts-
anwender nach aristotelischem Rat die Mitte zwischen diesen Extremen als
„Kompromißlösung“ im Auge behalten. Dadurch vermeidet er sowohl übermäßi-
ge Unterschiede als auch übermäßige Gleichmacherei unter den Rechtsgenossen.
Das hat Aristoteles bekanntlich als den Hauptzweck der Staatskunst herausge-
stellt.

3. Die ökonomische Dogmatik, die aus der Rechts-. und Staatsfakultät heraus-
gewachsen ist, besteht aus den Klassikerinterpretationen ihrer neuzeitlichen Grün-
derväter. Man erkennt dies aus den Bevorzugungen des einen oder anderen Klas-
sikers in ihren Ursprungsländern.
Es gibt noch immer den Merkantilismus, der besonders die deutsche Wirt-
schaftsdogmatik beherrscht, wo der allgemeine Wohlstand auf die aktive Han-
delsbilanz der Exportüberschüsse zurückgeführt wird. Es gibt noch die franzö-
sische Physiokratie, die ihn auf die Bodenschätze und die Landwirtschaftsernten
als „Geschenke der Natur“ zurückführt. Sie sind noch immer die Quelle des
Wohlstandes einiger der reichsten Staaten in der Welt. Es gibt den angelsächsi-
schen Kapitalismus, der die Pflege der Produktionsfaktoren Kapital und Arbeit
565

und den freien Markt für die Verteilung favorisiert. Und nicht zu vergessen: Es
gibt auch den Monetarismus des Schotten John Law (1671 - 1729 Bankier und
Erfinder des Papiergeldes), der dem Ancien Régime Frankreichs zunächst große
Prosperität und Wohlstand verschaffte ehe er es ruinierte. Von dessen autonomen
„spekulativen“ Finanzmärkten erwarten auch jetzt noch viele Staaten Prosperität
und Wohlstand. Sie schließen sich mehr oder weniger dem kommutativen Gerech-
tigkeitsideal an und befördern die ökonomische Ausnutzung des Homo oecono-
micus nach allen seinen unterschiedlichen und vielfältigen Fähigkeiten und Bega-
bungen.
Ihnen steht die sogenannte linke Ökonomie gegenüber, die dem distributiven
Ideal der sozialen Gerechtigkeit verpflichtet bleibt. Die Interpretationsmöglichkei-
ten ihres Erz-Klassikers Karl Marx sind bekanntlich vielfältig und lassen sich
leicht auch mit den vorgenannten amalgamieren. Die politischen Umsetzungen
haben die Bevölkerungen meistens gleich, aber arm gemacht. Ob es gelingt, die
Gleichen auch gleichmäßig reich zu machen, bleibt bisher noch ein welthisto-
risches Experiment, besonders in der VR China.

4. Was die klassische Literatur betrifft, so sind ihre dogmatischen Stützinstitu-


tionen in erster Linie die nationalen Schulaufsichtsbehörden und die sie bera-
tenden Literaturwissenschaftler, nicht zuletzt aber auch die Lehrerverbände, die
Schulbuchverlage und die Literaturkritiker. Die Schulbehörden lizensieren ausge-
wählte Klassikerwerke für den Unterricht, die sie für die allgemeine Volksbildung
für wichtig und nützlich halten. Dadurch legen sie naturgemäß auch den Klas-
sikerkanon der in den Schulen zur Lektüre empfohlenen Texte und der zur Lehrer-
ausbildung zu berücksichtigenden Literatur fest. Er ist freilich niemals abge-
schlossen, sondern wird ergänzt durch Neuzugänge und gelegentlich purgiert
durch Obsoletwerdung. Obwohl auch in allen nationalen Literaturwissenschaften
viel von Hermeneutik die Rede ist, konzentrieren sich hier die wissenschaftlichen
Debatten auf die zetetische Interpretation. 435

5. Auch die Mathematik als reine Geisteswissenschaft hat nie ihre platonischen
Wurzeln verleugnet, die hier zu einer bisher kaum beachteten dogmatischen Her-
meneutik geführt haben. Viele bedeutende Mathematiker seit Leibniz haben die
Mathematik insgesamt als eine Characteristica universalis, also als eine universel-
le Zeichensprache, und schließlich als „Idealsprache“ erklärt. Das ist eine neuzeit-
liche Folge aus der Grundthese der platonischen Naturphilosophie, daß das „Buch

435
Das Feuilleton kennt eher die tatsächlichen dogmatischen Kanons und bekennt sich zu ihnen. Als Beispiel diene eine
Hamletaufführung am Wiener Burgtheater. Ein scharfsinniger Rezensent hält das shakespearische „Rätselmultistück aus
dem Jahre 1603“ für mindestens in sechsfacher Weise als Tragödie auslegbar. Es sei nämlich „eine Staatstragödie, ein
Spionagereißer, ein Liebesdrama, eine Kindertragödie, ein Kriegsbericht, ein Schlachtfest“. Auch als Kommödie sei es
auslegbar, nämlich als „Unzuchtschlangengrube, Inzuchtscharteke, Haifischbeckenvermessung, Intrigantenverknäuelung,
Sohneskomplex, Totenbeschwörung, und so fort“. Alle Kanons zugleich anzuwenden, disqualifiziere die Aufführung.
(FAZ. vom 30. Sept. 2013, S. 27). – Zum üblichen Umgang mit der Hermeneutik in der germanistischen Literatur-
wissenschaft vgl. M. Buschmeier, Poetik und Philologie in der Goethe-Zeit. Studien zum Verhältnis der Literatur mit ihrer
Wissenschaft, Tübingen 2008.
566

der Natur“ in „mathematischen Buchstaben“ geschrieben sei. Auch jetzt noch


dürften die meisten Mathematiker davon überzeugt sein, daß geometrische und
arithmetische Zeichen und ihre Verknüpfungen durch Rechenoperatoren (mathe-
matische Junktoren) eine spezielle Notationsweise mathematischer Gedanken oder
Ideen und theoretischer Erkenntnisse seien.
So wie die Lautsprachen mittels ihres „Alphabets“ notiert werden, besteht das
Alphabet der Mathematik (und Physik) hauptsächlich aus geometrischen und
arithmetischen Zeichen, die durch spezielle logische Zeichen für die Operatoren
angereichert wurden. Auch zahlreiche grammatische Zeichen (z. B. Punkte, Kom-
mas, Klammern, Anführungszeichen) sowie Buchstaben aus recht verschiedenen
Lautalphabeten als spezielle Zeichen zur Notation bestimmter geometrischer
und/oder arithmetischer Zeichenkomplexe (z. B. von Strecken, Winkel, Variablen,
Konstanten, Zahlarten, Mächtigkeiten usw.) traten hinzu.
Beide Alphabete haben beschränkten Umfang, so daß sie auf einer oder wenigen
Buchseiten dargestellt werden können.436 Daher liegt auch die Suggestion nahe,
daß in der Mathematik zwischen den mathematischen Ideen – dem Sinngehalt –
und ihren Zeichen – den geometrischen Gebilden und den Zahlzeichen und mathe-
matischen Formeln - dasselbe oder ein analoges Verhältnis bestehe, wie man es in
der Sprachwissenschaft zwischen Sinn und auf ihn verweisende Buchstabenzei-
chen und deren grammatischen Kombinationen voraussetzt.
Zumindest die Analogie erscheint als selbstverständlich, wenn mathematische
und logische Argumentationen ebenso wie literarische Texte in Zeilen von links
nach rechts und untereinander seitenfüllend notiert werden. Gottlob Frege hat ver-
mutlich sehr zu diesem Verständnis beigetragen, als er den mathematischen (und
logischen) Zeichen „Sinn“ und ihren satzmäßigen Verknüpfungen „Bedeutungen“
(Wahrheitswerte) zusprach und daraus eine besondere mathematische „Begriffs-
schrift, eine der arithmetischen Formelsprache nachgebildete Formelsprache des
reinen Denkens“ (1879) entwickelte.
Seither sind zahlreiche Fachbegriffe der Sprachwissenschaft in die Mathematik
übernommen worden, die diesen Eindruck verstärkt haben. Man spricht und
schreibt über mathematische Syntaktik, Semantik und Pragmatik und glaubt
dadurch ihren formalen Charakter, den Bezug ihrer Formalismen auf die mathe-
matischen Sinngebilde und ihre Anwendungsmethoden präzise zu erfassen.
Diese Analogisierung von Mathematik und Sprachwissenschaft kann den Be-
sonderheiten der Mathematik jedoch nicht völlig gerecht werden. Sie dürfte in
vielerlei Hinsicht irreführend sein. Gewiß stellt dieses „Sprachverständnis“ der
mathematischen Formalismen eine Barriere für alle diejenigen dar, die Mathema-
tik nicht nur studieren, sondern auch verstehen wollen.
In allen Wissenschaften liest und spricht man in irgend einer Muttersprache, und
diese Wissenschaftssprachen sind in der Regel durch Übersetzungen konver-
tierbar. Auch Mathematiker sprechen in ihren Muttersprachen, und sie notieren

436
Vgl. Art. „Mathematische Zeichen“ in R. Knerr, Goldmann Lexikon Mathematik, München 1999, S. 276 - 295.
567

auch ihre Einsichten und Argumentationen in ihren Muttersprachen und ihren


konvertierbaren Texten. Aber sie „lesen“ nicht ihr mathematisches Alphabet, son-
dern buchstabieren es gegebenenfalls zur Erläuterung dessen, was sie meinen.
Keiner „spricht Mathematik“, sondern eine sinnvolle Muttersprache, in der auch
Mathematisches als Anteil der Bildungsgehalte thematisiert werden kann.
Es scheint deshalb so, als ob die Charakteristica universalis tatsächlich eine für
jeden Nichtmathematiker unbekannte Sprache sei, die zwar nicht gesprochen, in
welcher aber „gedacht“ werden kann und muß, und die man nur durch das
Studium der Mathematik erlernen und beherrschen könne. In diesem Unterschied
zum normalen Sprachgebrauch liegt ersichtlich die Besonderheit, ja auch das
Prestige der mathematischen Characteristica universalis gegenüber allen anderen
Wissenschaften.
Hat man diese Sprache gelernt und beherrscht sie, so sollte es möglich sein, aus
ihr in seine oder irgend eine Muttersprache zu übersetzen und dadurch sich und
anderen den mathematischen Sinn des Gedachten verständlich zu machen. Erst
recht sollte und müßte die Übersetzung erlauben, die mathematischen (und die sie
hauptsächlich benutzenden physikalischen) Gedanken adäquat und vollständig
zum Ausdruck zu bringen.
Daß dies einem Mathematiker (oder einem die Mathematik anwendenden Phy-
siker) jemals gelungen wäre, kann man bezweifeln. Der Duktus einschlägiger
Veröffentlichungen und Lehrvorträge besteht durchweg in der Berufung auf axio-
matische Evidenzen und Voraussetzungen, aus denen sich das Vorgetragene „ra-
tional“ und „von selbst“ verstehe, so daß man auf diese Voraussetzungen niemals
zurückkommen müsse. Auf Nachfrage werden dann gewöhnlich die Klassiker und
mathematischen Genies genannt und deren Studium empfohlen. Ihre Namens-
nennung dient alleine schon als Argument für die Gediegenheit und Wahrheit
ihrer Leistungen.
Die Mathematik hat sich erst mit G. Boole u. a. eine „mathematische Logik“
zugelegt, von der sie behauptet, daß sie die klassische Logik voll ersetze. Alles,
was an dieser nützlich und effektiv gewesen sei, habe sie von ihr übernommen
und verbessert. Und als „moderne“ sei sie nunmehr die geeignete und unent-
behrliche Methodologie aller avancierten exakten Wissenschaften.437
Dies ist ein erstaunliches und bisher kaum erforschtes historisches Phänomen
angesichts der Tatsache, daß die Mathematik jahrhundertelang als autonome
Methodologie der Naturwissenschaften im Verband des Quadriviums ohne Be-
437
Peter Schroeder-Heister, Art. „Logik, mathematische“ in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissen-
schaftstheorie, Band 2 Mannheim-Wien-Zürich 1984, SS. 677f.: Mathematische Logik wird verstanden „1. Als die moder-
ne Gestalt der formalen Logik,…die mit mathematischer Strenge und Exaktheit betrieben wird… 2. Als mit mathe-
matischen Methoden betriebene Logik… 3. Als mit logischen Methoden betriebene Mathematik… 4. Als Logik der Mathe-
matik im Sinne einer Methodenlehre (d. h. Wissenschaftstheorie) der Mathematik… 5. Als Oberbegriff für eine Reihe von
Disziplinen, die von anderen mathematischen Gebieten abgegrenzt, jedoch in der Regel an mathematischen Instituten
beheimatet sind. Das ‚Handbook of Mathematical Logic„ (ed. J. Barwise, 1977) führt als solche Disziplinen auf: Beweis-
theorie, Mengenlehre, Modelltheorie, Rekursionstheorie. In diesem Sinne wird m. L. häufig auch mit Metamathematik
identifiziert“. – Vgl. auch G. Boole, The Mathematical Analysis of Logic. Being an Essay Towards a Calculus of De-
ductive Reasoning; Cambridge 1847, ND New York 1965; ders., An Investigation of the Laws of Thought, on Which are
Founded the Mathematical Theories of Logic and Probabilities, London 1854, ND. New York 1951.
568

ziehungen zur Logik der trivialen Geisteswissenschaften sich selbst genügt hatte.
Vor der im Laufe des 19. Jahrhundert erfolgten Trennung der quadrivialen und tri-
vialen Teile der alten Philosophischen Fakultät hatten die Philosophen noch streng
zwischen Logik und Mathematik unterschieden. Davon zeugt am auffälligsten
Kants Befassung mit den unterschiedlichen Denkweisen dieser Methodiken.
Was die Mathematik durch ihre Einvernahme der Logik und deren Ausgestal-
tung als Grundlagendisziplin des ganzen Faches erreicht hat, ist vor allem die
Aufdeckung von Widersprüchen in all ihren Spezialdisziplinen, und dies meist in
der Form von Paradoxien. Das hätte längst darauf aufmerksam machen müssen,
daß das mathematische Denken auf einer anderen Logik beruht als der „trivialen“
klassischen Logik.
In der Tat handelt es sich um den Ausbau der von Aristoteles aus der Logik
herausgehaltenen Dialektik und ihren Anschluß an die aristotelische Modallehre,
wie vorne im § 8 und 9 bei der Analyse der mathematischen Operatoren und der
sogenannten Aussagenlogik gezeigt wurde. In der Entwicklung ihrer Begriffslehre
dürfte sie auf die Logos-Lehre des notorisch „schwerverständlichen“ Dialektikers
Heraklit zurückgehen. In ihr werden die Begriffe (logoi) als Zusammenfall kon-
tradiktorischer Gegensätze erklärt, die in einem einheitlichen Gedanken ver-
schmolzen werden. Wer also die Mathematik verstehen will, wird gut daran tun,
sich mit dialektischem Denken vertraut zu machen. Beispiele dafür wurden vorn
in § 10 bis § 12 am Möglichkeits-, Wahrscheinlichkeits und Modellbegriff und in
§ 19 bei Euklid diskutiert.
Zwischen Mathematik als auf die Etablierung wahrer mathematischer Erkennt-
nisse ausgerichteter Einzelwissenschaft und dem Verstehen ihrer systematischen
Artikulationsmittel muß jedoch strikt unterschieden werden. Nur von letzterem ist
hier die Rede.
Daß mathematisches Verstehen dogmatischen Kanons folgt, dafür spricht von
vornherein ihr applikativer Aspekt. Die Mathematik hat nicht Handwerk und
Technik hervorgebracht, sondern sie ist überhaupt aus der Beantwortung und
Lösung praktischer Probleme von Handwerk, Technik, Kunst und darüber hinaus
der Probleme von politischer Gestaltung, Planung, Kriegführung und vor allem
Handel und Geldverkehr entstanden. Dies offenbar lange vor der Entstehung
anderer Wissenschaften. Fast alle ihre Spezialgebiete verdanken sich bis heute den
Herausforderungen praktischer Probleme, zu deren Lösung sie methodische und
systematische Antworten entwickelt. Darin gründet ihre Kulturbedeutung und das
permanente große Prestige der Mathematik als Wissenschaft.
Die frühesten Anworten auf diese praktischen Probleme des Planens, Kon-
struierens und Berechnens sind durch Euklid (um 300 v. Chr.) gesammelt und
systematisch geordnet worden. Sein Werk „Elemente“ (Steucheia) in 15 Büchern
mit 3 Apokryphen aus dem Alexandrinischen Institut für Mathematik ist zu einer
über Jahrhunderte institutionell ausgezeichneten „heiligen Schrift“ geworden. Es
gilt noch immer als „Bibel“ der Mathematik und somit als Tresor alles genuin
mathematischen Sinngehaltes. Und dieser Sinngehalt in der ihm verliehenen
569

systematischen Gestalt galt und gilt noch immer als Vorbild einer vollendeten
Wissenschaft.
Es enthält den Ideen- bzw. Sinngehalt des mathematischen Wissens der Antike.
Sein Sinngehalt wird - wie derjenige der heiligen Schrift durch die Theologen -
kontinuierlich in allen späteren Anwendung in der Lehre und Forschung aus-
gezeichnet, gestützt und interpretiert. Alle späteren mathematischen Erkenntnisse
und Errungenschaften haben sich dadurch als genuin mathematisch ausgewiesen,
daß sie letztlich wie bei Euklid auf Axiome, Definitionen, Theoreme und Postu-
late zurückgeführt und an sie angeschlossen werden.
Und dennoch ist der Sinnvorrat der mathematischen Ideen der „Elemente“ – wie
betont wird und wie die anhaltende Befassung mit den „Elementen“ des Euklid
zeigt – erst teilweise bekannt. Man kann darin den dogmatischen Kanon einer
„unerschöpflichen Sinnfülle“ des dogmatischen Quellenwerkes Euklids erkennen.
Naturgemäß gibt es Fortschritte über den Wissensstand des Euklid hinaus. Aber
auch für diese sind die euklidischen „Elemente“ noch immer der Maßstab, sei es
in demjenigen, worin sie über ihn hinausgehen oder sei es, daß auch manche
Neuerungen sich doch auf ihn zurückführen lassen.
Wer sein Verständnis mathematischer Gegenstände dartun will, muß deshalb
vom letzten Stand der Mathematik ausgehen. Darin zeigt sich der dogmatische
Kanon der strengen Disziplinarität dieses Verstehens. In wohl keiner anderen
Wissenschaft ist jedes Außenseitertum oder Dilettantismus so verpönt wie in der
Mathematik.
Der Letzte Stand der mathematischen Erkenntnisse wird dabei immer noch
nach dem Vorbild des Thales-Satzes, des Satzes des Pythagoras oder des Kathe-
ten- und des Primzahlsatzes von Euklid in „Sätzen“ zusammengefaßt. Es handelt
sich dabei um Sätze wie den „Satz von L. Löwenheim und T. Skolem“ (über die
Erfüllbarkeit und Beweisbarkeit mathematischer Sätze, 1920), den „Vollstän-
digkeitssatz (der klassischen Quantorenlogik) von K. Gödel“ (1930), den „Unvoll-
ständigkeitssatz von K. Gödel“, der besagt, daß keine elementare Zahlentheorie
ihre eigene Widerspruchslosigkeit beweisen kann (1931), den Satz von A. Turing
und A. Church von der algorithmischen Unlösbarkeit des Entscheidungsproblems
der Quantorenlogik 1. Stufe (1936), um die Erkenntnis von der Unbeweisbar- und
Unwiderlegbarkeit der (G. Cantorschen) Kontinuumshypothese (1878) und die
algorithmische Unlösbarkeit des 10. Hilbertschen Problems (1970).438
Die Qualität und Effizienz des mathematischen Verstehens beruht in erster
Linie auf der Anschlußfähigkeit aller mathematischen Sinngebilde an diejenigen
der euklidischen „Elemente“. Soweit sich Mathematiker überhaupt darüber Re-
chenschaft geben, berufen sie sich diesbezüglich auf die Evidenz seiner Axiome,
Definitionen und Postulate, die es ermöglichen sollen, alles Mathematische wider-
spruchsfrei zu begründen und schlußmäßig aus axiomatischen Voraussetzungen
abzuleiten.

438
Vgl. Wikipedia, Art. „Mathematische Logik“, Stand 25. 5. 2015.
570

Euklid hat sich aber nicht auf die logischen Axiome des Aristoteles oder die
„Unbeweisbaren“ (Schlußformen) des Chrysipp berufen. Was er selber Axiome
genannt hat, sind durchweg Definitionen. Diese sind, wie im § 19 gezeigt wurde,
meist Definitionen widersprüchlicher Grundbegriffe. Was man bei ihm tatsächlich
als Axiome verstehen kann, sind seine „Postulate“ für die Ausführung geometri-
scher Konstruktionshandlungen. Sie lauten bekanntlich: „Es sei ein für allemal
gefordert, von jedem Punkt nach jedem anderen eine gerade Linie zu ziehen; 2.
desgleichen eine begrenzte gerade Linie stetig geradefort zu verlängern; 3. des-
gleichen, aus jedem Mittelpunkt und in jedem Abstand einen Kreis zu beschrei-
ben”. Bei genauem Hinsehen erweisen sich auch diese „Postulate“ bzw. Hand-
lungsanweisungen als widersprüchlich.
Was hier axiomatisch vorausgesetzt und als machbar gefordert wird, ist im
sinnlich wahrnehmbaren und manipulierbaren Bereich tatsächlich ausführbar,
keineswegs aber darüber hinaus in dem, was in der neuzeitlichen Mathematik
„transfinit“ heißt. Die Mathematik erklärt diese Handlungen jedoch für „potentiell
möglich“ und hat längst ihre Theoriebildung in Spezialbereiche des Infiniten und
Infinitesimalen ausgedehnt. In diesen anschaungs-„transzendenten“ Bereichen
wird man die dialektische Widersprüchlichkeit dieser Handlungs-Axiome nicht
verkennen: die entsprechenden Handlungen sind „potentiell“ möglich und zu-
gleich unmöglich.
Daß das dogmatische Verstehen auch hier nicht auf die Wahrheit gerichtet sein
kann, erweist sich schon daran, daß auch das Falsche wohl verstanden werden
kann und muß. Das Falsche kann in allen Wissenschaften ebenso widerspruchsfrei
formuliert werden wie das Wahre. Deshalb ist davon auszugehen, daß auch die
Mathematik als Wissenschaft neben vielen wahren Erkenntnissen auch zahlreiche
Irrtümer und mithin falsche Sätze liefert, die – ehe sie überprüft werden – erst
einmal verstanden werden müssen. Daß Verstehen an die Wahrheit des Verstan-
denen gebunden sei, und daß darum das Falsche „sinnlos“, „absurd“, d. h. unver-
ständlich sei, ist einer der folgenreichsten Irrtümer der Mathematiker, aber auch
der Logiker.
Die Qualität des mathematischen Verstehens wird gewöhnlich an den Aus-
drucksformen von Eleganz, Schönheit, Konzisheit, Sparsamkeit, Exaktheit, vor
allem aber an der Widerspruchsfreiheit bemessen. Daß dabei die Widerspruchs-
freiheit vielen Vertretern der mathematischen Logik zugleich als Wahrheitskri-
terium gilt, verdankt sie der gerade gerügten Überzeugung, daß sich nur Wahres
widerspruchsfrei verstehen ließe.
Daß dies sowohl in der klassischen wie in der mathematischen Logik ein epo-
chaler Irrtum über die logische Natur des Widerspruchs ist, haben wir vorne
nachgewiesen. Satzwidersprüche sind zugleich wahr und falsch und damit die
Grundlage zahlreicher Paradoxien. Und Widersprüche in Begriffen (contradictio-
nes in terminis), die weder wahr noch falsch sein können, werden schon traditio-
nellerweise nicht als solche erkannt, wie an vielen Grundbegriffen des Euklid und
besonders anhand des Möglichkeits- und Wahrscheinlichkeitsbegriffs zeigt wurde.
571

Daß die Qualität des mathematischen Verstehens vor allem an der Wider-
spruchsfreiheit bemessen wird, dürfte sich der von Euklid eingeführten Tradition
verdanken, alles was in der Mathematik „gesagt“ werden kann, in der Gestalt von
„Beweisen“ vorzuführen. Seine Problemlösungen enden regelmäßig mit der zum
geflügelten Wort gewordenen Formel: Quod erat demonstrandum (q. e. d. = was
zu beweisen war). Sie wird auch heute noch oft verwendet.
Die Widerspruchsfreiheitsbeweise bestehen in Deduktionen von Theoremen
(behauptenden Aussagen) aus den dazu vorausgesetzten Axiomen und aus dem
Nachweis, daß die abgleiteten Theoreme untereinander nicht in Widerspruch gera-
ten.
Jedoch auch das Verhältnis von Axiomen zu Theoremen und umgekehrt läßt
sich nur dialektisch verstehen. Denn einerseits werden die Axiome strikt von den
Theoremen unterschieden. Andererseits lassen sie sich gar nicht von diesen unter-
scheiden.
Axiome sind „unbeweisbare Beweisgrundlagen“. Die von allen Axiomatikern
beschworene Unbeweisbarkeit der Axiome besteht darin, daß die in ihnen vor-
kommenden „Begriffe“ – im Gegensatz zu den im Bewiesenen und Deduzierten
benutzten Begriffen – nicht definierbar sein sollen. Allenfalls wird ihnen, wie
David Hilbert es nannte, „implizite Definition“ zugestanden. Dies ist jedoch nur
ein undeutlicher Hinweis darauf, daß ihre Merkmale und Extensionen sich erst in
dem von ihnen Abgeleiteten, den Theoremen und den „Modellen“ ihrer Anwen-
dungen, deutlich zeigen können. Da also „implizite Definitionen“ im logischen
Sinne überhaupt keine Definitionen sind, können axiomatische Grundbegriffe als
„undefinierte Begriffe“ keine Begriffe sein. Denn Begriffe ohne deutliche Merk-
male und klare Extensionen sind allenfalls sprachliche Wörter, deren Sinn offen
bleibt für beliebige Interpretationen.
Sind axiomatische „Grundbegriffe“ nicht einmal Begriffe, so können aus ihnen
gebildete axiomatische Sätze ebenfalls keinen bestimmbaren Sinngehalt besitzen.
Und das heißt, daß ihnen ein Sinn erst durch die angeblich aus ihnen deduzierten
Theoreme, die ihrerseits sinnvolle Behauptungen sind, zugesprochen werden. Der
Sinn der Axiome kann also kein anderer sein als derjenige, der ihnen als gemein-
same (generische und somit durch Induktion gewonnene) Merkmale der vorgeb-
lich aus ihnen abgeleiteten Theoreme zugelegt wird.
Ein weiterer hermeneutischer Kanon der Mathematik besagt, daß mathematische
Probleme grundsätzlich „lösbar“ sein müssen. Diese Überzeugung war jederzeit
ein bedeutender Stimulus aller mathematischen Forschung. D. Hilbert hat sie
gegenüber dem Du Bois-Reymondschen „Ignorabimus“ auf die Formel gebracht:
„In der Mathematk gibt es kein Ignorabimus“. Deshalb sind gewisse Problemlö-
sungen Jahrhunderte lang vergeblich gesucht worden, wie etwa die nach 350
Jahren „gelöste“ Fermatsche Vermutung oder die noch als „ungelöst“ geltende
Goldbachsche Vermutung (dazu § 9). Erst neuerdings spricht man auch in der
Mathematik von „unentscheidbaren Problemen“.
572

Das non-liquet-Verbot (Verbot des: „es geht nicht!“) ist jedoch ein alter dog-
matischer Verstehenskanon, der aus der Hermeneutik in die mathematische For-
schung übernommen worden ist. Der Ausweg: „dies ist unverständlich“ oder „dies
ist absurd“ und auch „Unentscheidbarkeit“ steht hier nicht offen. Wo das mathe-
matische Verstehen an seine Grenzen zu stoßen schien, sind diese Grenzen stän-
dig erweitert worden, und die Grenzüberschreitungen haben meist neue Spezial-
disziplinen der Mathematik eröffnet.
Erinnern wir dazu nur an die Entwicklung der Zahlentheorie. Daß der Begriff
der Zahl als logische Verschmelzung der logischen Quantoren „eines“ und „alles“
zum Partikularisator „einige“ verstanden werden kann, wurde in § 9 gezeigt. Die
einzelnen Zahlen ergeben sich daraus als Benennungen „gespreizter Einige“, die
zugleich eine Einheit und eine Allheit (von anderen Zahlen) sind.
Solange man nur mit positiven ganzen („natürlichen“) Zahlen rechnete, konnte
man von positiven Zahlen nur soviel subtrahieren, bis der Vorrat erschöpft war.
Das entsprach der Erfahrung allen Umgangs mit Sachen. Als Handel und Banken
die Schulden in „roten Zahlen“ zu notieren begannen, erfand man die „negativen
Zahlen“, um mehr subtrahieren zu können als Vermögen vorhanden war. Ein
Nebenprodukt war die „Zahl“ Null („kein Vermögen, keine Schulden“ = Zahl 0
als weder positive noch negative Zahl). Dialektisch aber blieben die Schulden der
Klientel zugleich positives Vermögen der Gläubiger-Banken, und die veraus-
gabten Bankkredite wurden zu Vermögen der Schuldner. Diese Dialektik hat sich
die Finanzwirtschaft zu allen Zeiten mit Hilfe der Mathematik zunutze gemacht.
Nicht minder grenzüberschreitend waren die Einführungen der imaginären
Zahlen als „Wurzeln aus den negativen Zahlen“ und der Infinitesimalzahlen, de-
ren Zahlenwert „unter jeden darstellbaren Zahlausdruck hinabreicht“. Man muß
noch immer auf den Satz des Pythagoras zurückgreifen um zu verstehen, wie sich
ihr Zahlenwert asymptotisch der Null annähert ohne jemals mit ihr zusammen-
zufallen.
Daß für das Verstehen solcher Grenzüberschreitungen der Kanon des alter-
nativen oder multiplen Sinngehaltes gilt, erkennt man an Folgendem. Wer sich für
das Verständnis der mathematischen Sinngebilde an die sinnliche Anschauung
hält, bleibt gewissermaßen beim trivialen „Literalsinn“ stehen. Er ist der soge-
nannte „plane“ Sinn der anschaulichen geometrischen Gebilde und der an den
Fingern und gelegentlich zusätzlich an den Zehen abzählbaren „natürlichen“
Zahlen, die in den meisten Sprachen eigene Benennungen besitzen. Der plane
Sinn besteht in dem, was sich in endlichen Dimensionen geometrisch konstruieren
und zeichnen und arithmetisch zählen und messen läßt. Dieses anschauliche Ver-
ständnis genügt für die Zwecke des Handwerkes, der Technik und (zumindest für
Teile) der Ökonomie. Und ersichtlich liegt es auch noch jedem mathematischen
Elementarunterricht zugrunde. Das plane Verständnis hat der Mathematik über-
haupt ihr Renommee in allen Anwendung verschafft.
Das tiefere Verständnis der mathematischen Sinngebilde richtet sich jedoch auf
einen „Hintersinn“, der – wie Platon es nannte – nur mit dem „geistigen Auge“
573

erfaßt werden kann. Wer die Metapher vom „geistigen Auge“ vermeiden will
(denn der Geist besitzt kein Auge), spricht von „reinem un- oder überanschau-
lichem Denken“ der genuin mathematischen Ideen, das nur eine geniale Begabung
ausbilden könne. Und da auch dies nicht allen Mathematikern einleuchtet, spricht
man diesbezüglich von „Wesensschau“, „Intuitionen“, „anschaulichen Modellen“
und Metaphern, mit denen man diese Ideen verstehen will. 439
Als Beispiele für alternative Verständnismöglichkeiten haben wir in § 19 viele
widersprüchliche Grundbegriffe der Geometrie und Arithmetik des Euklid ange-
führt. Mittels dialektischer Begriffe, die kontradiktorisch sich widersprechende
Merkmale enthalten, lassen sich jeweils zwei sich widersprechende Theoreme
bilden. Hält man an dem einen Theorem fest, wird das gegenteilige Theorem ver-
worfen. Es kann jedoch auch wieder aufgegriffen und kritisch gegen das bis dahin
herrschende Paradigma-Theorem eingesetzt werden. Bleibt die Widersprüchlich-
keit des Ausgangsbegriffes unbemerkt, was über lange Zeiten der Fall sein kann,
lassen sich damit paradoxale Theoreme bilden. Diese sind für die Entwicklung der
Mathematik konstitutiv geworden.
Zu den Beispielen für multiple Verstehensmöglichkeiten gehört schon der Men-
genbegriff des Euklid, den er als „logischen“ Begriff der natürlichen Zahlen ver-
wendet hat. Euklids Mengenbegriff ist noch immer anschaulich in einem „planen
Sinne“ zu verstehen. Dieser plane Sinn bedeutet, daß eine Menge mehrere Ele-
mente, die auch selber Mengen sein können, umfaßt. So wird er meist im Ele-
mentarunterricht noch eingeführt. Unanschaulich und paradox wird das Ver-
ständnis, wenn die „Menge leer“ sein soll, d. h. keine Elemente enthält, oder wenn
sie nur ein einziges Element enthält. Das aber ist ein speziell mathematisch-
dialektischer Mengenbegriff, der auch die 0 und die 1 unter sich enthält, und der
sich erst nach deren Anerkennung als Zahlen lange nach Eulid herausbildete.
Noch weiter muß das Verständnis gehen, wenn die Menge auch noch sich selbst
enthalten soll, wie das in den neueren Zahltheorien von allen Zahlen gilt. Hier
liegt die Dialektik des modernen Mengen- und damit des allgemeinen Zahl-
begriffs offen zutage und hat sich in vielen Variationen von Paradoxien gezeigt.
Schließlich ist auch die Gleichung ein bedeutendes Beispiel für multiple Ver-
ständnisse. Logisch ist die Gleichung eine Äquivalenz, die eine gemeinsame Be-
deutung unterschiedlicher Zeichen definiert. Als Definitionsjunktor hat sie keinen
Wahrheitswert, sondern sie kann frei „gesetzt“ werden. Ihr planes Verständnis
läßt sich an jedem zweisprachigen Wörterbuch demonstrieren, wo die (ohne

439
Diese Verstehensbemühungen, etwa Edm. Husserls, A. von Meinongs und der intuitionistischen Schule L. E. J.
Brouwers sind jedoch in den Ruch des Psychologismus geraten. L. Wittgenstein sagt dazu: „In keiner religiösen Confession
ist soviel durch den Mißbrauch metaphorischer Ausdrücke gesündigt worden wie in der Mathematik“ (PB 117). Und H.-G.
Gadamer bemerkt geradezu resigniert: „Was die Mathematik für sich ist, das ist ihr Privatgeheimnis. Das wissen nicht
einmal die Physiker“ (in: Ergänzungen zu Wahrheit und Methode, S. 192). - Das „Geheimnis“ hat freilich Nikolaus von
Kues deutlich offengelegt, als er das Denken der „Coincidentia oppositorum“ (das Zusammenfallen und Denken des kon-
tradiktorisch Entgegengesetzten) als höchste Vernunftleistung bezeichnete und in seinen mathematischen Schriften demon-
strierte. Weil er das mathematische Denken als Erkenntnismittel der Theologie propagierte (vgl. § 30), ist seine epochale
Einsicht jedoch weder von den Theologen noch von den Mathematikern jemals ernst genommen, geschweige denn aner-
kannt und genutzt worden.
574

Gleichheitszeichen) notierten Wörter eine identische Bedeutung anzeigen und sich


dadurch gegenseitig definieren sollen. So interpretiert müßten sich alle mathe-
matischen Gleichungen in einem umfassenden Lexikon der mathematische Be-
griffe zusammenfassen lassen.
Ein ganz anderes Verständnis der Gleichung „liest“ das Gleichheitszeichen als
logische Kopula und hält Gleichungen für behauptende Aussagen mit Wahrheits-
werten. Dieses Verständnis der Gleichung als „wahre“ Behauptungsform hat nicht
zuletzt Kant in seinem vielzitierten Beispiel eines synthetischen Urteils a priori:
„5 + 7 = 12“ bei den Philosophen und Mathematikern verbreitet. Es ist ersichtlich
zu einer populären Überzeugung geworden. Denn nichts wird auch von mathe-
matischen Laien für „wahrer“ gehalten als Floskeln wie „drei mal drei ist neun“.
Die mathematische „Aussagenlogik“, die von Mathematikern entwickelt wurde,
führt jedoch die Kopula in ihren Wahrheitswerttabellen der Junktorendefinitionen
nicht an und benutzt sie auch nicht.
Ein noch anderes Verständnis bezieht sich auf die sogenannten Funktionsglei-
chungen. Daß sie noch immer „Gleichungen“ genannt werden und als solche
notiert werden, bestätigt das soeben Gesagte. Eigentliche Funktionen sind jedoch
keine Gleichungen, sondern Abhängigkeiten bzw. Korrelationen zwischen ver-
schiedenen Zahlgrößen, nicht zwischen „gleichen“ Größen (bzw. dies nur gele-
gentlich und zufällig).
Dieses Gleichungs-Verständnis entstammt der analytischen Geometrie, in der
ein Punkt auf einer Kurve (unter „Kurve“ werden in der Mathematik auch gerade
Linien verstanden!) im cartesischen Koordinatensystem durch verschiedene Zahl-
arten – genauer müßte man sagen: durch die verschiedenen x- und y-Maßzahlen
der x- und y-Koordinaten - dargestellt werden. Diese Koordinatendarstellung ist
tatsächlich eine „Definition“ der Punkte und Kurven. So wird sie mit Recht als
Gleichung „y = (f) x“ notiert. In der analytischen Geometrie handelt es sich je-
doch nicht um eine Äquivalenz, sondern um eine korrelative Implikation, die mit
dem Implationsjunktor „wenn … dann…“ bzw als „y → (f)x“ darzustellen ist.
Eine solche Implikation ist jedoch eine behauptende Aussage bzw. ein wahr-
heitswertfähiges Urteil.
Bemerken wir schließlich, daß die Gleichung häufig auch zur Definition des
Begriffs „Identität“ benutzt wird. Dieses Verständnis von Gleichungen der Form
„X = X“ oder „a = a“ dürfte auf eine These der scholastischen Suppositionstheorie
zurückgehen, nach welcher Wortzeichen (neben anderen Bedeutungen) auch ihren
eigenen Laut und damit „sich selbst“ bezeichnen könnten. J. G. Fichte hat sie in
seinem Grundriß der Wissenschaftslehre von 1794 als „X = X“ (in Anwendung
auf seinen Ichbegriff als „Ich = Ich“) notiert und bei den Philosophen verbreitet,
und L. Wittgenstein hat sie durch seine These, das Wesen der Logik bestünde
überhaupt in „Tautologien“, abgesegnet.
Dieses Gleichungsverständnis als Tautologie widerspricht jedoch ersichtlich
allen anderen Verständnissen. Wohl aber wird es der Tatsache gerecht, daß die
Mathematiker und die Laien auch von „Zahlen“ im Plural sprechen. Der Plural ist
575

hierbei jedoch doppeldeutig. Einerseits sind „die Zahlen“ (nach platonischem


Verständnis) die Menge aller einzelnen Zahlen, die als Sinngebilde jeweils nur
„eine Zahl“ sein können. Andererseits werden in allen Rechnungen dieselben
Zahlen vervielfältigt und miteinander kombiniert. Daraus entsteht der Bedarf zum
Beweis, daß diese vielen „gleichen Zahlen“ mit ihrem (platonischen) Urbild „der
einzigen Zahlidee“ übereinstimmen. Daß z. B. „jede 5 jeder (anderen) 5 gleich“
ist, definiert jedoch weder die Zahl 5 noch entspricht der Ausdruck der mathe-
matischen Definition der Gleichung.
Es dürfte auf der Hand liegen, daß sich aus diesen dualen bzw. alternativen und
multiplen Verständnissen derselben mathematischen Elemente auch die verschie-
denen Gesamtkonzeptionen von Mathematik speisen. Sie können an Durchsichtig-
keit nur gewinnen, wenn man ihre jeweiligen dogmatischen Verstehensstrategien
miteinander vergleicht.

Die zetetische (forschende) Hermeneutik. Sie ist aus der dogmatischen Herme-
neutik nach aristotelischen Voraussetzungen entstanden. Sie beruht auf Kriterien,
die sich – aus der Kritik an der dogmatischen Hermeneutik entwickelt – als Ge-
gensätze dazu darstellen. Sie setzt voraus, daß grundsätzlich alles Textmaterial,
darin eingeschlossen auch die dogmatischen Texte und darüber hinaus auch alle
Arten von Kulturdokumenten, in ihren Gegenstandsbereich fallen können. Ebenso
setzt sie voraus, daß alle Dokumentarten in ihrem Zeichenvorrat schon bestimm-
ten Sinn und Bedeutung enthalten, den es in der jeweiligen Interpretation ‚auszu-
schöpfen‟ und mittels der Interpretation wiederzugeben, zu rekonstruieren oder
auch abzubilden gelte. Kritisch-zetetische Einstellung wird dabei wesentlich in
vorurteilsloser Offenheit und Unvoreingenommenheit gegenüber dem, was sich
als Sinn der Texte bzw. Artefakte zeigen soll, gesehen. Ihr Ziel ist daher auch die
Erstellung von Interpretationen als Theorien, die diesen Sinn eindeutig, vollstän-
dig und adäquat darstellen bzw. ‚abbilden‟ sollen.
Als Kriterien der zetetischen Hermeneutik lassen sich die folgenden heraus-
stellen.

1. Sie ist als Methodendisziplin grundsätzlich interdisziplinär – im Gegensatz


zur Fachgebundenheit der dogmatischen Hermeneutik. Das schließt nicht aus, daß
spezielle Text- und Dokumentarten zum Gegenstandsbereich jeweils spezifischer
Disziplinen gehören. Interdisziplinarität meint einerseits die „Universalität“ und
ubiquitäre Anwendbarkeit der zetetisch-hermeneutischen Methodologie in grund-
sätzlich allen Disziplinen. Andererseits bedeutet sie auch, daß das zum zetetischen
Verstehen notwendige Wissen grundsätzlich aus allen jeweils einschlägigen Dis-
ziplinen zusammengeholt werden muß. Der zetetische Interpret muß in der Lage
sein, auch über seine Fachgrenzen hinaus Wissen aufzunehmen und für seine Ver-
stehensbemühung nutzbar zu machen.
576

2. Die zetetische Hermeneutik ist strikten Wahrheitskriterien unterworfen. Das


heißt, daß nur die Resultate zetetischer Interpretationen als wahr, falsch oder ggf.
auch als wahrscheinlich gekennzeichnet werden können. In der zetetischen Her-
meneutik kommt es, wie viele Hermeneutiker schon frühzeitig bemerkt haben,
häufig auch darauf an, bei überhaupt wahrheitsrelevanten (etwa wissenschaftli-
chen) Texten neben der evtl. Wahrheit auch evtl. Falschheit „zu verstehen“, so
daß eine wahre Interpretation durchaus gerade auch die Falschheit eines sinnvol-
len Gedankens bzw. Textes verständlich macht.440
Als Wahrheitskriterium wird nach aristotelischer und jetzt herrschender rea-
listischer Erkenntnistheorie die Korrespondenz zwischen (vorausgesetztem) Text-
sinn und Interpretationssinn angenommen. Die Interpretation gilt dann als wahr,
wenn sie dem Sinn des Textes genau entspricht bzw. ihn abbildet. Eine idea-
listische Erkenntnistheorie kritisiert daran, daß sich so etwas wie selbständiger
Textsinn und (diesen abbildender) Interpretationssinn nicht unterscheiden lassen.
Sie geht davon aus, daß die Interpretation selbst den Textsinn erst konstruiert.
Insofern kommen für eine idealistische Erkenntnistheorie und Hermeneutik nur
die Wahrheitskriterien der logischen Kohärenz und der Umfassendheit (Kompre-
hensibilität) der jeweiligen Interpretation selbst in Frage.

3. Spricht man überhaupt von der Qualität einer zetetischen Interpretation, so


kann es sich nicht um gut oder schlecht, zulässig oder unzulässig u. ä. handeln wie
bei der dogmatischen Interpretation, sondern nur um die Einbettung der vorge-
schlagenen Interpretation in den Kontext des einschlägigen interdisziplinären
Wissens.

4. Bei zetetischen Interpretationen ist auch mit einem Non liquet („nicht klar“),
also negativen Ergebnissen zu rechnen, wie das bei jedem Forschungsunterneh-
men möglich ist. Dies ist ein heikler Punkt, den kein Forscher gern eingesteht,
weil ein Non-liquet-Ergebnis allzu leicht individueller Inkompetenz angelastet
wird. Ein vager ‚Sinnlosigkeitsverdacht‟, wie er häufig polemisch geäußert wird
(‚das verstehe ich nicht‟ oder ‚Nonsens‟) genügt in keinem Fall. Selbst wenn er
substanziiert und bewiesen würde, so würde er den Interpretationsgegenstand nur
aus der Klasse der Artefakte ausschließen und in die der „sinnfreien“ Gegenstände
befördern. Gleichwohl kommt es nicht allzu selten vor, daß trotz bestehendem
‚Sinnhaftigkeitsverdacht‟ von Texten und Artefakten ein genuiner Sinn mangels
einschlägigem Wissen nicht festgestellt werden kann. Die Sinnvermutung kann
dann allenfalls zu hypothetischer Wahrscheinlichkeit der zetetischen Interpreta-
tion führen.

440
So schon Johann Konrad Dannhauer 1630. Hermeneutik soll – im Unterschied zur Logik – „auch den wahren Sinn der
falschesten Stelle erforschen lehren” - „verum loci etiam falsissimi sensum inquirere doceat”. J. K. Dannhauer, Idea boni
interpretis et malitiosi calumniatoris, 5. Aufl. Straßburg 1670, S. 12.
577

5. Man setzt beim zetetisch zu interpretierenden Dokument historisch und syste-


matisch beschränkten Sinngehalt voraus. Das ist u. a. auch ein Grund dafür, daß –
wie Kant schon bemerkte – in der Regel „der Autor besser verstanden werden
kann, als er sich selbst verstanden hat“.

Die Kanons bzw. Regeln der zetetischen Hermeneutik sind heute nichts weniger
als unumstritten, und die Verabsolutierung des einen Kanons unter Vernachläs-
sigung anderer bestimmt nachhaltig die Kontroversen über das, was eigentlich
Hermeneutik sei. Manche Autoren wie etwa Schleiermacher oder Gadamer gehen
sogar davon aus, daß es hierbei überhaupt keine Regeln geben könne, da das
forschende Interpretieren eine Sache des Taktes, der kühnen Hypothesen, der
Divination oder gar der ‚künstlerischen‟ Intuitionen sei. Um sich jedoch über die
faktischen Regeln zu vergewissern, tut man auch heute noch gut daran, sich an
dem von Aristoteles für alle Forschung aufgestellten Schema der „vier Ursachen“
zu orientieren, welches „Erklärungsgründe“, also auch Interpretationsargumente,
in den vorn erläuterten vier verschiedenen Dimensionen und insbesondere in der
teleologischen Erklärungsdimension aufzusuchen empfiehlt.
Man kann diese Dimensionen gewiß noch weiter differenzieren, gerät damit
aber nur in Details, auf die man wegen ihrer Trivialität gewöhnlich nicht achtet,
und die doch nach festen Regeln der wissenschaftlichen Fairness und des geistes-
wissenschaftlichen Know-how getätigt werden. Zum ersteren gehört etwa die
Regel der „hermeneutischen Billigkeit“ (charity principle), nach der man einem
Autor bis zum Beweis des Gegenteils Redlichkeit darin unterstellt, daß er auch
gemeint habe, was er sagt. Umgekehrt muß dann auch gelten, daß man nicht mit
‚malitiösen‟ Unterstellungen auslege, wie schon der Titel der Hermeneutik Dann-
hauers anzeigt.
Zum allgemeinen Know-how dürfte auch das Prozedere gemäß dem „herme-
neutischen Zirkel“ gehören. Er besagt, daß man sich beim Interpretieren vom
Einzelnen und Besonderen zum Allgemeinen und Ganzen erheben und von da
wieder zum Einzelnen herabsteigen müsse. Er beschreibt damit sehr zutreffend
logische Induktion und Deduktion als Verfahren, die wie in der Theoriebildung so
auch in der zetetischen Interpretationsgewinnung anzuwenden sind.
Das Einzelne und Besondere ist hier die Elementarbedeutung der Wörter eines
Textes, von der man zum Satz- und Argumentsinn bis zum Sinn des ganzen Tex-
tes – und gegebenenfalls darüber hinaus bis zum Gesamtsinn eines umfassenden
Kontextes – fortschreitet (Induktion), während man umgekehrt wieder vom Ge-
samtsinn als Resultat der Induktion oder auch als hypothetisch-antizipierender
Sinnvermutung zur Bedeutungsfestlegung der Einzelheiten herabsteigen kann
(Deduktion). In der Praxis handelt es sich freilich kaum jemals um einen einzigen
induktiv-deduktiven Kreislauf, sondern um viele in Antizipationen und Bestä-
tigungen sich gegenseitig kontrollierende Schritte, so daß eher von „herme-
neutischen Kreiseln“ zu reden wäre. Damit wird jedenfalls gesichert, daß die
zetetische Interpretation eines Dokumentes sich als widerspruchslose und kohä-
578

rente Theorie aufbauen läßt, was seinerseits eine notwendige Bedingung ihrer
Wahrheit darstellt.

Die gegenwärtige Lage der Disziplin Hermeneutik ist durch außerordentlich leb-
hafte und kontroverse Diskussionen und damit einhergehend durch eine kaum
mehr übersichtliche Literatur und Nomenklatur gekennzeichnet. Man tut gut daran
darauf zu achten, wovon jeweils die Rede ist. Zu unterscheiden sind auf jeden
Fall: 1. Die Interpretation im Sinne der Sinndeutung, Auslegung (Exegese) bzw.
des Verstehens einzelner Textstellen oder Texte und Kontexte nach den genannten
kanonischen (dogmatischen oder zetetischen) Regeln. 2. Die Theorie dieser Re-
geln bzw. Kanons selbst, die zur hermeneutischen Methodologie gehören. 3.
Hermeneutik als Bezeichnung der methodologischen Disziplin insgesamt.
Der Schwerpunkt der Debatten dürfte beim letzten Punkt liegen. Es geht um die
Einschätzung des Status und der wissenschaftlichen Dignität der Hermeneutik
überhaupt. Auf der einen Seite wird vom analytisch-positivistischen Lager aus die
Hermeneutik – vor allem wegen ihrer dogmatischen Verfahren – als un- oder vor-
wissenschaftliche Pseudomethodologie verworfen (K. Albert) oder allenfalls als
heuristische Vorstufe für die „logische Rekonstruktion“ von Theoriesinn aner-
kannt (W. Stegmüller). Auf der anderen Seite stehen hermeneutizistische Ansätze,
die die „Universalität der Hermeneutik“ in allen Erkenntnisfragen behaupten
(Nietzsche: „Alles ist Interpretation“; Heidegger: „Verstehen als existentialer
Weltentwurf“; H. Lenk: „Philosophie als Interpretationskonstruktionismus“, Ga-
damer: „Unhintergehbarkeit des sprachlichen Verstehens“). Gleichwohl werden
auch bei universalhermeneutischen Ansätzen die faktischen Interpretationsweisen
mathematischer und logischer formaler Systeme und naturwissenschaftlicher Fak-
ten, Daten und Phänomene zu wenig beachtet und hermeneutisch bewertet.
Daß die zetetische Hermeneutik in der Mathematikgeschichtsschreibung diesel-
be Bedeutung und praktische Anwendung findet wie in allen anderen historischen
Forschungsgebieten, dürfte auf der Hand liegen. Sie verfährt interdisziplinär, in-
dem sie alle relevanten Fakten und Daten aus der Kultur- und Geistesgeschichte
aufnimmt und in ein kohärentes „wahres“ Bild der Mathematikentwicklung zu-
sammenführt. Gewiß geht sie dabei vom letzten Stand des mathematischen Wis-
sens aus und bemißt danach, welche Daten und Fakten, insbesondere welche
instrumentellen Artefakte zur Entwicklung beigetragen haben und welche auf Irr-
und Nebenwege geführt haben. Dabei ist sie sich stets auch eines möglichen „Non
liquet“ bewußt und benutzt diesen Kanon zur Unterscheidung von Mutmaßungen
bzw. Hypothesen von wahren Einsichten. Und schließlich wird sie für jede Ent-
wicklungsstufe der Mathematik „beschränkte Sinngehalte“ der jeweiligen mathe-
matischen Ideen voraussetzen und diese stets an den Zuwächsen der jeweils neue-
ren Epochen als Defizienz oder als „ahnende Vorgriffe“ auf diese hin interpre-
tieren.
Insgesamt dürften von einer solchen Hermeneutik der Mathematik für die ge-
genwärtigen Hermeneutikdiskussion noch fruchtbare Beiträge zur Entwicklung
579

der Wissenschaftstheorie der Geisteswissenschaften und darüber hinaus der all-


gemeinen Wissenschaftstheorie zu erwarten sein.441

5. Das Verstehen.

Hermeneutische Methodologie bezieht sich auf das Verstehen. Was jedoch Ver-
stehen ist und wie es funktioniert, ist durch die Interpretationspraxis und ihre
hermeneutischen Regeln keineswegs geklärt. Vielmehr stellt es noch immer ein
Problem der Geisteswissenschaften dar. 442
Das Verstehen gilt als die besondere Erkenntnisweise der Geisteswissenschaf-
ten; dies im Unterschied zum naturwissenschaftlichen Erklären. Der Satz Dil-
theys: „Die Natur erklären wir, das Seelenleben verstehen wir“ wird noch immer
als methodologischer Grundsatz gehandelt. Er ist jedoch alles andere als selbst-
verständlich.
Ist das Verstehen gemäß Wilhelm Dilthey auf das Nacherleben von Lebens-
vollzügen gerichtet, dann sind die Lebensvollzüge ihr eigentliches Objekt, und es
ist auf dieses Objekt beschränkt.
Dilthey setzte dabei voraus, „daß das Individuum in gewissen Grenzen Mög-
lichkeiten hat, von Ausdrücken und Wirkungen eines ganz anders gearteten
Individuums aus dessen innere Zustände und Vorgänge als das zu jenem gehörige
Innere nachzuerleben. Denn es hat in sich Möglichkeiten, welche über das hinaus-
reichen, was es als sein eigenes Leben realisieren kann“.443
Auch das sogenannte Innenleben des Menschen gilt als Lebensäußerung. Damit
kann jedoch nichts anderes gemeint sein als das Bewußtsein mitsamt seinen In-
halten. Daß das seelische Innenleben einer Person, also Bewußtsein, sich in biolo-
gischen Lebensäußerungen „zum Ausdruck“ bringe, ist eine erste fragwürdige
441
Zur Hermeneutikliteratur diverser Gebiete seien genannt: W. Alexander, Hermeneutica generalis. Zur Konzeption und
Entwicklung der allgemeinen Verstehenslehre im 17. und 18. Jahrhundert, Stuttgart 1993; A. Bühler und L. Cataldi Madon-
na (Hg.), Hermeneutik der Aufklärung (Aufklärung 8/2), Hamburg 1993; U. Nassen (Hg.), Klassiker der Hermeneutik,
Paderborn 1982; H.-U. Lessing (Hg.), Philosophische Hermeneutik, Freiburg/Br. 1999; H. Seiffert, Einführung in die
Hermeneutik. Die Lehre von der Interpretation in den Fachwissenschaften, Tübingen 1992; A. Diemer, Hermeneutik.
Elementarkurs Philosophie, Band 2, Düsseldorf 1977; L. Geldsetzer, Art. „Hermeneutik“ in: H. Seiffert und G. Radnitzky
(Hg.), Handlexikon zur Wissenschaftstheorie, 2. Aufl. München 1992, S. 127 – 139; E. Betti, Allgemeine Auslegungslehre
als Methodik der Geisteswissenschaften, Tübingen 1967; B. Vedder, Was ist Hermeneutik? Ein Weg von der Textdeutung
zur Interpretation der Wirklichkeit, Stuttgart / Berlin 2000; H. Albert, Kritik der reinen Hermeneutik. Der Antirealismus
und das Problem des Verstehens, Tübingen 1994; H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philoso-
phischen Hermeneutik (1960), in: Gesammelte Werke 1, 5. Aufl. 1986; Ergänzungen und Register, Gesammelte Werke, 2,
2. Aufl. 1993; H. Flashar u. a. (Hg.), Philologie und Hermeneutik im 19. Jahrhundert. Zur Geschichte und Methodologie
der Geisteswissenschaften, 2 Bde., Göttingen 1979; E. Leibfried, Literarische Hermeneutik. Eine Einführung in ihre Ge-
schichte und Probleme, Tübingen 1980; E. Krawietz (Hg.), Argumentation und Hermeneutik in der Jurisprudenz, Berlin
1979; C. Dahlhaus (Hg.), Beiträge zur musikalischen Hermeneutik, Regensburg 1975; B. Kanitscheider (Hg.), Hermeneutik
und Naturalismus, Tübingen 1998; U. Arnswald, Das Irrationale des Rationalen: Die hermeneutischen Grundlagen der
Mathematik, in: Rationalität und Irrationalität, Beiträge des 23. Internationalen Wittgenstein Symposiums in Kirchberg am
Wechsel 2000, Internet 2006. - N. Henrichs, Bibliographie der Hermeneutik und ihrer Anwendungsbereiche seit Schleier-
macher (Kleine Philosophische Bibliographien aus dem Philosophischen Institut der Universität Düsseldorf, Band 1), 2.
Aufl. Düsseldorf 1972.
442
Vgl. zu diesem Bedeutungsspektrum K.-O. Apel, Artikel „Verstehen“, in: J. Ritter u. a. Historisches Wörterbuch der
Philosophie, Band 11, Basel 2001, Sp. 918 – 938.
443
W. Dilthey, „Historischer Zusammenhang“, Nachlaß-Fragment, in: Ges. Schr. Band 7, S. 259, zit. nach K.-O. Apel,
Artikel „Verstehen“, Sp. 925.
580

These der diltheyschen Psychologie. Und daß von diesem „Ausdruck“ auf das
seelische Innenleben, also das Bewußtsein anderer Personen geschlossen werden
könne, die zweite fragwürdige These seiner Psychologie. Daß dies nun eine Re-
konstruktion fremden Seelenlebens erlaube, also fremden Bewußtseins im je eige-
nen Bewußtsein, ist die dritte fragwürdige These Diltheys.
Es schmeichelt natürlich dem Gelehrten, aber auch dem Opern- oder Museums-
besucher und dem Leser eines Buches, sich an die Stelle eines Künstlers oder
Autors zu versetzen, um so dessen Schaffensprozesse „nachzuerleben“. Und das
dürfte wesentlich für die Akzeptanz der diltheyschen Thesen gewirkt haben. Aber
es ist doch sehr fraglich, ob die menschliche Phantasie beim Sich-Hineinversetzen
in einen Anderen über das hinausreicht, was einer in seinem eigenen Leben rea-
lisieren kann und von daher kennt. Handelt es sich nämlich um wirklich Außer-
ordentliches, so führt das in aller Regel zur Bewunderung oder zum Abscheu und
zu grundsätzlichem Unverständnis. Und dieses wird vielleicht auch meist durch
ein vorgebliches Verstehen dissimuliert. Überdies hat das Verstehen bei gewissen
Geisteskrankheiten ohnehin eine absolute Grenze, wie besonders Karl Jaspers
herausgearbeitet hat.
Lebensäußerungen sind Objekte der Biologie. Sie werden dort in Anknüpfung
an die biologische Evolution und die physiologisch-medizinischen Befunde „er-
klärt“, soweit überhaupt etwas an solchen Lebensäußerungen zu erkennen ist. Das
gilt für alle Lebewesen, also auch Pflanzen und Tiere. Vor allem wird man hier
auch belehrt, welche menschlichen Lebensäußerungen es gibt, und dies bis in die
feinsten Verästelungen menschlicher Verhaltens- und Handlungsweisen. Zugleich
zeigen sich hier die Verschiedenheiten der Leistungsfähigkeiten verschiedener
Menschen in diesen Lebensäußerungen.
Verstehen ist zunächst ein ganz privates Phänomen, wie das Bewußtsen über-
haupt. Man muß es nicht zum Ausdruck bringen, sondern es läßt sich verschwei-
gen, verbergen und in manigfaltigen Weisen dissimulieren. Das hat das Verstehen
mit dem Wissen gemein. Und das hat Folgen für die Arten und Weisen, wie es
hervorgelockt, geradezu zur Kundgabe gezwungen und bewiesen werden kann.
Die Manifestationen von solchem privaten („subjektivem“) Verstehen, die für die
Geisteswissenschaften und für Dilthey relevant sind, sind das Schreiben, das
Sprechen bzw. das Gespräch, und das Übersetzen.
Käme es beim Verständnis von Schriften darauf an, ihren lebendigen Produk-
tionsprozeß nachzuerleben, so würde das Verstehen im Abschreiben und Zitieren
von Texten bestehen. Manche Textinterpretationen geben sich in der Tat mit sol-
chem „Verständnis“ zufrieden. Aber dagegen spricht die bekannte Tatsache, daß
die Sprachwissenschaft zahlreiche alte Schriften bzw. ihre Schriftzeichen kennt,
die zwar abgeschrieben werden können, die jedoch gänzlich unverständlich ge-
blieben sind. Ebenso mag ein geschickter Zeichner chinesische Schriftzeichen,
ägyptische Hieroglyphen oder beliebige andere Schriften „abschreiben“, ohne die
entsprechenden Sprachen zu beherrschen oder auch ohne zu wissen, daß es sich
überhaupt um Schriftzeichen handelt.
581

Die lebensphilosophische These vom Verstehen durch Nacherleben ist eigent-


lich auf das Verstehen in der lebendigen Gesprächssituation bezogen. Besonders
H.-G. Gadamer hat das Verstehen aus der Gesprächssituation verstehen wollen.
Hier wird angenommen, das gegenseitige Verstehen bestehe in einem Nachvoll-
zug der fremden Rede.
Der sogenannte Meinungsaustausch in Gesprächen ist jedoch durchaus etwas
anderes als ein Tausch, bei dem durch gegenseitiges Verstehen die Meinung des
einen in den Besitz des anderen übergehen könnte. Es handelt sich vielmehr um
einen Abgleich des jeweiligen subjektiven Verstehens des einen Sprechers mit
dem Verständnis des Partners. Das führt zwar oft zu einem Konsens – man sollte
es besser Konsonanz nennen –, hinter dem sich jedoch auch Nichtübereinstim-
mung als Mißverstehen verbergen kann, wie Wilhelm von Humboldt richtig be-
merkt hat.444
Auf diese Voraussetzung gründet sich wiederum eine durchaus falsche Auffas-
sung vom Erlernen von Sprachen und ihren Schriften. Man meint, dies geschehe
durch Nachahmung von Sprachlauten und Nachahmung von Schreiberlebnissen,
und damit zugleich werde auch Sinn und Bedeutung der Sprachelemente gelernt.
Auf diese Weise kann man aber allenfalls einem Papagei ein Nachäffen von eini-
gen wie Sprache klingenden Artikulationen beibringen. So lernt allenfalls man-
cher Schüler und Studierende und auch mancher Wissenschaftler einen wissen-
schaftlichen Jargon, nämlich „ohne Sinn und Verstand“.
Zu tatsächlichem Sprachenlernen und Sinnverständnis muß ein Kind immer
schon ein Verständnis des Sinnes und der Bedeutung von Dingen und Sachver-
halten mitbringen, dem die Sprachlaute und Schriftzeichen dann zugeordnet wer-
den. Es erwirbt dieses Verständnis, indem es zuerst Geräuschen nachlauscht, und
dies offensichtlich schon im Mutterleib, und nach den Dingen greift, sie auf-
merksam betrachtet und sie ablutscht. Und sein vergnügtes Jauchzen, wenn man
ihm Gelegenheit dazu verschafft, oder sein Schreien, wenn man es daran hindert,
sind die erste Artikulation einer kindlichen Privatsprache, die erst allmählich
durch artikulierte Mutter-Sprachlaute abgelöst wird. Und auch diese werden zu-
erst durch immer wiederholtes sinnfreies Artikulieren der Laute eingeübt, ehe
ihnen durch Aufweisen und Zeigen von Sachen und Situationen durch seine Be-
treuer Bedeutungen und Sinn zuwachsen.
Aber abgesehen von diesen Bedenken gegen das nacherlebende Verstehen
gehen die Objekte der Geisteswissenschaften weit über das hinaus, was sinn-
vollerweise als „Lebensäußerung“ gelten kann. Werke und insbesondere Schriften
mag man zwar mit Dilthey als „schriftlich fixierte Lebensäußerungen“ bezeich-
nen. Jedoch ist dieser Ausdruck zweideutig. Sie sind allenfalls dann und solange
Lebensäußerungen, als sie gerade niedergeschrieben werden. Als abgelöste Pro-
dukte von Handlungen sind sie jedoch gerade keine Lebensäußerungen mehr. Sie
sind dann vielmehr Ausdruck und Zeichen vergangenenen Lebens, eben Arte-
444
W. v. Humboldt, Über die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluß auf die Entwicklung des
Menschengeschlechts, 3 Bände Berlin 1830 – 1835, Bd. I, S. 183.
582

fakte. Über vergangenes Leben mag man Vermutungen anstellen, so viel man will
– und jede postmortale Biographie betreibt dies – aber es ist kein Kriterium
denkbar, nach dem sich ehemaliges Leben durch Hineinversetzen und Nacher-
leben wiederbeleben lassen könnte.
An Artefakten mögen die Produktionsprozesse zwar auch interessieren, aber sie
werden dann nur technisch erklärt. Verstehen richtet sich auf etwas anderes,
nämlich den Sinn und die Bedeutung der Artefakte. Diese liegen gewiß nicht in
abgestorbenem vergangenem oder noch tätigem Innenleben von Autoren und
Produzenten.
Sinn und Bedeutung werden in der Lebensphilosophie ganz anders definiert als
in der Analytischen Philosophie, die diese „Begriffe“ seit G. Frege fast gänzlich in
Beschlag genommen hat. Edmund Husserl hat sie zum Gegenstand der Phänome-
nologie gemacht und sie als Gegenstände der intentionalen Akte (Noema) des
Bewußtseins definiert. Seine Ausführungen dazu lassen erkennen, daß er sich
dabei an den psychologischen Ergebnissen der Intentionenlehre Franz Brentanos
(1838 – 1917) orientiert hat.
Die Artefakte (und das gilt von allen Artefakten, nicht nur von Schriften) wirken
wie Spiegel, die man aus der Optik kennt. Darüber wurde vorne schon gehandelt.
Sie spiegeln dem Betrachter nur zurück, was er immer schon mitbringt. Das, was
im Spiegel erscheint, liegt nicht im oder hinter dem Spiegel, sondern vor dem
Spiegel. Der verstehende Betrachter muß wie im Spiegel Sinn und die Bedeutung,
die er im Artefakt sieht, selber mitbringen und vor den Artefakt-Spiegel stellen,
um ihn darin „erscheinen“ zu lassen. Und es ist jeweils das eigene Verstehen bzw.
Verständnis, das bei solcher Spiegelung dem Sprechenden (im besten Falle) klar
und deutlich wird. Dazu genügt oft schon eine ermunternde Geste des Gesprächs-
partners, wie dies Heinrich von Kleist in seinem bekannten Traktat „Über die all-
mähliche Verfertigung der Gedanken beim Reden“ 445 sehr treffend beschrieben
hat.
Das Verstehen als Spiegeleffekt zu beschreiben, klingt wie eine schlechte Meta-
phorik. Aber intellektuelle Vorgänge wurden schon lange als „Spekulationen“
(Spiegelungen) beschrieben und treffen dabei auch richtig das, um was es geht.
Reden bzw. Sprechen als Lautäußerungen und Schriften als graphische Lautzei-
chen evozieren bei dem, der spricht und schreibt, die Erinnerung an das, was er
selbst beim Lernen der Sprache und der Schriftzeichen über ihren Sinn und ihre
Bedeutung gelernt hat. Das Erinnerte ist stets sein eigenes Verständnis. Hört je-
mand die Sprachlaute eines anderen und sieht die Schrift eines anderen, so wird
ihm dabei ebenfalls nur sein eigenes Verständnis evoziert.
Die Verlautbarung des je eigenen Verstehens in der Rede ist daher der erste und
wichtigste Akt der Interpretation. Sie ist eine Selbst-Interpretation des Sprechers.
Von diesem Spiegeleffekt der Artefakte haben sich wohl die meisten Hermeneu-
tiker täuschen lassen. Sie halten das Verstehen für ein direktes Heraus-Verstehen

445
H. v. Kleist, Werke und Briefe, hgg. von S. Streller, Band 3, Frankfurt a. M. 1986, S. 722f .
583

und Heraus-Lesen von Sinn und Bedeutung aus der Rede oder Schrift eines Part-
ners.
Könnte man jedoch aus einem Text Sinn und Bedeutung direkt entnehmen, würde
es sich um eine Art Pfingstwunder handeln. Geisteswissenschaftler glauben fast
durchweg an dieses Wunder.
Sprache ist ein Artefakt neben zahlreichen anderen Artefakten, vor allem neben
Kunstwerken. Sie vermitteln zwar Sinn und Bedeutung, aber sie enthalten sie
nicht, sondern spiegeln denjenigen Sinn und die Bedeutung wider, die der um ihr
Verständnis Bemühte an sie heranträgt. Und das gilt sogar von demjenigen, der
ein Artefakt geschaffen hat. Über Sinngebilde und Bedeutungen zu verfügen, ist
eigentlich dasjenige, was mit dem „Vorverständnis“ gemeint sein kann, von dem
in der Hermeneutik so vielfach die Rede ist.
Musikalische Noten der Komponisten tönen nicht, Bilder und Plastiken reden
nicht, und auch die Klassikertexte bestehen nur aus auf Papier gedruckten Buch-
staben. Der Interpret, der mit ihnen etwas anfangen kann, muß zuerst einmal er-
kennen und verstehen, daß es sich bei diesen Artefakten um musikalische Nota-
tion, um Bilder und Plastiken, um sprachliche Texte handelt. Selbst dieser Vor-
griff kann ein Irrtum und ein Mißverständnis sein. Dies z. B. angesichts dessen,
was heutzutage von manchen Künstlern als „Kunstwerke“ vor- und ausgestellt
oder vorgeführt wird.
Der öffentliche Beweis für das Vorliegen eines Verständnisses, sei es des
Autors, sei es des Sachverständigen, ist also das, was man Interpretation oder
Auslegung nennt. Interpretation wird aber irreführender Weise meist mit Verste-
hen identifiziert.
Goethe hat die Lage wohl verstanden, als er richtig, aber als Scherz mißver-
standen, in den Zahmen Xenien II schrieb: „Im Auslegen seid frisch und munter!
Legt ihr‟s nicht aus, so legt was unter“. Genauer müßte man sagen: Sinn wird nie-
mals aus- sondern immer untergelegt. Interpretationen beziehen sich daher nicht
direkt auf die Artefakte, sondern auf ein Verstehen bezüglich der Artefakte. Durch
die sprachliche Verlautbarung und somit Offenlegung eines Verstehens setzt sich
jedoch die Täuschung über das Wesen des Verstehens auch bei den Interpreten
fort.
Reden und Schriften sind als öffentliche Kundgebungen selbst schon Interpre-
tationen des eigenen Sachverstandes des Redners und/oder Schreibers. Wer auf-
merksam zuhört oder liest, bildet sich ein Urteil über dessen Sachverstand je nach-
dem ob und wie er selber den thematischen Gegenstand und den Autor verstanden
hat.
Versteht er nichts, so hört er nicht mehr zu und liest nicht weiter. Manchmal
wird er vielleicht neugierig. Versteht er ein wenig, kann er etwas lernen, indem er
Schlüsse aus dem Verstandenen zieht. Geht es dabei um behauptete Sachverhalte,
so wird er auch die Wahrheit oder Falschheit des Verstandenen beurteilen. So
kann er sein eigenes Verständnis erweitern, oder er kann resignieren. Glaubt er
alles verstanden zu haben, so ist er „einverstanden“ und sieht sich in seinem eige-
584

nen Verständnis bestätigt. Das bedeutet jedoch nicht, daß er das Verstandene für
wahr halten muß (wie meist beim Einverständnis vorausgesetzt wird!), denn er
kann auch das Falsche völlig verstehen.
Jedoch kann er vom Thema auch mehr verstehen als der Redner oder Schreiber.
(Das ist nicht das was Kant meinte, als er sagte, es sei möglich, „jemanden besser
zu verstehen als er sich selbst verstanden hat“). In diesem Falle geht er zur Kritik
über. Sie besteht in dem Urteil, daß der Redner oder Schreiber die Sache nicht
ganz oder falsch verstanden hat. Und das wiederum bedeutet, daß er Unklarheiten,
„Dunkelheiten“ oder Irrtümer entdeckt hat. Er muß also in der Lage sein, Unklar-
heiten, Dunkelheiten und Falsches als solche richtig zu verstehen.
Auch das Übersetzen ist eine Art von Interpretation. Das lateinische Wort
„translatio“ gilt als Synonym für „interpretatio“. Bezüglich der Gespräche heißt es
Dolmetschen. Bei Schriften ist es die wichtigste Interpretationsweise. Der Über-
setzer von Texten ist nämlich in viel verbindlicherer Weise als im Gespräch ge-
halten, sein Verständnis des Schriftartefakts in der gesprochenen oder geschrie-
benen Übersetzung selbst offen zu legen.
Auch bezüglich des Übersetzen herrscht die falsche Meinung, es würde ein
Sinngehalt aus einer in eine andere Sprache hinübergetragen. Wenn das so wäre,
müßte eine Zielsprache, in die viel durch Übersetzungen hineingetragen wurde,
geradezu von Sinngehalt überquellen. Es wird jedoch auch hier nur das eigene
mitgebrachte Verstehen des Übersetzers durch die vorn beschriebene Spiegelnatur
eines fremsprachigen Textes offengelegt.
Im Kontakt von verschiedensprachigen Kulturen wirken die Übersetzung wie
kommunizierende Röhren. Sie sorgen für ein gemeinsames Spiegelniveau ihrer
Texte. Und dieses gemeinsame Niveau bedarf wiederum des Verständnisses der
Leser der Übersetzung. Dieses muß sich angesichts von übersetzten Texten aus
den Sinngebilden, die in der Zielsprachen-Kultur verstanden werden, heranbilden.
Ersichtlich sind jedoch nicht alle Kulturen in gleicher Weise zur Erzeugung eines
gemeinsamen Spiegelniveaus befähigt. Bei manchen selbst hochentwickelten Kul-
turen wundert man sich, in welchem Umfang ihre Übersetzungen nur ihre eigenen
Idiosynkrasien widerspiegeln.
Wörterbücher und Grammatiken sind immer schon Regelanweisungen für Über-
setzungen gewesen. Auch sie täuschen ihre Benutzer über die Tatsache, daß nicht
die Stellenbelege, sondern das vom Benutzer mitgebrachte Verständnis auch der
Stellenbelege den Sinn festlegt.
Die geisteswissenschaftliche Verwissenschaftlichung des Übersetzens hat im
Verhältnis aller Kultursprachen kanonische Lexika und Grammatiken hervorge-
bracht, die es erlauben, in jedem Falle von Übersetzung eine (dogmatische) Inter-
pretation zu legitimieren. Sie leisten dies, indem sie fast zu jedem Wort und zu
den grammatischen Wendungen der Ausgangssprache mehrfache Äquivalente in
der Zielsprache anbieten. Je nach seinem Verständnis kann und muß der Über-
setzer eine Auswahl aus den angebotenen Möglichkeiten einer Wort- oder Sach-
interpretation auswählen. Er wird das nach seinem eigenen Verständnis des zu
585

übersetzenden Textes tun. Die Interpretation seines Verständnisses in der Über-


setzung interpretiert und rechtfertig damit seine Wahlen. Die Geschichte der
Übersetzungen belehrt jedoch, daß fast jede Übersetzung durch andere, neuere,
bessere, genauere, verständnisvollere Übersetzungen überboten und konterkariert
werden kann. Darin zeigt sich das Bestreben, die Spiegelniveaus der kommuni-
zierenden Sprachgemeinschaften auf gleiches Niveau zu bringen oder es aufrecht
zu erhalten.
Nur wenn man voraussetzt, daß der Sinn unmittelbar in der Sprache enthalten
sei, könnte man hier einwenden, es müsse doch für jede Fremdsprache eine Erst-
übersetzung (ohne jedes Vorverständnis) gegeben haben, die die (vorgebliche)
Sinnbelegung der Fremdsprache aus ihr selbst entnommen habe. Wenn das so
wäre, hätte man das Altägyptische und das kretisch-minoische Griechisch und
viele weitere antike Sprachen, deren Schriftzeichen man kennt, schon seit der
Antike übersetzen können müssen.
Der universalgelehrte Jesuit Athanasius Kircher (1601 - 1680) hat für die in der
Renaissance bekannt gewordenen altägyptischen Hieroglyphen eine solche Erst-
übersetzung in seinem Werk „Lingua aegyptiaca restituta“ (Die wiederhergestellte
ägyptische Sprache, Rom 1694) versucht. Er hielt die Hieroglyphen für eine reine
Bilderschrift und legte den einzelnen Bildern den Sinn unter, den sie als Bilder
zeigten. Seine „Übersetzungen“ fielen nach seinem frommen Vorständnis sehr
sinnreich aus, waren aber gänzlich abwegig.
Jean François Champollion (1790 – 1832), der sich schon in jungen Jahren mit
den orientalischen Sprachen vertraut gemacht hatte, ging von dem damals aufge-
kommenen Vorverständnis aus, es handele sich bei den Hieroglyphen um eine
phonetische Buchstabenschrift. Das bewies er in seiner „Lettre à M. Dacier, rela-
tive à l‟alphabet des hiéroglyphes phonetiques“ (Paris 1822) und in seinem Buch
„Précis du système hiéroglyphique des anciens Égyptiens“ (Paris 1824) anhand
der phonetischen Übereinstimmung griechisch geschriebener Eigennamen (wie
Ptolemäus, Kleopatra sowie einiger römischer Kaiser) mit den in Kartuschen
eingeschlossenen hieroglyphischen bildhaften Schriftzeichen auf dem 1792 von
napoleonischen Truppen bei Schanzarbeiten ausgegrabenen Stein von Rosetta, der
sich jetzt im Britischen Museum in London befindet.
Dieser Nachweis allein hätte allerdings niemals für eine Erstübersetzung eines
hieroglyphischen Textes genügt. Champollion konnte solche Texte zwar phone-
tisch in einem Lautalphabet schreiben, aber dadurch allein hat er keinen Sinn
darin entdecken können. Dies ebenso wie jemand, der das Lateinische nicht
beherrscht, zwar Lateinisch schreiben und buchstabieren kann, jedoch ohne irgend
etwas dabei zu verstehen.
Die Übersetzung gelang ihm dadurch, daß er erkannte, daß die beiden in der ihm
bekannten griechischen und demotischen Schrift auf dem Stein von Rosetta
aufgezeichneten Textstücke Übersetzungen des hieroglyphischen Texte waren.
586

Und das erst erlaubte ihm die Zuordnung weiterer altägyptischer Wörter zu den
bekannten griechischen Wörtern, deren Bedeutung er schon kannte. 446
Das Beispiel lehrt, daß Übersetzungen nur möglich sind, wenn zwischen den
verschiedensprachigen Kulturen eine kulturelle Brücke besteht, über welche zwi-
schen den entsprechenden Völkern ein gewisser Fundus von gemeinsamen Vor-
stellungen durch Handel und Wandel entwickelt worden ist. Das war im Verhält-
nis zwischen Griechen und Ägyptern Jahrhunderte lang der Fall. Erst durch die
Hellenisierung Ägyptens unter den ptolemäischen (griechischen) Herrschern wur-
de die ägyptische Sprache ein arkaner Besitz der einheimischen Priester und
gebildeten „Schreiber“. Sie erhielt sich noch in gräzisierter Gestalt als demotische
Sprache und Schrift bei den koptischen Christen bis ins vierte nachchristliche
Jahrhundert. Danach wurde das Altägyptische für die Ägypter selbst zu einer
sinnleeren Hülse, (z. T. bis heute – wie z. B. auch das Lateinische in weiten
Kreisen kirchlicher Laien), die zwar memoriert und rituell rezitiert wurde, deren
Sinn jedoch weder die Priester noch die Laien verstanden.
Ist also die kulturelle Brücke zwischen verschiedenen Sprachgemeinschaften
abgebrochen, kann es keine Übersetzung mehr geben. Was man dann an Sinnver-
ständnis versucht, kann nur noch in Spekulationen und Sinnvermutungen beste-
hen.
Eines der hartnäckigsten Vorverständnisse beim Übersetzen ist die Meinung, die
Einheimischen (native speakers) verstünden am besten, was jemals in ihrer Spra-
che schriftlich niedergelegt wurde. Das wird zwar in den meisten Fällen trivialer
Schriften so sein. Je älter und je kulturell anspruchsvoller überlieferte Texte einer
Sprachgemeinschaft sind, desto mehr werden sie jedoch zum Objekt der Geistes-
wissenschaftler und damit zu Testfällen in Kontroversen zwischen einheimischen
Sprachkennern und auswärtigen Experten, die sich eine kompetente Sprachbeherr-
schung erworben haben.
Ein weiteres bedenkliches Vorverständnis nimmt an, man müsse stets auf (pub-
lizierte) Übersetzungen warten, bis eine Sprachgemeinschaft und insbesondere
Geisteswissenschaftler vom Literatur- und Wissensstand einer anderssprachigen
Kultur und ihrer Forschergemeinschaft Kenntnis nähmen. Publizierte Übersetzun-
gen dokumentieren in der Regel nur eine öffentliche Kommunikation, hinter der
sich inoffizielle Kommunikationen polyglotter Gelehrter verbergen können. Man
kann auch sagen, hinter gedruckten Übersetzungen verbirgt sich ein Weltmarkt
offiziell unübersetzter Ideen und Theorien, der zwar die kommunizierenden Röh-
ren der verschiedenen Sprachgemeinschaften wohltätig füllt, aber auch merkwür-
dige Blüten wie Plagiate und falsche Originalitäten hervortreibt. Dieser Kultur-
weltmarkt hat heute in den zahlreichen internationalen Kongressen seine Börsen.
Man sollte auch nicht sagen, daß eine Sprache den sogenannten Muttersprach-
lern „gehört“. Vielmehr sind Sprachen Gemeineigentum aller derjenigen, die sie
„beherrschen“. Es kommt häufig genug vor, daß jemand, der eine andere Sprache
446
Vgl. A. Gardiner, Egyptian Grammar, being an Introduction to the Study of Hieroglyphes, 3. Aufl. Oxford und London
1957, ND 1973, § 10, S. 12 - 15.
587

durch ihr Studium und ihre Anwendung zu beherrschen gelernt hat, diese Sprache
und ihre Sinnbefrachtung besser kennt als die meisten ihrer Muttersprachler. Dies
besonders in Bezug auf deren etymologische Sinngehalte, die den Mutterprachlern
regelmäßig unbekannt bleben.
Gegenwärtig läßt sich die Erfahrung machen, daß die älteren ausländischen
Kenner der deutschen Sprache, die noch die alte Orthographie und den klassi-
schen Wort- und Ausdrucksschatz gelernt haben, die treuesten Bewahrer eines
guten Hochdeutsch sind.
Diese Tatsachen setzen auch ein nicht ganz seltenes Phänomen im Verkehr zwi-
schen verschiedenen Sprachgemeinschaften ins Licht. Es ist die Überzeugung, daß
die eigene Sprache gänzlich unübersetzbar in andere Sprachen sei.
Die hinduistische Mimamsa-Schule hielt die vedischen Sanskrittexte für grund-
sätzlich unübersetzbar. 447 Vermutlich haben das orthodoxe Judentum wie auch
manche Richtungen des Islam diese Haltung gegenüber der Tora und dem Koran
von den Indern übernommen. Sie halten alle Übersetzungen für verfälschend und
irreführend und lehren ihre Gläubigen das Auswendiglernen und Rezitieren ihrer
heiligen Texte. Dies auch in Ländern, die andere Sprachen besitzen und die
Sprache der heiligen Texte nicht verstehen. Sie unterliegen dabei ebenfalls der
Täuschung, daß ihre heiligen Schriften in ihrer Ur-Sprache einen eindeutigen Sinn
enthielten, den nur sie selbst kennen und gewissermaßen verwalten, selbst wenn er
„über alle Vernunft“ hinausgehe und jenseits allen menschlichen Verständnisses
liege. In der christlichen Gemeinde ist das Phänomen auch nicht gänzlich unbe-
kannt und sogar zu einem Bon-mot geronnen. Erhält der Laie in der katholischen
Messe die Oblate mit den kanonischen lateinischen Worten „Hoc est corpus
meum“, so nennt einer, der weder Latein noch das Mysterium der Wandlung ver-
steht, dies „Hokuspokus“. Im Verhältnis zu anderen Sprachen drückt man sich
gewöhnlich um der Höflichkeit willen nicht so drastisch aus.
Nun kommt beim Übersetzen alles darauf an, worauf man das Interesse richtet.
Geht es um den Sinn eines Textes, so läßt sich bei entwickeltem Kommerz zwi-
schen den Sprachgemeinschaften stets ein Sinnverständnis (beim Übersetzer)
entwickeln, das man eine wirkliche Übersetzung nennen kann. Aber für eine
„gute“ Übersetzung muß man in der Zielsprache gleichsam ganz andere Register
ziehen, als sie die zu übersetzende Sprache benutzt. Legt man es aber darauf an,
nicht den Sinn (aber man meint ja, der ergäbe sich von selbst), sondern die
sprachlichen Register der grammatischen und literarischen Formen, der Laut-
werte, des Stils zu übersetzen, so hat die These der Unübersetzbarkeit volle Be-
rechtigung. Am deutlichsten zeigt sich das bei poetischen Übersetzungen. Sie
können nichts anderes sein als thematische Neuschöpfungen. Und das erhebt sie
über die Übersetzung hinaus auf die Ebene der kreativen Bereicherung der Aus-
drucksmöglichkeiten der Zielsprache.

447
Vgl. L. Geldsetzer, Die klassische indische Philosophie, Kap. 2, § 19: Die Mimamsa-Philosophie, in: Klassiker der
indischen Philosophie, Sonderband Digitale Bibliothek, CD-Rom, Berlin 2006, S. 321 – 335; auch im Internet der HHU
Duesseldorf.
588

Gilt aber der Prophet im eigenen Lande nichts, wohl aber bei anderen, so zeigt
sich darin ein umgekehrtes Phänomen: Erst die Übersetzung in eine andere
Sprache legt seinen Äußerungen einen Sinn unter, den seine Landsleute nicht
verstanden.
So erging es vermutlich dem Jesus von Nazareth und Paulus bei den Juden. Und
so auch dem deutschen Philosophen Karl Christian Friedrich Krause (1781 -
1832). Er wurde durch die Übersetzungen seiner Schriften ins Spanische in
Spanien so berühmt, daß der „Krausismo“ bis heute dort eine eigene philoso-
phische Strömung darstellt, während seine in seinem eigenwilligen Deutsch veröf-
fentlichten Schriften kaum jemand las, und der darum in seinem Heimatland so
gut wie unbekannt geblieben ist. Und das wird man auch von Martin Heidegger
sagen dürften, der sich von den Japanern hinsichtlich seines Nichts-Begriffes „so-
gleich verstanden“ fühlte „im Unterschied zu der noch heute in Europa umlau-
fenden nihilistischen Mißdeutung des angeführten Wortes.“ 448 Was andersspra-
chige Übersetzer seinen neuen Wortbildungen und seiner „dichterischen“ Aus-
drucksweise unterlegten, hat seiner Philosophie gewiß weltweite Notorietät ver-
schafft und ihn selbst zum „Weltphilosophen“ gemacht. Indes dürfte er seiner
einheimischen Anhängerschaft noch immer etwas rätselhaft geblieben sein.
Aber derartiges hat besonders bei Philosophen Tradition. Hegel wird als „letztes
Wort“ der Ausspruch zugesprochen: „Von allen meinen Schülern hat mich nur ein
einziger verstanden - und der hat mich falsch verstanden“.
Nach allem, was hier über das Verstehen in den Geisteswissenschaften auf dem
Hintergrund der diltheyschen Thesen gesagt wurde, sollten Philosophen die Be-
merkung des Hermeneutikers Chladenius ernst nehmen:
„In der Philosophie brauchen wir umso mehro die Auslege-Kunst so sehr nicht, nach-
dem jeder seine eigene Kraft zu denken brauchen soll, und ein solcher Lehrsatz, den
man durch vieles Auslegen aus einer philosophischen Schrift herauskriegen muß, uns
nicht sonderliche Dienste tun kann, weil es hernach erst die Frage sein wird, ob er wahr
ist, und wie man ihn beweisen sollte, worinnen die eigentliche Kunst der Philosophie
besteht.” 449

6. Die Verkunstung der Geisteswissenschaften und die Verwahrheitung der Kunst.

Die lebensphilosophisch begründeten Geisteswissenschaften haben diese Bemer-


kung des Chladenius aus dem 18. Jahrhundert nicht beachtet. Was Chladenius
explizit als Aufgabe der Philosophie benennt, gilt naturgemäß auch für die Gei-
steswissenschaften insgesamt. Sie sind auf die Erforschung des Wesens der geisti-

448
M. Heidegger in einem Brief von 1963 an einen japanischen Kollegen, zit. bei R. May, Ex Oriente Lux. Heideggers
Werk unter ostasiatischem Einfluß, Stuttgart 1989, S. 41.
449
J. M. Chladenius, Einleitung zur richtigen Auslegung vernünftiger Reden und Schriften, Leipzig 1742, Nachdruck in
Instrumenta Philosophica Series Hermeneutica V, hgg. v. L. Geldsetzer, Düsseldorf 1969, S. 105.
589

gen Gebilde ausgerichtet. Was als Ergebnis dabei herauskommt, soll in wahren
Theorien niedergelegt werden.
Solche mit Wahrheitsansprüchen auftretende Theorien des Geistes bzw. des
Geistigen und seiner Gestalten konkurrieren zwar zahlreich miteinander, aber am
wenigsten in den lebensphilosophisch begründeten Geisteswissenschaften. Erin-
nern wir z. B. an die neukantianischen Geltungs- und Werttheorien, insbesondere
an Ernst Cassirers Theorie der symbolischen Formen, an die neuaristotelische
Theorie des „objektiven Geistes“ von Nicolai Hartmann, an den angelsächsischen
Personalismus und die analytischen „Mind-Body“-Philosopheme, auch an die
marxistische Überbautheorie und die neue Neuro-Philosophie. In ihnen werden
mehr oder weniger plausible Behauptungen über den Geist aufgestellt. Aber sie
sind in den Geisteswissenschaften durchweg von der lebensphilosophischen Her-
meneutik gleichsam überrollt und zurückgedrängt worden.
An der Stelle, wo solche Theorien über den Geist sich um wahre Erkenntnisse
bemühen, liefern die lebensphilosophisch begründeten Geisteswissenschaften die
Ergebnisse von Verstehensakten geistiger Aktivitäten als „Wahrheiten“ ab. Nicht
die Erkenntnis dessen, was Sinn und Bedeutung als Objekte überhaupt sind, ist ihr
Ziel, sondern der als verstanden herausgestellte Sinn eines Artefakts ist hier selbst
schon die Wahrheit. Das Verstehen als solches gilt als ein Wahrheitsgeschehen.
Es handelt sich dabei um einen Fall von Kategorienverwechslung von erkennt-
nistheoretischer Wahrheit und ontologischer Echtheit. Das grundlegende Problem
bedarf einer besonderen Erklärung. Dazu müssen wir auf den historischen Aus-
gang dieser falschen Weichenstellung bei der Entstehung der modernen herme-
neutischen Geisteswissenschaften zurückgehen.
Dieser Ausgangspunkt liegt ersichtlich in zweierlei Vorgaben. Die erste ist die
Tradition der theologischen dogmatischen Hermeneutik. Denn in ihr wurde seit
Philon von Alexandrien die „Wahrheit der heiligen Schriften“ beschworen und
vorausgesetzt. Es wurde aber schon vorn darauf hingewiesen, daß dies ein meta-
phorischer Sprachgebrauch war. Er hat sich in der Praxis dogmatischer Ausle-
gungen verallgemeinert. Die zweite liegt in den Thesen, die Schelling über das
Verhältnis von Kunst und Wissenschaft aufgestellt hat.
In der modernen säkularisierten Welt ist die Kunst an die Stelle der Religion
getreten und übernimmt von ihr deren „Wahrheitsanspruch“. An der Stelle, wo der
Gott oder die Götter sich in heiligen Schriften selbst offenbaren, tritt in der Mo-
derne das Genie, das seine Wahrheiten verkündet.
Schelling, der Gründervater der Lebensphilosophie, hat die Kunst für den we-
sentlichen und höchsten Ausdruck des Lebens gehalten. Seine „Identitätsphiloso-
phie“ führt aus, wie sich das Unbewußte der Natur mit der „intellektuellen An-
schauung“ des Genies im Kunstwerk vereinigt. Und er stellte seine eigene Philo-
sophie selbst als literarisches Kunstwerk dar.
Im Verhältnis der Kunst zur Wissenschaft - wobei Schelling freilich die Natur-
wissenschaft meinte - „sind sie sich beide in ihrer Tendenz so sehr entgegen-
gesetzt, daß wenn die Wissenschaft je ihre ganze Aufgabe gelöst hätte, wie sie die
590

Kunst immer gelöst hat, beide in Eines zusammenfallen und übergehen müß-
ten.“450 Denn zur Hervorbringung eines Kunstwerkes bedarf es des Genies. „Nur
das, was die Kunst hervorbringt, ist allein und nur durch Genie möglich, weil in
jeder Aufgabe, welche die Kunst aufgelöst hat, ein unendlicher Widerspruch ver-
einigt ist.“ 451
Als naturwissenschaftliches Genie ließ Schelling nur Johannes Kepler gelten,
wohingegen die Ausarbeitung seiner „genialen“ Leistung durch Isaak Newton nur
eine „ganz szientifische Erfindung“ gewesen sei. Daran sehe man jedoch: „Was
die Wissenschaft hervorbringt, kann durch Genie hervorgebracht sein, aber es ist
nicht notwendig dadurch hervorgebracht“.452
Um solch geniale wissenschaftliche Leistungen zu erkennen, gibt Schelling zwei
Kriterien an. 1. Es muß die „Idee eines Ganzen“ vor aller Ausarbeitung des De-
tails undeutlich vorgestellt werden. 2. Das Genie kann den Sinn der eigenen Aus-
sagen „unmöglich ganz durchsehen“. 453 Aber Schelling gesteht auch zu, daß die
Vermutungen, es handele sich dabei um Genieleistungen, „höchst trügerisch sein
können“.
Deutlicher als Schelling kann man nicht sagen, was für die lebensphilosophi-
sche Geisteswissenschaft seither eines der effektivsten Leitbilder geblieben ist:

„Die Kunst sei das Vorbild der Wissenschaft, und wo die Kunst sei, soll die Wis-
senschaft erst hinkommen”. 454

Birgt das geniale Kunstwerk schon die reine Wahrheit, so ist jede Verstehens-
bemühung und jede Interpretation allenfalls „auf dem Weg“ zur Wahrheit.
Gewiß ist es eine europäische Tradition spätestens seit der Aufklärung, Dichten
und Denken so zu verknüpfen, daß der Reiz der Kunst Lockmittel für die Be-
schäftigung des gebildeten Publikums mit Philosophie und Wissenschaft gewor-

450
F. W. J. v. Schelling, System des transzendentalen Idealismus, 1800, hgg. v. W. Schulz, Hamburg 1957, S. 292
451
F. W. J. v. Schelling, op. cit. S. 292.
452
F. W. J. v. Schelling, op. cit. S. 292.
453
F. W. J. v. Schelling, op. cit. S. 293: „Man müßte also … Genie da voraussetzen, wo offenbar die Idee des Ganzen den
einzelnen Teilen vorangegangen ist. Denn da die Idee des Ganzen doch nicht deutlich werden kann, als dadurch, daß sie in
den einzelnen Teilen sich entwickelt, und doch hinwiederum die einzelnen Teile nur durch die Idee des Ganzen möglich
sind, so scheint hier ein Widerspruch zu sein, der nur durch einen Akt des Genies, d. h. durch ein unerwartetes Zusam-
mentreffen der bewußtlosen und der bewußten Tätigkeit möglich ist. Ein anderer Vermutungsgrund des Genies in Wissen-
schaften wäre, wenn einer Dinge sagt, und Dinge behauptet, deren Sinn er, entweder der Zeit nach, in der er gelebt hat,
oder seinen sonstigen Äußerungen nach unmöglich durchsehen konnte, wo er also etwas mit Bewußtsein aussprach, was er
doch nur bewußtlos aussprechen konnte.“
454
Für die philosophische Arbeit bedeutet das, daß „die Kunst das einzige wahre und ewige Organon zugleich und Doku-
ment der Philosophie sei, welches immer und fortwährend aufs neue beurkundet, was die Philosophie äußerlich nicht
darstellen kann, nämlich das Bewußtlose im Handeln und Produzieren, und seine ursprüngliche Identität mit dem
Bewußten. Die Kunst ist eben deswegen dem Philosophen das Höchste, weil sie ihm das Allerheiligste gleichsam öffnet,
wo in ewiger und ursprünglicher Vereinigung gleichsam in Einer Flamme brennt, was in der Natur und Geschichte
gesondert ist, und was im Leben und Handeln ebenso wie im Denken ewig sich fliehen muß” (F. W. J. v. Schelling, op. cit.
S. 297). – Schellings Intentionen kamen in seiner Schule in weiteren Schriften zum Ausdruck, so bei Christoph Adam
Eschenmayer, Die Philosophie in ihrem Übergange zur Nichtphilosophie, Erlangen 1803; Magnus Adam Bihler, Über die
Verwandschaft der Poesie und der Philosophie und deren Verschiedenheit (Preisschrift), Landshut 1812; K. Weinholtz, Die
Unzulänglichkeit der Philosophie als Wissenschaft und die Ausbildung der Philosophie zur Kunst, Rostock 1844.
591

den ist.455 Die deutsche Popularphilosophie und die französischen und englischen
Aufklärer haben die Philosophie und die Wissenschaften der Aufklärung in glän-
zender Prosa und Reimen verbreitet. Erwähnen wir hier neben Bernard de Man-
devilles „Bienenfabel“ und Alexander Popes „Essay on Man“, Gotthold Ephraim
Lessing und besonders Georg Christoph Lichtenberg mit seinen unübertroffenen
Aphorismen, aber auch den frommen Barthold Heinrich Brockes (1680 – 1747)
mit seinem neunbändigen enzyklopädischen Lehrgedicht der Naturwissenschaften
unter dem Titel „Irdisches Vergnügen in Gott“. 456
Das Publikum lernte Moral und Weltanschauung aus den Bühnenwerken der
Dichter herauszuhören. Es gab viele philosophische Schriftsteller und schriftstel-
lernde Philosophen, denen die Verknüpfung von Dichtung und Wissenschaft mehr
oder weniger gut gelang. Von den „Größten“ erwartete man diese Kompetenzen
ganz selbstverständlich. Wie hätte man Philosophen wie eben Schelling, Friedrich
Schlegel, Novalis (Friedrich von Hardenberg) jemals „Romantiker“ nennen kön-
nen, wenn man sie nicht als Literaten und Denker zugleich geschätzt hätte. Der
größte von ihnen, Goethe, wetteiferte neben seinen sonstigen wissenschaftlichen
Unternehmungen mit dem größten Physiker Newton um die wahre Erklärung der
Farben. Mit dem Titel seiner Selbstbiographie „Dichtung und Wahrheit“ hat er
eine ebenso treffende wie zweideutige Devise für diese Tendenz geprägt. 457 Die
berühmte französische Exilantin Madame de Staël (Germaine de Staël-Holstein
1766 - 1817) hat viele dieser „Größen“ in deutschsprachigen Ländern interviewt
und ihre Leistungen aufs höchste gepriesen. Sie hat die Deutschen in ihrem Buch
„Über Deutschland“ (De l‟Allemagne, 1813) 458 zwar nicht das „Volk der Dichter
und Denker“ genannt. Aber das geflügelte Wort wird ihr bis heute gerne zuge-
schrieben. Es kann auch so verstanden werden, daß die Dichter die großen Denker
seien, und die großen Denker zu Dichtern geworden seien.
Das Verhältnis zwischen Kunst und Wissenschaft und insbesondere zwischen
Dichtung und Geisteswissenschaft war jedenfalls so, daß die wahren Einsichten
und Erkenntnisse der Wissenschaft seit jeher auch zur Themen-Topik der Künste
gehörten. Die Dichter und Schriftsteller erhoben dabei nicht den Anspruch, irgend
etwas besser zu wissen oder tiefere Einsichten zu verbreiten als es dem Stand der
wissenschaftlichen Forschung entsprach. Und umgekehrt hatte Wissenschaft ge-

455
Auch in dieser Hinsicht folgte man antiken Vorbildern, wie besonders Lukrez„ De rerum natura. In diesem Werk zeigt
sich exemplarisch, daß ein Philosoph ganz auf der Höhe der Dichtkunst und der Dichter auf der Höhe der Philosophie und
Wissenschaft sein konnte. Umso mehr wundert man sich, daß man sich heute darüber streiten kann, ob Lukrez mehr
Dichter oder Philosoph war und in welchem Grad. Vgl. z. B. D. Lehoux, A. D. und A. Sharrock (Hg.), Lucretius. Poetry,
philosophy, science, Oxford 2013.
456
B. H. Brockes, Irdisches Vergnügen in Gott. In Physicalisch und Moralischen Gedichten, 9 Bände, Hamburg 1721 –
1748, 1. und 2. Teil neu hgg. von Jürgen Rathje, Göttingen 2013. – Brockes hat u. a. auch das berühmte Lehrgedicht „Ver-
such vom Menschen des Herrn Pope“ (Alexander Pope, Essay on Man), Hamburg 1740, aus dem Englischen übersetzt.
457
Goethe selbst nennt „Wahrheit und Dichtung“ in einem Brief an König Ludwig I von Bayern vom 12.1.1810 einen
„einigermaßen paradoxen Titel“; vgl. Dichtung und Wahrheit, hgg v. Kl.-D. Müller, in: Goethe Werke, Band V, (Kommen-
tar) S. 728.
458
Die erste Ausgabe des Werkes (10 000 Exemplare), 1810 in Paris gedruckt und zur Auslieferung bereit, wurde von der
französischen Zensur beschlagnahmt und vernichtet. Es erschien 1813 in London, 1814 auch in Paris und 1815 in Leipzig.
Vgl. De l‟Allemagne, par Madame de Stael, avec une preface par M. S. Marmier, Paris 1839, S. XIII f.
592

wöhnlich nicht den Ehrgeiz, durch künstlerische Form und ästhetischen Reiz zu
imponieren. Fast möchte man sagen, Wissenschaft zeichnete sich eher durch
Trockenheit und Nüchternheit aus und vermied es geradezu, „belletristisch“ da-
herzukommen. Die Formen dieser „trockenen“ Wissenschaftlichkeit sind bis heute
der Aufsatz, der Vortrag und die Monographie sowie die kritische Rezension
geblieben. Die literarischen Gattungen jedoch haben sich immer mehr diffe-
renziert und wurden auch neue Gattungen geisteswissenschaftlicher Artikulatio-
nen. Heute wird schon jede geisteswissenschaftliche Seminararbeit als „Essay“
gehandelt.
Das traditionelle und auch jetzt noch vorfindliche Verhältnis zwischen Wis-
senschaft und Kunst hat sich unter dem Einfluß der Lebensphilosophie seit Schel-
ling allmählich gewandelt. Daß die Dichter als große Denker, und die Denker als
Dichter auftraten, das ist seit der Geniezeit eine neue Entwicklung.
Was Schelling im Sinne hatte, war der absolute Vorrang der Kunst vor der
Wissenschaft, nicht nur eine Anhebung der Kunst und insbesondere der Dicht-
kunst in der gesellschaftlichen Wertschätzung. Damit sprach er den Künstlern aus
dem Herzen und dem Publikum ins Gewissen, ihre Gärtner, Architekten, Musiker,
Maler und musisch gestimmten Hauslehrer nicht länger als Domestiken zu be-
handeln.
Sollte die Wissenschaft, der es um die Wahrheit geht, erst dahin kommen, wo
Kunst schon immer ist, so konnte das nur bedeuten, daß die Kunst (wie einst die
Theologie) die Philosophie und die Wissenschaft zur „ancilla artis“ macht. Soweit
es aber um die Wahrheit geht, die gewiß nicht immer „schön“ ist, verdrängte und
ersetzte dieser neue Wahrheitsanspruch der Kunst ihren traditionellen Schönheits-
anspruch mehr und mehr. An seine Stelle setzte sie das Ideal der Wissenschaften
und wollte nicht mehr „schön“, sondern „wahr“ sein.
Der neue Glaube an die Wahrheit der Kunst bzw. in den einzelnen Künsten ent-
wickelte sich im 19. Jahrhundert nach platonisch-idealistischer und aristotelisch-
realistischer Grundeinstellung.
Schelling selbst folgte der idealistischen Linie. Sie besagt, daß das Kunstwerk
selbst schon in seiner Existenz eine Gestalt der ontologischen Wahrheit sei, die
durch die Aura der Schönheit bestätigt werde. Der „unendliche Widerspruch“, der
nach Schelling in jedem Kunstwerk „vereinigt“ (nicht etwa „gelöst“) sein soll,
wird gewissermaßen zum Qualitätsmerkmal für jedes echte Kunstwerk. Seine
präsumierte „Wahrheit“ imponiert als innere Dialektik, die sich nach außen als
Widerspruch von Sein und Schein, Offenbarung und Verbergung, Sinnhaltigkeit
und Nonsens, Wollen und Können, „Gesagtem und Ungesagtem“ ausweist. Es
kann nur durch den Künstler als Genie hervorgebracht werden, der selbst eine
dialektische Einheit von bewußten und unbewußten kreativen Kräften ist.
Die dialektische Geniekonzeption lenkte die Aufmerksamkeit auf die Person
des genialen Künstlers, der infolge dessen immer wichtiger wurde. Er wurde in
allen Kunstgattungen zum Virtuosen. Die „Expressionismen“ aller Kunstsparten
betonten eben diese Ausdrucksfähigkeit des genialen Virtuosen.
593

Sören Aaby Kierkegaard (1815 – 1855) dürfte der erste Lebenskünstler-Virtuose


gewesen sein, der aus seinem Leben die Beglaubigung seiner philosophisch-
literarischen Produktionen gemacht hat und darin im 20. Jahrhundert eine große
Nachwirkung entfaltete. Diese expressionistische Linie führt bis heute direkt auf
einen absoluten Tiefpunkt in der Zero-Kunst, wo die intimste „Expression“ des
Künstlers, nämlich die eigenen Fäkalien (konserviert in Dosen) als genial-virtu-
oses Kunstwerk in Museen vorgezeigt wird (was auch immer als der provokative
Sinn dieser Art von Kunstwerken ausgegeben wird).
Arthur Schopenhauer nahm gegenüber Schellings Produktionsphilosophie des
Künstlers den Standpunkt des Kunstbetrachters ein und erklärte die Wahrheit der
Künste aus der platonischen Seinshierarchie der Ideen. Das wahre Wesen der
toten Natur zeigt sich im Umgang der Baukunst mit der schweren Materie. Das
Lebendige drückt sich in der plastischen Kunst und in der Stilllebenmalerei aus.
Das menschliche Leben bietet sich in der Historienmalerei und in der Dichtung
dar. Die bis dahin unterbewertete Musik tritt an die erste Stelle, da sie den meta-
physischen Urgrund, den Willen, in reinster Gestalt zum Ausdruck bringt.459 Und
nicht nur das: sie macht das Leben überhaupt erst erträglich.
Auch nach Schopenhauer hat sich nichts daran geändert, daß die Härte und das
Leid des Lebens für die Armen in der Not und der Sorge um das tägliche Brot
besteht. Daß jedoch die Härte und das Leiden am Leben für reiche Müßiggänger
in der „Langeweile“ bestehe, die gerade durch den Kunstgenuß erst erträglich
würde, kann man als einen Tiefpunkt dieser Kunstauffassung ansehen.460
In diesen beiden idealistischen Sichten der Kunst genießt und erleidet sowohl
der Künstler wie der Kunstliebhaber die Kunstprodukte als Teilhabe an der reinen
Wahrheit des Kunstwerkes. Und dieser Genuß und das Leiden sowohl an der Pro-
duktion wie an der Rezeption des Kunstwerkes wird als Involviertsein in ein
mystisches Wahrheitsgeschehen empfunden.
In realistischer Sicht besteht die Wahrheit der Kunst dagegen in der aristote-
lischen Imitatio. Kunst beschreibt alles in der Welt in sinnlichen Bildern. Die
Kunstrichtungen unterscheiden sich danach, welche Beschreibungsmittel zur Ver-
fügung stehen und neu entwickelt werden und an welchen Wahrnehmungssinn sie
sich wenden. Die Musik wird „Programmmusik“ und stellt das Gezwitscher der
Vögel und das Murmeln des Baches bis hin zur Raum-Zeitstruktur des Weltalls
(noch immer die „Sphärenharmonie“ der Pythagoräer) dar. Dichtung und Literatur
beschreiben die möglichen Welten der Vergangenheit und Zukunft ebenso wie
alles gegenwärtig Geschehende, unterstützt und bekräftigt durch die Malerei der
Porträts lebender Personen und der historischen Schlüsselereignisse, später zusätz-
lich beglaubigt durch die Photographie. Die malerischen Techniken ahmen phy-

459
A. Schopenhauer, Die Welt als Wille und Vorstellung, 3. Buch und Ergänzungen zum 3 Buch, Sämtl. Werke hgg.
von Ed. Grisebach, Leipzig o. J., Band 1, S. 233 - 352 und Band 2, S. 475 - 537.
460
A. Schopenhauer, Die Welt als Wille und Vorstellung, 4. Buch S. 406: „Wie die Noth die beständige Geisel des
Volkes ist, so die Langeweile die der vornehmen Welt. Im bürgerlichen Leben ist sie durch den Sonntag, wie die Noth
durch die sechs Wochentage repräsentiert“.
594

siologische und optische Erklärungen des Sehens als Pixelsammlung auf der Netz-
haut des Auges (Pointilismus) oder als Impressionen im Gemüt nach. Das mündet
in die Hereinnahme von Photographie und Film in die darstellenden Künste und
von Computerkompositionen und Geräuschdesign in die Musik.
Vor allem strebt man auch rein „theoretische“ bzw. „abstrakte“ Beschreibungen
in den einzelnen Künsten an, womit erst recht der „wissenschaftliche“ Charakter
der modernen Kunst unterstrichen werden soll. In geometrischen Formen rekon-
struiert man im Kubismus die Welt. Im „Informel“, in der reinen Farbe, im reinen
Dauerton von 639 Jahren in der Burchardi-Kirche von Halberstadt und in der
reinen Pause, die mal schneller und langsamer „gespielt“ werden kann, beschrie-
ben zuletzt die Malerei und die Tonkunst sich selber. Im Surrealismus überbieten
die Künste den Realismus noch durch die „Entdeckung“ und „Beschreibung
verkehrter Welten“. Diese bleiben jedoch auch in den technisch raffiniertesten
„virtuellen Welten“ der Computerspiele noch immer das täuschende Theater, von
dem der antike Gorgias sprach. Die „Performances“, von den Bühnen in die „Hap-
penings“ verlagert, imitieren alles, was der Mensch zu tun fähig ist. Was davon im
gemeinen Leben als unmoralisch oder ungesetzlich gilt, wird im grundgesetzlich
umhegten Kunstraum zur „alternativen Szene“.
Da nicht alles Wirkliche „schön“ sein kann, machten sich alle Künste auch das
„Häßliche“ zum Gegenstand, wenn es nur „realistisch“ und „wahr“, d. h. ebenso
häßlich, abgebildet und dargestellt wurde.461 Diese Tendenz erlebte im 20. Jahr-
hundert eine Hochblüte. Dekomponierte Gesichter und verstümmelte Körper hatte
man in den Kriegen und Katastrophen reichlich gesehen. Jetzt wurden sie in den
Museen zu Symbolen des wahren Wesens des modernen Menschen.
Bei alledem ahmten die bis ins 19. Jahrhundert meist noch handwerklichen
Ausbildungsverhältnisse der Künstler nunmehr auch die wissenschaftlichen Insti-
tutionen der Forschung und Lehre in Bauakademien, Kunstakademien und Kon-
servatorien nach. Schreib-Hochschulen für künftige Dichter gab es zwar noch
lange nicht. Erst im 20. Jahrhundert haben sich die Literaturfakultäten Lehrposi-
tionen für „creative writing“ für Dichter und Schriftsteller als Berufsausbildung
gegründet.
In der Oper, im Schauspiel und Konzert, die bis zum Ende des 18. Jahrhunderts
noch gesellschaftliche Treffpunkte waren, und wo die künstlerischen Darbie-
tungen allenfalls begleitender Hintergrund geselligen Austausches waren, wurde
es still wie im Hörsaal (und im protestantischen Gottesdienst), so daß schon ein
Räuspern im Publikum als Störung des Offenbarungsgeschehens der Kunstwahr-
heit empfunden wird.
Hegel behauptete zwar, daß die Kunst ihre große Zeit in der Antike gehabt hätte
und dann durch mittelalterliche Religion, diese wiederum durch moderne Wissen-
schaft abgelöst worden sei. Aber zugleich betonte er auch, daß die antiken Kunst-
formen zugleich mit den religiösen Ritualen in der modernen Wissenschaft „auf-
461
Dafür plädierte zuerst Karl Rosenkranz in seiner berühmt gewordenen „Ästhetik des Häßlichen“ von 1853, neue
Ausgabe Stuttgart 2015.
595

gehoben“ (d. h. zugleich überwunden aber auch konserviert) seien, so daß sie
noch immer darin als Muster und Maßstäbe ihrer Ausgestaltungen dienen könn-
ten. Und auch diese Ansicht von der Kunst dürfte sogar bei denen, die mit Hegels
Philosophie nichts anfangen konnten, zur Verkunstung der Geisteswissenschaften
beigetragen haben.
Die Philologien, zu deren Forschungsgegenstand die Literatur und Dichtung
aller Nationalsprachen und Kulturen gehören, bekamen es ganz besonders mit
dem Wahrheitsanspruch der „Dichtung“ zu tun. Sie verkunsteten, indem sie die
Wahrheitsprätention der literarischen Texte übernahmen.
Befördert, wenn nicht gar ausgelöst wurde das durch die Hermeneutik des
Theologen Friedrich Ernst Daniel Schleiermacher (1768 - 1834). Seine These war,
daß die Bibel, die ohnehin als Gefäß der göttlichen Wahrheit galt und dies auch
bei den „Gebildeten unter ihren Verächtern“, nunmehr unter denselben herme-
neutischen Kanons verstanden und ausgelegt werden sollte wie die klassische
Dichtung und Literatur. Statt jedoch den biblisch-theologischen Wahrheitsan-
spruch kritisch zu hinterfragen, übertrug ihn Schleichermachers neue „universale
Hermeneutik“ auf die weltliche Literatur. Daß er dabei von einer „Kunstlehre des
Verstehens“ sprach, verknüpft diesen Prozess mit der Verkunstung der Geistes-
wissenschaften.
Schrittmacher der Verkunstung der Geisteswissenschaften blieb jedoch im 19.
Jahrhundert die aufklärerische Popularisierung der Ergebnisse der Wissenschaf-
ten, von der schon die Rede war.
Friedrich Heinrich Jacobi (1743 – 1819), der „Glaubensphilosoph“, wirkte auf
ein weites Publikum durch seine Romane und die Mitherausgabe des „Teutschen
Merkur“, der führenden literarischen Zeitschrift. Jakob Friedrich Fries (1773 –
1843) schrieb einen zweibändigen Roman „Julius und Evagoras“, in welchem er
seine ethischen und politischen Reformvorschläge, die er auch in selbständigen
Schriften veröffentlichte, verbreiten wollte. Rudolf Hermann Lotze (1817 – 1881),
Physiologe und Psychologe, aber auch Verfasser der autoritativen „Geschichte der
Ästhetik“ in Xaver von Wegeles monumentaler Reihe der Geschichte der Wissen-
schaften im 19. Jahrhundert, schrieb seinen „Mikrokosmus“ ganz im Stil eines
kosmischen Entwicklungsromans, jedenfalls ohne ein einziges den Leser stören-
des Zitat oder Literaturangaben. 462
Die zentrale Figur der Verkunstung und der reinste Typus Schellingschen Ge-
nietreibens in den Geisteswissenschaften war Friedrich Nietzsche (1844 – 1910),
der wohl weltweit berühmteste Lebensphilosoph des 19. und 20. Jahrhunderts. Er
verdankt seinen Ruhm ebensowohl seiner altphilologischen Ausbildung und frü-
hen Lehre wie seiner Philosophie und der literarischen Kunstform seiner Schriften
und ihrer deutschen Sprachgewalt. Er ist noch immer der philosophische Lieb-
462
R. H. Lotze, Mikrokosmus, Ideen zur Naturgeschichte und Geschichte der Menschheit. Versuch einer Anthropologie, 3
Bände, Leipzig 1856 - 1864, 6. Aufl. 1923. Im Ueberweg (Bd. 4, 1923, S. 303) heißt es über den – A. von Humboldts
„Kosmos“ ergänzen sollenden „Mikrokosmos“: „Derselbe ist durch den formvollendeten Charakter seines Stils zu einem
klassischen deutschen Literaturdenkmal geworden“. Er hat bekanntlich auch in der angelsächsischen Welt große und nach-
haltige Anerkennung gefunden.
596

lingsautor der deutschen und ausländischen Germanisten. Die jüngste Gesamt-


ausgabe seiner Schriften verdankt sich bekanntlich zwei italienischen Germa-
nisten.
Die altphilologischen „humanistischen“ Gymnasien und die Konversationslexi-
ka hatten mittlerweile die Kenntnisse der antiken literarischen Topoi, insbeson-
dere der Mythen und Legenden und ihres Personals sowie zunehmend die „ger-
manischen Heldensagen“ so weit verbreitet, daß das gebildete Publikum in den
Museen und den Schauspiel- und Konzerthäusern sofort verstand um was es ging,
wenn der Name einer antiken mythologischen Figur oder ein mittelalterlicher
Minnesänger-Name fiel. Und nicht nur dort. Was wäre wohl die Freudsche
Psychoanalyse ohne Ödipus und Narciss und die Tiefenpsychologie C. G. Jungs
ohne die Mythen und Symbole aller Kulturen geworden, mit denen sie nach
Schellings Empfehlung das Unbewußte mit den Bewußtheiten ihrer Zeit ver-
mittelten und/oder verschmolzen.
Die Verschmelzung von Dichten und Denken setzt sich in den historischen Dis-
zipinen der neuen Philosophischen Fakultät fort. Die bedeutendsten Historiker
wurden als Forscher geschätzt, aber ihre Werke mußten zugleich als Romane les-
bar sein. Theodor Mommsen erhielt 1902 den zweiten Nobelpreis für „Literatur“
(nicht für Literaturwissenschaft!) mit der Widmung: „Dem gegenwärtig größten
lebenden Meister der historischen Darstellungskunst, mit besonderer Berücksich-
tigung seines monumentalen Werkes ‚Römische Geschichte„ “. Der Lebensphilo-
soph Rudolf Eucken wurde 1908 „auf Grund des ernsten Suchens nach Wahrheit“
aber auch wegen „der Wärme und Kraft der Darstellung“ mit dem Nobelpreis aus-
gezeichnet. Henry Bergson erhielt den Nobelpreis 1927 „als Anerkennung für
seine reichen und belebenden Ideen und die glänzende Kunst, womit sie vorgetra-
gen werden“.
Die Tendenz hielt sich bekanntlich auch im französischen Existenzialismus der
Nachkriegszeit durch. Sie führte jedenfalls bei den Pariser Intellektuellen und
ihren amerikanischen Freunden zu einer Symbiose von Philosophie, Schriftstel-
lerei und Journalismus, die sich seither ständig verfestigt hat. Und auch dies wur-
de durch den Literatur-Nobelpreis bestätigt. So wurde Albert Camus 1957 prämi-
iert „für seine bedeutungsvolle Verfasserschaft, die mit scharfsichtigem Ernst
menschliche Gewissensprobleme unserer Zeit beleuchtet“. Jean-Paul Sartre wurde
der Literaturnobelpreis 1964 zugesprochen „in Anerkennung seines schöpferi-
schen schriftstellerischen Schaffens, dessen freiheitlicher Geist und dessen Suche
nach Wahrheit einen weitreichenden Einfluß auf unser Zeitalter ausgeübt hat“. Er
nahm den Preis bekanntlich nicht an. Man kann vermuten, daß er durch den Lite-
raturpreis den philosophischen Wert seines Werkes für unterbewertet hielt.
Als der Historiker Golo Mann 1971 mit seinem historischen Roman über „Wal-
lenstein. Sein Leben von Golo Mann erzählt“ brillierte, war er nicht der einzige,
der die Lücken des historischen Wissens mit dichterischer Kunst ausfüllte. Er
erhielt dafür den bedeutenden deutschen Büchner-Preis für Literatur.
597

Die Schnittstelle von Geschichtsforschung und Sprachwissenschaft bzw. Philolo-


gie war die historische Sprachforschung, wie sie im 19. Jahrhundert besonders in
Deutschland zu hoher Blüte gelangte. Hier mußte die Etymologie, d. h. die histo-
rische Entwicklung des Wortschatzes der Sprachen, ins Zentrum des linguisti-
schen Interesses geraten. Und dem verdankt man u. a. das (erst jüngst vollendete)
Grimmsche Wörterbuch der deutschen Sprache.
Flankiert wurde dieses Interesse durch die philosophische Begriffsgeschichts-
schreibung, von der zu Beginn des 20. Jahrhunderts Rudolf Eislers „Wörterbuch
der Philosophischen Begriffe historisch-quellenmäßig bearbeitet“ ein glänzendes
Zeugnis abgab. 463 Eisler nahm in dieser etymologischen Sicht der Begriffe alle
Stufen ihrer Geschichte gleich ernst. In der zeitgenössischen Terminologie längst
vergessene Bedeutungen wurden wieder in Erinnerung gerufen und gaben neue
Denkanstöße.464
In den etymologischen Rückgriffen auf die Quellen, Ursprünge und Bedeu-
tungswandlungen aktueller Begriffe liegt u. a. der Schlüssel zum philosophischen
Denken von Martin Heidegger. Denn die Etymologie wurde ihm zum Leitfaden
zur „Entbergung der Wahrheit“ in der Sprache. Und dies nicht nur hinsichtlich der
klassischen abendländischen Sprachen, sondern mehr und mehr auch der fernöst-
lichen.
Folgen wir ihm einige Schritte auf seinem „Denkweg“, für dessen Verständnis
schon ebensowohl das griechische „methodos“ wie das chinesische „dao“ (dao
bzw. tao = Weg) steht. So läßt sich das Zusammenfließen von philosophisch-
wissenschaftlicher Etymologie und dichterischer Imagination bei ihm nachvoll-
ziehen.
Zentral für sein Denken war von Anfang an der Seinsbegriff, den er nach eige-
nem Bekunden schon in seiner Gymnasialzeit durch die Lektüre von Franz Bren-
tano, dann in seinem Studium der katholischen Theologie als sein großes Thema
entdeckte und sein Leben lang im Auge behielt.465 Daß der Seinsbegriff als höch-
ster (aristotelischer) Allgemeinbegriff durch kein Merkmal eines genus proximum

463
R. Eisler, Wörterbuch der philosophischen Begriffe, historisch quellenmäßig bearbeitet, Berlin 1899; 2. völlig neu
bearb. Aufl. in 2 Bänden, Berlin 1904; 3. völlig neu bearb. Aufl. in 3 Bänden, Berlin 1910, 4. Aufl. in 3 Bänden Berlin
1927-1930. – Das Historische Wörterbuch der Philosophie, hgg. von J. Ritter u. a. in 13. Bänden, Basel-Stuttgart 1971-
2007 wird als „völlig neubearbeitete Auflage des `Wörterbuchs der philosophischen Begriffe` von Rudolf Eisler“ einge-
führt.- Wichtiger Vorläufer der historischen Begriffsstudien war allerdings der Lebensphilosoph Rudolf Eucken mit seiner
Geschichte der philosophischen Terminologie im Umriß, Leipzig 1879, ND Hildesheim 1964.
464
„Begriffe sind der Niederschlag von Einsichten in das Constante, Allgemeine, Charakteristische, Typische einer Grup-
pe von Objecten. Dieses ‚Wesen„ ist aber nicht etwa das ‚Ding an sich„, sondern das, was dem Denkenden als logisch
wichtig, bedeutsam erscheint, und das hängt sehr vom Standpunkt und von der Individualität des Denkenden ab. Daher
repräsentieren insbesondere die philosophischen Begriffe ganze Theorien, Hypothesen, Deutungen, Wertungen, ein jeder
von ihnen will eine Seite der Objecte erfassen, fixieren“ (R. Eisler, Wörterbuch Band 1, S. IVf.).
465
M. Heidegger, Zur Sache des Denkens (1963): Franz Brentanos „Dissertation ‚Von der mannigfaltigen Bedeutung des
Seienden nach Aristoteles„ war … seit 1907 Stab und Stecken meiner ersten unbeholfenen Versuche, in die Philosophie
einzudringen“. - Von der Schrift ‚Vom Sein. Abriß der Ontologie„ (1896) seines theologischen Lehrers Carl Braig sagt er:
„Die größeren Abschnitte der Schrift bringen jeweils am Schluß längere Textstellen aus Aristoteles, Thomas v. A. und
Suarez, außerdem die Etymologie der Wörter für die ontologischen Grundbegriffe.“ Zit. nach W. Biemel, Heidegger,
Reinbek 1973, S. 21.
598

definierbar sein sollte, konnte er zunächst in der aristotelischen logischen Lehre


von der Definition, und dann auch in Hegels „Logik“ bestätigt finden.466
Darauf gründete er die „ontologische Differenz“ zwischen dem undefinierbaren
bzw. durch „Nichts“ definierbaren Sein und dem durch bestimmte Merkmale defi-
nierbaren Seienden. Das blieb zunächst (in „Sein und Zeit“ 1927) eine provokante
und unverstandene These, die wohl die Schellingsche Bedingung für Genialität
erfüllte. Es deutete sich die Idee eines Ganzen an, dessen Ausführung im Detail
erst noch zu suchen war. Kein Wunder, daß auch jetzt noch nach einer positiven
Seinsdefinition gesucht wird, wie es zuletzt Wolfram Hogrebe in einer Schrift
„Philosophischer Surrealismus“ (Berlin 2014) aus dem neuplatonischen genus
proximum des „Überseienden“ versuchte.
Heidegger versuchte es – hierin Hegel folgend - mit einem passenden Nichts-
Begriff. Und er fand ihn in der fernöstlichen Philosophie, mit der er sich, ohne
dies bekannt werden zu lassen, schon früh beschäftigt hatte, und auf die er auch
immer wieder zurückkam. Hier dürfte er auf das uralte „Wu“ (Nichts) aus dem
Dao De Jing des Laozi gestoßen sein, das der Etymologe L. Wieger auf die Baum-
rodung und also die „Lichtung im Walde“ zurückführte.467
Von da ergab sich, daß Erkenntnis und „Aufklärung“ mit Platons Sonnen- und
Höhlengleichnis und also mit Licht und Dunkelheit in Verbindung zu bringen sei,
wobei das Licht immer nur in seiner Nähe (der Heideggerschen „Nahnis“) etwas
deutlich sehen und erkennen läßt. Liegt der Rest im Schatten und Dunkel, so
bietet sich das Bild der „Lichtung“ an. Die Lichtung ist für Heidegger der meta-
phorische Ort, wo sich Wahrheit zeigt.
Daß das Sein aus dem Nichts entstamme und beide zusammen in allem Seien-
den wirken sollen, konnte er ebenfalls aus dem Dao De Jing des Laozi als eine
auch den Chinesen selbst bis heute schwer verständliche These entnehmen.
Heidegger hielt sie mit der These, daß Sein dasselbe (wie) Nichts sei, fest. Weite-
re Aufschlüsse über dieses rätselhafte „Nichts“ suchte er bei seinen japanischen
Gesprächspartnern, die ihn auf den buddhistischen Grundbegriff des „Leeren“
(japan.: ku, sanskrit: shunyata) verwiesen. Da dieses „Leere“ mit chinesischem
Schriftzeichen auch in der japanischen Kanji-Schrift, (d. h. den chinesischen
Schriftzeichen) durch „Wu“ (Nichts) (daneben durch „Kong“ = Leeres, Himmels-
raum), ausgedrückt wird, sah er darin wohl eine Bestätigung seiner „Sein =
Nichts“-These.

466
G. W. F. Hegel, Wissenschaft der Logik (1812), 1. Teil, 1, 1, hgg. v. G. Lasson, Hamburg 1951, S. 67: „Das Sein, das
unbestimmte Unmittelbare, ist in der Tat Nichts, und nicht mehr noch weniger als Nichts.“
467
L. Wieger S. J., Chinese Characters. Their origin, etymology, history, classification and signification (aus dem Franzö-
sischen der 4. Aufl. übers. von L. Davrout, 1915), 2. Engl. Aufl. 1927, ND New York 1965, S. 336: „Wu (zusammenge-
setzt aus den Radikalen für Wald, Menschen, Menge) A multitude of men, acting upon a forest, felling the trees, clearing of
wood a tract of land. In the old form (it) stated that the wood had vanished. Hence (durch Übertragung) the general abstract
notions of vanishing, defect, want, negation.” – Zu dieser und weiteren Anregungen Heideggers durch ostasiatisches
Denken vgl. R. May, Ex Oriente Lux. Heideggers Werk unter ostasiatischem Einfluss, Stuttgart 1989, 2. Aufl. unter dem
Titel „Heidegger verborgene Quellen. Sein Werk unter chinesischem und japanischem Einfluß“, Wiesbaden 2014 (engl.
Übers.der ersten Auflage von Gr. Parkes „Heidegger‟s hidden Sources“, London-New York 1996), bes. S 50f. Die
chinesische Lichtungsetymologie Wiegers dürfte keineswegs eine zufällige Textparallele gewesen sein, wie May vermutet.
599

Zu den etymologischen Inspirationen Heideggers gehörte auch, daß der „Logos“


des Heraklit das Sammeln und Lesen (griech.: légein) von Welterfahrungen und
ihre Vereinigung zum logischen Begriff bedeuten solle. Dies löste ihm das Rätsel,
das er durch Edmund Husserls „kategorische Wesensschau“ der abstrakten Begrif-
fe nicht gelöst fand.468 Daß des Parmenides und Platons „aletheia“ (Wahrheit) et-
was mit Unverborgenheit und Nicht-Vergessen zu tun hätte (was einige Lin-
guisten allerdings bezweifeln), blieb ein Leitmotiv seiner ganzen Philosophie. Daß
die aristotelischen Vier Ursachen („aitiai“) die Kausalität auf ein Verschulden
zurückführen, und daß die „Substanz“ („ousia“) auf „Anwesen“ verweist, was
neben Gegenwärtigkeit auch ein Landgut oder eine Schwarzwaldhütte sein kann,
blieben „Wegmarken“ seines Denkweges. Hinzu kamen Anregungen der Lektüre
von Stifter, Hölderlin, Nietzsche, Kierkegaard, Dostojewski, Rilke und Trakl für
die literarische Darstellungsform, wie Heidegger in seiner Heidelberger Antritts-
rede berichtet.469
Als Ontologe und Metaphysiker hat sich Heidegger mit diesen methodisch-
etymologischen Argumentationen wenigstens bei einigen in der Philosophenzunft
verständlich machen können und dabei auch eine neue Perspektive für die For-
schung eröffnet. Verständlich auch deshalb, weil er sich dafür auch auf Leibniz
und Giambattista Vico hätte berufen können, die zuerst darauf aufmerksam ge-
macht hatten, daß sich in den frühesten Sprachstufen die Weisheit der Vorgänger
(„pristina sapientia“) niederschlug, die zu entdecken auch für die Späteren interes-
sant und förderlich sei. Daß er die Sprache poetisch „das Haus des Seins“ (im
Brief über den Humanismus) nannte, dem man von außen nicht ansieht, was es im
Innern an Schätzen birgt, versteht sich daraus unmittelbar.
Wie Heidegger sein Denken durch die Sprache selbst leiten ließ, war ein ganz
neuer und eigentümlicher Beitrag eines deutschen Philosophen zur „sprachphilo-
sophischen Wende“, die ansonsten in der angelsächsischen Welt und von dort
inspiriert auch in der deutschen Analytischen Philosophie als „linguistic turn“ von
sich Reden machte. Aber der linguistic turn, die Wende zur Sprache, orientierte
sich zuerst an dem, was Logiker und Mathematiker als „ideale Sprache“ ver-
standen, ehe er auch eine Wende zur Gemeinsprache wurde. Heideggers Wende
zur Sprache war dagegen an der griechischen, lateinischen und – was damals neu
und ungewöhnlich war – an fernöstlichen Sprachen, gelegentlich jedoch auch an
der indigenen deutschen Muttersprache orientiert, und dabei auch an seinem hei-
matlichen Schwarzwälder Dialekt. Das „Kuinzige am Wegrain“, das man nur dort
kennt, wurde ihm ebenso zu einer Wegmarke des Denkens wie die „Bauern-
schuhe“ auf dem bekannten Gemälde van Goghs, an welchen er die Wahrheits-
Lichtung der Kunst demonstrierte.

468
Heidegger bemerkte dabei freilich nicht, daß der Heraklitische „Logos“ nicht die Bedeutung des widerspruchslosen
logischen Begriffs, sondern des dialektischen Prinzips der Vereinigung widerspruchsvoller Begriffsmerkmale, nämlich des
Gegensätzlichen schlechthin in widersprüchlichen Begriffen besitzt.
469
Vgl. W. Franzen, Martin Heidegger, Stuttgart 1976, S. 25.
600

Wer sich in dieser Weise auf die Sprache einläßt, bewegt sich schon im Ambiente
derjenigen, die sich seit jeher damit befassen, aus der Sprache das beste zu
machen: der Schriftsteller und Dichter. Tatsächlich hat Heidegger die deutsche
Sprache um einige markante Wörter bereichert, die von den Schriftstellern auf-
genommen wurden und das Feuilleton zieren. Erinnern wir an die von ihm ein-
geführten Daseinskategorien bzw. die „Existenzialien“ der „Ek-sistenz“, der
„Eigentlichkeit“ (=Jemeinigkeit) und „Uneigentlichkeit“ (=Verfallenheit), das
substantivierte „Man“ der „Alltäglichkeit“, oder das „Ge-stell“ als Wesenskatego-
rie der technischen Welt. Und vergessen wir auch nicht seine Definition der „Sor-
ge“ als „Sich-vorweg-schon-sein-als-Sein-bei.“
Theodor W. Adorno hat Heideggers Sprache als „Jargon der Eigentlichkeit“
verspottet. 470 Das war eine recht unfreundliche Charakteristik der Sprache des
Dichterphilosophen, die Adorno jedoch durch seinen eigenen grammatisch pre-
tiösen und „gekünstelten“ Jargon zu überbieten versuchte.
Cassandrarufe über den „Untergang des Abendlandes“ waren bekanntlich in
den Nachkriegszeiten des 1. und 2. Weltkrieges bevorzugte Themen aller Künste.
Heidegger stimmte darin voll mit ihnen überein. Aber er verallgemeinerte die Kri-
senstimmung und legte ihren Grund tiefer.
Ganze Zeitalter, nicht nur das unsere, leben unter dem „Geschick”, daß die
Wahrheit sich verbirgt. Und dies, wie er behauptete, schon seit Platon und Aristo-
teles. Daraus, verkündete er, ergibt sich Gefahr. „Die gute und darum heilsame
Gefahr ist die Nachbarschaft des singenden Dichters. Die böse und darum schärf-
ste Gefahr ist das Denken selber. Es muß gegen sich selbst denken, was es nur
selten vermag. Die schlechte und darum wirre Gefahr ist das Philosophieren”
(Heidegger, Aus der Erfahrung des Denkens, S. 15).
„Wo aber Gefahr ist, wächst das Rettende auch” (Heidegger mit Hölderlin),
zumal „Wenn das Abendlicht, irgendwo im Walde einfallend, die Stämme umgol-
det ...”. Dann ist Hoffnung auf Entbergung der Wahrheit im Dichten und dich-
tenden Denken. Denn „Singen und Denken sind nachbarliche Stämme des Dich-
tens. Sie entwachsen dem Seyn und reichen in seine Wahrheit.” (Heidegger, Aus
der Erfahrung des Denkens, S. 25). Oder auch, falls dem dichtenden Denker die
„Gunst des Seins“ gewährt wird, wie er wohl von sich selbst glaubte: „Der Denker
sagt das Sein. Der Dichter nennt das Heilige“ 471 Das mag als Dichtung durch-
gehen. Aber die so sprechende Philosophie war ersichtlich der wirren Gefahr des
Philosophierens im dichterischen Duktus erlegen.
Heideggers sprachmächtigster Anhänger in Deutschland war Hans-Georg Ga-
damer (1900 - 2002). Er hatte Altphilologie studiert und seine Studien mit einer
Dissertation über Platon abgeschlossen. Er traf mit Heidegger in Marburg zusam-
men und fand bei ihm sein Interesse für die Gegenwartsbedeutung der antiken

470
Th. W. Adorno, Jargon der Eigentlichkeit, Frankfurt a. M. 1964.
471
Nachwort zu „Was ist Metaphysik?“, 1943, in: M. Heidegger, Ges.- Ausg. 1. Abt. Band 9, Frankfurt 1976, S. 312.
601

Klassiker und zugleich der Kunstgeschichte, mit der er sich intensiv befaßt hatte,
bestätigt.
Gadamers philosophisches Werk ist insgesamt eine Dogmatik und zugleich
Apologetik des Denkens aus der dichtenden Sprache. Sein Hauptwerk „Wahrheit
und Methode“ von 1960 hat durch die Übersetzungen in viele Sprachen 472 und er
selber durch ausländische Gastprofessuren und Vortragsreisen Heideggers „Philo-
sophie“ zugleich mit seiner Interpretation derselben in der ganzen Welt verbreitet.
Der Buchtitel kündigte eine Wissenschaftstheorie der Geisteswissenschaften an.
Er versprach eine methodische Hermeneutik zur Erforschung der Wahrheit. Das
war angesichts der unübersichtlichen Lage der Geisteswissenschaften Wasser auf
die Mühlen aller derjenigen, die angesichts des dominierenden Einflusses der
Analytischen Philosophie der Naturwissenschaften und der Marxistischen Über-
bautheorien Mühe hatten, die Sinnhaftigkeit und Methoden geisteswissenschaft-
licher Forschung nachzuweisen. Jetzt schien ihnen eine „Wissenschaftstheorie“
zuhilfe zu kommen, die die Geschichtlichkeit aller Texte als Träger von Wahrheit
und die Methode ihrer Erforschung als Wahrheits-Verstehen darstellte.
Das Buch beeindruckt schon durch seinen schieren Umfang. Und es liest sich –
in kultiviertester Bildungssprache – wie ein Roman, in dem die handelnden Per-
sonen durch Reden ersetzt sind. Es gibt hier jedoch keine Probleme, die in Rede
und Gegenrede gelöst werden könnten. Denn vom „Problem“ (und der neukantia-
nischen Problemgeschichte, diesem „Bastard des Historismus“) meint der Autor:
„Es gehört zu seinem Begriff, daß es eine eindeutige Entscheidung aus Gründen
nicht gestattet“ (W. u. M. S. 358). Diese fragwürdige These Nicolai Hartmanns
und Wilhelm Windelbands wird ohne Diskussion übernommen. Der eigentliche
Stoff besteht demgegenüber in Fragen, „die sich stellen und damit die Vorzeich-
nung ihrer Beantwortung aus ihrer Sinngenese empfangen“ (S. 358). Denn „die
Dialektik von Frage und Antwort ist mithin der Dialektik der Auslegung immer
schon zuvorgekommen. Sie ist es, die das Verstehen als ein Geschehen bestimmt“
(S. 447).
„Wahrheit“ im Buchtitel ist eine literarische Metapher. Wissenschaftstheoreti-
ker würden erwarten, daß im Buche für oder gegen einen realistischen Korrespon-
denzbegriff oder einen idealistischen Kohärenz- und Umfassendheitsbegriff von
Wahrheit in geisteswissenschaftlichen Anwendungen in der Theoriebildung argu-
mentiert würde. Aber davon ist – wie bei Heidegger - nicht die Rede. Vielmehr
versteht Gadamer „Wahrheit“ im Sinne ontologischer Echtheit und persönlicher
Wahrhaftigkeit, die vorne schon als Kategorienverwechselungen im künstleri-
schen Wahrheitsanspruch dargestellt wurden.

472
H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 1960, 3. erw. Aufl.
1975, 7. Unveränd. Aufl. 2010. Das Werk ist seit 1972 bis 2007 z. T. in konkurrierenden Versionen und meist in ständig
revidierten Neuauflagen in 16 Sprachen übersetzt worden. U. a. auch ins Chinesische (von Hong, Han-ding), Koreanische
und Japanische, zuletzt ins Arabische (Beirut 2007). Vgl. Etsuro Makita, Gadamer-Bibliographie 1922-1994, Frankfurt a.
M. 1995, erw. bis 2007 im Internet.
602

Einerseits heißt „Wahrheit“ in diesem Werk „echter“ Sinngehalt von Text und
Sprache. Auf Texte und Sprache ist das ganze Buch konzentriert. Dabei unterstellt
der Verfasser, den Texten liege stets eine Gesprächssituation zugrunde. Denn die
Vollzugsweise des Gesprächs ist ein „Zur-Sprachekommen der Sache selbst“, und
diese ist „kein verfügbarer Besitz des einen oder des anderen Gesprächspartners“
(S. 360). Denn: „Sagen, was man meint, sich verständigen, hält … das Gesagte
mit einer Unendlichkeit des Ungesagten in der Einheit eines Sinnes zusammen
und läßt es so verstanden werden“ (S. 444).
Andererseits korrigiert bzw. nuanciert Gadamer Heideggers Aletheia-Begriff
der „Unverborgenheit“ durch Ehrlichkeit bzw. Wahrhaftigkeit des Redenden:
„Der griechische Ausdruck ‚Aletheia„ wird so, wie er im lebendigen Sprachge-
brauch der Griechen lebte, am besten übersetzt mit ‚Unverhohlenheit„. Denn
immer mit Worten des Sagens ist dieses Wort verknüpft. Unverhohlenheit heißt
aber sagen: was man meint“ (Ergänzungsband in Ges. Werke Band 8, S. 72).
Es klingt auch ganz heideggerisch, wenn die „ursprüngliche Sprachlichkeit“ des
Menschen in der Welt gefeiert wird, die ihrerseits nur in der und durch die
Sprache existiert: „Nicht nur ist die Welt nur Welt, sofern sie zur Sprache kommt
– die Sprache hat ihr eigentliches Dasein nur darin, daß sich in ihr die Welt
darstellt. Die ursprüngliche Menschlichkeit der Sprache bedeutet also zugleich die
ursprüngliche Sprachlichkeit des menschlichen In-der-Welt-Seins“ (S. 419).
Daß das Sein sich in der Wahrheitslichtung manchmal selber zeigt, aber
meistens verbirgt, war der poetische Einfall Heideggers. Daran anknüpfend be-
hauptet Gadamer: „Sein, das verstanden werden kann, ist Sprache“ (W. u. M. S
450). Es ist zum geflügelten Wort der Hermeneutiker geworden.
Gadamer definiert damit die Sprache als Dispositionsbegriff. Was besagt, daß
sprachliches Sein sowohl verstanden als auch nicht verstanden wird. Und das
eröffnet den Spielraum für die Interpretationen, die unverstandene Sprache erst in
verstandene überführen. „Freilich, was Sprache ist, gehört zum Allerdunkelsten,
was es für das menschliche Nachdenken gibt. Unserem Denken ist die Sprach-
lichkeit so unheimlich nahe und sie wird im Vollzuge so wenig gegenständlich,
daß sie ihr eigentliches Sein von sich aus verbirgt“ (W. u. M. S. 360).
Was den Titelbegriff „Methode“ betrifft, so ist – anders als man erwarten sollte
– von Logik kaum die Rede. Für Logik steht bei Gadamer die „Dialektik“, die er
mit dem Platonischen Dialog und mit der Hegelschen Dialektik als Vorlagen für
das zentrale Thema „Gespräch“ expliziert. So versteht sich: „Das Allgemeine der
Gattung und der klassifikatorischen Begriffsbildung liegen dem sprachlichen
Bewußtsein durchaus fern“ (S. 406). Die Sprache lebt und webt aus der „Ähn-
lichkeit“ als „grundsätzlicher Metaphorik“ (S. 406), denn: „Am Anfang der Gat-
tungslogik steht somit die Vorausleistung der Sprache“ (S. 407), es ist die „leben-
dige Metaphorik der Sprache, auf der doch alle natürliche Begriffsbildung beruht“
(S. 409).
Mit dem großen humboldtschen Thema der Verschiedenheit der Sprachen, dem
Fremdsprachenlernen und dem Übersetzen, das gewiß in den Geisteswissen-
603

schaften eine zentrale Bedeutung besitzt, macht es sich Gadamer leicht. „Eine
Sprache verstehen ist selbst noch gar kein wirkliches Verstehen und schließt
keinen Interpretationsvorgang ein, sondern ist ein Lebensvollzug. Denn eine Spra-
che versteht man, indem man in ihr lebt – ein Satz, der bekanntlich nicht nur für
lebende, sondern sogar für tote Sprachen gilt“ (S. 362). „Eine fremde Sprache er-
lernt haben und verstehen – dieser Formalismus des Könnens – heißt nichts ande-
res als in der Lage sein, das in ihr Gesagte sich gesagt sein zu lassen.“ (S. 418) 473
„Methode“ bedeutet hier (mit Schleiermacher, und dialektisch) methodenfreies
„taktvolles“ Erspüren von Sinnhaftigkeit in literarischen Texten und Dialogen auf
Grund von deren „wirkungsgeschichtlichem“ Nachhall bei den Späteren. Interpre-
tationen werden dadurch zu einer Art Echo des früher Gesagten und Geschrie-
benen. Das Echo als Interpretation sagt und liest alles Gesagte und Geschriebene
noch einmal, aber unter den veränderten Bedingungen der späteren Artikulations-
weisen.
Wenn Gadamer den „Vorgriff“ auf die Sinnganzheit eines zu verstehenden
Textes betont, der als „Vorverständnis“ innerhalb des „Zirkels des Verstehens“
die Interpretation der Details bestimmt, so kann man dies als deduktive Methode
auffassen. Darin liegt zugleich ein Auswahlprinzip, das die wahrheitsträchtigen
Textsorten von allen anderen Schriftstücken abgrenzen soll, die beim gegenwär-
tigen Stand der Literaturwissenschaft ebenfalls zu ihren relevanten Gegenständen
zählen. Was Gadamer dabei „eminente Schriften“ nennt, erweist sich als Kanon
der abendländischen philosophischen Literatur, von der man allerdings voraus-
setzt, daß sie etymologisch sinnreiche Begriffe und wahrheitswertfähige Thesen
und Behauptungen enthält. Bei ihrer Interpretation aber weicht Gadamer den
Problemen des Verstehens von Falschheiten und Widersprüchen aus, denen sich
naturgemäß jede Beurteilung und jedes Verstehen solcher Texte ausgesetzt sieht.
Von der Dichtung allerdings läßt sich sagen, daß in ihr Falschheiten und Wider-
sprüche als Stilmittel der Fiktionalisierung und der Mystifizierung benutzt wer-
den. Interpretiert man Gadamers Dicta etwas weniger benevolent, als dies bei
seiner zahlreichen Anhängerschaft üblich ist, so wird man ihren eigenen dichte-
rischen Charakter nicht verkennen.
Denn Gadamers Wahrheits-„Begriff“ hat es nicht mit wissenschaftlicher bzw.
erkenntnistheoretischer Wahrheit (und dem Gegensatz zur Falschheit) zu tun, son-
dern mit dem hybriden literarischen Ideal der ästhetischen Echtheit, die als Wahr-
heit verbrämt wird. Und so schaut auch hier die Matrix des Schellingschen Kunst-
verständnisses durch: daß nämlich die Geisteswissenschaften in ihren Verste-
hensbemühungen erst dorthin gelangen können, wo die Kunst-Literatur mit ihrem
Wahrheitsanspruch immer schon ist.
Zweifellos haben seine Metaphern und Umschreibungen für dasjenige, was in
den Geisteswissenschaften betrieben wird, großes Interesse und weite Anerken-

473
Bei einem Besuch bei ihm mit Prof. Hong Han-ding, dem Übersetzer seines Hauptwerkes ins Chinesische, sagte
Gadamer im Gespräch, er verstehe fast alle europäischen Sprachen Europas außer den slawischen.
604

nung gefunden. Dies nicht zuletzt deshalb, weil von ihm eine philosophische Le-
gitimation für diese dichterischen „Wahrheiten“ angeboten wurde.
Das gilt gewiß auch für Gadamers zentrale These über den Verstehensprozeß
als „Horizontverschmelzung“. Sie verdankt sich ebenfalls einer dichterischen
Metaphorik. Für den Seemann ist es eine banale Erfahrung, daß die Horizonte von
Himmel und Meer gelegentlich im Nebel verschmelzen. Aber daß eine eigenstän-
dige Sinnwelt von historischen Texten vorausgesetzt und von der Sinnwelt des
gegenwärtigen Bewußtseins getrennt werden könnte, ist schon eine irreführende
Suggestion der Horizont-Metapher. Umso mehr ist es die Suggestion ihrer Ver-
schmelzung. Die Metapher der Horizontverschmelzung erweist sich selbst als eine
Nebelkerze.
Jedoch ist Sprache nicht alles, was in den Geisteswissenschaften Gegenstand
ist. Daß neben der Dichtung auch die übrigen Künste zu ihren Gegenständen ge-
hören, hat Gadamer schon in einer Reihe früherer Aufsätze berücksichtigt, die
1986 (2. Aufl. 1993) in den Gesammelten Werken den achten Band ausmachen.
Sein Titel „Kunst als Aussage“ begründet sich auf der Grundthese von der Meta-
phorik der geisteswissenschaftlichen Objekterfassung. Es ist ja leicht nachvoll-
ziehbar, daß zunächst die Dichtkunst etwas „aussagt“. Und so lauten entsprechen-
de Zwischentitel „Dichten und Deuten“ (1961, S. 18 - 24), „Von der Wahrheit des
Wortes“ (1971, S. 37 – 57), „Über den Beitrag der Dichtkunst bei der Suche nach
der Wahrheit“ (1971, S. 70 – 79), „Der eminente Text und seine Wahrheit“ (1984,
S. 286 – 295). Aber bei aller Metaphorik des Sagens und Lesens dürfte es doch
eine unzulässige metabasis eis allo genos sein, wenn „Über das Lesen von Bauten
und Bildern“ (1978, S. 331 – 338) und über „Wort und Bild – so wahr, so seiend“
(1992, S. 378 – 399) gehandelt wird.
Während man in den Naturwissenschaften hinter den hier verbreiteten Modellen
wenigstens ahnen kann, worauf sie sich beziehen und was sie strukturell am
Natur-Gegenstand hervorheben sollen, hat sich in den Geisteswissenschaften der
Gegenstand weitgehend verflüchtigt. Die Modelle haben sich als autonome Meta-
phern verfestigt und selbst zum Gegenstand der Reflexion gemacht.
Gemäß Joachim Ritter (1903 - 1974), dem Begründer und Erstherausgeber des
„Historischen Wörterbuchs der philosophischen Begriffe“ (als „Bearbeitung“ des
Eislerschen Wörterbuchs), der darin auch selbst die Artikel zur „Ästhetik“ und
zum Geniebegriff verfaßt hat, sei es überhaupt die Aufgabe der Kunst, „die blei-
bende Ordnung und Wahrheit sichtbar (zu) machen, in der die Gesellschaft nicht
weniger gründet, als es die Lebensformen früherer Jahrhunderte getan haben“, um
damit das „Andenken des sonst Entgleitenden“ für die Gegenwart zu bewahren.
Sie „gerät damit notwendig auch auf den Weg des Experiments und der Neuerun-
gen, um das ungesehene Sein und die ungesagte Wahrheit sichtbar zu machen. …
Kunst kann in der Vielfalt ihrer Erscheinung und gerade auch in der Radikalität
des Experiments als der Versuch erscheinen, in dem Strom der Neuerungen und
605

Umwälzungen das nicht preiszugeben, was die alte Kunst in gültiger Weise ins
Bild zu bringen und zu übersetzen wußte.“ 474
Auch dies ist zweifellos ein Nachhall des Schellingschen Aufrufs, die Philoso-
phie und die Geisteswissenschaften so zu betreiben, daß sie sich der Wahrheiten
bemächtigen können, die die Kunst je schon birgt. Kein Wunder, daß in der soge-
nannten Ritterschule über die Begriffgeschichte hinaus die Weisheit der Mythen
und Sagen und ihre Interpretation interessant werden. Er selbst und viele seiner
Schüler haben sich daher auch mit der Konstanzer „literarischen Hermeneutik“
um die Kongreß- und Editionsreihe „Poetik und Hermeneutik“ zusammengetan
und Beiträge dazu geliefert.
Vor allem hat Hans Blumenberg (1920 - 1996), der sich ausgiebig mit den ame-
rikanischen Schriftstellern Evelyn Waugh, Ernest Hemingway, T. S. Eliot und
William Faulkner auseinandergesetzt hatte, die Metapher und den Mythos als
Vehikel seines Philosophierens entdeckt und benutzt. Was er aus ihnen herausliest
und in sie – gegen alle traditionellen Interpretationen – hineinlegt, lebt ersichtlich
von der dichterischen Freiheit, zu gefallen. Denn: „Wo Verstehen sich nicht ein-
stellt, genügt allemal das Vergnügen“.
„Philosophie ist der Inbegriff von unbeweisbaren und unwiderlegbaren Behaup-
tungen, die unter dem Gesichtspunkt ihrer Leistungsfähigkeit ausgewählt worden
sind“. Und das macht sie zur Dichtung. Denn auch „Dichter beweisen nichts. Da-
rin sind sie den Philosophen nicht unähnlich, obwohl ihre Auswahlbestimmungen
fürs Unbewiesene nicht ganz so streng sind“. Ausdrücklich sind für ihn „hochab-
strakte Titel“ wie „das Ich, die Welt, die Geschichte, das Unbewußte, das Sein“
ebenso wie „Schopenhauers Seelenwanderung, Nietzsches ewige Wiederkehr des
Gleichen, Schelers Totalentwurf vom werdenden Gott und Heideggers Seins-
geschichte“ moderne Mythen. Und zwar dadurch daß sie „zwar keine Antworten
auf Fragen geben, sich aber so ausnehmen, als bliebe nichts zu fragen übrig.“ 475
Seine späten Veröffentlichungen hat er unter Titel gestellt, die dem Leser eine
unterhaltsame literarische Lektüre versprechen. Sie lauten „Schiffbruch mit Zu-
schauer“ (Frankfurt a. M. 1979), „Das Lachen der Thrakerin“ (Frankfurt a. M.
1987), „Die Sorge geht über den Fluß“ (Frankfurt a. M. 1987), „Höhlenausgänge“
(Frankfurt a. M. 1989). Der philosophische Kenner weiß, daß es sich dabei um
Adaptationen alter „Geschichten“ aus der Philosophiegeschichte handelt. Zu ihnen
gelangt man bequem auch auf der Weischedelschen „Philosophischen Hintertrep-
pe“ (4. Aufl. München 1974). Hätte Blumenberg es noch erlebt, hätte er sich nicht
darüber beklagen dürfen, daß eine Schriftstellerin wie Sibylle Lewitscharoff ihn
selbst noch zu einer literarischen Figur – nach dem Bild des Evangelisten Markus
mit seinem Löwen - gemacht hat.

474
J. Ritter, Experiment und Wahrheit im Kunstwerk, in: Subjektivität. Sechs Aufsätze, Frankfurt a. M. 1974. Zitiert nach
A. Hügli und P. Lübcke, Philosophie im 20. Jahrhundert, Band 1, Reinbek 1992, S. 247f.
475
H. Blumenberg, Arbeit am Mythos, Frankfurt a. M. 1979; zit. nach A. Hügli und P. Lübcke, Philosophie im 20. Jahr-
hundert, Band 1, Reinbek 1992, S. 308 und 297.
606

Odo Marquard (1928 – 2015) hat seine Laufbahn im Kreis der Ritterschüler als
Skeptiker begonnen und wollte auch unentwegt ein Skeptiker geblieben sein. Von
der Philosophie sagt er, daß sie einstmals zuständig war für alles, dann für einiges,
und jetzt für nichts mehr. Was ersichtlich alles andere als eine skeptische These
ist. Um diesen Kompetenzverlust zu dissimulieren, habe sie sich numehr eine
neue Zuständigkeit gesucht und gefunden, nämlich die „Inkompetenzkompensa-
tionskompetenz“.476
Das eröffnet ihr Spielräume zu Beliebigkeiten, die man bislang von der Kunst
aller Sparten gewöhnt ist. Marquard hat diese Kunst nach eigenem Bekunden in-
zwischen zur „Transzendentalbelletristik“ fortentwickelt. Seine Beiträge dazu liest
man stets mit Genuß. Seine Pointen sind wirklich „Spitze“. Aber auch gewöhnlich
leicht daneben. Denn für Wahrheit ist in seiner Skepsis kein Platz, und die von
ihm formulierten Surrogate dafür sind allemal heftig übertrieben.
Das zeigt sich einschlägiger Weise in seiner Einschätzung der Hermeneutik:
„Hermeneutik ist die Kunst, aus einem Text herauszukriegen, was nicht drinsteht:
wozu – wenn man doch den Text hat – brauchte man sie sonst?“ 477 Sicher hat er
in einem gewissen Sinne damit mehr Recht, als er selbst dachte. Aber da er sein
Argument nicht begründete, sei dafür nochmals auf die vorn beschriebene „Spie-
gelnatur“ von Texten hingewiesen, die genau diese These unterstützt.
Marquard unterscheidet zwei Arten von Hermeneutik: die „singularisierende“
und die „pluralisierende“. Erstere bemüht sich um den „einen wahren“ Textsinn
und hat deswegen Bürgerkriege, nämlich nichts Geringeres als die Reformation
und die französische Revolution, um dieser „einzigen“ Wahrheit willen verur-
sacht. Die „pluralisierende Hermeneutik“ läßt sich irgendwelchen und immer neu-
en Sinn einfallen. Sie ist als „literarische Hermeneutik Replik auf den Bürgerkrieg
um den absoluten Text“. Und dafür plädiert Marquard mit einem für einen Skep-
tiker erstaunlichen Eifer.
Auch das Publikum goutiert zum Ende des 20. und Beginn des 21. Jahrhunderts
die Ergebnisse der Geisteswissenschaften am liebsten in literarischen Formen. Es
wurde zuletzt glänzend bedient im Philosophischen Quartet des deutschen
Fernsehens durch den philosophischen Schriftsteller Rüdiger Safranski und Peter
Sloterdijk, den Rektor der Hochschule für Gestaltung in Karlsruhe.
Letzterer hat unter dem sprechenden Titel „Sphären“ in drei Bänden eine Ge-
schichte der Menschheit in der Metaphorik des Tourismus erzählt und damit eine
neue Wissenschaft der „Aphrologie“ (der „Schaumdeutung“) entworfen, die er
dem abendländischen metaphysischen Substanzdenken entgegensetzt: „In der
Sprache unseres Versuchs soll Schaumdeutung unter dem Namen Polysphärologie
oder erweiterte Treibhäuserkunde zur Verhandlung gelangen.“ 478
476
O. Marquard, Abschied vom Prinzipiellen. Philosophische Studien, Stuttgart 1984, Kap. 2: Inkompetenzkompen-
sationskompetenz? Über Kompetenz und Inkompetenz der Philosophie (1973), S. 23 - 38.
477
O. Marquard, Abschied vom Prinzipiellen, Stuttgart 1984, Kap. 5: Frage nach der Frage, auf die die Hermeneutik die
Antwort ist, S. 117.
478
P. Sloterdijk, Sphären III. Schäume, Frankfurt a. M. 2004, S. 37. Zur Erläuterung heißt es: „Aphrologie – von grie-
chisch áphros, der Schaum – ist die Theorie kofragiler Systeme. Wenn der Nachweis gelänge, daß das Schaumartige das
607

Die philosophische Botschaft von Sloterdijks literarischen Verlautbarungen ist bei


Nietzsche nachzulesen, dem Vordenker der Verkunstung der lebensphilosophi-
schen Geisteswissenschaften. „Schäume“ betont – als „eine Theorie des gegen-
wärtigen Zeitalters“ - den „Gesichtspunkt, daß das Leben sich multifokal, multi-
perspektivisch und heterarchisch entfaltet“ (S. 23).
In früheren Verlautbarungen ging es um die jetzt in Reichweite gelangte gen-
technische Züchtung der neuen „Übermenschen“, die sich als Weltelite (vulgo:
Leistungsträger) im „Menschenpark“ etabliert und nur noch das Problem hat, sich
gegen die Ressentiments der proletarischen Massen durchzusetzen, um der Welt
das Heil zu bringen. Vor allem dadurch, daß diese Reichen keine Steuern mehr
zahlen, sondern den Armen etwas von ihrem Reichtum schenken. Nietzsche sah
sich als den neuen Zarathustra, Sloterdijk, geschult als indischer Sanjasin, läßt er-
kennen, daß er sich als Bodhisattva fühlt, der seine Gläubigen auf den Spuren
Heideggers in das makrosphärische Nirvana führt.
Rezensenten haben Sloterdijk „Fremdwörterexzesse und Metapherndelirien“
und „einen Sprachstil mit dem Autismus einer Privatsprache zwischen Mystik und
Potpourri“, andere „Geschwafel und Geschwefel“ angekreidet. Aber dieses sind in
der Literatur lizite Ausdrucksmittel, die ihr Publikum finden. Immerhin hat ihm
das den Ludwig-Börne-Preis von 2013 und einen österreichischen „Preis für wis-
senschaftliche Prosa“ eingebracht. Und das zeigt, was der Zeitgeist und seine
institutionellen Repräsentanten für geisteswissenschaftliche Wissenschaftlichkeit
halten.

7. Die Kunst als wissenschaftliche Forschung

Daß die Verkunstung der Geisteswissenschaften auch in den USA gut entwickelt
ist, ergibt sich schon daraus, daß anders als in Europa, im US-amerikanischen
Wissenschaftssystem die „Humanities“ aufs engste mit den „Arts“ (den Künsten)
in den „Liberal Arts Faculties“ verflochten sind. Hier hat man die englische Über-
setzung von „artes liberales“ allzu wörtlich genommen und die Ausbildung der
Künstler schon immer in den Universitäten mitorganisiert. Die Nähe von „Arts“
(Kunst) und „Humanities“ (Geisteswissenschaften) hat naturgemäß zur gegensei-
tigen Befruchtung geführt, zumal die große einheimische und Weltliteratur als
Objekte der Literaturwissenschaften stets als paradigmatische Kunstwerke galten.
Das Studium und Übersetzen der literarischen Kunstwerke war dann selbst schon
eine Ausbildung in „creative writing“, d. h. der Erzeugung weiterer literarischer
Kunstwerke.
Es war vor allem ein analytischer Philosoph, der den Vereinigungspunkt beider
Sphären herausstellte. Nelson Goodman (1906 - 1998) hat dazu Folgerungen aus

Zukunftsträchtige sein kann, ja, unter gewissen Bedingungen zeugungsmächtig ist, wäre dem substantialistischen Vorurteil
die Grundlage entzogen. … Man begreift dann: das Schwebende ist als Grundgebendes besonderer Art zu verstehen, das
Hohle als eine Erfülltheit eigenen Rechts neu zu beschreiben, das Fragile als Ort und Modus des Wirklichsten zu bedenken,
das Unwiederholbare gegenüber dem Seriellen als das höhere Phänomen zu erweisen“ (S. 38f.).
608

Carnaps Sprachkonzept gezogen. In seinem stark beachteten Buch „Sprachen der


Kunst“ 479 hat er – neben den logisch-mathematischen „Theoriesprachen“ - auch
die Kunstwerke selber als Symbolsprachen interpretiert und sie damit als Erkennt-
nisartikulationen gewertet. Allerdings hat er die Eigenschaften musikalischer No-
tationen oder abbildender Gemälde, bei denen dies einigermaßen plausibel er-
scheint, auf alle Arten von Kunstwerken ausgeweitet. Goodman, der übrigens
selbst ein eifriger Kunstsammler und vor seiner akademischen Karriere einige
Jahre lang Leiter einer Kunstgalerie war, hat damit die moderne Selbsteinschät-
zung der Künstler gefördert, daß sie durch ihre Produktionen in der Lage seien,
den Bestand des Wissens - neben der Wissenschaft - zu vermehren.
Die wissenschaftstheoretische Begründung dafür hat vermutlich Paul Karl
Feyerabend (1924 - 1994) geliefert, der seit 1958 in Berkeley, Calif., seit 1980
zusätzlich an der ETH Zürich lehrte, und zwar mit seiner Schrift „Against
Method. Outline of an Anarchistic Theory of Knowledge“ von 1970.480
Als Popperschüler hielt Feyerabend sich an dessen Lehre, daß es in den Wis-
senschaften wesentlich auf den „Entwurf von kühnen Ideen“ und auf deren Wu-
cherungen (proliferation) ankomme. Diese seien in allen Traditionen der Hand-
werke und Künste, der Lebensstile, der politischen Parteien und nicht zuletzt der
Religionen der verschiedenen Bevölkerungsgruppen in Mengen vorhanden. Sie
würden jedoch durch die herrschenden Wissenschaftsregeln systematisch von der
Ideenkonkurrenz mit den etablierten wissenschaftlichen Dogmatiken ferngehalten.
Er plädierte für deren Aufnahme und Zulassung im Wissenschaftssystem, um
ihnen gleichwertige Chancen zur Erprobung ihrer Fruchbarkeit und ihres Nutzens
für die Gesellschaft (Poppers „severe tests“) zu geben.
Feyerabend formulierte das mit der zum Sprichwort gewordenen Parole „Any-
thing goes“ (in Deutschland verbreitet als „Erlaubt ist was gefällt“). Die Parole
„Alles geht“ sollte dabei das einzige Wissenschaftsprinzip überhaupt sein, das alle
anderen Prinzipien ersetzen könne. Er bemühte sich, am Beispiel der neuzeitli-
chen und modernen Naturwissenschaften zu zeigen, daß sich deren Prestige und
Anerkennung den überzogenen Versprechungen der Experten für ihren gesell-
schaftlichen Nutzen und der fest etablierten Machtorganisation des naturwissen-
schaftlichen Establishments verdanke, das sich überall ein Monopol zur Entschei-
dung (nicht: Erkenntnis!) über das, was als Wahrheit und Objektivität zu gelten
habe, anmaße. Dem gegenüber sollten „alle Traditionen gleiche Rechte und glei-
chen Zugang zu den Zentren der Erziehung und anderen Machtzentren haben“.

479
G. Nelson, Languages of Art. An Approach to a Theory of Symbols”, Indianapolis 1968 (2. Aufl. 1976), dt. Übers.
„Sprachen der Kunst. Ein Ansatz zu einer Symboltheorie, Frankfurt a. M. 1973.
480
P. K. Feyerabend, Outline of an Anarchistic Theory of Knowledge, in: Analyses of Theories and Methods of Physics
and Psychology, hgg. von M. Radner und S. Winkur, Mineapolis 1970, S. 17 – 130, dann selbständig und erweitert London
1975, dt. revidierte und nochmals erweiterte Ausgabe „Wider den Methodenzwang. Skizze einer anarchistischen
Erkenntnistheorie“, Frankfurt a. M. 1976. – Die demokratischen Konsequenzen und Forderungen seiner Wissenschafts-
auffassung werden näher ausgeführt in: P. K. Feyerabend, Science in a Free Society, London 1978, dt. Übers.: „Erkenntnis
für freie Menschen“, Frankfurt a. M. 1979.
609

Kurzum, Feyerabend plädierte – unterfüttert mit zahlreichen Bakunin- und Lenin-


zitaten, daneben aber auch mit beachtlichem Aufwand an interdisziplinärer Ge-
lehrsamkeit – für einen „wissenschaftlichen Anarchismus“ und machte sich da-
durch auch zu einem Wortführer der US-amerikanischen, aber auch der europä-
ischen 68er-Bewegung. Daß der studierte Mathematiker und Physiker Feyerabend
mit seinem Aufruf zum wissenschaftlichen Anarchismus keinen Naturwissen-
schaftler aus dem dogmatischen Schlummer erweckte, ist seither bekannt. Umso
größer war das Echo in den US-amerikanischen Liberal Arts-Fakultäten, denen er
seine Lehre unter dem Label eines „wissenschaftlichen Dadaismus“ anbot.
Man kann vermuten, daß Feyerabends Dadaismus wesentlich dazu beitrug, in
den Liberal Arts-Fakultäten die Schleusen für den Einzug „alternativer“ Wissen-
schaftskonzepte zu öffnen. Die alternativen Ideen waren ersichtlich in erster Linie
diejenigen der Künstler in den Arts-Faculties und in der kalifornischen Künstler-
Boheme. Er hat sie später in seinem Buch „Wissenschaft als Kunst“ (Frankfurt a.
M. 1984) besonders herausgestellt. Diese Ideen verwoben sich dann mit der „Post-
moderne“ der Architekten sowie den Genderstudien und dem französische Dekon-
struktionismus, von denen vorn schon die Rede war.
Mittlerweile hat sich daraus eine breite Volksbewegung der „Citicens„ Science“
entwickelt, die an allen Forschungs- und Lehrinstitutionen ihren demokratischen
Anspruch auf Gehör, Mitwirkung und Mitbestimmung über das, was gelehrt und
beforscht wird, einfordert und auch oft durchsetzt. Dies vor allem in den Fällen,
wo die „Citicens“ zugleich auch die Finanziers der entsprechenden Colleges und
Hochschulen sind. Hier sind „interdisziplinäre Grenzüberschreitungen“ an der
Tagesordnung, zumal inzwischen fast jedes Hobby in irgend einer Liberal Arts
Faculty zur „Wissenschaft“ erhoben worden ist und mit den alten Disziplinen ver-
schmolzen werden kann.
Die Probe aufs Exempel, daß man mit diesem Dadaismus bei den Liberal Arts-
Fakultäten durchkommt, lieferte Alan D. Sokal, ein Quantenphysiker von der New
York University. Er hatte 1996 der alternativen Zeitschrift Social Text (hgg. von
Frederic Jamesson und Andrew Ross) einen Aufsatz unter dem Titel „Grenzüber-
schreitungen: Auf dem Weg zu einer transformativen Hermeneutik der Quanten-
gravitation“ eingereicht, der in einer Sondernummer unter dem Titel „Wissen-
schaftskrieg“ erschien. Nach dem Erscheinen hat Sokal in einer anderen Zeit-
schrift mitgeteilt, daß es sich dabei um einen „Hoax“ handele, durch den er die
Unwissenschaftlichkeit der „postmodernen“ und „konstruktivistischen“ Argumen-
tationen entlarven wollte. Man kann davon ausgehen, daß das niemand bemerkt
hätte, wenn Sokal nicht behauptet hätte, daß es sich um einen „Scherz“ handeln
sollte.
Sein Jux bestand nach seiner eigenen Darstellung darin, daß er einige physika-
lische Begriffe als sinnidentisch mit denen der dekonstruktionistischen Geistes-
wissenschaftler ausgab, um daraus „eine Reihe unbegründeter, aber sinnloser Be-
hauptungen abzuleiten“, die die Herausgeber von „Social Text“ angeblich weder
verstanden noch als sinnlos durchschaut hätten. Dabei warf er den Herausgebern
610

von „Social Text“ vor, daß sie keinen physikalischen Fachmann für eine Begut-
achtung des Artikels zu Rate gezogen hätten, denn jeder Physiker hätte den Jux
sofort erkannt und die Veröffentlichung unterbunden.
Der seither sogenannte Sokal-Skandal hat weltweit Aufmerksamkeit erregt und
wird bis heute in der Presse und in Fachzeitschriften diskutiert (wovon man sich
im Internet ein Bild machen kann). In der Tat wirft er ein grelles Licht auf die
differenten Wissenschaftsverständnisse der Naturwissenschaften und der ver-
kunsteten Geisteswissenschaften.
Sokal und sein belgischer Mitstreiter Jean Bricmont, Physiker an der Universität
Löwen, sind in ihren Stellungnahmen damit durchgekommen, daß die mathe-
matische Physik das Maß und der Standard aller Wissenschaftlichkeit sei, und daß
die Geisteswissenschaften sich an diesem Standard zu messen hätten. Alles Ma-
thematische ist hier sakrosankt. Wer mathematische Begriffe, Gleichungen und
Axiome auch nur in den Mund nimmt, muß sie natürlich auch verstanden haben,
was nur für studierte Mathematiker und physikalische Anwender gelten kann. Und
eben dies gilt hier auch von der Quantenphysik. Über sie und von ihr aus kann nur
der mathematisch geschulte Quantenphysiker reden und argumentieren. Dieses
Verständnis von Naturwissenschaft beruht auf dem erkenntnistheoretischen und
ontologischen Realismus, auf seiner Voraussetzung einer objektiven Außenwelt
und ihrer wahren Abbildung durch die physikalischen Theorien. Die „postmoder-
nen alternativen“ Geisteswissenschaften brächten demgegenüber nur phantasti-
sche „Konstrukte“ ohne jeden Bezug zur Realität hervor. Mit anderen Worten: sie
erfüllen alle Bedingungen der künstlerisch-fiktionalen Literatur.
Abgesehen von den unzulässigen Verallgemeinerungen, den Fehldeutungen und
persönlichen Invektiven, die sich im Verlauf der Affäre ergeben haben, haben
Sokal und Bricmont den Finger in eine schwärende Wunde der westlichen
Geisteswissenschaften gestoßen und kräftig darin herumgerührt.
Das strahlt nun seit langem auch auf die „alte Welt“ Europas zurück, die ja ger-
ne bereit ist, US-amerikanischen Mustern, auch denen der Liberal-Arts-Geistes-
wissenschaften, nachzueifern.
Die Nachahmungswelle erreichte Europa und die übrige Welt als „Bologna-
Programm“ der OECD. 481
Das Bologna-Programm beruht auf einer Vereinbarung der Bildungs- bzw.
Wissenschaftsminister von zunächst 29, jetzt über hundert Industriestaaten. Es
zielt darauf ab, einen gemeinsamen „Hochschulraum“ mit gleichwertigen, zwei-
stufigen und berufsbefähigenden Abschlüssen von Bachelor-, Magister- und neu-
erdings auch Promotionsstudien herzustellen, Studienleistungen durch ein ge-
meinsames Creditpoint-System zu bewerten und so die internationale Mobilität
der Studierenden zu fördern. Diesen Planungen war eine Empfehlung einer inter-
nationalen Hochschul-Rektorenkonferenz zum Gründungsjubiläum der Univer-

481
OEZD = Organisation für wirtschaftliche Zusammenarbeit und Entwicklung. Sie ist eine Nachfolgeinstitution der
Organisation für europäische wirtschaftliche Zusammenarbeit, die schon seit 1947 mit Unterstützung durch die USA und
Kanada die Marshallplanmittel für den Wiederaufbau der europäischen Staaten nach dem 2. Weltkrieg verwaltete.
611

sität Bologna (im Jahre 1088), der ältesten Europas, vorausgegangen, die den
Namen für das Programm hergab.
Die Umsetzung des Bologna-Programms hat inzwischen die sogenannte Hoch-
schullandschaft – aber auch die Schullandschaften - Europas gründlich verändert.
Von einigen Folgen war schon vorne in § 6 die Rede. Alle Ausbildung und
Bildung geriet in den Sog der von der OECD propagierten Ausrichtung des Bil-
dungswesens auf „Forschung und Entwicklung“ zwecks Effektuierung des „Hu-
mankapitals“ für die wirtschaftliche Prosperität der Staaten.
Jede Berufsausbildung wurde verwissenschaftlicht. D. h. Berufsschulen wurden
zu Fachschulen bzw. Akademien oder Colleges, Fachschulen zu Fachhochschu-
len, Fachhochschulen zu Universitäten (zumindest „für angewandte Wissenschaf-
ten“). Auch die technischen Hochschulen firmierten alsbald als „Technische Uni-
versitäten“ (mit der bemerkenswerten Ausnahme der RWTH Aachen, die das
weltweite Renommee ihres alten Namens nicht gefährden wollte), indem sie sich
einige geisteswissenschaftliche Disziplinen zulegten.
Da zum höheren „tertiären Sektor“ des Bildungswesens seit langem auch die
Kunstausbildung gehört, sahen die Kunsthochschulen sich durch das Bologna-
Programm gezwungen, sich irgendwie durch „Forschung“ auszuweisen. Dazu ver-
einigten sich die Akademien der bildenden Künste und des Schauspiels mit den
Musik-Konservatorien zu „Kunsthochschulen“ und - wie in Berlin und Essen - zu
„Universitäten der Künste“. 482
Die Umsetzung des Bologna- bzw. OECD-Programms orientierte sich haupt-
sächlich an „Forschung und Entwicklung“. Was die Entwicklung betraf, so be-
durfte es keiner Erklärungen. Denn die modernen Künste verstehen sich ebenso
wie die Wissenschaften als permanente entwickelnde Überholung des jeweiligen
Entwicklungsstandes. In beiden Bereichen wird nur geschätzt und ausgezeichnet,
was „neu und anders als früher“ ist. Mit der „Forschung“ als neuer Zielstellung
jedoch wurde direkt die Verwissenschaftlichung der Künste angezielt, und dies in
guter Übereinstimmung mit der Verwissenschaftlichung aller übrigen Lebensver-
hältnisse. Überdies wurde die Verwissenschaftlichung der Künste ein willkomme-
ner Hebel, die Künste und ihre Hochschulen in den Förderungsbereich der staat-
lichen und privaten Drittmittel für Forschung einzubeziehen. Die neue Ausrich-
tung der Kunsthochschulen stand daher alsbald unter dem Schlagwort „Artistic
research“.
Die Zeitschrift „Texte zur Kunst“ berichtete 2011 wohl als erste in einem Son-
derheft über „Artistic Research“ als „ein Thema, das seit etwa zwei Jahrzehnten

482
Die Berliner Kunsthochschule, die sich auf die 1696 gegründete „kurfürstliche Academie der Maler-, Bildhauer- und
Architektur-Kunst“ zurückführt, firmiert seit 2001 unter dem deutschem Namen „Universität der Künste“ neben den ande-
ren drei Berliner Universitäten. Sie verfügt mittlerweile auch über ein Internet-Portal „Wissen der Künste.de“. „Grund für
die Umbenennung in Universität der Künste Berlin (UdK) war das Bestreben der Universitätsleitung, die Bandbreite des
Angebots mit einem international gebräuchlichen Namen zu beschreiben“, heißt es in der offiziellen „Universitätsge-
schichte“ im Internet. - Die „Folkwang Universität der Künste“ in Essen hat es ihr 2010 nachgemacht. Auch die private
anthroposophische Alanus-Hochschule in Alftern hat seit 2010 das Promotionsrecht für ihren Fachbereich Bildungs-
wissenschaft und nennt sich englisch „Alanus University of Arts and Social Sciences.
612

vor allem auf hochschulpolitischer Ebene diskutiert wird“. 483 Es heißt hier, dies
sei „im Zusammenhang mit der Umstrukturierung europäischer Universitäten und
Hochschulen im Hinblick auf die Vereinheitlichung der Abschlüsse und Kriterien-
kataloge im Sinne des Bologna-Prozesses“ geschehen. 2008 gründete eine deut-
sche Künstlergruppe ein „Institut für künstlerische Forschung (IKF)“ und trat zu-
gleich mit 37 weiteren ausländischen Instituten der ebenfalls neuen „Society for
artistic research“ bei, die auch sogleich ein neues „Journal for Artistic Research“
herausbrachte.
Abgesehen von ihren traditionellen „wissenschaftlichen Studiengängen“ für
Kunsterzieher, Kunsthistoriker und gelegentlich Ästhetiker, die in manchen Bun-
desländern auch mit dem Promotionsrecht ausgestattet waren, haben die Kunst-
hochschulen mit den neuen Universitätsbezeichnungen auch die Verpflichtung zur
Forschung und Lehre auf allen ihren Fachgebieten übernommen. Das kann gemäß
dem immer noch herrschenden Verständnis von „Universität“ nur heißen, daß sie
die Erkenntnisse erweitern und wahre Einsichten liefern sollen.
Worin diese bestehen könnten und inwiefern sie über den bisher in den Künsten
vorhandenen Erkenntnisbestand über das, was Kunst ist und was ihre kulturellen
Auswirkungen ausmacht, hinausreichen, dürfte selbst zu einer nur kreativ zu lö-
senden Zukunftsaufgabe werden. Einstweilen führen hier die Eventmanager, Kul-
turunternehmer und Medienexperten das Wort.
Aber darin liegt auch der noch kaum diskutierte Unterschied zu eigentlicher
Wissenschaft. Denn was immer Künstler tun, ist Kunst und wird offensichtlich
von der Öffentlichkeit als solche akzeptiert. Und Künstler unter heutigen Bedin-
gungen ist, wer sich selbst dazu erklärt (denn jeder Mensch ist – nach J. Beuys -
Künstler!). Daher gibt es keine „Nicht-Kunst“ oder auch nur „schlechte Kunst“
und schon gar keine „Pseudokunst“ in den Künsten.
Das verhält sich jedoch in den Wissenschaften anders. Denn hier gibt es sowohl
„schlechte Wissenschaft“, die besondere Gremien mit erheblichem Aufwand an
Erstellungen von Kodices „guter wissenschaftlicher Praxis“ zu identifizieren und
auszumerzen suchen, als auch „Nicht-Wissenschaft“ im Gewande der Wissen-
schaft.
So bleibt abzuwarten, in welche Richtung sich die verkunsteten Geisteswissen-
schaften und die verwissenschaftlichten Künste entwickeln werden. 484

483
Texte zur Kunst, Heft 82, 2011. Hier wird darauf hingewiesen, daß „in Großbritannien und in den skandinavischen
Ländern in den vergangenen Jahrzehnten Artistic Research als akademische Protodisziplin an vielen art schools und
Akademien installiert“ worden sei. Die „Einrichtung von MA und PhD-Programmen für Künstler/innen“ wird hier vor
allem auch als Ablösung der traditionellen Modelle der Meisterklassen und der Hierarchien und ihren Abhhängigkeiten
herausgestellt. „Dadurch eröffnen sich auch andere Zugänge zur Wissensproduktion, die jenseits positivistischer Standards
und objektiver Evidenzkriterien liegen“.
484
Daniel Hornuff hat mittlerweile in der FAZ vom 29. 7.2015, S. N4 unter dem Titel „Praxis Dr. Kunst geschlossen“
eine Art Nachruf auf die Bewegung verfaßt. Er meint, es handele sich um ein „Unteretikett einer Rhetorik, die darin geübt
ist, von Trans-, Inter-, Multidisziplinarität zu orakeln und das Flair von Grenzüberschreitungen und Internationalität zu
verströmen“. Zugleich stellt er aber auch fest: „Bis heute ist es an Kunsthochschulen und -akademien üblich, in ‚Laboren„
zu arbeiten, ‚Experimente„ und ‚Versuche„ durchzuführen, Materialien oder Prozesse zu ‚untersuchen„ und als angehender
Künstler ‚Forschungsergebnisse„ zu präsentieren.“ - Der Nachruf dürfte deshalb etwas voreilig gewesen sein.

Das könnte Ihnen auch gefallen