Sie sind auf Seite 1von 640

WISSENSCHAFTS-

PHILOSOPHIE
In systematischer und historischer
Perspektive

Lutz Geldsetzer

Institut für Philosophie der HHU


Düsseldorf
2015
WISSENSCHAFTSPHILOSOPHIE
in systematischer und historischer Perspektive

von

Lutz Geldsetzer

Lehrmaterialien aus dem


Institut für Philosophie
(vormals Philosophisches Institut)
der HHU Düsseldorf

Copyright 2015 vorbehalten

Kopie für persönlichen Gebrauch und für Zitierzwecke


sowie einzelner Paragraphen für Lehrzwecke erlaubt
L. G.

Zeichnung: Florian Wies


Vorwort

Die vorliegende Schrift enthält die Erträgnisse der Studien des Verfas-
sers über die Wissenschaften von etwa drei Jahrzehnten. Gelegenhei-
ten zu Erfahrungen im Wissenschaftsbetrieb ergaben sich schon früher
während seiner nun mehr als fünfzigjährigen Lehr- und Forschungs-
tätigkeit an der Düsseldorfer Universität und bei Gastprofessuren an
Universitäten in Frankreich, Italien, in den USA und in der VR.
China.
Das Material hat sich in wiederholten Vorlesungen zum Thema
„Wissenschaftstheorie“ so angereichert, daß es einigermaßen umfang-
reich geworden ist und den Charakter eines Lehrbuches der Disziplin
angenommen hat. Es ist in vier Teile gegliedert:
Der erste Teil hat vorwiegend systematischen Charakter. Die Diszi-
plin „Wissenschaftsphilosophie“ wird in einer hier vorgeschlagenen
Architektonik des Wissenschaftssystems verortet. Dadurch werden
ihre Voraussetzungen, die sie von philosophischen Grunddisziplinen
übernimmt, und ihre Bezüge zu Bereichsdisziplinen bis hin zu den
Einzelwissenschaften sichtbar gemacht.
Anhand dieses Leitfadens wird als Zweck und Ziel aller Wissen-
schaften die Gewinnung, Bewahrung und Begründung von Wahrheit
herausgearbeitet. Die Definition der Wahrheit als kohärentes und
komprehensives Wissen erlaubt es, ein genuin wissenschaftliches
Wahrheits-Ideal von anderen kulturellen Idealen zu unterscheiden, die
sich immer wieder und heute verstärkt an seine Stelle drängen oder
damit verwechselt werden. Diese Vermischungen führen zu verschie-
denen Formen und Gestalten von falschem Wissen und zu dem, was
hier „wahr-falsches Wissen“ genannt wird.
Die Erarbeitung wahren Wissens in den Wissenschaften hängt in
erster Linie von den dazu eingesetzten Methoden ab. Es geht dabei um
die Definition der wissenschaftlichen Begriffe, deren Verknüpfung zu
wahren Urteilen und der Urteile zu schlüssigen Argumenten, die in
der Gestalt von Theorien eine Gesamtdarstellung der einzelnen Wis-
sensressourcen über die jeweiligen Forschungsgebiete erlauben.
In allen diesen methodischen Verfahren muß es, wie man sagt, lo-
gisch zugehen. Logik ist seit alters die dafür relevante philosophische
Methodendisziplin.
Von I. Kant stammt die These, die Logik habe „seit dem Aristoteles
keinen Schritt rückwärts“ getan, und „daß sie auch bis jetzt keinen
Schritt vorwärts hat tun können“. Das wird bis heute gerne wiederholt.
Geisteswissenschaftler haben die These meist so verstanden, daß die
II

Logik Zeit genug gehabt habe, sich so allgemein in allem wissen-


schaftlichen Tun zu bewähren, daß sie gewissermaßen den „gesunden
Menschenverstand“ ausmache, so daß man sie nicht eigens studieren
müsse. Naturwissenschaftler verstehen Kants These ganz im Gegenteil
dazu so, daß die Logik deshalb überholt sei und durch eine neue
„mathematische Logik“ ersetzt werden müsse. Daher sprechen sie von
der traditionellen Logik als „klassisch-aristotelischer Logik“, die zu
kennen überflüssig geworden sei.
In der Tat ist nichts falscher als diese kantische These. Denn die
Logik hat wie alle Disziplinen im Laufe der Geschichte sowohl Fort-
schritte gemacht als auch Fehler und Irrtümer in ihre Lehrgehalte auf-
genommen. Deshalb ist es eine wichtige Frage, ob und wie das, was
man jetzt mathematische Logik nennt, überhaupt Logik ist, und ob sie
die traditionelle Logik wirklich ersetzten kann.
Die hier vertretene These ist, daß die „quadriviale“ Mathematik seit
der Antike die spezielle Logik der Physik gewesen ist und sich als
solche naturgemäß mit dieser zusammen entwickelt hat. Sie ist aus der
aristotelischen Logik als ein dialektischer Seitenzweig erwachsen und
kultiviert das Denken in Widersprüchen.
Daß die Mathematik in den beiden Zweigen der Geometrie und der
Arithmetik entwickelt worden ist, deutet selbst schon auf eine Zwei-
teilung alles Mathematischen hin. Denn die Geometrie ordnet und
klärt alle Verhältnisse, die sich zwischen sinnlich wahrnehmbaren Fi-
guren und Gestalten in beliebiger Größe ergeben können. Diese Ver-
hältnisse werden als besonderer „semantischer“ Gegenstandsbereich
durchaus logisch und widerspruchslos behandelt. Und das hat die
Geometrie in allen handwerklichen, technischen und ökonomischen
Angelegenheiten zu einer widerspruchslosen Methodik gemacht. Wo
allerdings die Geometrie ohne Bezugnahme auf Anwendungen rein als
Teil der Mathematik behandelt wird, besitzt sie ebenso wie die Arith-
metik ihre für sie eigentümliche Dialektik.
Die Arithmetik erforscht und konstruiert gänzlich unanschauliche
Zahlgebilde und ihre Verhältnisse. Alles, was hier gesagt werden
konnte, wurde zwar, um überhaupt verständlich zu sein, anhand geo-
metrischer Modelle veranschaulicht, wie man bei Platon und Euklid
sieht. Aber zu einer durchgehenden Veranschaulichung reichte die
Geometrie schon in der Antike nicht mehr aus. Vor allem in den Be-
reichen, wo arithmetische Verhältnisse ins Infinite und Infinitesimale
ausgeweitet wurden. Das bedeutete, daß die arithmetischen Theorien
ihre geometrischen semantischen Beziehungen zum Teil verloren.
Zahlen und Zahlverhältnisse wurden und werden seither als arithme-
tische Konstrukte behandelt, die nur noch teilweise geometrisch ver-
anschaulicht werden können.
III

Zahlen treten durch die Operatoren ihrer Rechenarten zueinander in


Relationen, die eine spezielle Semantik unanschaulicher Objekte er-
zeugen. Sie bilden Mengen und Größen, die zugleich weder Mengen
noch „groß“ oder „klein“ sein können, weil es derartiges nur in der
sinnlichen Anschauung gibt. Sie erzeugen auch Relationen zwischen
„bekannten Unbekannten“ (Variablen). Sie definieren durch Gleichun-
gen Begriffe von arithmetischen Sinngebilden, die zugleich Behaup-
tungen wahrer Einsichten sein sollen. Und alles dies wird reflexiv
bzw. ipsoflexiv auf einander angewendet.
Dies ließ und läßt sich mit den Mitteln einer trivialen Logik, die auf
Widerspruchslosigkeit angelegt ist, nicht bewältigen. Die Logik mußte
erweitert werden. Und sie wurde dadurch erweitert, daß das in der
trivialen Logik ausgeschlossene Dritte als widersprüchliche Denkfigur
positiv aufgenommen und zu einer eigenen Technik des Umgangs mit
unanschaulichen Sinngebilden verwendet wurde.
„Quadriviale“ Mathematik als dialektische Speziallogik trat dadurch
in Konkurrenz zur „trivialen“ Logik und verdrängte diese gänzlich aus
der naturwissenschaftlichen Methodologie.
Als sich im Laufe des 19. Jahrhunderts der quadriviale Teil der Wis-
senschaften aus den Philosophischen Fakultätsstudien abspaltete und
zu eigenen Mathematisch-Naturwissenschaftlichen Fakultäten verselb-
ständigte, kam auch in diesen neuen Fakultäten das Bedürfnis auf, sich
der logischen Grundlagen ihrer Fächer erneut zu vergewissern.
Die Mathematik, die als Einzelwissenschaft bis dahin unbestritten
die Methodologie der Naturwissenschaften darstellte und ohne logi-
sche Methodologie auskam, entwickelte für sich die fachspezifische
Logik, die seither die logischen Grundlagen der Mathematik selber zu
klären begann. Das Resultat dieser Bestrebungen war in erster Linie
die Entdeckung zahlreicher logischer Widersprüche und Paradoxien in
den mathematischen Theorien.
Das führte jedoch nicht dazu, die traditionelle „triviale“ Logik selber
weiter zu entwickeln, sie eventuell von Fehlern zu reinigen und ihre
Besonderheiten bei der Anwendung auf die Mathematik und die Na-
turwissenschaften herauszustellen. Vielmehr weitete man den An-
spruch der mathematischen Logik dahingehend aus, daß sie überhaupt
die einzige Methodologie aller avancierten Wissenschaften sei.
Dieser Anspruch schien durch die gewaltigen Erfolge der mathema-
tischen Naturwissenschaften in allen technischen Anwendungen ge-
rechtfertigt zu sein, die man durchweg auf die forcierte Mathema-
tisierung der Naturwissenschaften zurückführte.
Der Anspruch ist, wenn nicht falsch, so doch weit übertrieben. Denn
technische Anwendungen der Naturwissenschaften verdanken sich in
erheblichem Ausmaß dem praktischen Know How von Handwerkern
IV

sowie von Geräte- und Maschinenbauern. Doch angesichts der Ten-


denz zur Mathematisierung möglichst aller Wissenschaften, bemühen
sich auch die wenigen übrig gebliebenen „trivialen“ Logiker der Phi-
losophischen Fakultäten inzwischen, die „klassische“ Logik in die
Formalismen der mathematischen Logik einzukleiden.
Die Kluft zwischen den traditionellen logischen Denkweisen von
Laien und Geisteswissenschaftlern und mathematisch ausgebildeten
Naturwissenschaftlern erweiterte sich beständig bis zu den heute viel-
beklagten „zwei Kulturen“, in denen sich nun beide Lager in gegen-
seitiger Verständnislosigkeit gegenüber stehen. Daß dieser Methoden-
antagonismus auf die Lage und die Probleme der Wissenschaftstheo-
rien zurückwirkt und dringend der Klärungen bedarf, dürfte auf der
Hand liegen.
Deshalb wurde in diesem systematischen Teil große Aufmerksamkeit
auf die so entstandenen Unterschiede zwischen den entsprechenden
Denkweisen und ihre Verteilungen auf gewisse wissenschaftliche und
populäre Einstellungen im Lehr- und Forschungsbetrieb gelegt. Vor
allem aber wurde ein Beitrag zur Wiederbelebung und Verbesserung
der „trivialen“ Logik in Gestalt eines kleinen Lehrbuches der „pyra-
midalen Logik“ mit einem besonderen Formalismus und den sich
daraus ergebenden Folgerungen für die Unterscheidung der traditio-
nellen und der mathematischen Logik und ihrer Besonderheiten vor-
gestellt.
Um dem Leser einen Vorgeschmack auf das zu geben, was er hier
erwarten kann, seien die wesentlichen Thesen der mathematischen Lo-
giker, auch diejenigen, die aus der klassischen Logik übernommen
worden sind, und eine Beurteilung derselben vom Standpunkt der
pyramidalen Logik einander konfrontiert.
Mathematische Logiker, manchmal auch in Übereinstimmung mit
der klassischen Logik, behaupten:
1. Daß Logik und Mathematik zwei rein „formale“ Denkmethodiken
seien, welche Wahrheit und Falschheit - und darüber hinaus Wahr-
scheinlichkeit(en) jeweils auf spezifische Weise und für ihre besonde-
ren Bereiche ohne Bezug auf inhaltliche Gegenstände darstellen, un-
terscheiden und beweisen könnten.
Es wird gezeigt, daß es nur eine einzige Logik geben kann, die für
alle Wissenschaften, also auch für die Mathematik, gilt. Sie kann
niemals inhaltlos praktiziert werden. Ihre Formalismen sind selbst ihr
inhaltlicher bzw. semantischer Gegenstand.
2. Der Unterschied zwischen traditioneller und mathematischer Lo-
gik wird darin gesehen, daß es so etwas wie rein intensionale und rein
extensionale Logiken gäbe. Wobei die „klassische“ bzw. die aus den
V

„trivialen“ Disziplinen der Philosophischen Fakultät herstammende


Logik mehr intensional, die aus den „quadrivialen“ Disziplinen her-
stammende Mathematik und ihre Logik mehr extensional ausgerichtet
seien.
Rein intensionale und rein extensionale Logiken kann es jedoch
nicht geben. Und zwar, weil ihre Grundelemente, nämlich die Begrif-
fe, ohne deutliche Definition ihrer Intensionen (Merkmale) und klare
Bestimmung ihrer Extensionen (Umfänge) keine Begriffe wären.
Ohne klare und deutliche Begriffe aber können auch die Urteile und
Schlüsse, in denen sie vorkommen, keine eindeutigen Wahrheitswerte
erhalten.
3. Große Übereinstimmung herrscht unter Mathematikern darüber,
daß die klassische Logik mittlerweile durch die mathematische Logik
überholt und überflüssig gemacht worden sei, da in letzterer alle
positiven Einsichten der ersteren erhalten und in klareren Formalis-
men dargestellt werden könnten.
Dieser Anspruch besitzt keine Grundlage. Vielmehr ist die mathe-
matische Logik selbst eine auf ihre mathematischen Objekte einge-
schränkte triviale Logik, die das sogenannte Dritte als Widerspruch
zuläßt. Das Dritte besitzt hier eine dominierende „dialektische“ Funk-
tion. D. h. die Zulassung des Dritten ist die Grundlage für die Erzeu-
gung vieler widerspruchsvoller mathematischer Sinngebilde.
4. Sowohl von klassischen wie mathematischen Logikern wird ange-
nommen, daß sich die allgemeinsten „Begriffe“ (Kategorien und axio-
matische Begriffe) sowie die individuellen Kennzeichnungen (Eigen-
namen) nicht definieren ließen.
Es wird gezeigt, daß sowohl axiomatische Grundbegriffe als auch
individuelle Eigennamen definiert werden können. Allerdings nicht
mit der aristotelischen Standarddefinition mittels Genus proximum
und spezifischer Differenz bezüglich des Allgemeinsten, und auch
nicht durch Aufzählung aller Spezifika oder durch die Annahme eines
sogenannten Taufereignisses (S. Kripke) beim Individuellen. Erst die
Definitionsmöglichkeit der allgemeinsten (axiomatischen oder katego-
rialen) wie der speziellsten Begriffe (die gelegentlich durch Eigen-
namen gekennzeichnet werden) kann überhaupt die Logik zu einer
Methodik der Wahrheitsauszeichnung machen.
5. Mathematische Logiker nehmen für die Mathematik in Anspruch,
daß mathematische Begriffe durch „vollständige“ Induktion gewonnen
und definiert werden. Dagegen sei die Induktion in der klassischen
Logik stets „unvollständig“. Man unterstellt ihr, es handele sich dabei
um einen unbefugten Schluß „von einigen auf alle Instanzen“ (Bei-
spielsmerkmale) des induzierten Begriffs.
VI

Die pyramidale Erklärung der Induktion zeigt dagegen, daß die Be-
griffsbildung durch logische Induktion immer vollständig und sicher
ist. Sie ist kein Schluß von einem Artbegriff auf die zugehörige Gat-
tung, sondern sie expliziert nur, daß die Merkmale (Intensionen) eines
induzierten Artbegriffs allen seinen Instanzen in seiner Extension zu-
kommen. Das haben schon Wilhelm von Ockham und Francis Bacon
bewiesen. Und sie zeigt überdies, daß gerade die Mathematik die un-
vollständige Induktion als Schluß „von einigen auf alle Fälle“ verwen-
det, ohne jemals „alle“ Fälle zu kennen oder jemals prüfen zu können.
6. Mathematische Logiker haben aus der klassischen Logik die Mei-
nung übernommen, daß die logischen Junktoren und mathematischen
Operatoren sinnfreie Elemente und jedenfalls keine Begriffe seien. Sie
dienten nur dazu, nicht-wahrheitswertfähige Begriffe zu wahrheits-
wertfähigen Urteilen und diese zu Schlüssen zu verknüpfen, deren
Sinn gerade in Wahrheiten, Falschheiten und Wahrscheinlichkeiten
bestünden.
Es ist jedoch die gemeinsprachliche Bedeutung der logischen Junk-
toren wie der mathematischen Operatoren für die Grundrechenarten,
deren Verständnis erst die Definition von nicht wahrheitswertfähigen
Begriffen und Ausdrücken sowie die Komposition von wahrheits-
wertfähigen Urteilen und Schlüssen erlaubt. Die gemeinsprachliche
Bedeutung der jeweiligen ausdrucks- und satzbildenden Junktoren ist
aber selbst „auf Begriffe zu bringen“. Dann zeigt sich, daß zwischen
den satzbildenden Junktoren (die den Wahrheitswert von Behaup-
tungen bestimmen) und den begriffs- und ausdrucksbildenden Junkto-
ren (ohne Wahrheitswerte) strikt unterschieden werden muß. Die ge-
meinsprachliche Bedeutung der Junktoren und Operatoren vermittelt
auch den Bezug der logischen Formalismen auf sprachliche Inhalte.
7. Mathematiker sind seit Euklids Zeiten davon überzeugt, daß Glei-
chungen eine genuin mathematische Form behauptender Urteile mit
Wahrheitswerten sei. I. Kant hat diese Meinung auch in der Logik und
bei Philosophen verbreitet, indem er eine mathematische Gleichung
als Beispiel eines „synthetischen Urteils a priori“ ausgab.
Die Gleichung stellt jedoch eine logische Äquivalenz dar. Deren
Hauptfunktion ist die Definition von Begriffen und Ausdrücken. Sie
gehört zu den ausdrucksbildenden Junktoren und kann daher keines-
wegs wahrheitswertfähige Behauptungen bzw. Urteile ausdrücken.
Die Gleichungsäquivalenz definiert identischen Sinn mittels verschie-
dener Zeichenausdrücke. Dies entspricht der gemeinsprachlichen
Funktion der Synonyme. Die Gleichung ist weder voll- noch teiliden-
tisch mit der logischen Kopula oder mit einer Implikation, die logi-
sche Behauptungen auszeichnen.
VII

8. Von der klassischen Logik haben mathematische Logiker über-


nommen, daß die logischen ebenso wie die mathematischen Wahr-
heitswertnachweise und Beweise auf den drei angeblich unbegründ-
baren Axiomen der Identität, des Widerspruchs und eines Dritten be-
ruhen. Von diesen „Prinzipien“ soll die Identität – als Tautologie und
reine Wahrheitform – angestrebt, satzmäßiger Widerspruch und Drit-
tes als falschheitsträchtig – vermieden oder gar ausgeschlossen sein.
Es wird gezeigt, daß Identität, Widerspruch und Drittes nicht die
tatsächlichen Axiome bzw. Prinzipien von klassischer und mathemati-
scher Logik sind. Sie ergeben sich erst als Deduktionen aus den
eigentlichen Axiomen Wahrheit und Falschheit und der aus beidem
komponierten Wahr-Falschheit.
9. Nicht nur die mathematische, sondern auch die klassische Logik
geht davon aus, daß der Satzwiderspruch ein formales Kennzeichen
der Falschheit sei. Deswegen mache ein Widerspruch auch jede inhalt-
liche Theorie falsch, in der er vorkommt. Diese traditionelle Meinung
setzt voraus, daß eine widerspruchsvolle Behauptung keinen semanti-
schen Bezug zur Wirklichkeit habe und deshalb nichts behaupte bzw.
„sinnlos“ sei. Dabei leugnet niemand, daß ein Satzwiderspruch aus
einer wahren und einer falschen Behauptung über einen und denselben
Sachverhalt zusammengesetzt ist. Mathematische Logiker meinen
unter Berufung auf A. Tarskis Metatheorie der Sprachstufen, die Ver-
knüpfung des wahren und des falschen Satzteiles verleihe dem Ge-
samtsatz den neuen „Meta-Sinn“ der „Falschheit“, der die Wahrheits-
werte der Basissätze neutralisiere bzw. ersetze. Ein „wahrer“ Meta-
Wahrheitswert wird dagegen dogmatisch beim alternativen Urteil
angenommen. Die Urteilsalternative gilt als wahr, wenn eine ihrer
Komponenten wahr, die andere falsch ist.
Dagegen wird anhand zahlreicher Beispiele nachgewiesen, daß
durch die Verknüpfung des wahren und des falschen Satzteils im
widersprüchlichen Urteil kein Metasinn entstehen kann. Dies ebenso
wenig wie bei nichtwidersprüchlicher Verknüpfung eines wahren und
eines falschen Satzes. Deshalb muß der Satzwiderspruch seinen Sinn
als „wahr und falsch zugleich“ sowohl formal wie auch in seinen in-
haltlichen Anwendungen behalten. Die These von der „Falschheit des
Satzwiderspruchs“ erweist sich damit als unbegründetes Dogma bzw.
als reine Konvention mit sehr schädlichen Folgen. Denn wenn der
Satzwiderspruch als falsch gilt, wird auch seine wahre Komponente
für falsch erklärt. Umgekehrt verhält es sich bei der Urteilsalternative,
der dogmatisch der Metasinn „wahr“ zugesprochen wird, obwohl sie
ersichtlich ebenfalls wahr und falsch zugleich ist. Paradoxien und
viele traditionell für widerspruchslos gehaltene widersprüchliche Be-
griffe und Ausdrücke, die in Satzwidersprüchen in Subjekts- und/oder
VIII

Prädikatsstellung verwendet werden, sind nicht nur alltagssprachliche


rhetorische, sondern auch logische Mittel, durch Lügen die Wahrheit
zu sagen, und mittels der Wahrheit zu lügen. Mit „wahren“ alternati-
ven Urteilen behält man deswegen stets Recht, weil sie nicht aus-
drücken, welche ihrer Komponenten die wahre und welche die falsche
ist.
10. Aus dem Dogma von der Falschheit des Widerspruchs ergibt sich
die in der mathematischen Logik verbreitete Meinung, daß logische
und mathematische Wahrheit auf der Widerspruchslosigkeit beruhe.
Wahrheit ist jedoch nicht aus der Widerspruchslosigkeit deduzier-
bar, sondern umgekehrt Widerspruchslosigkeit aus der Wahrheit.
Ebenso wenig ist Falschheit aus dem Widerspruch deduzierbar, son-
dern umgekehrt der Widerspruch aus der Verknüpfung von Wahrheit
und Falschheit. Wahrheit und Falschheit sind daher die tatsächlichen
logischen Prinzipien. Sie definieren sich gegenseitig durch Negation
(Wahrheit = Nicht-Falschheit; Falschheit = Nicht-Wahrheit). Beide
zusammen definieren die Wahrscheinlichkeit als Wahr-Falschheit.
Nur aus dem dialektischen Prinzip der Wahr-Falschheit läßt sich so-
wohl Wahres wie auch Falsches ableiten.
11. Mathematische Logiker glauben auch, daß Wahrscheinlichkeit
als ein in mehrwertigen Logiken „zugelassenes Drittes“ neben der
Wahrheit und der Falschheit näher bei der Wahrheit als bei der
Falschheit stehe.
Die Wahrscheinlichkeit ist jedoch aus der (dialektischen) Synthese
von Wahrheit und Falschheit als Wahr-Falschheit deduzierbar. Somit
ist auch Wahrscheinlichkeit stets wahr und falsch zugleich. Das soge-
nannte Dritte ist daher selbst eine Form des Widerspruchs und somit
als besonderes logisches Prinzip überflüssig.
Allerdings ist zwischen logischer und mathematischer Wahrschein-
lichkeit strikt zu unterscheiden. Das logisch Wahrscheinliche ist zu
gleichen Teilen wahr und falsch. Deshalb wird es (mathematisch)
auch als „50%-Wahrscheinlichkeit“ formulierbar und beim Münzwurf
anschaulich. Mathematische Wahrscheinlichkeit versucht, die wahren
und die falschen Anteile des Wahr-Falschen detailliert zu quantifizie-
ren. Das resultiert zwar in statistischen (auf Datenmengen bezogene)
Wahrscheinlichkeitsquotienten, besagt jedoch nichts für den Einzel-
fall. Das wird beim Würfeln anschaulich gemacht. Auch auf die
mathematischen Wahrscheinlichkeiten ist vorrangig die logische
Wahrscheinlichkeit anzuwenden. Denn jeder „einzelne Fall“ von meh-
reren „möglichen Fällen“ tritt ein oder nicht. Logische und mathe-
matische Wahrscheinlichkeitsurteile sind daher die Hauptformen un-
entscheidbarer Urteile.
IX

12. Logiker allgemein, daher auch die mathematischen Logiker,


gehen davon aus, daß die Dialektik – abgesehen von Platonischer
Kunst der Gesprächsführung – eine logische Methode des falschen
Denkens in Widersprüchen sei, die jede Urteils- und Theoriebildung
verfälsche.
Jedoch gerade in der Mathematik und in der mathematischen Logik
wird die Dialektik als Grundmethode des unanschaulichen bzw. über-
anschaulichen Denkens kultiviert. Paradoxien und Widersprüche als
Ergebnisse der Dialektik sind daher - als zugleich wahr und falsch –
keine Fehlanzeigen, sondern sie sind konstitutiv für die Mathematik.
Da die Dialektik jedoch auch eine logische Methode des kreativ-
phantastischen Denkens und somit eine logische Methode der Erfin-
dung und der Kreationen (Heuristik) ist, bereicherte sie seit jeher die
Mathematik mit neuen mathematischen Elementen.
13. Das zeigt wohl am besten die sogenannte Modallogik, die in der
mathematischen Logik eine besondere Konjunktur hat. Sie ist von
Aristoteles als „Logik des Zukünftigen“ konzipiert worden, wird je-
doch mittlerweile ubiquitär eingesetzt.
Modallogik ist jedoch ein dialektischer Fremdkörper in der trivialen
Logik geblieben. Das „Mögliche“ ist die ontologische Domäne wider-
sprüchlicher Begriffe. Es ist als „seiendes Nichts“ bzw. als „nicht-
seiendes Sein“ zu definieren. In der Begründung der mathematischen
Logik und in der Mathematik selber hat die Modallogik daher eine
bisher undurchschaute dialektische und kreative Funktion.
Die Relevanz der kritischen Bemerkungen zur klassischen und
mathematischen Logik und zur Mathematik selbst kann sich nur in
den sie anwendenden Wissenschaften erweisen, d. h. im Kontext der
gegenwärtigen und vergangenen Lage von Forschung und Lehre.
Deswegen wurde insbesondere auf die in der Wissenschaftstheorie seit
jeher vernachlässigten Zustände in der Lehre geachtet.
Diese haben einen weit unterschätzten Einfluß auf die Forschung
und ihre Erkenntniskapazität. Denn die Befassung allein mit der logi-
schen und mathematischen Methodologie genügt nicht den Wissens-
anforderungen, die an den Wissenschaftstheoretiker zu stellen sind.
Hinzukommen muß eine solide Kenntnis des geschichtlichen Stoffes,
der das inhaltliche Wissen von und über die Wissenschaften ausmacht.
Diesem Thema wird daher in den folgenden historischen Teilen der
vorliegenden Schrift besondere Aufmerksamkeit gewidmet.
Der geschichtliche Stoff wird hier im Sinne einer Dogmengeschich-
te abgehandelt, wie das ansonsten noch in der Jurisprudenz und in den
Theologien üblich ist. D. h. aus den Ergebnissen der philosophie- und
wissenschaftsgeschichtlichen Forschung wird vor allem dasjenige aus-
X

gewählt und interpretiert, was auf die heutige Fachlage Bezug hat und
dazu geeignet ist, diese selber durchsichtiger zu machen.
Die entsprechende Interpretationsmethodologie wird im letzten Pa-
ragraphen über die Hermeneutik in den Geisteswissenschaften beson-
ders herausgestellt. Die „dogmatische Hermeneutik“ erklärt, wie insti-
tutionell gestützte Sinngehalte durch regelgeleitete Interpretationen für
ihre Anwendung auf Glaubens-, Entscheidungs- und Lehrprobleme
aufbereitet werden. Die „zetetische Hermeneutik“ erklärt dagegen,
welche Wissensressourcen für wahre Interpretationen von Artefakten
in der geisteswissenschaftlichen Forschung aufgeboten werden müs-
sen.
Der zweite Teil der vorliegenden Schrift behandelt zunächst die neu-
zeitlichen Motive zur Ausbildung einer besonderen philosophischen
Disziplin von den Wissenschaften unter dem gräzisierenden Titel
„Technologia“, die sich bei dem Schulphilosophen Clemens Timpler
1604 ankündigt. Zu seiner Zeit fließen eine Reihe von Interessenah-
men und Beschäftigungsweisen mit Wissenschaften zusammen, näm-
lich bibliographische Bestandsaufnahmen, lexikalische Erörterungen,
politische Nutzenkalküle. Hinsichtlich der Wissenschaften ergibt sich
daraus eine Neuorientierung der Philosophie, die auf diesen Grund-
lagen Fundierungsversuche für die Einzelwissenschaften entwickelt.
Darin kündigt sich an, was erst im 20. Jahrhundert in der besonderen
Disziplin Wissenschaftsphilosophie zusammenläuft.
Der dritte Teil enthält in vier Abschnitten die für den Gegenstand
wichtigen Ideen und Beiträge der Antike, des Mittelalters, der Neuzeit
und der heute florierenden Schulen und Richtungen der Wissen-
schaftsphilosophie.
Vorweg sollte darauf hingewiesen werden, daß hier die Langzeit-
wirkung historischer Ideen in allen späteren wissenschaftlichen Ver-
lautbarungen von Autoren vermutet und gegebenenfalls zum Ver-
ständnis herangezogen wird. Das unterscheidet die hier herausgestell-
ten historischen Zusammenhänge von der sonst fachüblichen Metho-
de, Einflüsse und Übernahmen nur in den Fällen anzunehmen, wo
Autoren selbst durch Zitat und andere Hinweise auf solche Inspi-
rationen hingewiesen haben. Man unterschätzt jedoch dabei gewöhn-
lich den Anteil von Wissenstraditionen, die nicht in dokumentierter
Weise ihren Niederschlag gefunden haben, sondern als “tacid know-
ledge“ (M. Polanyi) im Lehrbetrieb und den dazu verwendeten Quel-
len lebendig waren, so daß sie selten überhaupt erwähnt werden
Der leitende Gedanke ist im übrigen, daß es für die abendländische
Wissenschaft von ihren Anfängen an auch in aller von den Philoso-
phen angestrebten „Weisheit“ stets um wissenschaftliches Wissen ge-
XI

gangen ist. Dies könnte allerdings nur auf dem hier ausgesparten
Hintergrund des Vergleichs mit anderen Kulturen deutlicher sichtbar
werden, wo das wissenschaftliche Wissen allenfalls eines neben ande-
ren, besonders soteriologischen Weisheitsformen war und teils noch
ist. Und selbst da, wo religiöse und zu Theologien ausgebaute Wis-
senskomplexe in den Vordergrund traten, sind diese stets wissen-
schaftlich unterfüttert und durch wissenschaftliche Kritik gezwungen
worden, sich in den Formen der Wissenschaften zu artikulieren.
Wo es viel Wissen gibt, das Anspruch auf Wahrheit macht, gibt es
auch viel falsches Wissen. Die übliche Einschätzung und die Erwar-
tungen gegenüber den Wissenschaften laufen jedoch darauf hinaus,
daß der Anteil des wahren Wissens in allen Wissenschaften letztlich
nur zunimmt und der falsche Anteil eliminiert oder im Problemati-
schen gehalten wird. Das ist, wie im ersten Teil deutlich gemacht
wird, selber falsch. Und wenn das so ist, ergibt sich die Aufgabe, auch
im gegenwärtigen Wissen die falschen Anteile kenntlich zu machen.
Damit halten wir für die Durchdringung des historischen Materials
einen der ältesten Gedanken der abendländischen Philosophie fest,
den Parmenides in seinem Lehrgedicht klar formuliert hat: Es gibt
„zwei Wege der Forschung“, nämlich den „Weg der Wahrheit“ und
den „Weg der Falschheit“.
Parmenides hielt das auf Einheit abzielende Seins-Denken für den
Weg der Wahrheit und die sinnliche Wahrnehmung des Vielfältigen
und Bewegten für den Weg der Falschheit. Er hat damit den Rationa-
lismus in den Wissenschaften befördert und den Empirismus nachhal-
tig beeinträchtigt. Jedoch hat er damit Recht behalten, daß es diese
beiden Wege der Forschung gibt.
Unter modernen Bedingungen sind die Ausgangspunkte für die
Wege, die zur Wahrheit und zur Falschheit führen, in den metaphy-
sischen Begründungen der wissenschaftlichen Theorien zu suchen. Sie
gehen letztlich von den zwei antagonistischen metaphysischen Grund-
einstellungen, nämlich vom Realismus und vom Idealismus aus.
Ihr Gegensatz in der abendländischen Philosophie und Wissenschaft
ging stets um den Wahrheitsanspruch, den jede von ihnen für sich
behauptete, und den er seiner Alternative absprach. Beide begründeten
ihre Falschheitskritiken an der Gegenposition mit den bei den Geg-
nern ausgespähten Widersprüchen. Die Widersprüche in ihren eigenen
Grundeinstellung übersahen sie entweder geflissentlich, oder sie stell-
ten sie als noch künftig „zu lösende“ Probleme dar.
Die Grundwidersprüche der realistischen und idealistischen Meta-
physiken, von denen jeweils weitere abhängen, werden im § 40
herausgestellt. Wenn jedoch Widersprüche keineswegs nur falsch
sind, sondern auch einen Anteil von Wahrheit enthalten, so stellt sich
XII

das gegenseitige Verhältnis von Realismus und Idealismus anders dar,


als es bisher eingeschätzt wurde. Es kommt darauf an, ihre wahren
und ihre falschen Komponenten zu unterscheiden sowie die gemein-
samen wahren Komponenten festzuhalten und die falschen zu elimi-
nieren.
Die falsche Komponente des Realismus ist schon genügend von der
idealistischen Kritik herausgestellt worden und deswegen wohlbe-
kannt. Es ist die Behauptung, daß es hinter oder neben den Bewußt-
seinserscheinungen noch unerkennbare „Dinge an sich“ als eigentliche
Realität bzw. Wirklichkeit gäbe, die gänzlich unabhängig vom Be-
wußtsein seien.
Eliminiert man diese These, so bleibt die wahre Komponente des
Realismus übrig, die völlig mit der idealistischen Grundbehauptung
übereinstimmt. Es ist die These, daß Wissen nur durch ein wahrneh-
mendes und denkendes, sich erinnerndes und manchmal auch phanta-
sierendes Bewußtsein zustande kommt, und daß es daher kein Wissen
von der Existenz und den Eigenschaften bewußteinsunabhängiger
„Dinge an sich“ geben kann. Auch I. Kant hat dies in der ersten
Auflage der „Kritik der reinen Vernunft“ betont, indem er die „Dinge
an sich“ als „Noumena“ (Denkgebilde) im Bewußtsein bezeichnete.
Die falsche These des Idealismus ist noch nicht herausgestellt und
geklärt worden. Sie besagt, daß auch das Bewußtsein ein Ding an sich
sei. Das ding-an-sichhafte Bewußtsein wird seit der Antike nach dem
Muster physikalischer Kräfte als Vermögen bezeichnet und seither in
den meisten psychologischen Theorien als selbstverständlich voraus-
gesetzt. Gleichwohl haben Naturkräfte und Bewußtseinsvermögen
stets etwas Gespenstiges an sich. Wenn sie wirken bzw. tätig sind,
wird ihre Existenz als Ursache für Effekte behandelt. Wenn sie nicht
wirken, sollen sie doch („virtuell“ oder „potentiell“) existent sein.
Gerade diese potentielle Existenz, die sich in keiner Weise mani-
festiert, macht dann ihren Ding-an-sich-Charakter aus.
Viele Idealisten postulieren für die Erforschung des Bewußtseins
eine besondere Aktart der „Reflexion“, durch die das Bewußtsein sich
selbst zum Gegenstand und damit als Ding an sich erkennbar mache.
Damit nicht zufrieden, postulieren einige sogar ein „präreflexives Be-
wußtsein“, das auch das Reflektieren erst ermögliche. Aber damit
steht es nicht besser als mit dem schon von Platon erfundenen „unbe-
wußten Grund im Bewußtein“, aus dem mittels der Anamnesis, d. h.
der bewußten Wiedererinnerung, alle Ideen ins Bewußtsein überführt
werden könnten.
Es handelt sich hier um eine ebenso falsche optische Metapher wie
in der realistischen Widerspiegelungstheorie der ding-an-sichhaften
Außen- in der bewußten Innenwelt. Nämlich so, als ob das Bewußt-
XIII

sein sich selber bespiegeln könne und obendrein auch noch die Be-
leuchtung dazu liefere.
Eliminiert man die These über das ansichhafte Bewußtsein, so bleibt
die wahre Komponente der realistische These übrig, daß es Bewußt-
seins-Erscheinungen gibt. Es entfallen alle Thesen über die solche Be-
wußtseins-Erscheinungen angeblich bewirkenden sogenannten Seelen-
vermögen.
Das Resultat der sich dadurch ergebenden Überlappung von realisti-
scher und idealistischer Erkenntnistheorie ist eine phänomenalistische
Erkenntnistheorie, wie sie erst in neuerer Zeit skizziert worden ist. Sie
enthält die gemeinsame Wahrheit des Realismus und des Idealismus
und schließt deren falsche Sätze aus.
Phänomenalismus ist jedoch nur eine Erkenntnistheorie. Damit ist
die Frage nach einer wahren metaphysischen Theorie, die neben der
Erkenntnistheorie auch die übrigen Grunddisziplinen begründet, noch
nicht beantwortet.
Hierzu ist induktiv von den Merkmalen der Axiome der Grund-
disziplinen auszugehen. Es wird danach gesucht, was in deren axio-
matischen Grundbegriffen als Gemeinsames und Identisches, mithin
als „generisches Merkmal“ neben ihren spezifischen Differenzen aus-
weisbar ist. Mit G. Berkeley definieren wir das (ontologische) Sein als
erkanntes Sein, d. h. als Idee. Und mit Fichte definieren wir Er-
kenntnis als Handlung, und umgekehrt. Darüber hinaus gilt es jedoch,
auch das Gemeinsame bzw. Identische von erkanntem Sein und getä-
tigter Erkenntnis auf den Begriff zu bringen. Der Begriff ergibt sich
aus der Einsicht, daß getätigte Erkenntnis gar nichts anderes ist als
Seinserkenntnis; und umgekehrt, daß Seinserkenntnis nichts anderes
als Bewußtseinserscheinung ist.
Um dies Gemeinsame zu bezeichnen, haben wir die traditionelle
Bezeichnung „Idee“ oder „das Ideelle“ für das idealistische Prinzip
übernommen. Es bestimmt den Idealismus als wahre Metaphysik.
Um deutlich zu machen, um was es sich dabei handelt, wurde die
Entstehung und Entwicklung des abendländischen Idealismus in den
drei philosophiegeschichtlichen „Wendungen zum Subjekt“ herausge-
stellt. „Wendungen“ deshalb, weil der Idealismus sich gegen den Rea-
lismus durchzusetzen hatte, und weil sich in der Kritik am Realismus
erst allmählich zeigte, was Idealismus überhaupt ist.
Die erste Wendung war die sophistische und sokratische Wende
zum Subjekt, die Protagoras der klassischen griechischen Philosophie
vorgab („Der Mensch ist das Maß aller Dinge: der Seienden, daß sie
sind, und der Nichtseienden, daß sie nicht sind.“). Die zweite war die
Augustinische Wende („noli foras ire, in interiori homine habitat
veritas“ / „Gehe nicht nach außen, im inneren Menschen wohnt die
XIV

Wahrheit“). Die dritte war die neuzeitliche Wende zum Subjekt des
Nikolaus von Kues („Der Mensch als kleiner, schaffender Gott“). Sie
blieben die Grundlage der Cartesischen Cogito-Philosopie, der Leib-
nizschen Monadenlehre, des Kantischen transzendentalen Idealismus,
der Systeme des deutschen und europäischen Idealismus bis hin zu
einer wohlverstandenen Phänomenologie. Deren Spuren sind bis in
die verfremdenden Gestalten des Existentialismus, Konstruktivismus
und Dekonstruktivismus sowie zahlreicher Neo-Klassiker-Ismen in
den Geisteswissenschaften bemerkbar.
Die exponentiale Zunahme des wissenschaftlichen Personals in aller
Welt, die forcierte Spezialisierung aller Ausbildungszweige und die
damit verbundene Absenkung der wissenschaftlichen Standards läßt
das Phänomen Wissenschaft heute in etwas fahlem Licht erscheinen.
Insbesondere sind Probleme der Abgrenzung von Wissenschaft gegen-
über allen anderen zivilisatorischen und kulturellen Institutionen ange-
sichts der Verwissenschaftlichung aller Lebensverhältnisse immer
schwieriger und auch dringlicher geworden.
Die Übersicht über die gegenwärtig prominenten wissenschafts-
theoretischen Richtungen bzw. Schulen, mit der die vorliegende
Schrift beschlossen wird, setzt bei deren Begründern und Meisterden-
kern an und läßt allenfalls einige Perspektiven auf die gegenwärtige
Lage zu. Die meisten Schulen gehen dabei von den Naturwissen-
schaften aus und konzentrieren sich auf diese. Die Lage der Geistes-
wissenschaften ist dem gegenüber geradezu chaotisch. Deshalb ist die
Darstellung ihrer Probleme und Methodenansätze ausführlicher gera-
ten. Hier galt es gewissermaßen noch Schneisen in unübersichtliches
Gelände zu schlagen.
Die metaphysische Grundlage der herrschenden Theorien der Gei-
steswissenschaften ist die Lebensphilosophie. Sie verdankt ihren Auf-
stieg im 19. Jahrhundert den großen Erfolgen der entwickelnden Bio-
logie, aber zum Teil auch den weiterwirkenden Anstößen der roman-
tischen Naturphilosophie, besonders der Philosophie Schellings.
Wilhelm Dilthey hat auf dieser lebensphilosophischen Grundlage
die Geisteswissenschaften auf den hermeneutischen Weg gewiesen.
Seine Maxime „die Natur erklären wir, das Seelenleben verstehen
wir“ hat hier überall gewirkt. Sein Verstehensbegriff als „Nacherleben
fremden Lebens“ steht überall noch in voller Geltung. Und doch
wurde dadurch ein Irrweg, ein zweiter Weg der Forschung im Sinne
des Parmenides, eingeschlagen.
Um diesen Irrweg zu markieren, wurden anhand der geisteswissen-
schaftlichen Leitwissenschaften, nämlich der Geschichtswissenschaft
und der Sprachwissenschaft, die lebensphilosophisch-metaphysischen
und die ontologischen und erkenntnistheoretischen Voraussetzungen
XV

der auch in den Geisteswissenschaften verbreiteten realistischen Auf-


fassungen kritisch beleuchtet und mit der idealistischen Begründung
konfrontiert. Als Ergebnis zeigt sich, daß weder die Geschichtsschrei-
bung noch die Sprachwissenschaft auf ein realistisches Wirklichkeits-
fundament bauen können, obwohl sie in immer neuen Variationen die
„Verseinung“ der historischen Objekte der Vergangenheit und des
Sinngehalts der Laut- und Schriftsprachen betreiben. An deren Stelle
tritt der Nachweis des ideellen Gegenwartscharakters der sogenannten
res gestae und der sprachlichen Sinngebilde und Bedeutungen im
aktuellen kollektiven Bewußtsein.
Wie mit Sinngebilden und Bedeutungen methodisch umzugehen ist,
sollen die dann folgenden Überlegungen zur Hermeneutik zeigen.
Angesichts der ausufernden Hermeneutikdiskussion in der Wissen-
schaftstheorie der Geisteswissenschaften wurde zunächst an gemein-
same methodische Voraussetzungen, die die Geisteswissenschaften
mit allen anderen Wissenschaften teilen, erinnert.
Diese bestehen im Beschreiben und Erklären. Ihre Permanenz seit
ihrer Begründung durch Aristoteles auch in den heutigen Faktenfixie-
rungen bzw. Datensammlungen und in den Erklärungsmethoden wird
aufgezeigt. Besonders dürfte die Permanenz des aristotelischen Vier-
Ursachen-Erklärungsschemas und seine Ausgestaltung auch in den
modernsten Theorien auffallen.
Dabei erweist sich die naturwissenschaftliche Behauptung, daß nur
die Wirkursachen Erklärungswert besäßen, als irreführend. Ganz zu
Unrecht werden von dieser Seite nur die Wirkursachen im Verhältnis
zu Wirkungen als genuine „Ursachen“ anerkannt, während die teleolo-
gischen, die formalen und die materialen Ursachen in verfremdender
Terminologie immer noch in Anspruch genommen, jedoch in ihrer
Erklärungsfunktion verkannt werden. Zugleich aber wird auch der
Vorrang der teleologischen Erklärungen unter dem Titel des herme-
neutischen Verstehens in den Geisteswissenschaften nachvollziehbar.
Aber auch diese geisteswissenschaftliche Erklärungsweise funktio-
niert nur im Zusammenhang mit den übrigen drei Ursachen, wie ge-
zeigt wird.
Auch auf die Ausgestaltungen der Hermeneutiktheorien schlagen
metaphysische Begründungen durch. Idealistische Metaphysik hat
sich seit der Antike in der Voraussetzung niedergeschlagen, daß die
platonischen Ideen den unerschöpflichen Sinngehalt aller wahrnehm-
baren Dinge, erst recht auch aller Artefakte menschlicher Produktio-
nen ausmachen. Auf dieser Grundlage haben die Theologen und
Juristen ihre vorn erwähnten „dogmatischen Hermeneutiken“ ent-
wickelt und ausgebaut. Bei ihnen kommt alles auf die zuverlässige
Gewinnung von Antworten auf Glaubens- und Rechtsfragen aus der
XVI

Hl. Schrift und den überkommenen Gesetzen als Sinnrepositorien an.


Die überschießende platonische Sinnfülle der dogmatischen Texte
wurde auf konkurrierende Sinnalternativen eingeschränkt, auf die die
dogmatischen Interpretationen verpflichtet wurden.
Diese eher eine Technik zu nennende Verwendung institutionen-
geschützter Texte wurde seit der Renaissance von den Philologen
auch auf die antike wissenschaftliche und philosophische Literatur
ausgeweitet. Auch hier wurden die autoritativen Übersetzungen,
Wörter- und Lehrbücher zu Dogmatiken, die für alle philologischen
Probleme konkurrierende Antworten und Lösungen bereitstellen.
Die Dominanz der philologischen und historischen Fächer in der
neuen von den mathematischen Naturwissenschaften getrennten Phi-
losophischen Fakultät hat im 19. Jahrhundert auch die Philosophie in
solchem Ausmaß geprägt, daß sie fast gänzlich in Philosophiege-
schichtsschreibung und Klassiker-Philologie aufging. Die philolo-
gisch-historische Orientierung wurde bis heute so selbstverständlich,
daß man ihre dogmatische hermeneutische Technik kaum noch wahr-
nimmt. Zumal ja im modernen Wissenschaftsverständnis alles „Dog-
matische“ gegenüber dem Anspruch vorurteilsfreier Forschung und
Lehre als verdächtig und überwunden gilt.
Erst auf dem Hintergrund dieser idealistischen dogmatischen Her-
meneutik entwickelt sich in der nachidealistischen Wende der Wissen-
schaften zum Realismus eine Forschunghermeneutik, die wir „zete-
tisch“ genannt haben. Dem Ideal der Gewinnung wahren Wissens
verpflichtet, versteht diese zetetische Hermeneutik das Verstehen
historisch-literarischer Dokumente als „Wahrheitsgeschehen“, in wel-
chem sich dem Interpreten eindeutiger Sinn offenbaren soll.
Unsere Kritik an diesem Prozedere, das die realistische Unterschei-
dung von ding-an-sichhaftem Sinn des Interpretandums und seiner
nacherlebenden Beschreibung in der Interpretation voraussetzt, wird
in einer ausführlichen Analyse des Verstehensbegriffs ausgeführt. Wir
gehen davon aus, daß für das zetetische Interpretieren nur das idea-
listische Wahrheitskriterium der logisch-kohärenten komprehensiven
Konstruktion von Interpretationen anwendbar ist.
Gegen die „dialogische“ Erklärung des Verstehens, gemäß dem die
Texte „sprechen“, wird auf eine Eigenschaft von Texten und Arte-
fakten hingewiesen, die sie mit optischen Spiegeln gemeinsam haben.
So wie nur das vor den Spiegel Hingestellte im Spiegel erscheint,
erscheint auch nur das in die Interpretation eingebrachte Wissen des
Interpreten vor dem Text als einheitlicher und kohärenter Sinn im
Text.
Im Schlußabschnitt wird auf eine Tendenz der neueren Geisteswis-
senschaften aufmerksam gemacht und unter den Titel der „Verkun-
XVII

stung der Geisteswissenschaften“ und zugleich der „Verwahrheitung


der Künste“ gestellt.
Diese Entwicklung dürfte die Konsequenz der Schellingschen Le-
bensphilosophie sein, wonach die Wissenschaften insgesamt erst da-
hin kommen müßten, wo die Kunst immer schon sei, und daß nur
durch Kunst die Wahrheit zu gewinnen sei. Damit wuchs ein Genie-
kult heran, der in den Künsten zum Virtuosentum und in den Geistes-
wissenschaften zur Figur des dichtenden Denkers bzw. des denkenden
Dichters führte. Die Spuren lassen sich von Kierkegaard über Nietz-
sche bis Heidegger und Gadamer aufzeigen.
Die Auszeichnung zahlreicher Geisteswissenschaftler und besonders
von Philosophen mit Nobelpreisen für Literatur und mit anderen
nationalen Literaturpreisen zeigt die Übereinstimmung dieser Tendenz
mit dem breiten internationalen Publikumsgeschmack. Sie hat mit der
68er Revolution des Hochschulwesens unter der Feyerabend-Maxime
des „Anything goes“ nochmals Verstärkung bekommen. Ihr vorläu-
figes Resultat zeigt sich u. a. auch im Bologna-Prozeß, der nach dem
Vorbild US-amerikanischer Liberal Arts-Fakultäten auf die Ver-
schmelzung von Geisteswissenschaft und Kunst an den Universitäten
und an den Kunsthochschulen zur Eingliederung aller Kunstaus-
bildung in neue „Universitäten der Künste“ führte. Hier gibt es seither
„creative art research“ als letzte Blüte des geisteswissenschaftlichen
Bildungssystems.
Auch die Philosophen haben sich dieser Tendenz angepaßt, wie an
einigen ihrer gerade deshalb als bedeutend angesehenen Repräsen-
tanten gezeigt wird. Ihre Themen sind jetzt die Mythen der Vorzeit
und die „Geschichten“, die vormals in der Literatur publikumsnah
ausgebreitet wurden und den Verständnishorizont der sogenannten
Eliten für das abstecken, was die Geisteswissenschaften ihnen zu
bieten haben.

Düsseldorf, im Dezember 2015


XVIII

INHALTSVERZEICHNIS

Vorwort S. I - XVII

Inhaltsverzeichnis S. XVIII - XXV

1. Einleitung: Die Grundideen S. 1- 183

§ 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und Wissen-


schaft S. 1
Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten Philoso-
phischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des „trivialen“ vom
„quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue „geisteswissenschaftliche“
Philosophische Fakultät. Philosophie als Fach im Verband mit den historischen und philologischen Studien
der neuen Philosophischen Fakultät. Historisierung und Philologisierung der geisteswissenschaftlichen
Philosophie. Die neue Mathematisch-Naturwissenschaftliche Fakultät ohne Philosophie. Die Entwicklung
der Wissenschaftsphilosophie als Propädeutik der mathematischen Naturwissenschaften. Über die
Notwendigkeit der Konsolidierung des Ideenpotientials der Philosophie für Serviceleistungen und
Interdisziplinarität in den Wissenschaften.

§ 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philosophie S. 4


Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddisziplinärer
Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthropologie und prak-
tischen Philosophie und die Organisation des Ideenpotentials für die Anwendung in den Einzelwissen-
schaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissenschaften, die schon in die ge-
schichtlichen Begründungen der Wissenschaften eingegangen sind. Die Klärung der philosophischen Vor-
aussetzungen der Einzelwissenschaften als Aufgabe der allgemeinen Wissenschaftsphilosophie. Vorschlag
einer Architektonik der Wissenschaften.

§ 3 Wahrheit als Ideal der Wissenschaft S.7


Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissenschaftlichen
Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissenschaftlichung“ aller Ver-
hältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die Vermischung der Kulturbereichs-
Ideale untereinander und mit dem Wahrheitsideal der Wissenschaften. Die Wahrheitskonzeptionen der
philosophischen Grunddisziplinen und ihre metaphysische Grundlegung. Ontologische Wahrheit als
Echtheit; anthropologische Wahrheit als Wahrhaftigkeit; praxeologische bzw. pragmatistische Wahrheit als
Nützlichkeit; erkenntnistheoretische Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wis-
sens. Der realistische Korrespondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahr-
heit. Ihre Vorteile und Stärken und ihre Problematik.

§ 4 Wissen, Glauben und Intuition in den Wissenschaften S. 17


Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen Formen:
knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falschheit im Wissens-
begriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Probleme des überanschaulichen
Wissens und der Veranschaulichung durch Modelle. Wissensprätensionen und ihre floskelhaften Verklei-
dungen.
XIX

§ 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken S. 28


Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne Bildung
der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik. Ursprüngliche
Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unterschiede im Alltagsdenken
und wissenschaftlichem Denken bezüglich der Begriffe von Wissen, Glauben und Vermuten. Die alltags-
sprachliche Unterscheidung des Vermutens und Behauptens und die wissenschaftlich-logische Gleich-
setzung von Hypothese und Theorie. Die gemeinsame eine Lebenswelt der Laien und die vielen „möglichen
Welten“ der Wissenschaftler. Geschichte und Zukunft als mögliche Welten. Die vordergründige Welt der
Erscheinungen und die „Hinterwelten“ der Wissenschaft.

§ 6 Die alte und die reformierte Hochschulforschung und -Lehre S. 30


Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorganisation. Der
Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifikanz akademischer
Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium im Baccalaureus-Magister-
Doctorsystem und seine Modernisierung. Alte und neue Verständnisse der „Einheit von Forschung und
Lehre“ und des „forschenden Lernens“. Der Verfall der Vorlesung und der Aufstieg des Seminarbetriebs.
Die Bildung und die Elite einst und jetzt.

§ 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathematischen“ Logik S. 43


Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik. Moderne
Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik, auch im Hinblick
auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer erneuerten klassischen Logik
und Kritik der Fehlentwicklungen der mathematischen Logik. Reintegration intensionaler und extensionaler
Logik. Das Verhältnis von Formalismus und inhaltlichem Wissen. Der Formalismus als Notation der Spra-
che. Kritik der üblichen logischen Zeichenformeln. Über den Unterschied ausdrucksbildender und urteils-
bildender Junktoren. Die Gleichung als definitorischer Ausdruck und als methodische Artikulationsform der
Mathematik und mathematischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen.
Über Sprache und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen
guten Formalismus

§ 8 Über den Unterschied logischer und mathematischer Denkmethoden S. 67


Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegrifflichung von
Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und des extensionalen
Aspektes und die Verselbständigung von intensionaler und extensionaler Logik. Die Funktion der Dialektik
als Denken begrifflicher Widersprüche in beiden Logiken. Die Dialektik des Zahlbegriffs. Die Dialektik des
Mengenbegriffs. Der Import der dialektischen Begriffsbildung von der Mathematik in die Physik. Die Dia-
lektik physikalischer Begriffsbildung. Beispiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische
Verschmelzung der logischen Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion
der dreiwertigen Logiken.

§ 9 Die logischen und mathematischen Elemente S. 93


Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige
Induktion. Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion:
Kontrolle der korrekten Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der
logischen Deduktion des Zahlbegriffs und der hauptsächlichen Zahlarten. Die Primzahlberechnung. Die
Funktion der Buchstabenzahlen (Variablen) in der Mathematik. Unterscheidung der begriffs- und
ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre pyramidale
Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialek-
tische) Behauptungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“
zwischen Urteils- und Schlußlehre. Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale
Formalisierung der Hegelschen „Phänomenologie des Geistes“ und einer logischen Zahlentheorie. Die
Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des Widerspruchs und des „Dritten“ und
die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit.
XX

§ 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften S. 137


Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter von
Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die übliche Auf-
fassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als widersprüchlicher
Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung des Nichts gewordenen
Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des noch nicht seienden Zukünftigen
im gegenwärtigen Sein. Die geschichtliche „Realität“ und das Zukünftige als ontologische Bereiche von
Möglichkeiten. Die Konstruktion der Notwendigkeit als unveränderliche Vergangenheit und ihre Frag-
würdigkeit. Die Dialektik des Entwicklungsbegriffs als Fusion von Wirklichkeit und Möglichkeit.
.
§ 11 Die Paradoxien der Wahrscheinlichkeit S. 148
Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit und die
mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des Wahrschein-
lichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmelzung des stoischen
Universaldeterminismus und des epikureischen Indeterminismus im Wahrscheinlichkeitsbegriff. Die Rolle
der „docta ignorantia“ beim Umgang mit der Wahrscheinlichkeit.

§ 12 Die Rolle der Modelle und der Simulationen in den Wissenschaften S. 152
Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und Wissen-
schaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem
Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der
Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle.
Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der
geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle
bei der Entwicklung der physikalischen Disziplinen. Die Mathematisierung von Chemie, Biologie und
einiger Kulturwissenschaften. Die Parallele der Entwicklung von formalisierter Mathematik und formaler
Logik und die Frage von Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer
Axiomatik und Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in forma-
len Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von Ab-
bildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die Computer-
simulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen. Die KI-Forschung
(„Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer und Intelligenz. Weitere
Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-Simulation.

§ 13 Die Bestimmung des wissenschaftlichen Wissens S. 176


Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches und wahr-
falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und Erkenntnisse. Die
Verkennung von Dokumentationen als Wissensbasen.

§ 14 Die Bestimmung von Wissenschaft S. 179


Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und informa-
tionstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung. Wissensbasen
und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und Zusammenhang von
Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die Aufgaben der Forschung.

II. Zur Geschichte der Disziplin „Wissenschaftsphilosophie“ S. 184 - 192

§ 15 Das Aufkommen der Bezeichnung „Wissenschaftsphilosophie“ und die Tendenzen zur


Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschaftstheorie S. 184
Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien, der
Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Architektoniken und
Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der Wissenschaften. Die
Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften. Die Philosophie als Vernunft-
kritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die Vorbilder der klassischen Metho-
dologien
XXI

III. Zur Geschichte der Wissenschaftsphilosophie S. 193 - 319

A . Die Antike

§ 16 Die Vorsokratiker S. 193


Die Erfindung der Arché als Ursprung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und Subjekt
und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen zum Subjekt. Die
Entdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des dialektischen (widersprüch-
lichen) Begriffs. Der pythagoräische Zahlbegriff als dialektische Vermittlung von Denk- und Sinnesobjekt.
Das Sein der Atome und das Nichts des leeren Raumes bei Demokrit und seine Erfindung der Denkmodelle.
Das Nichts des Gorgias.

§ 17 Platon (437-347) S. 200


Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die Begriffe,
Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken als Noesis und
Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw. Modellen. Die Entdeckung
des regulären Begriffs: Dihairesis und Negation. Das Wissenschaftskonzept als Begründungszusammen-
hang und als Institution der freien Künste. Der Zeitbegriff als „stehende Zahl“ und die Konstitution des
Vergangenen in der Wiedererinnerung.

§ 18 Aristoteles (384-322) S. 208


1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien als Fragen
nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklärende Wissenschaft:
Das Vier-Ursache-Schema der Erklärung. Die metaphysischen Letztbegründungen. Nachwirkungen des
Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der Wissenschaften, a. die Begriffslehre, b. die
logischen Axiome, c. die Urteilslehre, d. die Schlußlehre oder Syllogistik. 3. Die Architektonik der Wissen-
schaften: theoretische und praktische Wissenschaften und ihre Ziele und Zwecke.

§ 19 Euklid (um 300 v. Chr.), seine „Elemente“ und das Vorbild der Mathematik S. 250
Der platonische Charakter der Elemente als „dialektische Logik“. Vermeintliche geometrische Anschau-
lichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der arithmetischen Gebilde. Die
geometrischen und arithmetischen „Definitionen“. Die Gleichung als Ausdrucksmittel der mathematischen
Argumentation. Bekanntheit und Unbekanntheit der Zahlen und die Rolle der Buchstabenzahlen (Variab-
len). Die „Axiome“ als Definitionen. Die Theoreme als Behauptungssätze. Die Probleme als praktische
Konstruktionsaufgaben und als Methodenarsenale. Die Elemente und der philosophische „Mos geometri-
cus“.

§ 20 Der Epikureismus S. 277


Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomistische und
indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit als Grundlage des
guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der Freundschaften. Epikureismus
als Hausphilosophie der empirischen Ärzte.

§ 21 Die Stoa S. 280


Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und praktische Philo-
sophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das Wissen-
schaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modelldenken in Anwen-
dung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier Kardinaltugenden des
Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als ungeschriebenes oder erkanntes
Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen Philosophie als Hausphilosophie der
Juristen.
XXII

§ 22 Die Skepsis S. 301


Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische Urteils-
enthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Unterliegendes“.
Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit. Kritik der induktiven
Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“ der Begründung. Kritik der
Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen Kausaltheorien und die platonisch-
idealistische Interpretation der Kausalerklärung. Wahrscheinlichkeitswissen als platonische Meinung und
als Glaube.

§ 23 Der Neuplatonismus S. 307


Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logische
Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des hier-
archischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epistrophé als
Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische Kausaltheorie. Die
Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte bei Philon von Alexandrien:
Buchstabensinn und philosophischer Hintersinn.

§ 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie S. 314


Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die
Subjekt-Objektspaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der
Metaphysiken. Das Gesetz der Evidenzialisierung der Archai.

B Das Mittelalter: Patristische und scholastische Wissenschaftslehre S. 320 - 386

§ 25 Der ideengeschichtliche Kontext S. 320


Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken Erbes im
Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „höheren Fakultäten“
der Theologie, Jursprudenz und Medizin als praktische Berufsstudien. Die philosophische Fakultät d. h. die
„Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die „2. Wende zum Subjekt“ bei
Augustinus.

§ 26 Aurelius Augustinus (354 - 430) S. 323


1. Die Begründung der christlichen Theologie als Wissenchaft vom Göttlichen. 2. Dialektische Dogmen-
definition. 3. Die Seelenvermögen und die modellhafte Gotteserkenntnis im Spiegel der Seele. 4. Die
heilige Schrift und die wissenschaftliche Interpretation. 5. Das „Buch der Natur“ und die Erkenntnis der
sinnlich-phänomenalen Welt mittels der Zeit.

§ 27 Die Enzyklopädisten und die Tradition des antiken Wissens S. 332


Philosophiegeschichte bei Diogenes Laertios. Stobaios. Hesychios. Suidas. Athenaios. Eunapios. Die
Enzyklopädien der sieben freien Künste: Martianus Capella, Cassiodorus Senator, Isidor von Sevilla, Beda
Venerabilis, Vincenz von Beauvais und Gregor Reisch. Die Bedeutung des Boethius für die Klassiker-
Tradition.

§ 28 Die scholastische Methode S. 337


Die Lectio oder Vorlesung als Hauptmittel der Lehre und Textvermehrung. Ihr Fortleben bis heute. Die
Disputatio oder Diskussion und der Seminarbetrieb. Ihr Fortleben in einigen akademischen Prüfungs-
verfahren. Die „Sic-et-Non-Methode“ oder „Quaestionenmethode“ als Forschungsmethode der Alternativen
von Wahrheit und Falschheit. Ihr Schema in den Dispositionen des Stoffes der großen „Summen“. Ihr
Fortleben im Gerichtsprozeß.
XXIII

§ 29 Der Universalienstreit und die Konstitution der wissenschaftlichen Objekte S. 341


Die neuplatonische bzw. platonistische Konstitution der Universalien als eigentliches Sein: „Universalia
ante rem“. Der logische Aristotelismus bzw. Nominalismus spricht nur den Dingen (res) und den Zeichen
eigentliches Sein zu und leitet die Universalien von diesen ab: „Universalia post res“. Die Perfidie der
Bezeichnng „Ideenrealismus“ für den platonischen Standpunkt bei den Aristotelikern. Die Kon-
kordienformel des Albertus Magnus: „Universalia ante rem, in re et post rem“. Folgen für die Konstitution
von Geistes- und Naturwissenschaften.

§ 30 Glauben und Wissen. Die Begründung des Glaubens durch Wissen und des Wissens
durch Glauben S. 344
Glaubenswahrheit und wissenschaftliche Wahrheit: Die Philosophie als Dienstmagd der Theologie vs. die
Autorität der Vernunft. Die Begründung des Glaubens durch logisches Wissen. Die Definition des metaphy-
sischen Prinzips bei Anselm und die Dialektik der Dogmen bei Abälard. Wissen und Glauben bei Thomas
von Aquin und Wilhelm von Ockham. Der Auftrieb des quadrivial-mathematischen Studiums des „Buches
der Natur“ als Glaubens- und Wissensquelle. Die Rationalisierung der Dogmen durch die Mathematik bei
Roger Bacon und Nikolaus von Kues. Die Synthese des Nikolaus von Kues: die Docta ignorantia als
höchste mathematische „Vernunfteinsicht“. Die Lösung des Begründungsproblems: Jede Wissenschaft hat
Glaubensvoraussetzungen. Die skeptische und stoische Begründungen des wissenschaftlichen Wissens
durch (wahrscheinliche) Meinung. Dogmatisierung der Wissenschaft und Verwissenschaftlichung der
Theologie. Logik und Mathematik als Reservate der Wissens-Gewißheit.

§ 31 Der Ausbau der formalen Methoden der Wissenschaft: die „Triviallogik“ und die neue
„Quadriviallogik“ der Mathematik S. 368
Die Präsenz der aristotelisch-stoischen Logik und der euklidischen Mathematik im scholastischen Lehr-
programm der Philosophischen Fakultät. Univozität bei Johannes Duns Scotus und Analogie bei Thomas
von Aquin als Paradigmen regulärer und widersprüchlicher Begriffsbildung. Die euklidisch-mathematische
Logik bei Raimundus Lullus. Veranschaulichung der arithmetischen Begriffe durch geometrische Dar-
stellungen und ihre Formalisierungen. Die Null und das Infinitesimal-Infinite als „Zahl und zugleich Nicht-
Zahl“. Euklidisch-mathematische Logik als „höchste dialektische Vernunfteinsicht“ bei Nikolaus von Kues
und Kant. Das Auseinandertreten der trivialen Logik und der euklidisch-quadrivialen Logik.

C. Die Wissenschaftsphilosophie der Neuzeit S. 387 - 452

§ 32 Allgemeine Charakteristik der Tendenzen S. 387


Antike Wissenschaften als Vorbilder der neuzeitlichen Wissenschaften. Die Osmose der Paradigmen. Die
Spezialisierung der Wissenschaftler und das Aufkommen des Genie-Kultes der „göttlichen“ Schöpfer-
persönlichkeit. Die humanistische Wende zum Subjekt. Antischolastizismus und neue Scholastik in den
neuen Universitäten und außeruniversitären Institutionen.

§ 33 Die „humanistische“ Wende zum Subjekt S. 389


Der Renaissance-Humanismus als dritte Wende zum Subjekt. Die „klassische Philologie“ als Vermitt-
lungsinstitution des antiken Wissens. Die Präponderanz des geistigen Wesens des Menschen. Der neue
(platonische) Idealismus bei Descartes, im englischen Idealismus, bei Malebranche, Spinoza und Leibniz.
Vom geistigen Wesen des Menschen zum „transzendentalen Subjekt“ und zum „Weltgeist“. Von der
Geisteswissenschaft zu den modernen Geisterlehren.

§ 34 Der Antischolastizismus der Renaissance S. 391


„Ad fontes!“ oder die Jagd nach den Dokumenten der Antike. Die philologische Textforschung und die
Reformation. Antischolastizismus als protestantische Kritik an der katholischen Theologie und ihrer
Indienstnahme der Wissenschaften. Die Wiederbelebung der antiken quadrivialen Wissenschaften und ihre
Stilisierung als Überwindung scholastischer Irrtümer. Zeugnisse aus J. F. Fries „Geschichte der
Philosophie“ von 1848. Neuere Korrekturen und das Fortwirken des Antischolastizismus im Antihistoris-
mus der modernen Mathematik und Naturwissenschaften.
XXIV

§ 35 Die Methodenentwicklung der Natur- und Geisteswissenschaften: Empirische Daten-


sicherung und theoretische Erklärung der Phänomene S. 396
Die Ausgestaltung der platonischen „freien Künste“ zu den neuzeitlichen Geistes- und Naturwissen-
schaften. Ihre aristotelische Stufung in beschreibende „Graphien“ als Basis und erklärende Zusammen-
hangsstiftung als theoretischer Überbau. Die vermeintliche Überwindung der aristotelischen Vier-Ursa-
chenerklärung. Deren Fortwirkung und Ausgestaltung in platonisch-dialektischer (mathematischer) Be-
griffsbildung in der klassischen Mechanik und Dynamik von Cusanus über Kopernikus, Kepler, Galilei,
Descartes, Leibniz bis Newton und d‟Alembert. Die hermeneutische Vier-Ursachenerklärung in den
Geisteswissenschaften. Der Entwicklungsgedanke als neuzeitlicher Ersatz der Vier-Ursachenkonzeption.

§36 Die Vereinseitigung der deskriptiv-empirischen und der theoretischen Forschungs-


methodologien, ihre philosophischen Begründungen und ihre Folgen für die Lage der
Natur- und der Geisteswissenschaften S. 414
Die historische Kategorisierung eines kontinentaleuropäischen Rationalismus und angelsächsischen
Empirismus steht im Widerspruch zur handwerklich-experimentellen und theoretischen Grundlage der
Naturwissenschaften und zur historischen und systematischen Ausrichtung der Geisteswissenschaften.
Methodische Vereinseitigungen von Empirie und Theorie in der Wissenschaftstheorie und ihre Fort-
wirkung bis zum Positivismusstreit. Die vorbereitende Rolle der ontologischen Zwei-Weltenlehre seit
Descartes für das Gegenstandsverständnis der Geistes- und Naturwissenschaften. Die Folgen der Spaltung
der Philosophischen Fakultät im 19. Jahrhundert an der Nahtstelle von Trivium und Quadrivium für die
Ausdifferenzierung von Einzelwissenschaften in der Philosophischen und in der Mathematisch-Naturwis-
senschaftlichen Fakultät sowie in den Technischen Hochschulen. Ihre Mehrfach-Studiengänge und die
Ein-Fachstudien in den ehemals „Höheren Fakultäten“ und ihren Ausgründunge

§ 37 Die Ausbildung der „-Ismen“ als Charakterisierungsmittel wissenschaftlicher Glo-


balsysteme S. 423
Die antiken und mittelalterlichen Kennzeichnungen von Denkweisen und Weltanschauungen nach
Schulen, ihren Vordenkern und nach Schulorten. Die neuzeitliche Philosophiegeschichtsschreibung (J. J.
Brucker) und ihre Systembezeichnungen auf der Grundlage des mos geometricus. Die „evolutionären
Systeme“ seit Schelling und Hegel. Übersicht der geläufigen Ismen.

§ 38 Die Verselbständigung der Einzelwissenschaften und ihre Folgen für die Ausbildung
der modernen Metaphysiken S. 427

Prekäre Verdeutlichung der Systemprinzipien durch Kritik und Polemik der Systeme untereinander.
Plausibilität der Axiombedeutung durch Deduktion in jeweils anderen Systemen. Das Friessche („Münch-
hausen-“) Trilemma. Woher die „Dogmen“ für dogmatische Begründungen herstammen. Die moderne
Verabsolutierung der einzelwissenschaftlichen Potentiale. Moderne realistische Metaphysiken als
Physikalismus, Biologismus und Psychologismus. Moderne idealistische Metaphysiken als Pragma-
tismus, Empirismus-Historismus und Rationalismus.

§ 39 Realismus und Idealismus in der Wissenschaftsphilosophie S. 434


Die Widersprüchlichkeit des klassischen realistischen Prinzips: Dinge an sich als unerkennbar-erkannte
Wirklichkeit. Die Widersprüchlichkeit des klassischen idealistischen Prinzips: Pychische Vermögen als
tätig-untätige Subjektbestimmungen. Die Tilgung der Negationen in den widersprüchlichen Prinzipien
und die Induktion des idealistischen Prinzips: Die Identität der positiven Merkmale des realistischen
und idealistischen Prinzips. Der gereinigte Idealismus als wahre phänomenalistische Metaphysik.
XXV

D. Die gegenwärtigen wissenschaftstheoretischen Schulen bzw. Strömungen S. 453 -


612

§ 40 Der logische Empirismus bzw. die Analytische Philosophie S. 453


Zur Geschichte. Metaphysische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale Prob-
leme: Die Einheit der Wissenschaft. Das Sinnkriterium wissenschaftlicher Sätze. Die wissen-
schaftliche Erklärung. Wahrscheinlichkeit. Theoriendynamik. Das Bedeutungsproblem. Kritik der
Theorien von Frege, Carnap, Tarski, Quine, Goodman, Putnam, Dummet und Davidson

§ 41 Der kritische Rationalismus S. 475


Kritischer Rationalismus als Filiation der Analytischen Philosophie. Zur Geschichte. Metaphysische
Grundlagen. Der Wissenschaftsbegriff K. R. Poppers. Zur Methode der Falsifikation. Zentrale Prob-
leme: Das Demarkationsproblem. Die Bewährung von Theorien. Das Begründungsproblem. Wahrheit
und Wahrscheinlichkeit. Die evolutionäre Wissenschaftsentwicklung nach Th. S. Kuhn. Das Leib-
Seeleproblem bei Popper und Eccles.

§ 42 Der Konstruktivismus S. 483


Der Ausgang von Konstruktionshandlungen im Handwerk und in der Experimentalphysik. Zur Ge-
schichte: J. G. Fichtes Pragmatismus. Hugo Dingler, Paul Lorenzen, die intuitionistische Mathematik
und der französische Konventionalismus Pierre Duhems, Jules Henri Poincarés und LeRoys. Die kon-
struktivistische Enzyklopädie: Jürgen Mittelstraß und seine Mitarbeiter. Metaphysische Grundlagen.
Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Das Begründungsproblem. Das Problem
der Protophysik. Das Problem der Wissenschafts- und Philosophiegeschichte.

§ 43 Die „kritische Theorie“ der Frankfurter Schule und der dialektische Materialismus
S. 493
Zur Geschichte: das Frankfurter Institut für Sozialforschung unter Horkheimer und Adorno und seine
Entwicklung. Staats- und Parteimarxismus in der ehemaligen DDR und der Marxismus in der BRD.
Politische Maximen. Metaphysische Grundlagen: der dialektische Materialismus von Marx und Engels
und der naturwissenschaftliche Materialismus und Monismus. Die Ausgestaltung der Hegelschen Dia-
lektik. Der Wissenschaftsbegriff. Zur Methode: der Universalzusammenhang des Wissens. Die kriti-
sche Hinterfragung. Die Vermittlung der Gegensätze. Zentrale Probleme. Die Einheit und Klassifi-
kation der Wissenschaften. Die Gesetzlichkeit der Wissenschaftsentwicklung und ihre Planung. Das
Wahrheitsproblem. Die Parteilichkeit und der Wahrheitsdiskurs.

§ 44 Die Wissenschaftstheorie der Geisteswissenschaften in der Lebensphilosophie,


Phänomenologie und in der Existenzphilosophie: Die Hermeneutik des Struk-
turalismus und die postmoderne Dekonstruktion S. 509 - 612

Zur Geschichte: Schellings Lebensphilosophie und ihre Entfaltung im 19. Und 20 Jahrhundert. Nietz-
sche, Dilthey, Spencer, Bergson. Metaphysische Grundlagen 514. Der Wissenschaftsbegriff 519. Die
Sprachwissenschaft von de Saussure bis Derrida 530. Die Geschichtswissenschaft 531. Methodenlehre
535. Zentrale Probleme und Themen: Einheit und Klassifikation der Wissenschaften 546. Die Ent-
wicklung der Wissenschaften 547. Erkenntnistheoretische und ontologische Grundlagen 550. Herme-
neutik als allgemeine Methodenlehre des Verstehens 555. Dogmatische Hermeneutik und ihre Kanons
in den Geisteswissenschaften, insbesondere in der Theologie 561, Jurisprudenz 562, Ökonomik 564,
hinsichtlich der klassischen Literatur 565 und in der Mathematik 565. Zetetische Hermeneutik und ihre
Kanons vor allem in den geschichtlichen Geisteswissenschaften 575. Das Verstehen 579. Wahrheit in
der Sprache 583. Die Verkunstung der Geisteswissenschaften und die Verwahrheitung der Kunst 588.
Heidegger u. a. als denkende Dichter 597. Die Kunst als wissenschaftliche Forschung 607 - 612.
I. Einleitung: Die Grundideen

§ 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und


Wissenschaften

Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten
Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des
„trivialen“ vom „quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue
„geisteswissenschaftliche“ Philosophische Fakultät. Philosophie als Fach im Verband mit den
historischen und philologischen Studien der neuen Philosophischen Fakultät. Historisierung und
Philologisierung der geisteswissenschaftlichen Philosophie. Die neue Mathematisch-Naturwissen-
schaftliche Fakultät ohne Philosophie. Die Entwicklung der Wissenschaftsphilosophie als Propä-
deutik der mathematischen Naturwissenschaften. Über die Notwendigkeit der Konsolidierung des
Ideenpotientials der Philosophie für Serviceleistungen und Interdisziplinarität in den Wissen-
schaften.

Zu den Gestalten, in denen heute die Philosophie auftritt, gehört als bekannteste
das Fach Philosophie im Rahmen der anderen Fachwissenschaften, vor allem der
manchmal noch so genannten Philosophischen Fakultät. Ihre einstmals propädeu-
tische Funktion für das Studium anderer Fachwissenschaften ist seit etwa zwei-
hundert Jahren institutionell der Oberstufe der Gymnasien anvertraut worden, wo
sie sich noch als didaktische Befassung mit den philosophischen Klassikern und
gelegentlich auch mit modernen philosophischen Strömungen nützlich macht.
Gleichwohl ist Philosophie in ihrer propädeutischen Funktion nicht gänzlich
aus den Kurrikula der Fachwissenschaften verschwunden. Deren Lehrbücher und
einführende Lehre können auch heute nicht auf Hinweise auf philosophische
Klassiker und auf deren grundlegende Ideen und maßgebliche Methoden verzich-
ten. Zumal der Appell, daß es in jedem Fach „logisch“ zugehen müsse - neben den
Bereichen, wo es „mathematisch“ zugeht - ruft Erinnerungen an die Philosophie
hervor, zu deren Bereichsdisziplinen die Logik noch immer als Methodenlehre
gehört.
Im allgemeinen aber haben sich alle Fachwissenschaften ihre eigenen Propä-
deutika geschaffen, in denen das philosophische Element kaum noch erkennbar
ist. Und ebenso unerkennbar wird es gewöhnlich auch bei manchen Forschungs-
erträgen der Einzelwissenschaften, wo es gewöhnlich in spezifische Fachtermino-
logien eingekleidet ist.
Philosophie ist also auch in den Fachwissenschaften schon immer präsent, ob
erkannt oder unerkannt. Es bedeutet daher keine Einmischung der Philosophie in
die Bereiche und Belange der Einzelwissenschaften, wenn sie daran anknüpft und
das Ihre dazu beiträgt, diese Bestände bewußt zu machen und auf ihre Weise zu
deren Klärung und Konsolidierung beizutragen.
Doch ist Philosophie bekanntlich ein weites Feld, das selber im Zuge der „Ver-
wissenschaftlichung“ in vielerlei Bereiche ausgeweitet und in Spezialdisziplinen
2

gegliedert worden ist. Einer dieser Bereiche betrifft das Verhältnis der Philosophie
zu den Einzelwissenschaften, von denen sich die meisten erst seit dem 19.
Jahrhundert von der Philosophie getrennt haben. Am weitesten haben sich die
ehemals „quadrivialen“ Anteile der Philosophie, also dasjenige, was sich seit Be-
ginn des 19. Jahrhunderts als „Mathematisch-Naturwissenschaftliche Fakultät“
verselbständigte, von der Philosophie getrennt. Und so ist es auch kein Wunder,
daß die Mathematiker und die Naturwissenschaftler, die in der Regel keine Philo-
sophen unter sich duldeten und ihnen keine propädeutische Stellung in den neuen
Mathematisch-Naturwissenschaftlichen Fakultäten einräumten, am meisten das
Bedürfnis spürten, sich ihre eigene fachnahe Philosophie zu entwickeln. Diese
Philosophie bildete sich seit Beginn des 20. Jahrhunderts als „Wissenschaftsphilo-
sophie“ der mathematischen Naturwissenschaften aus und ist seither ein Schwer-
punkt der Bemühungen der neuen philosophischen Disziplin „Wissenschafts-
theorie“ bzw. „Wissenschaftsphilosophie“ geblieben.
Das Verhältnis der Philosophie zum ehemals „trivialen“ Teil ihrer Disziplinen,
die sich seit Beginn des 19. Jahrhundert in den neuen „Philosophischen Fakul-
täten“ (einschließlich des Faches „Philosophie“) und darüber hinaus in den alten
„höheren Fakultäten“ Theologie und Jurisprudenz als „Geisteswissenschaften“
etablierten, ist demgegenüber immer vergleichweise eng geblieben. Zeitweise war
es so intim, daß die Philosophie des 19. Jahrhunderts geradezu nur noch als Philo-
logie und Geschichte der philosophischen Klassiker, also gleichsam als Teil-
bereich der Philologien und Historiographien Bestand hatte. Und diese Tendenz
ist auch heute noch stark genug, um der Gestalt der Philosophie an so manchen
philosophischen Fakultäten und Fachbereichen den Anschein zu verleihen, sie sei
gerade nichts anderes mehr als Philosophiegeschichte und Klassiker-Philologie.
Gerade diese Nähe zu den Geisteswissenschaften oder vielmehr die Integration
der Philosophie in die Geisteswissenschaften hat lange verhindert, daß die
Philosophie ein entsprechend distanziertes Verhältnis zu den Philologien und
Historiographien entwickelte und eine „Wissenschaftsphilosophie der Geistes-
wissenschaften“ als Bereichsdisziplin entwickelte. Erst seit einigen Jahrzehnten
wird dies unter dem Titel der „Hermeneutikdebatte“ nachgeholt.
Es liegt aber auf der Hand, daß eine „Philosophie der Wissenschaften“ zugleich
und gleichmäßig sowohl eine „Wissenschaftstheorie“ der mathematischen und
nicht-mathematischen Naturwissenschaften wie auch der logischen (und manch-
mal unlogischen) Geisteswissenschaften sein muß. „Wissenschaftstheorie“ wird
diese Disziplin in Analogie zur älteren „Erkenntnistheorie“ genannt, obwohl es
sich in beiden Fällen keineswegs um eine Theorie, sondern um viele Theorien
handelt, die in der Disziplin der „Wissenschaftsphilosophie“ (engl.: Philosophy of
Science) verwaltet, diskutiert und auch neu entwickelt werden.
Eine solche Spezialphilosophie mit Blick auf die Wissenschaften ist also noch
relativ neu und weit davon entfernt, in wünschenswerter Weise konsolidiert zu
sein. Man kann heute allenfalls davon sprechen, daß gewisse Theorienbestände
über die exakten Naturwissenschaften weiter entwickelt sind und daher eher als
3

konsolidiert gelten als derjenige Teil, der auf die Reflexion der Geisteswissen-
schaften ausgerichtet ist.
Die Wissenschaftsphilosophie arbeitet mit dem Ideenpotential, das das Fach
Philosophie insgesamt in seinen geschichtlichen und systematischen Dimensionen
bereitstellt, und bündelt es gleichsam in Hinsicht auf die Einzelwissenschaften mit
ihren je eigenen Problem- und Erkenntnisbeständen.
Auf diese Weise wächst der Wissenschaftsphilosophie bei der üblichen Stu-
dienorganisation im Hochschulbetrieb eine hervorgehobene interdisziplinäre Stel-
lung zu. Man studiert - als Erbschaft des alten Studienstils in den Fakultäten, in
denen man wie jetzt noch in der Jurisprudenz, Medizin und Theologie alle
beteiligten Fakultätsdisziplinen zu studieren hatte -, mindestens eine, gewöhnlich
zwei, oftmals (und besonders im Ausland) auch mehrere Fakultätswissenschaften
neben dem Fach Philosophie und bringt somit immer schon eine gewisse Ver-
trautheit mit dem Wissensstand wenigstens der einen oder anderen Fachwis-
senschaft mit. Die Wissenschaftsphilosophie ist dann die sich anbietende Schwer-
punktdisziplin, die anstehenden methodischen und enzyklopädischen Voraus-
setzungen dieser Fachwissenschaften im Lichte allgemeiner philosophischer Ge-
sichtspunkte zu erörtern und zu vertiefen. Aus der Architektonik der philosophi-
schen Disziplinen läßt sich auch vorgängig schon erkennen, auf welche Gesichts-
punkte es dabei wesentlich ankommt.
Jede Einzelwissenschaft macht grundsätzlich metaphysische Voraussetzungen,
die als „Letztbegründungen“ gewöhnlich im Fach selbst kaum mehr erkannt und
demnach auch nicht diskutiert werden. Weiterhin setzt sie sich ontologische
Rahmungen für die Abgrenzung ihres Gegenstandsgebietes von den Gegen-
ständen der übrigen Einzelwissenschaften. Nicht minder gehen erkenntnistheo-
retische, praxeologische und anthropologische Vorgaben in die Konstitution jeder
Einzelwissenschaft ein, die gewöhnlich als so selbstverständlich und natürlich gel-
ten, daß man höchstens in Krisenlagen eines Faches auf sie aufmerksam wird.
In der Tat jedoch schreiben die verschiedenen Einzelwissenschaften in der Regel
ziemlich altüberkommene philosophische Grundlagentheorien aus der Geschichte
der Metaphysik, Ontologie, Erkenntnistheorie, praktischen Philosophie und
philosophischen Anthropologie fort. Und um darauf aufmerksam zu werden und
dementsprechend auch Neuerungen in diesen Feldern benutzen und anwenden zu
können, muß und kann man bei diesen Erwägungen immer wieder die ganze
Philosophiegeschichte zurate ziehen.
So können wir zusammenfassend feststellen: Als Bereichsphilosophie gehört
die Wissenschaftsphilosophie zu denjenigen Disziplinen der Philosophie, die das
Studium der philosophischen Grunddisziplinen Ontologie, Erkenntnistheorie ein-
schließlich der Logik, philosophische Anthropologie und Praxeologie sowie der
Metaphysik voraussetzen und deren Ideenpotentiale für die Reflexion auf die
Einzelwissenschaften bündeln. Sie faßt affine Probleme, Thematiken und Vor-
aussetzungen dieser Grunddisziplinen für die philosophische Grundlegung der
Einzelwissenschaften und die spekulative Durchdringung der ihnen zugeordneten
4

Wirklichkeitsbereiche zusammen. Sie ist darum auch für die Selbstreflexion der
Einzelwissenschaften und die philosophische Vertiefung ihres Studiums eine we-
sentliche Voraussetzung.

§ 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philo-


sophie

Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddiszi-


plinärer Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthro-
pologie und praktischen Philosophie und die Organisation des Ideenpotentials für die Anwendung
in den Einzelwissenschaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissen-
schaften, die schon in die geschichtlichen Begründungen der Wissenschaften eingegangen sind.
Die Klärung der philosophischen Voraussetzungen der Einzelwissenschaften als Aufgabe der all-
gemeinen Wissenschaftsphilosophie. Vorschlag einer Architektonik der Wissenschaften

Eine Architektonik der Philosophie macht den Voraussetzungszusammenhang der


Disziplinen und Einzelwissenschaften und ihr Verhältnis zu ihren Gegenstands-
bereichen deutlich. Ihre Struktur spiegelt sowohl historische wie systematische
Zusammenhänge in der Philosophie wider.
Philosophie beginnt bei den Vorsokratikern mit metaphysischen Problem-
stellungen, und sie entwickelt sich im Laufe ihrer Geschichte zu immer differen-
zierterer Problembetrachtung in Grund- und Bereichsdisziplinen, aus denen sich
ihrerseits die meisten Einzelwissenschaften ablösen und verselbständigen.
Der systematische Zusammenhang ist u. a. auch ein logischer: Die Benennungen
der Disziplinen und Wissenschaften gliedern sich in ein Gattungs-, Art- und
Unterartgefälle und stellen eine Klassifikation der Wissenschaften dar. Das allge-
meinste „metaphysische“ Ideenpotential erhält sich im jeweils untergeordneten
Besonderen als „generischer“ Ideenbestand und wird hier spezifiziert.
Ontologie setzt Metaphysisches voraus als Vorbegriff von Wirklichkeit, die nun
näher nach Wirklichkeitsbereichen oder Wirklichkeitsschichten spezifiziert wird.
Philosophische Anthropologie setzt ein metaphysisches „Wesen des Menschen“
voraus und spezifiziert es nach seinen Anteilen an ontologischer Wirklichkeit
bzw. nach Vermögen, Kräften und Anlagen. Erkenntnistheorie (Gnoseologie)
setzt die beiden metaphysischen Pole eines (ontologischen) Erkenntnisgegen-
standes und eines (anthropologischen) Erkenntnissubjektes voraus und spezifiziert
deren Verhältnisse zueinander. Praktische Philosophie (Praxeologie) ergänzt die
„theoretischen“ Aspekte des Verhältnisses von menschlicher zur übrigen Wirk-
lichkeit um die Aspekte des Handelns und Schaffens, der Eingriffe und Ver-
flochtenheit des menschlichen Subjektes in die objektive Wirklichkeit.
5

Was in diesen Grunddisziplinen als Erkenntnis- und Ideenvorrat erworben wurde,


wird seinerseits Voraussetzungspotential für die Bereichsdisziplinen. Natur,
Kultur und Sinngebilde sind spezifizierte ontologische Bereiche, die in jeweils
speziellen Formen, Mustern, Schematen von Menschen erkannt und handelnd
durchdrungen werden. In diesem Bemühen hängen die Bereichsdisziplinen der
Philosophie und die Einzelwissenschaften aufs engste zusammen und sind auf
vielen Forschungsgebieten kaum von einander zu trennen.
Dieser Zusammenhang der philosophischen Disziplinen und der Wissenschaf-
ten ist in der Wirklichkeit selber begründet, die grundsätzlich eine einzige ist. Die
Wissenschaften betrachten und erforschen einzelne Teile dieser Einheit.
Aber aus ihrer traditionellen Arbeitsteilung heraus neigt jede Einzelwissen-
schaft dazu, ihren Wirklichkeitszuschnitt als einen selbständigen und von den
Gegenständen der anderen Wissenschaften unabhängigen Gegenstand anzugehen.
Eine solche Unabhängigkeit kann es aber nicht geben. Die Verbindungen jedoch,
durch die sie zusammenhängen, bleiben gewöhnlich im blinden Fleck ihrer
Sichten. Es sind gerade die philosophischen Disziplinen und letzten Ende die
Metaphysik, deren Blick einzig und allein auf das Ganze der Wirklichkeit gerich-
tet ist und diese Einheit zum Thema macht.
Machen wir einen Vorschlag zu einer solchen Architektonik. Ihre philoso-
phische Ausgangsdisziplin ist also die Metaphysik als Kerndisziplin der allge-
meinsten Prinzipien der Philosophie bzw. der Gesichtspunkte aller Weltanschau-
ungen. Sie liefert die speziellen Ausgangsgesichtspunkte für die vier Grunddis-
ziplinen Ontologie (Wirklichkeitslehre), philosophische Anthropologie (philoso-
phische Lehre vom Menschen, nicht mit der biologischen und medizinischen
Anthropologie zu verwechseln), Erkenntnistheorie (Erkenntnislehre) und prak-
tische Philosophie (Lehre vom Handeln und Schaffen, nicht mit praktischem Phi-
losophieren zu verwechseln).
Aus ihnen stammen die Leitgesichtspunkte für die sogenannten Bereichs-
disziplinen. Diese stehen in engstem Kontakt mit den Einzelwissenschaften und
können daher nicht ohne deren einschlägiges Fachwissen entwickelt, studiert und
gelehrt werden. Zur Klassifizierung der Bereichsdisziplinen und der ihnen zuge-
ordneten Einzelwissenschaften dienen in der Regel ontologische Abgrenzungen
von Wirklichkeitsbereichen als deren Forschungsobjekten.
Die in Europa älteste und bis heute geläufig gebliebene ontologische Unter-
scheidung ist diejenige in Natur- und Geisteswissenschaften. Davon wird in den
folgenden Paragraphen noch vielfach die Rede sein. Diese Unterscheidung knüpft
an die traditionelle Vorstellung der Trennbarkeit von materieller Natur und imma-
teriellen psychischen bzw. geistigen Gegebenheiten an. Darunter stellte man sich
früher Seelen und Geister, Engel und Götter oder den Gott, später auch Bewußt-
sein und Bewußtseinsinhalte als rein geistige Gebilde vor. So wurde „Geistes-
wissenschaften“ gemeinsame Bezeichnung für die wissenschaftliche Befassung
mit solchen Gebilden.
6

An diese traditionelle Grundunterscheidung anknüpfend, sei hier eine weitere


Unterscheidung innerhalb der Geisteswissenschaften vorgeschlagen, die den mo-
dernen Entwicklungen Rechnung trägt. Es ist die Unterscheidung zwischen reinen
Sinngebilden (Ideen, Formen, Normen) die von einer materiellen Naturunterlage
als deren „Träger“ genau unterscheidbar sind, und demjenigen, was man Kultur
(das Gesamt der Artefakte) nennt. Kultur als ontologischer Wirklichkeitsbereich
ist dadurch gekennzeichnet, daß sich Geistiges als Sinn und Bedeutung“ mit
natürlichen Trägern dieses Sinnes verbindet und gleichsam amalgamiert. Mit
dieser Unterscheidung haben wir es folglich mit drei philosophischen Bereichsdis-
ziplinen und entsprechend mit drei Gruppen von Wissenschaften zu tun: Natur-
wissenschaften, Kulturwissenschaften und Sinngebildewissenschaften.
Naturphilosophie umfaßt weiter spezialisiertes Forschungsbemühen um die so-
genannte tote Natur, die lebendige (organische) und die menschliche Natur.
Kulturphilosophie läßt sich nach den einzelnen Kulturbereichen wie Sprache,
Recht, Religion, Kunst, Technik, auch Wissenschaft selbst, usw., weiter einteilen.
Und das gilt dann auch für entsprechende Kulturwissenschaften. Deshalb bilden
sich auch heute spezielle „Wissenschaftswissenschaften“ heraus wie etwa Wissen-
schaftssoziologie, Wissenschaftsgeschichte, Wissenschaftspsychologie, Wissen-
schaftsökonomie usw.
Als Sinngebildephilosophien bezeichnen wir diejenigen Bereichsphilosophien,
in denen Normen, Werte, Regeln und reine Ideen als Sinngebilde speziell betrach-
tet und erforscht werden. Sie sind als Regelanweisung und deren Systematisierung
für das Handeln entwickelt worden und behielten von daher stets einen metho-
dischen oder technischen Charakter. Man kann sie daher überhaupt als Methodi-
ken für die Anwendung von Ideen auf einzelne Gebiete bezeichnen. Darauf ver-
weisen auch ihre Bezeichnungen, die gewöhnlich auf „-ik“ enden (von griech.: iké
téchne).
Am beständigsten hat sich seit der Antike die Logik (in der Antike und im
Mittelalter auch „Dialektik“ genannt) als Methode und Regelkanon für das
richtige Denken gehalten. Sie ist daher auch stets eine der wichtigsten philoso-
phischen Bereichsdisziplinen geblieben. Neben ihr stehen aber auch Ethik,
Ökonomik und Politik (aus den aristotelischen „praktischen Disziplinen“) mit den
in ihnen entwickelten Normen, Maximen, Regeln und „Gesetzen“. Auch aus den
ehemaligen Trivialdisziplinen Grammatik und Rhetorik des platonischen Kanons
haben sich eine Reihe jetzt selbständiger Geisteswissenschaften entwickelt.
Mathematik mit den Schwerpunkten Arithmetik und Geometrie aus dem plato-
nischen Quadrivium gehört jetzt als exemplarische Einzelwissenschaft zu diesen
Sinngebildewissenschaften. Sie bleibt auch im Rahmen der Disziplinen der
mathematisch-naturwissenschaftlichen Fakultät eine reine Geisteswissenschaft
bzw. Sinngebildewissenschaft und wird deshalb im Titel der „Mathematisch-
Naturwissenschaftlichen“ Fakultät stets besonders genannt.
Der Vorschlag zu einer Architektonik der philosophischen Disziplinen und der
zugeordneten Wirklichkeitsbereiche sieht demnach folgendermaßen aus:
7

Architektonik der Wissenschaften

Kerndisziplin: METAPHYSIK

Grunddisziplinen: Ontologie Anthropologie Erkenntnistheorie Praxeologie

Bereichsdisziplinen: Naturphilosophie Kulturphilosophie Sinngebildephilosophie


Wissenschaftsphilosophie

Einzelwissenschaften: Naturwissenschaften Kulturwissenschaften Sinngebildewissenschaften


Wissenschaftswissenschaften

Wirklichkeitsbereiche: NATUR KULTUR (Artefakte) SINNGEBILDE


Wissenschaft

§ 3 Wahrheit als Ideal der Wissenschaft

Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissen-
schaftlichen Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissen-
schaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die
Vermischung der Kulturbereichs-Ideale untereinander und mit dem Wahrheitsideal der Wissen-
schaften. Die Wahrheitskonzeptionen der philosophischen Grunddisziplinen und ihre metaphysi-
sche Grundlegung. Ontologische Wahrheit als Echtheit; anthropologische Wahrheit als Wahr-
haftigkeit; praxeologische bzw. pragmatistische Wahrheit als Nützlichkeit; erkenntnistheoretische
Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Die realistische Korres-
pondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile
und Stärken und ihre Problematik

Die Wissenschaft als Kulturinstitution ist auf die Akkumulation, Sicherung,


Verwaltung, Tradierung und Erweiterung von Wissen abgestellt. Diese Aufga-
benstellung spricht sich schon in ihrer über zwei Jahrtausende konstant geblie-
benen Bezeichnung aus. Die über alle Jahrhunderte unangefochtene Kontinuität
der Institution Wissenschaft im Abendland spricht dafür, daß sie diese Aufgabe
im allgemeinen zum Nutzen der Staaten, Gesellschaften und der einzelnen Men-
schen gemeistert hat.
Davon zehrt natürlich auch die heute noch bemerkbare Hochschätzung der
Wissenschaft. Sie zeigt sich vor allem in der oft beschriebenen „Verwissen-
schaftlichung“ aller Lebensbereiche, einer Durchdringung der Menschenbildung –
gleichsam von der Wiege bis zur Bahre – mit wissenschaftlichen Inhalten, und
jeder Art von Praxis mit wissenschaftlichen Methoden und Techniken.
Erst recht zeigt sie sich in den Erwartungen, die man gegenüber der Wis-
senschaft für die Lösung von Gegenwarts- und Zukunftsproblemen hegt. Die
8

„Ressource“ Wissenschaft gilt, wenigstens den politischen Verlautbarungen nach,


in allen Staaten, denen es an Bodenschätzen, klimatisch günstigen Bedingungen
und anderen natürlichen Ressourcen fehlt, als das wichtigste Gut, mit dem sich
individuelles Wohlbefinden (Gesundheit, langes Leben, „Glück“), allgemeiner
Wohlstand und Weltfrieden herbeiführen und sichern lasse. Unerwünschte Neben-
folgen der verwissenschaftlichten Zivilisation gelten als „Kollateralschäden“, die
sich durch noch mehr Wissenschaft in Gestalt wissenschaftlicher „Technik-
nebenfolgenabschätzung“ und ethischer Kontrolle beseitigen, vermeiden oder
konterkarieren ließen. Auch wer dies anders sieht und sich etwa als moderne
Kassandra betätigen möchte, tut gut daran, sich auf Wissenschaft zu berufen,
wenn er überhaupt gehört und ernst genommen werden möchte.
Was die Wissenschaft immer im Innersten zusammengehalten hat ist ihr Ideal
der Wahrheit, das sie als einen der höchsten Kulturwerte etabliert hat. Von daher
scheint es ganz natürlich, daß man wissenschaftliches Wissen immer auch als
wahres Wissen verstanden hat, und wissenschaftliches Wissen einen Vertrauens-
vorsprung vor allem anderen Wissen genießt.
Auch andere Kultur- und Zivilisationsbereiche außerhalb und neben der
Wissenschaft haben ihre traditionellen Wertideale, die für deren Institutionen und
Praktiken Ziel und Gehalt bestimmen und gleichsam ihre Permanenz gewähr-
leistet haben. Der Religion und dem Kultus geht es um das Heil, dem Rechts-
wesen um die Gerechtigkeit, der Politik um das Bonum Commune des jeweiligen
Staates, der Wirtschaft um die optimale Daseinsvorsorge, dem Medizinalwesen
um die Gesundheit, der Technik um das Machbare, dem Sport geht es (leider fast
nur noch) um die Ausweitung der körperlichen Leistungsfähigkeiten des Men-
schen. Worum es heute der Kunst geht, ist sehr umstritten; ehemals ging es ihr um
das Schöne.
Alle diese Zwecksetzungen haben in der Geschichte mit der Wissenschaft darin
konkurriert, ihre Ideale zu verallgemeinern und auf die übrigen Bereiche und
besonders auf die Wissenschaft auszudehnen. Und diese Tendenzen sind immer
noch aktuell und tragen heute mehr denn je zur Unklarheit über das Wesen der
Wissenschaft und die Ideale der übrigen Kulturbereiche bei.
Wenn man nur noch wissenschaftlich, d. h. „theologisch“ fromm und gläubig
ist, die Gerechtigkeit nicht mehr von jedem Rechtsgenossen erspürt und gelebt,
sondern von rechtswissenschaftlicher Forschung und Auslegung erwartet wird,
wenn das Bonum Commune von wissenschaftlicher Politikberatung abhängig
gemacht wird, die Wirtschaft nach Nobelpreistheorien gesteuert, Gesundheits-
vorsorge nach dem letzten Stand der Schulmedizin bemessen wird, die Technik
nur noch als „Forschung und Entwicklung“ begriffen, der Sport von der Doping-
medizin getragen, das, was Kunst sein soll, vom Urteil der Kunstwissenschaft
bestimmt wird, so braucht man sich nicht zu wundern, wenn die Laien in allen
diesen Bereichen irritiert oder frustriert sind. Es wird ihnen zugemutet, ihre
traditionellen Einstellungen in diesen Bereichen für wissenschaftlich überholt und
als falsch geworden anzusehen.
9

Die traditionellen Ideale der Kulturbereiche treten jetzt als religiöser Fundamenta-
lismus, quärulatorische Übersensiblität in den Rechtsverhältnissen, politischer
Dezisionismus aus partikulären Machtinteressen, als primitive Sammler-, Jäger-
und Tauschmentalitäten sowie als vorindustrielle Produktion und Landwirtschaft,
alternative Gesundheitsmagie, sportliches „body-building“ und als „Jedermann ist
Künstler“-Einstellungen auf und erleben eine gewisse Konjunktur als Gegenwehr
und Alternativen zu den wissenschaftlich vorgegebenen Zielen.
Aber auch für die Wissenschaft ist das folgenreich. An die Stelle ihres epocha-
len Ideals, der Wahrheit zu dienen, treten diese traditionellen Ideale der einzelnen
Kulturbereiche, oder diese Kulturideale gehen mannigfaltige Verschmelzungen
mit dem Wahrheitsideal ein.
Von der Wissenschaft erwartet man dann gläubig das Heil der Welt. Man
unterstellt ihre Organisation dem Gerechtigkeitsideal und verlangt von ihr die
politische Förderung des Bonum Commune. Man bewertet sie ökonomisch als
Dienstleistungs- und Produktionsstätte von Wissen und ausgebildetem Human-
kapital. Man empfielt sie als Diagnostik, Anamnese und Therapeutik für alle Ge-
brechen der modernen Welt. Man hält sie weitgehend nur noch nach dem Maßstab
des Einsatzes avanciertester Technik für seriös. Und man feiert nicht zuletzt (wie
früher in der Kunst) die Auffälligkeit, den Glanz, die Schönheit und Eleganz
sowie die Genialität ihrer Spitzenleistungen.
Die hybriden Ideale dienen jetzt überall als Kriterien für die Beurteilung
wissenschaftlicher Leistungen. Von Wahrheit ist dabei am wenigsten oder über-
haupt nicht mehr die Rede, wie jeder Gutachter in wissenschaftlichen Angelegen-
heiten weiß. Wissenschaftliche Leistungen werden kaum noch danach beurteilt,
inwieweit sie wahres Wissen fördern, sondern wie weit und kräftig sie einem der
genannten Hybridideale entsprechen.
Jedoch hat die Amalgamierung des Wahrheitsideals der Wissenschaft mit
Idealen anderer Kulturbereiche eine lange Geschichte. Nennen wir nur einige
jedem Wissenschaftler bekannte Beispiele.
In der mittelalterlichen Scholastik sollte nach einigen (aber keineswegs allen)
Theologen „die Philosophie die Dienerin der Theologie sein“ (philosophia ancilla
theologiae), wobei Philosophie für alle Wissenschaften des Triviums und Quadri-
viums stand. Das wurde meist so verstanden und auch praktiziert, daß Wissen-
schaft von der Kirche, und mittels ihres Einflusses auch durch weltliche Macht-
haber, überhaupt nur soweit zugelassen und gefördert wurde, als sie theologischen
Interessen, d. h. dem Heile der christlichen Gesellschaft diente. Diese Einstellung
setzte sich von Seiten der katholischen Kirche über den „Modernistenstreit“ des
19. bis zum berühmten Werturteilsstreit zu Beginn des 20. Jahrhunderts fort.
Seither haben sich jedoch im christlichen Abendland alle Kirchen und die meisten
ihrer Theologen dem Kantischen Votum angeschlossen, daß dieser Dienst der
Philosophie nicht darin bestehe, hinter der Theologie – „ihr die Schleppe tragend“
- herzulaufen, sondern – „ihr das Licht der Vernunft vorantragend“ (I. Kant) –
10

voranzugehen. Aber das gilt ersichtlich nicht von allen Religionen, die heute in
der Welt ihre „Wahrheiten“ verkünden.
Im 20. Jahrhundert wurden große Teile der Wissenschaft in den ideologischen
Dienst des Faschismus und Kommunismus genommen. Statt der Wahrheit hatte
Wissenschaft politischen Idealen der „Parteilichkeit“ und der nationalen Gewin-
nung des „Weltmachtstatus“ zu dienen. Was in den beteiligten Staaten und für die
Welt dabei herauskam, ist bekannt, ebenso das, was an Nachwehen bis heute
wirksam blieb.
Mit der 68er-Revolution trat das Ideal der Emanzipation in den Mittelpunkt der
politischen Diskussion. Den Juristen erinnerte „Emanzipation“ noch an die rö-
mischrechtliche Entlassung von Kindern aus der Obhut und Gewalt des „pater
familias“. Für linke Ideologen war Emanzipation das Ziel aller historischen
Klassenkämpfe zur Befreiung des Individuums aus gesellschaftlichen Zwängen.
Für Pädagogen war es das Erziehungsziel der „Mündigmachung“ junger Men-
schen, wie es in der „mittleren Reife“ und im „Reifezeugnis des Abiturs“ verbrieft
wurde. In den neueren Studienreformen aber wurde die Emanzipation zum Recht
auf Teilhabe am zwanglosen permanenten Diskurs, und die wissenschaftliche
Wahrheit dadurch zum Ergebnis solcher „emanzipatorischen“ Diskurse.
Wie man weiß, war die Umsetzung des Emanzipations-Ideals in den modernen
westlichen Gesellschaften überall im Sinne der Propagandisten erfolgreich. Die
Väter und Mütter büßten die rechtliche Verantwortung für ihre Kinder ein oder
gaben sie auf. Die Erreichung des „Reifezeugnisses“ und die Zulassung zum
wissenschaftlichen Hochschulstudium wurde fast zum Menschenrecht, und die
Standards aller Ausbildungsgänge wurden entsprechend angepaßt.
Während die emanzipatorische Revolution noch weiterläuft, scheint inzwischen
das Ideal der ökonomischen Daseinsvorsorge das gesamte westliche Wissen-
schaftssystem zu steuern. Wissenschaft wird gemäß herrschender „Shareholder-
value-Mentalität“ ständig nach ökonomischem Nutzen evaluiert, industriell orga-
nisiert und nach maximalem Output an wirtschaftlich und technisch umsetzbaren
Ideen und beruflich verwendbaren Absolventen finanziert. Die Organisation der
Hochschulen wurde im „Bolognaprozeß“ durch neue Hochschulgesetze gänzlich
nach BWL-Gesichtspunkten, d. h. als wirtschaftliche Unternehmung gestaltet. Der
Staat schließt „Zielvereinbarungen“ und „Pakte“ mit seinen Hochschulen ab, die
auf Lieferung des gewünschten Outputs an Forschungs- und Ausbildungsresulta-
ten abgestellt sind.
So wurde die einstige Gelehrtenrepublik in viele Präsidialdiktaturen umge-
wandelt. Die Universitäten und Hochschulen haben statt Rektoren nun allmäch-
tige Vorstandsvorsitzende, die von niemandem verantwortlichen Hochschulräten
(deren Mehrheit aus Vorstands- und Aufsichtsräten von Großbetrieben und von
gesellschaftlichen Gruppen stammt) gewählt und beraten werden. Die ehemaligen
akademischen Selbstverwaltungsgremien führen hinsichtlich ihrer übriggelas-
senen Kompetenzen ein Schattendasein, wenn auch voller Betriebsamkeit. Sie
dürfen ständig neue Richtlinien umsetzen und Vollzugsmeldungen abgeben und
11

sich im übrigen um „Exzellenz“ bemühen. Diese besteht bisher weitgehend darin,


werbewirksame Großprojekte, d. h Absichtserklärungen, „Alleinstellungsmerk-
male“ und „Profile“ für künftige Forschungsvorhaben auszuarbeiten. Die Lehrin-
halte bzw. Kurrikula werden durch private Akkreditierungs- und Evaluations-
agenturen lizensiert, d. h. genehmigt oder abgeschafft. Die Ausstattungen der
Fakultäten und Institute sind seit langem auf niedrigem Niveau und weit hinter
den Bedürfnissen erheblich zunehmender Studierendenzahlen eingefroren. Die
Lehrenden und Forscher werden hauptsächlich danach beurteilt, ob und wieviel
„Drittmittel“ sie von Stiftungen und Sponsoren für ihre Forschungsvorhaben und
die Anstellung von Mitarbeitern einwerben können. Daß die Wirtschaft mit ihren
speziellen Idealen nicht als Vorbild für die Wissenschaft taugt, liegt zwar offen
zutage, hat aber noch nicht zu einer höchst nötigen Tendenzwende geführt.
Bleiben wir diesen modernen Tendenzen gegenüber dabei, daß es in der
Wissenschaft wesentlich um die Wahrheit geht. Das heißt zugleich, daß es in ihr
auch um die Falschheit und um das, was zwischen beidem liegt, gehen muß. Das
zu betonen ist schon deshalb wichtig, weil das Falschheitsproblem und das
Problem des Mittleren zwischen Wahrheit und Falschheit, nämlich das, was man
üblicherweise Wahrscheinlichkeit nennt, und das im folgenden als „Wahr-Falsch-
heit“ definiert wird, gegenüber dem Wahrheitsproblem stark unterbelichtet geblie-
ben sind.
Die Frage nach der Wahrheit begleitet die Philosophie und die Wissenschaften
seit ihren Anfängen. Daher kann es nicht verwundern, daß die Entfaltung der
Philosophie in Grunddisziplinen, wie wir sie im vorigen Paragraphen dargestellt
haben, entsprechende Fassungen des Wahrheitsproblems und spezifische Wahr-
heitsbegriffe hervorgebracht haben, die auch im heutigen Verständnis noch eine
Rolle spielen. Man spricht hier von ontologischen, anthropologischen, praktischen
bzw. pragmatischen oder gar pragmatistischen und erkenntnistheoretischen Wahr-
heitsbegriffen, die sich dann auch in den Einzelwissenschaften zur Geltung
bringen.
Der zentrale und für die Wissenschaftsphilosophie ausschlaggebende Wahr-
heitsbegriff gehört indessen zu den metaphysischen Vorgaben aller Wissen-
schaften. Von ihm müssen sich auch die grunddisziplinären Wahrheitskonzep-
tionen ableiten lassen. Der metaphysische Wahrheitsbegriff geht als sogenanntes
generisches Merkmal in alle Arten und Unterarten von Wahrheitsbegriffen ein, die
ihn nach ihren disziplinären Bedürfnissen spezifizieren. Betrachten wir die grund-
disziplinären Wahrheitsbegriffe.
Der sogenannte ontologische Wahrheitsbegriff läßt sich am besten durch den
Begriff der Echtheit näher bestimmen. Man sagt bekanntlich, das Echte sei das
Wahre, weil es „wirklich so ist, wie es sich zeigt“. Ontologisch Wahres ist daher
„reines bzw. objektives Sein“. Jeder kennt auch die „echte Geldnote“ und unter-
scheidet sie von der „falschen bzw. gefälschten“. Das verweist auf das ontolo-
gische Gegenteil des Echten, nämlich den „Schein“ oder die „Erscheinung“, hinter
12

denen sich entweder etwas anderes als das Echte verbirgt oder überhaupt „Nichts“
steht.
Der ontologische Wahrheitsbegriff hat in den Geistes- und Literaturwissen-
schaften immer schon eine bedeutende Rolle gespielt. Die in den Philologien und
in den historischen Disziplinen gepflegte „Quellenkritik“ richtete sich stets auf die
Unterscheidung des Echten vom Falschen bzw. Gefälschten. Und zur sogenannten
Kunstkritik gehörte immer die Bemühung um Unterscheidung der „echten“
Kunstwerke von den gefälschten. Dies blieb eine ständige Aufgabe. Auch in den
Naturwissenschaften hat diese Unterscheidung von Echtheit und Fälschung oder
Verfälschung eine oft unterschätzte, aber neuerdings in der Gestalt fraudulösen
Schwindels wieder viel beachtete Bedeutung. Hierzu gehört der Unterschied
zwischen den tatsächlichen Naturphänomenen, die man gerne wahre oder echte
nennt, von den künstlich in die Faktenfixierung (etwa durch Beobachtung) hinein-
getragene Verfälschungen. Diese „künstlichen Effekte“ nennt man „Artefakte“.
Dieser naturwissenschaftliche Artefaktbegriff ist von dem kultur- und geistes-
wissenschaftlichen Artefaktbegriff zu unterscheiden. Von manchen naturwis-
senschaftlichen Artefakten ist bis heute umstritten, ob es um echte Phänomene
oder Artefakte (oft auch „Dreckphänomene“ genannt) handelt.
Der anthropologische Wahrheitsbegriff ist eine Ausweitung des ontologischen
Echtheitsbegriffs auf den Menschen bzw. auf ein Subjekt, das einem ontolo-
gischen Objekt gegenübergestellt wird. Hier spricht man von Wahrhaftigkeit bzw.
Ehrlichkeit eines Menschen oder Charakters und stellt sie wiederum der Falsch-
heit, evtl. der Verlogenheit, Verschlagenheit oder Verstellungskunst eines Charak-
ters gegenüber. Diese menschliche Wahrhaftigkeit und Ehrlichkeit ist naturgemäß
integrativer Bestandteil des wissenschaftlichen Wahrheitsideals. Ohne sie hätte
der wissenschaftliche Forscher und Lehrer im Abendland nicht das Ansehen ge-
winnen können, von dem seine gesellschaftliche Stellung noch immer zehrt.
Der praxeologische bzw. pragmatistische Wahrheitsbegriff, der heute eine
besondere Konjunktur hat, verknüpft Wahrheit mit dem Nutzen bzw. dem Erfolg
von Handlungen. Das klingt schon deshalb recht plausibel, weil man seit jeher
Mißerfolg und Schaden gerne auf „falsche“ Handlungen oder Handlungsstrategien
zurückführt. Beim Wahrheitsideal der Nützlichkeit handelt es sich ersichtlich um
die Umschreibung von Zweckmäßigkeit und um Richtigkeit (die sachangemes-
sene und zweckmäßige Ausrichtung) von einfachen oder produktiven Handlungen
auf einen definierten Nutzen hin.
Der wichtigste und am meisten verwendete ist jedoch der erkenntnistheore-
tische Wahrheitsbegriff. Er wurde schon von Aristoteles definiert. Ausgehend von
der Unterscheidung zwischen objektiver Realität (res) und subjektivem Er-
kenntnisvermögen der Vernunft (intellectus) wird Wahrheit aristotelisch als ein
Ähnlichkeitsverhältnis zwischen beiden definiert. Die scholastische Definitions-
formel dafür lautet nach Thomas von Aquin: Adaequatio rei et intellectus. Die
neuere Erkenntnistheorie nennt das den Korrespondenzbegriff der Wahrheit. Hier
wird das Ähnlichkeitsverhältnis zwischen den Polen des Objektiven und Subjek-
13

tiven bzw. zwischen Erkenntnisobjekt und erkennendem Subjekt als „Entspre-


chung“ (correspondentia) gefaßt.
Als Modell für diese Entsprechung gilt allgemein das Abbildverhältnis zwi-
schen einem Gegenstand und seinem Bild. So wird dieser Korrespondenzbegriff
der Wahrheit auch gewöhnlich in ausgefeilten „Abbild(ungs)theorien“ der Wahr-
heit expliziert. Man stellt sich vor, daß – über die Sinne vermittelt – im Be-
wußtsein ein Bild von einem Gegenstand in der Außenwelt bestehen könne.
Gemäß dem mathematischen Bildbegriff wird das Abbildungsverhältnis als „ein-
eindeutige Zuordnung“ von Bewußtseinsgegebenheiten zu objektiven Sachver-
halten näher bestimmt.
Man kann den Korrespondenzbegriff der Wahrheit ohne weiteres als den der-
zeit in den Wissenschaften allgemein und in der Wissenschaftsphilosophie spe-
ziell herrschenden Wahrheitsbegriff bezeichnen. Dies umso mehr, als er Ausdruck
und Folge des in den modernen Wissenschaften vorherrschenden Realismus ist,
demgemäß ja die Voraussetzung der Unterscheidung von Außen- und Innenwelt
bzw. objektiver Realität und Bewußtsein als sakrosankte Selbstverständlichkeit
gilt. Er krankt freilich an Mängeln, die seinen Vertretern wohlbekannt sind, die
aber als ein durch weitere erkenntnistheoretische Forschung zu lösendes Problem
aufgefaßt werden. Und so ist auch ein beachtlicher Teil der erkenntnistheore-
tischen und wissenschaftstheoretischen Literatur dem Bemühen um dieses Prob-
lem gewidmet.
Das Problem ergibt sich allerdings nur unter der realistischen Voraussetzung
der Unterscheidung und Unterscheidbarkeit von Bewußtsein und sogenannter
objektiver Realität und dementsprechend von Erkenntnis und Erkenntnisgegen-
stand. Es verschwindet aber unter der idealistischen Voraussetzung, daß diese
Unterscheidung nicht gemacht werden kann. Dies ist ein deutlicher Hinweis
darauf, daß der erkenntnistheoretische Wahrheitsbegriff seinerseits in metaphy-
sischen Theorievoraussetzungen begründet wird.
Zwar ist das Abbildungsmodell (insbesondere als Photographie-Modell), gemäß
dem man ja einen Sachverhalt und sein Bild sehr gut mit einander vergleichen und
die entsprechenden ein-eindeutigen Punktzuordnungen effektiv vornehmen kann,
sehr suggestiv. Aber man unterschlägt dabei, daß der Sachverhalt und das Abbild
mit demselben Auge eines Betrachters von Sachverhalt und Abbild gesehen und
verglichen wird. Und das würde bei der Übertragung auf das Erkennen erfordern,
daß der Erkennende über ein „Organ“ verfügte, mit dem er sowohl die „äußeren“
Dinge wie auch die „inneren“ Abbilder der Dinge im Bewußtsein unterscheiden,
nebeneinander betrachten und mit einander vergleichen könnte.
Derartiges gibt es aber nicht. Zwar ist das hier oft als Argument angeführte Bild
auf der Netzhaut des betrachtenden Auges ein dem Photo vergleichbares Abbild
der Dinge vor dem Auge. Aber das Bild auf der Netzhaut gehört selbst zu den
„äußeren“ Dingen, zu denen es in einem gesetzmäßigen optischen Korrespon-
denz-Verhältnis steht. Es ist aber nicht mit dem zu verwechseln, was mit bewußter
Wahrnehmung gemeint ist.
14

Wenn jemand Dinge oder Sachverhalte sieht, so sieht er sie als solche, keineswegs
aber Abbilder von ihnen. Sieht er sie aber nicht mehr, sondern erinnert sich nur,
daß er sie gesehen hat, so sieht er sie gerade nicht. Und erst dann nennt er das, an
was er sich erinnert oder was er sich phantasierend vorstellt, mit einem gewissen
Recht „Abbilder“ der Wirklichkeit. Was also als „korrepondierend“ verglichen
werden kann, ist allenfalls das unmittelbar Gesehene und das mittelbar Erinnerte
oder Phantasierte. Die Unterscheidung von unmittelbarer sinnlicher Wahrneh-
mung und Erinnerung an Wahrgenommenes ist die eigentliche Grundlage für die
Unterscheidung von Ding und „korrespondierender“ Abbildung und damit der
Korrespondenzdefinition der Wahrheit. Das verweist auf den Vorrang der idea-
listischen Erklärung auch für die realistische Wahrheitstheorie.
Das Ausweichen auf andere Sinnesleistungen wie das Betasten, Beriechen,
Schmecken oder Hören von Sachverhalten, die zugleich gesehen werden, führt
nicht zu einer solideren Begründung des realistischen Korrespondenzbegriffs der
Wahrheit. Denn das durch verschiedene Sinne erfahrene Ding oder der Sach-
verhalt ist dann immer noch unmittelbar und keinesfalls als Abbild gegeben. In
diesem Falle „korrespondieren“ nur die verschiedenen sinnlichen Erfahrungs-
inhalte untereinander in gesetzmäßiger Weise, jedoch ersichtlich nicht als bildhaf-
te Entsprechungen.
Hält man schließlich ein Ding für die Ursache eines sogenannten Sinnes-
eindrucks, und letzteren also für dessen Wirkung, so hat man – wie Kant (in der 1.
Auflage seiner „Kritik der reinen Vernunft“) sehr richtig feststellte – nur das
Erinnerte als Ursache und das aktuell Wahrgenommene als Wirkung, beides
zusammen als „korrespondierende“ kausale Verbindung gedeutet, aber keines-
wegs ein bewußtseinsunabhängiges Wirkliches (Kants „Ding an sich“) mit einer
Bewußtseinsgegebenheit kausal verknüpft.
Daß man von einem in der realistischen Wahrheitskonzeption vorausgesetzten
bewußtseinstranszendenten „Ding an sich“ in keiner Weise etwas wissen kann,
das wissen auch die Realisten. Kant nennt es in der 2. Auflage seiner „Kritik der
reinen Vernunft“, in der er sich zum metaphysischen Realismus bekennt, ganz
richtig ein „unbekanntes Ding“. Von dem Unbekannten jedoch zu behaupten, daß
es existiere (oder nicht existiere) belastet die realistische Erkenntnistheorie mit
einer contradictio in principiis.
Anstatt das Ding an sich schlicht zu streichen, wie vor Kant schon George
Berkeley und nach ihm alle deutschen Idealisten von Fichte bis Schopenhauer
vorgeschlagen haben, macht man es in der neueren realistischen Erkenntnis- und
Wissenschaftstheorie zum Gegenstand eines unendlichen Arbeits- und For-
schungsprogramms. Gegen den Idealismus aber argumentiert man mit der Unfaß-
barkeit und Subjektivität des Bewußtseins, das noch schwerer zu erfassen sei als
das nur einfach schwierige „Ding an sich“.
Nun ist es selber schon falsch zu meinen, wenn es kein Ding an sich bzw. keine
„Außenwelt“ gäbe, bliebe eben das Bewußtsein alleine übrig. Und dies sei über-
15

haupt die Grundthese des Idealismus. Das mag zwar für einige ältere Versionen
des Idealismus gelten, aber es ist nicht das letzte Wort in der Sache.
Schon George Berkeley, dem wir hier folgen können, betonte im 18. Jahr-
hundert, daß es in einem wohlverstandenen Idealismus nicht darum gehen könne,
„die Dinge zu Ideen (im Bewußtsein) zu machen, sondern umgekehrt die Ideen zu
Dingen“1. Das heißt, daß von Bewußtsein überhaupt nur die Rede sein kann, wenn
es sachhaltig ist. Das heißt aber zugleich, daß von Bewußtsein nicht die Rede sein
kann, wenn es nicht sachhaltig ist. Aber gerade über solches nicht-sachhaltige
Bewußtsein wird ständig geredet. Sei es, daß man es als „Vermögen“ auffaßt, das
auch dann existiert, wenn es gerade nicht wahrnimmt, empfindet, denkt oder
sonstwie tätig ist; sei es, daß man eine gespensterhafte Fiktion von einem „leeren
Bewußtein“ aufstellt oder vom „Unbewußten im Bewußtsein“ redet.
Hinter das Bewußte kann in der Tat nicht zurückgegangen werden. Das ist die
metaphysische Grundthese des Idealismus. Sie schlägt auf die erkenntnistheo-
retische Problematik in der Weise durch, daß sich ausnahmslos alles, was man
Wirklichkeit, Realität, Sein – aber auch Nichts – nennt, als bewußtes Phänomen
(wir vermeiden das Wort „Inhalt eines Bewußtseins“) erweisen muß. Und das
heißt umgekehrt, daß alles dies – auch das Nichts – nur als „Bewußtes“ sinnvoller
Gegenstand der Wissenschaft sein kann.
George Berkeleys nicht hoch genug zu veranschlagende metaphysische Ein-
sicht war es zu zeigen, daß die Wirklichkeit, das Sein, nur und ausschließlich als
sinnliche Erfahrung gegeben sein kann. Das ist der Sinn seines Prinzips „Esse =
Percipi“ (Sein bedeutet dasselbe wie Wahrgenommenwerden).
Was Berkeley freilich dabei nicht bemerkte, war, daß ebenso auch das Nichts
ein ganz normaler Gegenstand der sinnlichen Erfahrung ist. Man sieht, fühlt, hört,
riecht, schmeckt eben „Nichts“ – wie die Sprache ganz richtig ausdrückt – wenn
man bei aufmerksamem Schauen, Tasten, Lauschen, Schnüffeln oder Er-
schmecken eben „nicht Etwas“ wahrnimmt, das sich in der Sprache der positiven
Erfahrungen als „Etwas“ und „Seiendes“ benennen ließe. Und das erlebt jeder-
mann gewöhnlich in vollkommener Dunkelheit und Stille, die darum immer
wieder als „Metaphern“ des Nichts dienen müssen, während sie in der Tat doch
empirische Beispiele, nämlich Arten des Nichts sind. Man sollte sich dies-
bezüglich dem Sprachgebrauch anvertrauen (der zuweilen, wie L. Wittgenstein
richtig bemerkte, „ganz in Ordnung ist“), und dabei ontologisch und logisch vom
Nichts nicht mehr fordern als von jedem Etwas, nämlich daß es sich in der
Sinneserfahrung ausweise.
Die ontologische Grenze, die die Realisten (und Materialisten) zwischen den
„Dingen an sich“ und dem Bewußtsein zu ziehen pflegen, erweist sich so als eine

1
“I am not for changing things into ideas, but rather ideas into things; since those immediate objects of perception, which,
according to you, are only appearences of things, I take to be the real things themselves”. George Berkeley, Three
Dialogues between Hylas and Philonous, in opposition to sceptics and atheists, in: G. Berkeley, A new theory of vision and
other select philosophical writings (Everyman‟s Library ed. by E. Rhys), London-New York o. J., S. 282.
16

bewußtseinsmäßige Grenze zwischen dem unmittelbar sinnlich Wahrgenomme-


nen und der Erinnerung an Wahrgenommenes, das nicht bzw. nicht mehr wahr-
genommen wird. Dies ist die Grundlage dafür, überhaupt theoretisch „am
Schreibtisch“ über Dinge in der Welt reden zu können, die man nicht „vor Augen“
oder im „unmittelbaren Zugriff“ hat. Es ist aber zugleich auch die Grundlage für
den idealistischen Wahrheitsbegriff.
Dieser idealistische Wahrheitsbegriff wird gewöhnlich als Kohärenzbegriff der
Wahrheit bezeichnet. Er spielt auf den „logischen Zusammenhang“ zwischen den
bewußten Gegebenheiten an, vor allem zwischen dem unmittelbar sinnlich Gege-
benen und dem Erinnerten, d. h. mit dem Bereich des historischen Wissens.
Darüber hinaus aber auch mit dem aus Erinnerungsbeständen kombinierten „spe-
kulativen“ Material unserer kreativen Phantasie.
Diese Gegebenheitsweisen des Bewußten genau zu unterscheiden, ist zwar
prinzipiell möglich, tatsächlich aber ein höchst schwieriges Geschäft. Und dies
angesichts der Tatsache, daß die sinnliche Wahrnehmung offenbar ständig von
Erinnerungen begleitet wird. Denn erst dies ermöglicht jede Wiedererinnerung an
schon Erfahrenes und jede Unterscheidung des Neuen und Unbekannten vom
schon Erfahrenen. Ebenso aber sind auch die unmittelbaren sinnlichen Erfah-
rungen und die Erinnerungen gewöhnlich mit phantastischen „Antizipationen“
bzw. Erwartungen und spekulativen Elementen durchschossen, die die bewußte
Aufmerksamkeit bei den Wahrnehmungen steuern.
Was hierbei kohärent genannt werden kann, hängt in erster Linie von den
logischen Methoden der Verknüpfung aller dieser Komponenten und in zweiter
Linie von den für die einzelnen Erfahrungsbereiche bzw. Forschungsfelder vorlie-
genden Theorien ab.
Logische Kohärenz können wir ohne weiteres mit dem in der Logik selbst
verbreiteten Konzept der Widerspruchslosigkeit einer Theorie gleichsetzen. Das
heißt zugleich, daß Widersprüche in einer Theorie Ausdruck von Inkohärenzen –
gleichsam Risse im logischen Netz der Gedanken - sind. Das deutet grundsätzlich
auf Einschüsse von Falschheit in einer Theorie hin. Gewöhnlich hält man aber
inkohärente bzw. widersprüchliche Theorien für in toto falsch. Wir werden aber
Argumente vorbringen, die zeigen, daß diese Meinung viel zu weit geht und daher
selber falsch ist.
Was die Theorien über bestimmte Wirklichkeitsbereiche in den Einzelwissen-
schaften und einzelnen philosophischen Disziplinen betrifft, so hält man sie unter
dem Einfluß der Kohärenztheorie der Wahrheit gewöhnlich schon dann für wahr,
wenn sie überhaupt nur widerspruchslos sind.
Widerspruchslose Theorien über engste Wirklichkeitsbereiche oder Sachver-
halte aufzustellen, dürfte jedoch einem Logiker immer möglich sein, und daher
gibt es reichlich Angebote von solchen. Das hat in allen Bereichen zur Kon-
kurrenz kohärent-wahrer Theorien geführt, die sich gleichwohl gegenseitig ihren
Wahrheitsanspruch bestreiten und insofern selber untereinander widersprechen.
Daraus resultiert der sogenannte Theorienpluralismus. Er hat seinerseits dahin ge-
17

wirkt, den Kohärenzbegriff der Wahrheit selbst in Verruf zu bringen und einen
Wahrheitsskeptizismus in der Wissenschaft zu befördern.
Dem läßt sich aber dadurch entgehen, daß man den Kohärenzbegriff der
Wahrheit – wie es ja selbstverständlich sein sollte – nicht auf einzelne Detail- und
Ressorttheorien bezieht, sondern innerhalb der Grenzen einer Einzelwissenschaft
auf das „Ganze“ des hier etablierten Wissens, und über diese Grenzen hinaus auf
das „Ganze“ des interdisziplinären Begründungszusammenhanges der Einzelwis-
senschaften und der philosophischen Disziplinen bis hin zur metaphysischen
Letztbegründung. Kohärenzwahrheit kann sich so überhaupt nur in einem kohä-
renten Gesamtwissen zeigen, das seinerseits einzelwissenschaftliches Wissen in
einem „systematischen Ganzen der Erkenntnis“ (Kant) integriert. Das Kohärenz-
kriterium der Wahrheit muß, um dem Wahrheitsproblem gerecht zu werden, durch
das „Komprehensibilitätskriterium“ (bzw. Umfassendheitskriterium) ergänzt wer-
den.
Dies hat Hegel mit seinem Dictum vorgeschlagen: „Das Wahre ist das Ganze“ 2.
Und wenn auch sein philosophisches System heute nur als Vorschlag und Muster
gelten kann, wie ein solches Ganzes des Wissen zu gewinnen sei, so war es doch
zugleich eine gültige Formulierung des „Ideals der Wahrheit“, dem alle Wissen-
schaften sich anzunähern bestrebt sein sollten.

§ 4 Wissen, Glauben und Intuition in den Wissenschaften

Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen
Formen: knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falsch-
heit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Prob-
leme des überanschaulichen Wissens und der Veranschaulichung durch Modelle. Wissensprä-
tensionen und ihre floskelhaften Verkleidungen

Jakob Friedrich Fries (1773 – 1843), der „Forscherphilosoph“ (wie ihn Alexander
von Humboldt genannt hat), einer der frühesten expliziten Wissenschaftsphiloso-
phen und dabei entschieden realistischer Kantianer, hat mit seinem Frühwerk
„Wissen, Glaube und Ahndung“ von 1805 3 drei Stichwörter geliefert, denen man
auch jetzt noch einen guten Sinn beilegen kann.

2
G. W. F. Hegel, Phänomenologie des Geistes, hgg. von J. Hoffmeister, Hamburg 1952, S. 21.
3
Jetzt in: J. F. Fries, Sämtliche Schriften, hgg. von G. König und L. Geldsetzer, Band 3, Aalen 1968.
18

Fries meinte, daß es „Wissen“ nur über das psychische Innenleben bzw. die Be-
wußtseinsgehalte des Subjekts geben könne. Dagegen könne ein subjektunab-
hängiges Objekt als natürliche „Außenwelt“ (Kants „Ding an sich“) nur Gegen-
stand des „Glaubens“ (nicht des Wissens!) sein. Dies hatte in England auch
Thomas Reid (1710 – 1796) behauptet. Weiter zeigte Fries, daß sich aus den For-
schungsergebnissen des Wissens und Glaubens eine „Ahndung“ davon ergebe,
was das metaphysische Prinzip sei, das er das Göttliche nannte, und das alles
Psychische und Physische hervorbringe und trage. Für alle drei Einstellungen
bzw. Haltungen des Wissenschaftlers postulierte er im Sinne Kants „apriorische
Voraussetzungen“, die die grundsätzliche Wahrheit des Wissens, des Glaubens
und der Ahndung verbürgen sollten.
Man wird leicht bemerken, daß Fries hierbei das Wissen und seine Wahrheit
ganz idealistisch bzw. kohärentistisch interpretierte, den Glauben und seinen
„außenweltlichen“ Gegenstand realistisch, d. h. daß er die Glaubenswahrheit ent-
sprechend korrespondenzmäßig auffaßte, und daß er unter Ahndung eine meta-
physische Letztbegründung eines wahren metaphysischen Systems verstand.
Daran ist auch heute noch richtig, daß die Wissenschaft wesentlich auf Wissen,
Glauben und Ahndungen beruht. Man nennt es jetzt nur meist auf Englisch know-
ledge, belief und intuition. Geändert hat sich freilich die Einstellung gegenüber
einer kantisch-apriorischen Wahrheitsgarantie dieser Einstellungen.
Zwar gibt es noch immer Kantianer und Transzendentalphilosophen, die dem
Apriori eine wahrheitsverbürgende Funktion zuweisen. Und auch der logische
Positivismus bzw. die sogenannte Analytische Philosophie beruft sich gelegent-
lich auf die apriorische Begründetheit der logischen und mathematischen Metho-
dologie, um damit immer noch im Sinne Kants der Wissenschaft ein Fundament
„allgemeiner Gültigkeit“ und „unbezweifelbarer Notwendigkeit“ zu vindizieren.
Aber die meisten Wissenschaftler dürften jeden Apriorismus längst verabschiedet
haben. Sie begnügen sich mit K. R. Poppers „vorläufiger Bewährung“, “ständiger
Verbesserungsfähigkeit“, stets zu gewärtigender „Fallibilität“ und daher mit
bloßer „Wahrscheinlichkeit“ ihrer wissenschaftlichen Einsichten und Erkenntnis-
se.4
Das hat Folgen für das Verhältnis dieser Einstellungen zueinander und zur
Wahrheit. Insbesondere wird dadurch die Rolle der Falschheit und der Wahr-
Falschheit in der Wissenschaft mehr in den Mittelpunkt des Interesses gerückt.
Daß es wahres Wissen gibt, beweist jede „ent-täuschte“ Sinnestäuschung und
jeder aufgedeckte Irrtum und Betrug. Daß es auch falsches Wissen gibt, das
zeigen die Sinnestäuschungen, Täuschungen, Selbsttäuschungen, die Irrtümer und
der Betrug. Man kann sie freilich erst nach der Aufdeckung als falsches Wissen
durchschauen und hält sie bis dahin gewöhnlich für wahres Wissen. Und selbst-
redend kommt es vor, daß die Wahrheit, die als Korrektur einer Falschheit

4
Vgl. Gr. Schiemann,Wahrheitsgewißheitsverlust.. Hermann von Helmholtz‟ Mechanismus im Anbruch der Moderne.
Eine Studie zum Übergang von klassischer zu moderner Naturphilosophie, Darmstadt 1997, S. 3: „Modern heißt eine
Erkenntnis nur dann, wenn sie durch die Relativität ihres Geltungsanspruchs ausgezeichnet ist“.
19

gewonnen wurde, ihrerseits wiederum als Irrtum entlarvt wird. Das zeigt aber nur,
daß die Wahrheitsfindung in der und durch die Wissenschaft ein schwieriges und
dauerndes Geschäft ist. Wahres und falsches Wissen unterscheiden sich durch-
und gegeneinander, was auch immer für das eine oder andere gehalten wird.
Wahrheit und Falschheit werden aber nicht nur bezüglich einzelner Wissens-
gegenstände einander gegenübergestellt, sondern auch auf umfassende Wissens-
komplexe bezogen. Die einfachste Konfrontation ist diejenige, die jeden histori-
schen Stand der Wissenschaften für überholt und damit für falsch, und somit den
letzten aktuellen Stand der Wissenschaften für wahr hält.
Man wird dies in der Literatur kaum so schlicht ausgedrückt finden. Jedoch hat
man mit solcher Einstellung bei den sogenannten aktualistischen Wissenschaften
zu rechnen, die ihre historischen Entwicklungsstufen des Wissens strickt vom
aktuellen Stand des Wissens unterscheiden. In solchen aktualistischen Wissen-
schaften gilt die historische Reflexion als eine luxurierende Spezialdisziplin, mit
der sich der Wissenschaftler an der Front der Forschung nicht zu befassen braucht.
Verbreitet ist jetzt auch die Einschätzung, alles vorhandene Wissen sei falsch,
und wahres Wissen sei nur von der zukünftigen Wissenschaft zu erwarten. Man
kann das (von F. Nietzsche bis K. R. Popper) für eine kokette Einstellung halten,
aber sie eignet sich gut für den Ruf nach immer mehr Wissenschaftsförderung.
Nur noch apart dagegen erscheint die Sicht, daß wahres Wissen nur in den
mythischen Ursprüngen der Wissenschaft oder allenfalls bei den Klassikern zu
finden sei, so daß, was nachher kam und daraus entstand, nur „seins- und wahr-
heitsvergessene Verdeckung“ (frei nach M. Heidegger) und also falsches Wissen
sei.
Angesichts der Schwierigkeiten, Wahrheit und Falschheit im wissenschaft-
lichen Wissen zu unterscheiden und als solche zu kennzeichnen, verlagert sich die
wissenschaftliche Gewißheitserwartung auf den wissenschaftlichen Glauben.
Viele Wissenschaftler und Wissenschaftstheoretiker nennen das, was sie für
wahres, weil (korrespondenzmäßig oder kohärent) begründetes Wissen halten,
jetzt Glauben („belief“). Dazu hat der Mathematiker und Logiker Charles Sanders
Peirce (1839 – 1914) wesentlich beigetragen, der mit seiner Version des Prag-
matismus die Hauptaufgabe der Wissenschaft in der „Festlegung des Glaubens“
sah (in seinem Aufsatz „The Fixation of Belief“ von 1877). Das wird so erläutert:
„Das Wesen des Glaubens besteht in der Ausbildung einer Gewohnheit, und
verschiedene Glauben unterscheiden sich durch die verschiedenen Handlungs-
weisen, die sie hervorrufen“.5
Mit dem „theologischen“ Glauben der Scholastiker hat der wissenschaftliche
Glaube von heute gemeinsam, daß er keine Falschheit zuläßt. Die verbreitetste
Gestalt dürfte jetzt der von Thomas S. Kuhn beschriebene Glaube an eine paradig-
matische Theorie sein, zu der man sich schulmäßig bekennt.

5
Ch. S . Peirce: „The whole essence of belief is the establishment of habit, and different beliefs are distinguished by the
different modes of action to which they give rise“. Zit. nach: Pragmatic Philosophy, hgg. v. Amely Rorty, New York 1966,
S. 30.
20

Weniger verbreitet als früher ist der Glaube als metaphysische Überzeugung. Dies
aber nur, weil metaphysische Bildung unter Wissenschaftlern selten geworden ist.
Anstelle eines metaphysisch versierten Glaubens (wie noch bei Fries) machen sich
solche Überzeugungen eher als „blinder Glauben“ geltend.
Von unserem idealistischen Standpunkt aus handelt es sich dabei z. B. um den
realistischen Glauben an die „Realität der Außenwelt“ bzw. an ein „Ding an sich
hinter den Erscheinungen“, der bisher durch keinen Grund zu begründen und
durch kein Argument zu erschüttern ist. Gelegentlich zeigt sich freilich der wis-
senschaftliche Glaube auch in purer Gesinnung. Diese Gestalt des Glaubens ver-
trägt sich mit jeder Ideologie und meist auch mit jedem Dilettantismus in der Wis-
senschaft.
Was Fries (mit einem schon seinerzeit altbackenen Wort) als „Ahndung“ be-
zeichnete, dürfte gut abdecken, was man heute Intuition nennt. Intuition (latei-
nisch: „direkte Anschauung“) wurde in der Tradition platonischen Denkens als
eine „Schau mit dem geistigen Auge“ verstanden und auf den Umgang mit
axiomatischen Grundbegriffen bzw. axiomatischen Grundsätzen und mit ihren
Bedeutungen bezogen. Von diesen nimmt man gewöhnlich an, daß sie keinen
anschaulichen Bedeutungsgehalt hätten, daß sie also „unanschaulich“ und unde-
finierbar seien. Man braucht daher, um sich überhaupt etwas bei ihnen zu denken,
„überanschauliche Vorstellungen“, die ihnen einen Inhalt verschaffen.
Da es aber weder „geistige Augen“ noch „überanschauliche Vorstellungen“ gibt
(beide Ausdrücke sind der Verlegenheit verdankte dialektische Metaphern), so
treten an deren Stelle zwangsläufig konkrete sinnliche Anschauungen (oder Er-
innerungen an solche), die sich der Wissenschaftler ad hoc zurechtlegt. Man nennt
sie auch „Modelle“, die als anschauliches Quid-pro-quo des vorgeblich Unan-
schaulichen dienen sollen (vgl. dazu § 12).
Das Denken in solchen Modellen geht schon auf den Vorsokratiker Demokrit
zurück, der sich bekanntlich die von ihm postulierten „unanschaulichen“ Atome,
die wegen ihrer Winzigkeit der sinnlichen Anschaung nicht zugänglich sein
sollten, wie Buchstaben vorstellte. Was als Modellvorstellung dienen kann, muß
natürlich bestens bekannt sein. Aber wer ein solches Modell benutzt, weiß
zugleich, daß das, was es anschaulich vor Augen stellt, gerade nicht das ist, was
gemeint ist. Es kann nur irgendwie „ähnlich“ sein, und man hat gemäß dem
modellhaften Beispiel allenfalls eine „Ahn(d)ung“, wie sich die gemeinte Sache
vielleicht verhalten könnte.
In der Tat spielen die Intuitionen und somit das Modelldenken in allen Wissen-
schaften „an der Front der Forschung“ eine eminent wichtige Rolle. Die in den
Naturwissenschaften und mittels ihrer mathematischen Methodologie standar-
disierten Modelle für die kleinsten Wirklichkeitselemente (Teilchen, Welle, string
o. ä.) und die in den Geisteswissenschaften verbreiteten „Metaphern“ sind die
heuristischen Werkzeuge schlechthin, Erkenntnisschneisen ins Unbekannte zu
schlagen.
21

Eine verbreitete Gestalt findet sich etwa in wissenschaftstheoretischen Lehr-


büchern, wenn logisch-mathematischen Formalisierungen bzw. „logischen Rekon-
struktionen“ komplizierter Sachverhalte eine „intuitive Sizze“ vorausgeschickt
wird. Es wird dabei in der Regel eine mehr oder weniger schlichte „Geschichte“
erzählt, die den unanschaulichen Formalismus, mit dem die Problematik vor-
geblich auf exakteste Weise gefaßt würde, erläutern soll. In den Anfangszeiten der
Telegraphie hat man so die „Geschichte vom Dackel“ als Modell für die Kabel-
kommunikation erzählt: Tritt man dem Dackel hinten auf den Schwanz, so bellt er
vorne. „Dasselbe ohne Dackel“ erklärt dann modellhaft die drahtlose Telegraphie.
Nur wenig komplexer ist das Modell der mehrdimensionalen Räume in der
Geometrie und Physik. Kennt man den dreidimensionalen (euklidischen) Raum,
so braucht man nur zählen zu können, um wenigstens eine Ahnung von vier- und
höherdimensionalen Räumen zu entwickeln, in denen jede einzelne Dimension
genau so ist wie eine der drei euklidischen, allerdings ohne daß man sie als
rechtwinklig zueinander stehend vorstellen kann. Und kann man zudem ordentlich
subtrahieren, so machen auch zwei- und eindimensionale „Räume“ keine Schwie-
rigkeit, die man sich zwar wie Flächen oder Linien vorstellen muß, die aber, da sie
ja „Räume“ sein sollen, keine Flächen und Linien sein sollen.
Raffinierter sind die Intuitionen, die an den großen Vorrat historisch über-
lieferter „Denkansätze“ von Philosophen (z. B. „apriori“ im Sinne Kants, „cogito“
im Sinne Descartes‟) oder Klassikern der Einzelwissenschaften (z. B. Korpus-
kularvorstellung der Materie, Vis formativa-Vorstellung oder Evolutionsmodell
des Lebendigen) angeschlossen werden.
Man setzt dann voraus, daß eine „Intuition“ des jeweiligen Klassikers durch
den Ablauf der Zeiten und die Nachwirkungsgeschichte des Gedankens so klar
und anschaulich geworden sei, daß sie Gemeingut der jeweiligen Forscherge-
meinschaft wurde. Das kommt zwar auch vor und wird in der neueren
Wissenschaftsphilosophie (seit Th. S. Kuhn) „Paradigma“ (Beispielsfall) genannt.
Man hat jedoch immer Grund zu dem Verdacht, daß es sich dabei um eine
rhetorische Floskel handelt, die Abgründe von Meinungsverschiedenheiten über
die Interpretation solcher Intuitionen zudeckt.
Geradezu modisch geworden sind Intuitionen, die an die Alltagserfahrung und
den alltäglichen Sprachgebrauch anknüpfen, um daran vorgeblich verallgemei-
nerte unanschauliche Prinzipien und Strukturen zu exemplifizieren. An diese muß
man schon glauben, um dem vermeintlichen Zauber der „einfachen Sprache“ und
der „lebensweltlichen Anschaulichkeit“ der Modelle zu erliegen. Genau genom-
men widerlegt sich dadurch jedoch der Anspruch theoretischer und „abstrakter“
Wissenschaft, irgend etwas besser zu erklären, als es das anschauungsgesättigte
Alltagsdenken selbst schon vermag.
Besonders reizvoll sind schließlich die didaktischen Modelle, mit denen
„geniale“ Forscherpersönlichkeiten ihre „überanschaulichen“ Intuitionen der Öf-
fentlichkeit oder auch der Fachwelt darzulegen pflegen. Insbesondere mathe-
matische und physikalische Formeln und Gleichungen stehen in dem Rufe, das
22

überanschauliche Denken direkt auszudrücken. Und so gilt die Aufstellung einer


solchen Formel oder Gleichung oft schon selbst als geniale Leistung. Es kann
dann Jahrzehnte dauern, bis man ein Modell bzw. eine „Interpretation“ für das
findet (oder auch nicht findet), was sie bedeuten könnte. Nicht alle Genies sind
dabei so bescheiden und zugleich so frivol wie Ludwig Wittgenstein aufgetreten,
der in seinem eigenen formelgespickten „Tractatus logico-philosophicus“ am
Ende bekannte: „Meine Sätze erläutern dadurch, daß sie der, welcher mich ver-
steht, am Ende als unsinnig erkennt, wenn er durch sie – auf ihnen – über sie
hinausgestiegen ist. (Er muß sozusagen die Leiter wegwerfen, nachdem er auf ihr
hinaufgestiegen ist)“.6
Häufig artikulieren sich solche Intuitionen aber auch durch neu vorgeschlagene
Termini, deren Bildung aus bekannten Wörtern oder Wortbestandteilen genügend
Vorstellungsgehalte assoziieren lassen, um unmittelbar als sinnvoll zu gelten, die
aber vor allem auch genügend Dunkelstellen für die interpretierende Ergänzung
durch Ahnungen bieten.
In dieser Weise hat bekanntlich Martin Heidegger mit seinem Seinsbegriff
bisher drei Generationen von Philosophen Anlaß gegeben, über seine Intuition
vom „Seyn“ oder gar vom kreuzweise durchgestrichenen „Sein“ nachzudenken.
Vergleichbares gelang Jacques Derrida mit seinem Terminus „différance“. Allzu
benevolente Hermeneutiker unterstellen in solchen Fällen, die Autoren solcher
„neuen Begriffe“ hätten ihrerseits eine präzise Vorstellung von dem gehabt, was
dadurch gemeint sein sollte. In der Tat sind aber die meisten Neologismen
heuristische Ahnungen, die ihre Lebensfähigkeit gerade erst in mehr oder weniger
langen Interpretationsdiskussionen erweisen müssen. Sehr oft ist dann das Ergeb-
nis solcher Diskussionen, daß sie als „alte – umgekrempelte – Hüte“ erkannt
werden.
Zwischen Wissen, Glauben und Ahnungen bzw. Intuitionen gibt es freilich
noch das weite Feld wissenschaftlicher Prätentionen, die in mancherlei rhetori-
schen Floskeln in wissenschaftlichen Vorträgen und Anträgen bei den Förder-
organisationen wissenschaftlicher Projekte (die man heutzutage auch in Deutsch-
land vorwiegend in englischer Sprache verfaßt) ihren Niederschlag finden.
Das Hausblatt der deutschen Hochschullehrer (Forschung und Lehre, 7/2006, S.
424) hat eine beliebig zu verlängernde Reihe davon zum besten gegeben und
darauf hingewiesen, „wie reich das Vokabular sein kann, um Unwissenheit, Un-
willen oder – Unvermögen zu umschreiben“. Wir möchten es dem aufmerksamen
Leser nicht vorenthalten und warnen die deutschsprachigen Wissenschaftler aus-
drücklich davor, die überaus klare deutsche Übersetzung bei Vor- und Anträgen
zu verwenden. Die Liste lautet folgendermaßen:
„It is believed ... Ich glaube ... / It has long been known ... Ich habe mir das
Originalzitat nicht herausgesucht ... / In my experience ... Einmal ... / In case after
case ... Zweimal ... / In a series of cases ... Dreimal / Preliminary experiments

6
L. Wittgenstein, Tractatus logico-philosophicus, 6.54, Ausgabe Frankfurt a. M. 1963, S. 115.
23

showed that ... Wir hoffen, daß ... / Several lines of evidence demonstrate that ... Es
würde uns sehr gut in in den Kram passen / A definite trend is evident ... Diese Daten
sind praktisch bedeutungslos / While it has not been possible to provide definite
answers to the questions … Ein nicht erfolgreiches Experiment, aber ich hoffe immer
noch, daß es veröffentlicht wird / Three of the samples were chosen for detailed
study ... Die anderen Ergebnisse machten überhaupt keinen Sinn / Typical results are
shown in Fig. 1 ... Das ist die schönste Grafik, die ich habe / Correct within an order
of magnitude ... Falsch / A statistically-oriented projection of the significance of
these findings … Eine wilde Spekulation / A careful analysis of obtainable data …
Drei Seiten voller Notizen wurden vernichtet, als ich versehentlich ein Glas Bier
darüber kippte / It is clear that much additional work will be required before a
complete understanding of this phenomenon occurs … Ich verstehe es nicht / After
additional study by my colleagues … Sie verstehen es auch nicht / Thanks are due to
Joe Blotz for assistance with the experiment and to Cindy Adams for valuable
discussions … Herr Blotz hat die Arbeit gemacht, und Frau Adams erklärte mir, was
das alles bedeutet / The pupose of this study was ... Es hat sich hinterher heraus-
gestellt, daß ... / Our results conform and extend previous conclusions that ... Wir
fanden nichts Neues / It is hoped that this study will stimulate further investigation in
this field … Ich geb‟s auf!“

§ 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken


Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne
Bildung der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik.
Ursprüngliche Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unter-
schiede im Alltagsdenken und wissenschaftlichem Denken bezüglich der Begriffe von Wissen,
Glauben und Vermuten. Die alltagssprachliche Unterscheidung des Vermutens und Behauptens
und die wissenschaftlich-logische Gleichsetzung von Hypothese und Theorie. Die gemeinsame
eine Lebenswelt der Laien und die vielen „möglichen Welten“ der Wissenschaftler. Geschichte
und Zukunft als mögliche Welten. Die vordergründige Welt der Erscheinungen und die „Hinter-
welten“ der Wissenschaft.

Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Früher wurden sie aus griechischen und latei-
nischen Wörtern zusammengesetzt, aus deren Kenntnis man meist schon ihre Be-
deutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter importiert. Daneben gibt es freilich einen neueren Brauch,
künstliche „Termini“ (Acronyme) aus Anfangsbuchstaben von Wörtern zu bilden,
aus denen man die Bedeutung nicht mehr erraten kann. Z. B. DNS = „Desoxy-
24

ribonukleinsäure“, KI-Forschung = „künstliche Intelligenz“-Forschung, MOOC =


massive open online courses, HD-Schema = hypothetisch-deduktives Schema der
Kausalerklärung, es wird auch HO-Schema = Hempel-Oppenheim-Schema nach
seinen Erfindern genannt. Geradezu uferlos ist die Erfindung von kommerziellen
Bezeichnungen für Heilmittel durch die Pharmaindustrie. Witzig gemeint sind
Alltagswörter als Abkürzungen wie z. B. „Juice“ = Jupiter Icymoon Explorer, d.
h. ein Weltraumprojekt zur Erkundung, ob sich unter dem Eis von Jupitertraban-
ten Wasser befindet. Das alles führt in der Wissenschaft zu einer Esoterisierung
des Wissens, das den Zugang nicht in diesen Jargon eingeweihter Laien fast un-
möglich macht.
Bei weitem die meisten Theorien werden aber noch immer in der gewöhnlichen
Bildungssprache formuliert. Und so läßt sich auch an sprachlichen Beispielen
demonstrieren, was auch in der Wissenschaft Begriffe, wahre und falsche Sätze,
Schlüsse und begründende Argumente sind.
Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften
an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als
Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist die Grund-
lage für die Formalisierung in der Logik und dann auch für die Ausbildung der
formalen als einer zweiwertigen Logik geworden, und dies in „trivialer“ Abgren-
zung von Grammatik und Rhetorik.
Die Abgrenzung von Logik und Grammatik im klassischen Trivium (dem
„geisteswissenschaftlichen“ Teil der „sieben freien Künste“ Platons) ging jedoch
nicht so weit, daß man nicht grammatische Elemente für die Zwecke der Logik
herangezogen und beachtet hätte. Bestimmte grammatisch ausgezeichnete Wörter
(Substantive und Eigenschaftswörter) wurden durch stellvertretende Zeichen
(Buchstaben bzw. Zahlen) ersetzt. Grammatische Behauptungssätze erhielten die
Form des Urteils als Verknüpfung von Subjekts- und Prädikatsbegriffen.
Dabei behielten die sprachlichen Verbindungspartikel (Junktoren bzw. Funkto-
ren) ihren sprachlichen Verknüpfungs- oder Bestimmungssinn, den man ohne
weiteres sprachlich versteht. Diese, wie Bejahung, Verneinung, und, oder, wenn ...
dann, alle, einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurz-
schriftzeichen notiert. Dies zu bemerken ist deshalb wichtig, weil eine alte
logische Tradition und die gegenwärtig herrschende Meinung davon ausgeht,
diese Verknüpfungswörter hätten überhaupt keine eigene Bedeutung, sondern sie
erhielten sie allenfalls durch die Verknüpfung mit den bedeutungshaltigen Begrif-
fen (deswegen nannte sie Aristoteles „Synkategoremata“ = „Mitbedeuter“). Das
ist jedoch falsch. Dafür spricht schon, daß diese Junktoren auch in jedem
Sprachwörterbuch als sinnvolle Wörter angeführt und erläutert werden.
Gewisse grammatische Satzformen wie Wunsch-, Befehls- und Fragesätze
wurden in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht
gelassen. Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade
dadurch, daß in ihnen auch derartige Satzformen formalisiert worden sind, um sie
25

als wahrheitswertfähig zuzulassen. Einen besonders florierenden Bereich bilden


die Modallogiken und die hier entwickelten Modalkalküle.
In der sogenannten deontischen Logik („Sollens-Logik“) werden die drei
„Werte“ Geboten, Verboten und Erlaubt, und in der sogenannten temporalen
Logik („tense-logic“) die Zeitdimensionen Vergangen, Zukünftig und Gegen-
wärtig durch besondere Junktoren formalisiert und dem logischen Schematismus
der Aussagen- und Schlußbildung unterworfen. Das hat wesentlich zur Kompli-
zierung der Wahrheits- und Falschheitsfragen beigetragen. Dies vor allem des-
halb, weil man sich dadurch erhoffte, rechtliche und ethische Normierungen sowie
Probleme der Zeitontologie (der Physik und Historiographie) mit logischen
Wahrheitswert-Formalismen „rational“ (d. h. hier eben: logisch) diskutierbar zu
machen und evtl. zu „begründen“. U. E. hat dies aber nur dazu geführt, daß das
neuerdings inflationär gebrauchte Schlagwort „rational“ die Wahrheitsfrage aus
den entsprechenden disziplinären Diskursen verdrängt hat. Denn es geht dann nur
noch um Fragen der (methodischen) Gültigkeit und Ungültigkeit, Regelhaftigkeit,
Normgemäßheit usw.
Man kann angesichts dieser Veränderungen davon ausgehen, daß die Vorstel-
lungen von Wissen, Glauben und Intuitionen bzw. Ahnungen in der Wissenschaft
sich ziemlich weit von den Vorstellungen der Laien darüber entfernt haben.
Der Laie oder der sogenannte normale Mensch „mit seinem gesunden Men-
schenverstand“ und damit oft auch der Anfänger in der Wissenschaft hält noch an
den überkommenen Bedeutungen fest. Wissen versteht er als wahres Wissen. Und
was er als wahres Wissen vertritt, das sagt er in behauptenden Urteilen und
Sätzen. Er kann dies gelegentlich auch „im Brustton der Überzeugung“ tun. Was
er nur glaubt, das wird er ehrlicherweise nicht behaupten, sondern allenfalls für
wahrscheinlich halten. Er äußert sich dann im sprachlichen Konjunktiv, mit dem
er Vermutungen ausdrückt: Es könnte so oder so sein, vielleicht aber auch nicht.
Nennt er das, was er glaubt oder vermutet, „wahrscheinlich“, so verbürgt er sich
keineswegs für die Wahrheit, sondern er läßt es offen, ob und daß es auch falsch
sein könnte. Ahnungen hat er meist nur bei drohendem Unheil oder vor strengen
Prüfern. Soll er sie in Rede fassen, so fehlen ihm die klaren und deutlichen Begrif-
fe dafür.
Wer etwas behauptet, ohne zu wissen oder Gründe dafür zu haben, daß es wahr
ist, den hält man gewöhnlich für naiv oder für dumm. Die Wahrheit zu wissen,
aber an ihrer Stelle das Falsche zu behaupten, gilt noch immer als Lüge und
Betrug. Wer etwas offensichtlich Wahres für wahrscheinlich ausgibt, den hält man
bestenfalls für einen Schelm, schlimmstenfalls aber für schwachsinnig. Ansonsten
mag man alles glauben, was andere wissen, sei es nun wahr oder falsch. Wer sich
zu sehr in Ahnungen ergeht, den hält man meist für unwissend, und das nennt man
oft auch „ahnungslos“.
In Bezug auf die Wirklichkeit vertraut der Laie durchaus darauf, daß er nur in
einer Welt lebt, die ihm als seine Lebens- oder Umwelt bekannt wird. Und diese
ist ihm durch die geometrischen und chronographischen Koordinaten des Hier und
26

Jetzt und des Dort und Damals seiner sinnlichen Erfahrung und seiner Erinne-
rungen bestimmt. Die „Welten“ seiner Erinnerungen und seiner Träume, seiner
Wünsche und Hoffnungen unterscheidet er sehr genau von seiner im wachen
Zustand erlebten Welt. Und dies erst recht dann, wenn er bemerkt, daß seine Erin-
nerungen immer wieder mit dem übereinstimmen, was er jeweils auch gegen-
wärtig noch wahrnimmt. Damit bestätigen sie eine gewisse Konstanz seiner
Lebenswelt. Er bemerkt auch, daß seine Träume aus Erinnerungsbeständen ver-
flochten sind, über die er daher auch nur in der grammatischen Vergangen-
heitsform berichten kann. Auch seine Wünsche, Hoffnungen und Phantasien
bedienen sich dieser Erinnerungsmaterie, so daß er sie nicht für eigene „reale
Welten“ hält. Tut er es doch, so hält man dies für einen bedenklichen Krankheits-
zustand.
In der Wissenschaft verhält sich alles dies ganz anders. Hier kann man Behaup-
tungen über Sachverhalte aufstellen, die grundsätzlich niemand kennt oder wissen
kann, geschweige denn, ob sie wahr oder falsch sind. Vermutungen bzw. Hypo-
thesen muß man logisch oder mathematisch in Behauptungsformen ausdrücken,
denn es gibt keinen logischen oder mathematischen Konjunktiv. Besonders K. R.
Popper scheint nachhaltig bewirkt zu haben, daß man im wissenschaftlichen
Sprachgebrauch Vermutungen (Hypothesen), die nicht wahrheitswertfähig sind,
und Theorien, die wahrheitswertfähig sein müssen, gleichsetzt. Und das zieht die
Gewohnheiten nach sich, Vermutungen auch in wissenschaftlichen Prosatexten als
Behauptungen vorzutragen.
Weil dieser Unterschied zwischen wahrheits- bzw. falschheitsfähigen Behaup-
tungen und nicht-wahrheits- bzw. falschheitsfähigen Vermutungen in der Wissen-
schaft kaum noch gemacht wird, werden auch die allerbewährtesten Naturgesetze,
die früher als exemplarische Wahrheiten galten, häufig nur noch als statistische
Wahrscheinlichkeiten, d. h. als Vermutungen und Hypothesen dargestellt. Nicht-
wissen einzugestehen, etwa ein hermeneutisches „non liquet“ (es geht nicht, d. h.
ein Verständnis ist unmöglich!) bei Interpretationen zuzugeben, ist bei gestande-
nen Wissenschaftlern geradezu verpönt.
Der Wissenschaftler lebt nicht, wie der Laie, in einer Welt, sondern in vielen
möglichen Welten, von denen diejenige, die er mit dem Laien gemeinsam be-
wohnt, nur eine ist. Logiker und Mathematiker nennen diese gemeinsame Welt die
„notwendige Welt“, von der sie alle „möglichen“ und sogar „unmögliche“ Welten
unterscheiden. I. C. Lewis und C. H. Langford haben diese möglichen Welten in
mathematischer Logik formalisiert und sie als Systeme S 1 bis S 5 (und weitere
dürften noch zu erwarten sein) differenziert.7 S. A. Kripke hat dann große Auf-
merksamkeit und Anerkennung dafür gefunden, daß er umgekehrt mit seinen
„starren Deskriptoren“ ein logisches Mittel gefunden haben wollte, gewisse Be-
standteile der „notwendigen Welt“ auch in den möglichen Welten aufzuweisen.

7
I. C. Lewis und C. H. Langford, Symbolic Logic, New York-London 1932, 2. Aufl. New York 1959.
27

Wie sollte man sich auch in den möglichen Welten zurechtfinden wenn nicht
durch das, was in allen Welten identisch ist? 8
Diese „notwendige Welt“ ist jedoch auch nur ein Teil der wirklichen Welt. Und
zwar derjenige Teil, der durch Kausalgesetze bestimmt sein soll. Der Laie nennt
sie gerne den wissenschaftlichen Elfenbeinturm, also ein Gefängnis, von dem aus
die Sicht auf die eine ganze Welt sehr beschränkt erscheint. Dafür erstrecken sich
die möglichen Welten der Wissenschaft ins Unabsehbare.
Zu den möglichen Welten gehört auch die sogenannte „geschichtliche Welt“.
Merkwürdigerweise galt sie in der Scholastik und z. T. auch jetzt noch als
paradigmatisch „notwendige“ Welt, da alles Geschichtliche vorgeblich nicht mehr
verändert werden könne. Zumindest jedoch hält man sie für einen integralen Teil
der wirklichen Welt.
Sammelt und ordnet der Historiker seine und anderer Gewährsleute Erinne-
rungen und bringt sie in einen theoretischen Zusammenhang, so bewegt er sich
nach herrschendem Selbstverständnis der Historiker in der „geschichtlichen
Welt“, die er emphatisch als „historische Realität“ beschreibt. Archäologen, Evo-
lutionsbiologen, Geologen und physikalische Kosmologen bauen diese Welt weit
über alle Erinnerungen hinaus zu einem Kosmos aus, in welchem sie gar den
Ursprung aller Dinge (etwa als kosmischen Big Bang) so schildern, als seien sie
gerade dabei anwesend und könnten ihn direkt beobachten. Und doch wissen sie
genau, daß diese „historische Realität“ vergangen und vorbei ist und somit nicht
mehr, d. h. überhaupt nicht, existiert.
Was dabei für den jeweiligen Historiker und den Kosmologen wirklich existiert
und zur Gegenwartswelt gehört, sind die materiellen Relikte alter Kulturen und
Texte, Schriftgut und Zeugnisse neuerer Epochen, Fossile und geologische Pro-
ben, die gegenwärtig ans Licht gebracht werden, kosmische Strahlungen, die jetzt
auf der Erde ankommen. Wirklich ist nur das, was gerade jetzt auf der Erde aus-
gegraben, vielleicht entdeckt, mit empfindlichsten Geräten empfangen und gemes-
sen wird. Alles dies dient aber dem Historiker und Kosmologen nur als Dokument
und gleichsam als Sprungbrett zum Sprung in die mögliche Welt „historischer
Realitäten“.
Je dichter und umfassender die geschichtliche Welt ausgebaut ist, um so
geeigneter wird sie zu einem weiteren Sprung in die mögliche Welt der Zukunft.
Da werden geordnete Erinnerungen an das Vergangene als Konstanten in die
Zukunft „extrapoliert“, zwischen denen die kreative Phantasie neue Verknüp-
fungen herstellt und variable Versatzstücke ansiedelt. Früher war dies ein Be-
tätigungsgebiet der Dichter von Zukunftsromanen. Heute wird es als „Science
fiction“ gepflegt. Von da ist es nur ein kleiner Übergang zur „Zukunftsforschung“,
deren phantastische Prognosen schon längst in die Politikberatung einfließen.

8
S. A. Kripke, Identity and Necessity, in: Identity and Individuation, hgg. v. M. K. Munitz, New York 1971, dt. Übers.
„Identität und Notwendigkeit“, in: Moderne Sprachphilosophie, hgg. von M. Sukale, Hamburg 1976, S. 190 – 215; erw.
Aufl. u. d . T. Name und Notwendigkeit, Frankfurt a. M. 1981.
28

Medienexperten nennen mittlerweile sogar alles „Mediatisierte“ „organisierte


Phantasie“ 9
Das dafür immer noch gültige Beispiel haben die Astronomen der Wissenschaft
gegeben, indem sie die künftigen Sternkonstellationen aus der Extrapolation
vergangener Konstellationen prognostizierten. Der alten Himmelsmechanik ist die
physikalische Mechanik der irdischen Vorgänge gefolgt. Schließlich haben fast
alle Wissenschaften das Comtesche „Savoir pour prévoir“ (Wissen um Voraus-
zuwissen) mehr oder weniger übernommen und sich in Prognostik und Prophetie
geübt.
Das alles ist nur so lange plausibel, als das Prognostizierte in seinen wesent-
lichen Bestandteilen genau so ist wie das Erinnerte. Denn von diesem kann man
immer sagen, daß es die Grundbeständigkeit unserer einen Welt ist, in der wir
leben. Aristoteles hat es „Substanz“ genannt und als „To ti en einai“ („das was
war und ist“, bzw. das Ge-Wesen) definiert. Das Neue und Andere, das evtl. in
unserer Gegenwart auftaucht und entdeckt oder als Zukünftiges prognostiziert
wird, existiert aber gerade nicht, solange es nicht entdeckt worden ist, oder ehe es
Gegenwart geworden ist. Deshalb bleibt der Glaube daran, daß sich irgend etwas
Zukünftiges „verwirklichen“ ließe, ein riskantes Spiel.
Zwischen geschichtlichen Vergangenheitswelten der Erinnerung und zukünfti-
gen Welten der Hoffnungen, Wünsche, Planung und der prognostischen Phantasie
haben wir es noch mit vielerlei wissenschaftlichen Hinterwelten hinter der er-
scheinenden Gegenwartswelt zu tun.
Kants „Ding an sich hinter den Erscheinungen“ gilt für die meisten Wissen-
schaftler als Modell solcher Hinterwelten. Es sind die Sinn- und Bedeutungs-
welten hinter den Texten und Dokumenten aller Philologien, die Welt der Zahlen
und Strukturen hinter den Zeichen, die Welt des Unbewußten hinter den psychi-
schen Erscheinungen, die Welten der Dämonen, Geister, Engel und des Absoluten
hinter den Manifestationen der sinnlichen Wirklichkeit, die nicht nur in den
Theologien diskutiert werden.
Erst diese Phänomene machen es verständlich, warum auch die Wissenschafts-
philosophie und die Logik sich so intensiv mit dem Thema der möglichen Welten
befassen. Es handelt sich um den prekären Versuch, gleichsam intellektuelle
Raumschiffe zu konstruieren, mit denen man zwischen all diesen möglichen
Welten hin und herfahren kann. Für solche Raumschiffe benötigt man einen Start-
und Landeplatz, um den sich dann auch die logischen Weltenbauer emsig be-
mühen. Das ist die vorn genannte Vorstellung von einer „notwendigen Welt“, die
gleichsam das Gemeinsame in den möglichen Welten ins Auge faßt und von der
man glaubt, daß sie alle möglichen Welten zusammenhält. (Vgl. dazu auch § 10).
Nun hat der Laie irgendwo durch seinen Lebenszusammenhang und durch seine
Lebenserfahrung Kompetenzen. Lebens- und Berufserfahrung geben sie ebenso
wie Hobbys und Liebhabereien oder jugendliche Übungen. Man kann sich z. B.
9
J. Hörisch und U. Kammann (Hg.), Organisierte Phantasie. Medienwelten im 21. Jahrhundert, - 30 Positionen. Paderborn
2014.
29

nur wundern, welches Maß von historischen Kenntnissen so mancher Fußballfan


über die Geschichte und aktuelle Lage dieses Gebietes hat, oder mancher
Jugendliche über die „Szene“, in der er sich bewegt. Von daher sollte jedermann
auch ein gewisses Urteil darüber haben, was man von Fachleuten auf ihren wis-
senschaftlichen Gebieten erwarten kann. Aber das ist gewöhnlich nicht der Fall,
und wenn, so traut man sich kaum, es gegenüber wissenschaftlicher Kompetenz
oder was man dafür hält, in Anschlag zu bringen. Erst ganz neuerdings erhebt sich
eine Potestbewegung, die diese Erfahrungen der Laien und Dilettanten ernst
genommen haben will. Sie nennt sich „Citizen Science“.
In den Hochschulen selber ist eine der Schnittstellen zwischen sogenanntem
Alltagswissen und wissenschaftlichem Wissen das Studium junger Leute. Im
allgemeinen hat sich bei diesen und in der Öffentlichkeit das Vertrauen darauf
erhalten, sie seien durch die gymnasiale oder andere schulische Ausbildung schon
einigermaßen „wissenschaftlich vorgebildet“. Davon kann aber heute kaum noch
die Rede sein, wie die immer zunehmenden Brücken- und Nachholkurse bewei-
sen, mit denen heute versucht wird, die Studierenden erst einmal studierfähig zu
machen. Das frühere Propädeutikum ist inzwischen weithin zu einem Postpä-
deutikum geworden. Es ist keineswegs so, daß die Studienanfänger kein Wissen
oder keine Kompetenzen für ihr Studium mitbringen. Was sie aber mitbringen,
haben wir vorn schon als Alltagswissen skizziert.
Eine andere Schnittstelle ist durch den neuerlich vermehrten Einzug von
Senioren in die Studiengänge gegeben. Man muß freilich daran erinnern, daß die
Zugänglichkeit der universitären Lehre für Senioren und ein weiteres Publikum
ein alter Brauch und eigentlich selbstverständlich war. So war es auch nichts
besonderes, daß etwa in den Vorlesungen von Fichte, Hegel, Schleiermacher,
Boeckh, Ranke und vielen anderen berühmten Professoren oftmals die höhere
Ministerialität und die Bildungselite Berlins teilnahm. In entsprechender Weise
trifft sich die pariser „haute vollée“ auch jetzt noch in den Vorlesungen promi-
nenter Professoren des Collège de France.
Manche Hochschulen haben dem neuerlichen Ansturm der „älteren Semester“
durch die Einrichtung eines abgesonderten Seniorenstudiums Rechnung getragen.
Im Ausland, wo man das Institut der in Deutschland verbreiteten Volkshoch-
schulen nicht kannte, sind (wie etwa in Straßburg durch Lucien Braun) eigene
„Universitäten des dritten Alters“ (Université du Troisième Age) gegründet
worden. Aber die meisten Hochschulen haben ihre Studiengänge einfach auch für
die Senioren und Gasthörer wieder geöffnet. Ersichtlich sind hier diejenigen
Fächer am meisten nachgefragt, wo die Laien sich am meisten Kompetenzen und
eigene Erfahrungen und Motivationen für die Teilnahme zutrauen. Zeitzeugen,
Kunstkenner, Roman- und Gedichtleser und Selbstdenker sind die neue Klientel
der neueren und der Zeit-Geschichte, der Kunstgeschichte und der Literaturwis-
senschaften sowie der Philosophie.
Die Reaktion der heutigen Hochschullehrer zeugt meistenteils von Aufge-
schlossenheit. Nur hier und da ergibt sich Widerstand gegen „Überfüllung der
30

Seminare“, „Besserwissen der selbsternannten Zeitzeugen“, der „Kunstliebhaber“,


„Literaturkenner“ und „Selbstdenker“. Das wird dann oft zur Begründung der
Ausgliederung und Organisation von eigenen Seniorenstudiengängen genommen.
In diesen abgesonderten ebenso wie in den integrierten Studiengängen aber findet
die heute charakteristische Begegnung zwischen den Laien und den Wissenschaft-
lern statt.

§ 6 Die alte und die reformierte Hochschulforschung und -Lehre


Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorgani-
sation. Der Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifi-
kanz akademischer Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium
im Baccalaureus-Magister-Doctorsystem und seine Modernisierung. Alte und neue Verständnisse
der „Einheit von Forschung und Lehre“ und des „forschenden Lernens“. Der Verfall der Vorle-
sung und der Aufstieg des Seminarbetriebs. Die Bildung und die Elite einst und jetzt

Wer heute im Hochschulbereich – der durch Fachhochschulen und private Hoch-


schulen und Akademien weit über die alten Universitäten ausgeweitet wurde, –
seine Studien beginnt, sei es als Abiturient oder auf einem der zahlreichen neuen
Zugangswege – dürfte es schwer haben, sich in dieser „akademischen Welt“
zurechtzufinden. Darum seien hier einige Bemerkungen über die alten und die
neuen Prinzipien des Hochschul- und Studienwesens angefügt.10
Was das Lehrpersonal betrifft, so ist jeder Wissenschaftler auf seinem Gebiet
Fachmann und muß über dieses Gebiet bescheidwissen. Dafür sorgen schon die
Auswahl- und Qualifikationsverfahren. Aber es dürfte auch den Laien nicht
entgangen sein, daß die Fachgebiete, auf denen Wissenschaftler wirklich qualifi-
ziert sind, immer enger gezogen werden. Und dies im Rahmen der ganzen Wis-
senschaften und ihrer Disziplinen, für die die Fachleute Diplome und Titel er-
werben und auch vergeben.
Man erwartet dann mit einem gewissen Recht, daß die Fachleute nicht nur ihr
engeres Fachgebiet, sondern das ganze Gebiet beherrschen, für das sie ihre Titel
erworben haben. Das gilt vor allem von den einstigen höheren Fakultäten
Medizin, Jurisprudenz und Theologie, in denen man auch heute noch sämtliche
Spezialdisziplinen studieren muß, und deren Diplome und Doktortitel noch immer

10
L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen,
Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München (Alber) 1971; ders., Traditio-
nelle Institutionen philosophischer Lehre und Forschung, in: Philosophie, Gesellschaft, Planung. Kolloquium H. Krings
zum 60. Geburtstag, hgg. v. H. M. Baumgartner u. a. (Bayerische Hochschulforschung I), München 1974, S. 28 – 48).
31

eine umfassende Kompetenz des Arztes, Juristen und Geistlichen verpricht. Seit
Beginn des 19. Jahrhunderts ist den Absolventen der einstigen höheren Fakultäten
noch der Nationalökonom beigetreten. Vordem studierten die Ökonomen in der
juristischen Fakultät die Staatswissenschaften und „Kameralistik“, was an man-
chen Standorten auch „Politische Ökonomie“ genannt wurde.
Aber auch diese alten Titel „Dr. med.“ „Dr. theol.“ (früher auch „D.“), „Dr.
juris“ (ggf. „Dr. juris utriusque“, d. h. des staatlichen und des Kirchenrechts) und
des „Dr. rer. pol.“ (Doktor der politischen Angelegenheiten) garantieren längst
nicht mehr, was sie einst bedeuteten. Auch in diesen Fakultäten, soweit es sie
noch gibt (es gibt sie meist nur noch in Gestalt der sogenanten „Fakultätentage“,
zu denen sich die früher zugehörigen Disziplinen regional zusammenschließen)
und soweit sie nicht in mehr oder weniger zufällige Fachbereichskombinationen
verteilt worden sind, ist die Spezialisierung weit fortgeschritten.
Auch in der „Philosophischen Fakultät“ studierte man bis ins 19. Jahrhundert
hinein alle Fächer des „geisteswissenschaftlichen“ Triviums und des „mathema-
tisch-naturwissenschaftlichen“ Quadriviums, die dazu gehörten. Bis dahin behielt
sie auch ihren Status als „propädeutische“ (vorbereitende) Fakultät, die man vor
der Zulassung zum Berufsstudium der vorgenannten „höheren Fakultäten“ durch-
laufen mußte. Aber nach der humboldtschen Reform zu Beginn des 19. Jahrhun-
derts erhielt diese Fakultät neben ihrer weiterbestehenden propädeutischen Auf-
gabe für alle höheren Studien zusätzlich die Aufgabe der regulären Berufsaus-
bildung der Gymnasiallehrer.
Diese praktische Zielvorgabe der Philosophischen Fakultät ist jetzt etwa zwei-
hundert Jahre alt. Wer sich aber als Studierender an dieser Fakultät immatrikuliert
hat, mußte meist feststellen, daß der Lehrbetrieb auf die Lehrerausbildung wenig
und gelegentlich gar keine Rücksicht nahm. Das dürfte auch ein wesentlicher
Grund dafür geworden sein, daß die Lehrerausbildung in einigen Bundesländern
den meisten ihrer Universitäten wieder weggenommen und an wenigen Hoch-
schulen konzentriert worden ist. Die in der Philosophischen Fakultät Lehrenden
haben aber das traditionelle Bewußtsein beibehalten, die Propädeutik für alle
Universitätsstudien zu betreiben, und sie stellen es in mancherlei Arten von
„Studium generale“, jetzt vermehrt auch als „Seniorenstudium“ in den Vor-
dergund. Dies umso mehr, als ja neben der Ausbildung der Gymnasiallehrer und
seit einiger Zeit auch der Lehrer anderer Schultypen die sogenannten akade-
mischen Studiengänge für eine Reihe anderer Berufe in allen Kultur- und Medien-
bereichen qualifizieren sollen.
Wilhelm von Humboldt hat bei seiner Gymnasialreform (neben der Universi-
tätsreform) das Kurrikulum der Oberstufe des Gymnasiums mit denselben
Fächern ausgestattet, die auch an der damaligen Philosophischen Fakultät, die
noch die quadrivialen Studien der Mathematik und Naturwissenschaften ein-
schloß, gelehrt wurden. Und so blieben die Lehrpläne für das Gymnasium in der
Regel ein Fächerspiegel der einstigen Philosophischen Fakultät. Die einstigen
höheren Fakultäten aber hatten und haben daher kein gymnasiales Propädeutikum.
32

Sie entwickelten an seiner Stelle ihre jeweils eigenen fakultätsbezogenen


Propädeutika. In der Medizin entstand im 19. Jahrhundert das sogenannte Physi-
kum, in welchem die naturwissenschaftlichen und mathematischen Grundkennt-
nisse und die Medizingeschichte für die weiteren Studien vermittelt wurden. Bei
den Juristen entwickelte sich ein rechtsphilosophisches und rechtsgeschichtliches,
oft auch rechtssoziologisches Vorstudium. Und es blieb typisch, daß diese Gebiete
keineswegs als „Service-Leistungen“ von den Fachleuten der Philosophischen
Fakultät gelehrt wurden. Vielmehr wachten die Juristischen Fakultäten geradezu
eifersüchtig darüber, ihre Rechtsphilosophen, Rechtshistoriker und evtl. Rechts-
soziologen aus der eigenen Fakultät zu rekrutieren. Bei den Theologen aber waren
immer die Sprachstudien, insbesondere Hebräisch bzw. Aramäisch, die klassi-
schen Sprachen und die Anfänge einer biblischen Archäologie Schwerpunkte des
Propädeutikums. Und auch diese wurden üblicherweise keineswegs als Service--
Leistungen von den Gräzisten und Latinisten sowie den Altertumskundlern der
Philosophischen Fakultät gelehrt. Das macht jedenfalls verständlich, daß alle diese
relevanten Propädeutika in der Philosophischen Fakultät gleichsam ausgespart
wurden. Ebenso auch, daß die Rechtsphilosophen, Rechtshistoriker und ggf.
Rechtssoziologen der Fakultät wenig oder gar keinen Kontakt mit den Philo-
sophen, Historikern und Soziologen der Philosophischen Fakultät haben.
Nach Absolvierung dieser Fakultäts-Propädeutika erhielt und erhält der Arzt,
Jurist, Theologe und Ökonom noch immer eine Ausbildung in allen „dogma-
tischen“ Fächern seiner Fakultät. Diese birgt sehr viel Handwerkliches und gewis-
sermaßen Arkanes in sich, das man nur im langjährigen Umgang mit den Lehrern
im Fach erlernen bzw. sich vielmehr aneignen muß. Erst diese Schulung verleiht
dem Absolventen dieser Fakultäten das Flair und den Habitus, an dem der Laie
den typischen Arzt, Juristen und Theologen, manchmal auch den Volkswirt-
schaftler (neuerdings meist BWLer) erkennt. Man kann sie immer noch leicht von
den Studierenden der Philosophischen und Mathematisch-Naturwissenschaftli-
chen Fakuläten unterscheiden.
Gewiß haben auch die aus der (alten) Philosophischen Fakultät hervorgehenden
Gymnasiallehrer einen besonderen Habitus und gleichsam eine eigene Physi-
onomie angenommen. Wer sich darüber wundert, wie geschwind das Lehrper-
sonal der Philosophischen und der Mathematisch-Naturwissenschaftlichen Fakul-
tät mit den Kravatten ihre einstigen akademischen Gepflogenheiten im Umgang
unter einander und mit den Studierenden abgelegt haben, der unterschätzt den
sozialen Druck, den das pädagogische Ideal, sich den Auszubildenden anzu-
gleichen, hier ausübt. An den Turnschuhen, Jeans, offenen Hemdkragen und
Pullovern, langen Haaren und Baseballkappen wird man hier schwerlich noch den
smarten Studierenden vom Assistenten oder auch vom Professor unterscheiden
können.
Die Absolventen der Philosophischen Fakultät, soweit sie Gymnasiallehrer
wurden, werden noch Philologen genannt. Dieser Gymnasiallehrertyp war anfangs
in allen Gymnasialfächern einsetzbar, d. h. in den historischen und philologischen
33

Nachfolgefächern des Triviums und in den mathematischen und naturwissen-


schaftlichen Nachfolgefächern des Quadriviums. Und daher versteht es sich, daß
nicht nur Sprach- und Geschichtslehrer, sondern auch Mathematiker, Physiker,
Chemiker und Biologen im gymnasialen Schuldienst auch jetzt noch gleicher-
maßen Philologen genannt werden, und daß ihre Standesvertretungen „Philo-
logenverbände“ geblieben sind.
Veränderungen im Lauf des 19. Jahrhunderts betrafen einerseits die Abtrennung
der Mathematisch-Naturwissenschaftlichen Fakultät (also des einstigen quadri-
vialen Teils) von der übrigbleibenden Philosophischen Fakultät, andererseits eine
in beiden neuen Fakultäten einsetzende Spezialisierung sowohl der Studiengänge
wie der Lehrerqualifikation.
So entstand das sehr eingeschränkte Haupt- und Nebenfachstudium (oder auch
Zwei-Hauptfächerstudium) der Gymnasiallehrer. Der ehemalige Allroundphilolo-
ge, der alle „trivialen“ und „quadrivialen“ Fächer studiert haben mußte, war
deshalb auch in allen Fächern des gymnasialen Lehrplans einsatzfähig. Der neuere
Philologe ist jetzt nur für zwei Hauptfächer ausgebildet und kann sich weitere
Lehrbefähigungen allenfalls durch Zusatzstudien und entsprechende Ergänzungs-
prüfungen erwerben.
Der Absolvent der neuen Philosophischen Fakultät ist keineswegs „Philosoph“.
Er kann es allenfalls ausnahmsweise sein, wenn er die Philosophie als Spezialge-
biet studiert hat. Er ist jetzt vielmehr im speziellen Sinne Philologe einer be-
stimmten Sprache und Literatur, oder er ist Historiker (neuerdings speziell für
alte, mittelalterliche, neuere oder Gegenwarts- bzw. Landesgeschichte), oder So-
zialwissenschaftler (evtl. speziell Soziologe, Politologe, Medienwissenschaftler)
oder Erziehungswissenschaftler. Gelegentlich ist er auch Psychologe, falls er diese
Qualifikation nicht in der naturwissenschaftlich-mathematischen oder auch in der
medizinischen Fakultät erwirbt.
Der Naturwissenschaftler ist Mikro- oder Makrophysiker, Chemiker, Biologe
(aber statt Zoologen und Botanikern gibt es jetzt nur noch „Molekularbiologen“).
Oder er ist Mathematiker, und auch dies mit einer Reihe von Spezialisierungen,
darunter mindestens theoretische und angewandte Mathematik sowie mehr und
mehr „Informatik“. Den alten Nationalökonomen bzw. Volkswirt gibt es kaum
noch. An seine Stelle sind die Betriebswirtschaftler („BWLer“) getreten.
Gewiß erinnern hier die in Prüfungsordnungen geforderten Studien in einem
oder zwei Nebenfächern gleichsam als Schwundstufe noch an die einstige For-
derung nach einem Studium aller zur Fakultät gehörigen Disziplinen. Vor allem
hatte sich das bis vor einigen Jahren noch im „Philosophicum“ als Zwischen-
prüfung für Lehramtskandidaten gehalten, bei welchem man über seine Haupt-
fächer hinaus auch philosophische und pädagogische Studien nachzuweisen hatte.
Aber solche breiten Fakultätsstudien sind heute ein Erinnerungsposten, der in
der Praxis bekanntlich kaum ernst genommen wird. Die Nebenfachstudien gehen
in der Regel kaum über die Einführungskurse der jeweiligen Grundstudien hinaus.
Überdies sind die Nebenfächer an vielen Fakultäten noch durch die Aufteilung
34

traditioneller Hauptfächer vermehrt worden, so daß ein früheres Fachstudium sich


jetzt aus zwei oder mehreren Nebenfächern zusammensetzt. Studierte man z. B.
früher Germanistik, so kann man jetzt die beiden Spezialitäten Germanistische
Linguistik als Sprachwissenschaft und Germanistische Literaturwissenschaft stu-
dieren. Hinzu treten neuerdings Spezialstudiengänge wie „Deutsch als Fremd-
sprache“, „Übersetzungswissenschaft“ oder „literarisches (kreatives) Schreiben“,
von denen man meinen sollte, die dazu nötigen Kompetenzen würden im
normalen Germanistik-Studium erworben. Daß davon keine Rede mehr sein kann,
wirft ein bezeichnendes Licht auf das, was im Normalstudium als zu erwerbende
Kompetenz gilt.
Diese Entwicklungen der letzten Jahrzehnte sind von allen Seiten begrüßt und
ständig weitergetrieben worden. Insbesondere die Bologna-Vereinbarungen der
europäischen Wissenschaftsminister zur Nachahmung angelsächsischer Bachelor-
und Masterstudiengänge haben auf diese Spezialisierungen bezug genommen.
Die Gliederung der Studien in Bachelor- und Masterstudien ist eine Erbschaft
der mittelalterlichen Studienorganisation. Diese gliederte sich in ein propädeu-
tisches Grundstudium von zwei bis drei Jahren, das mit dem Grad des Bacca-
laureus („Junggeselle“) abgeschlossen wurde und erst den Eintritt in das Haupt-
studium mit nochmals zwei bis drei Jahren Studiendauer erlaubte. Dieses wurde
mit dem Magistergrad („Meister“) abgeschlossen. Der Magistergrad war wie-
derum die Voraussetzung zur Zulassung zum Doktorstudium in den höheren
Fakultäten Jurisprudenz, Theologie und Medizin, das mit dem Doktorgrad
(„Gelehrter“) abgeschlossen wurde und im allgemeinen Vorbedingung für die Be-
rufsausübung oder den Zugang zum Professorenamt war.
Diese Studienorganisation war auf die Auswahl der Besten und Geeignetsten
für die Wissenschaften in Forschung und Lehre abgestellt. Sie hat das abend-
ländische Universitätssystem überhaupt zu dem gemacht, was es bis heute noch
teilweise ist. Und das heißt zugleich, daß es auch dort, wo die alten Bezeich-
nungen verschwanden, durchaus aufrecht erhalten wurde. Daher kann es nicht
verwundern, daß es besonders den deutschen Universitäten keine allzu großen
Schwierigkeiten gemacht hat, ihre immer noch bestehende Studienstruktur wieder
in die alten bzw. jetzt neuen englischen Bezeichnungen einzukleiden.
Aber Bachelor-Studien sind und bleiben Grundstudien. Daß sie von der Bil-
dungsbürokratie gesetzlich als Berufsstudien mit Berufsfähigkeitskompetenz und
eigenen Diplomen ausgewiesen worden sind, zeigt nur an, welch überspannte
Vorstellungen heutige Bildungspolitiker von der Leistungsfähigkeit dieser Grund-
studien haben. Teils aus Einsicht, teils resignierend nehmen sie es daher hin, daß
die einstigen höheren Fakultäten sowie die Ingenieur-Hochschulen sich diesem
Trend verweigern und keinen ihrer Absolventen als Bachelor in ihre (freien)
Berufe entlassen wollen. Und diese Fakultäten tun das aus dem Bewußtsein ihrer
Verantwortung gegenüber der Öffentlichkeit, nur ausstudierte und kompetente
Fachleute in die Berufspraxis zu entlassen. Daß auch die meisten Bachelors das
längst eingesehen haben, sieht man schon daran, daß sie weiterstudieren und
35

mindestens den Master-Grad erwerben wollen. Und um dies weitestgehend zu


ermöglich, geben sich die meisten Lehrenden auch alle Mühe, die Prüfungs-
anforderungen für den Erwerb des „Bachelors“ so weit abzusenken, daß jeder
Studierende die „Befriedigend-Hürde“ zum Weiterstudium überwinden kann.
Das Hauptstudium in allen Studiengängen heißt jetzt Master-Studium. Die da-
neben noch teilweise bestehenden Staatsexamens- und Diplom-Ingenieur-Studien-
gänge werden allerdings von den Medizinischen, Juristischen und Ingenieur-
wissenschaftlichen Fakultäten mit Zähnen und Klauen verteidigt. Zum Teil sind
sie in einigen deutschen Bundesländern, wo sie schon abgeschafft worden waren,
wieder eingeführt oder zugelassen worden. Dies nicht zuletzt deshalb, weil ihre
Absolventen weltweites Ansehen genießen und ihre Diplome eine vielfach weit
über dem Mastergrad liegende Berufskompetenz garantieren.
An das Hauptstudium kann sich noch das „Graduierten-Studium“ des poten-
tiellen Hochschullehrernachwuchses anschließen. Auch das Graduierten-Studium
mit dem Abschluß des Doktorgrades ist gegenwärtig im Begriff, sich zu verän-
dern. Die individuelle Betreuung der Doktoranden durch einen verantwortlichen
„Doktorvater“ oder eine „Doktormutter“ wird mehr und mehr abgelöst durch das
kollektive Betreuungssystem der „Graduierten-Studiengänge“, die dann meist
„Colleges“ genannt werden. Sie werden durch finanzielle Sonderzuweisungen an
die Hochschulen gefördert und tragen dadurch wesentlich zum Ausweis von
„Exzellenz“ der sie einrichtenden Hochschulen bei.
Diese Veränderungen sind ein Beispiel dafür, daß moderne Reformen teilweise
auf die Wiederherstellung alter Formen und Muster hinauslaufen. Zum über-
wiegenden Teil handelt es sich aber um politische Experimente mit dem Bil-
dungswesen, von denen noch niemand absehen kann, ob sie zum Vorteil oder zum
Schaden künftiger Generationen ausschlagen werden.
Bei alledem sollte man nicht vergessen, daß auf allen Stufen der Hochschul-
Ausbildung herausragende Studierende auch zur Lehre herangezogen wurden, was
ja gerade für den Nachwuchs die beste Lehre für die Lehrbefähigung darstellt. Das
gehörte und gehört zum System.
Wilhelm von Ockham (um 1290 – um 1348), einer der bedeutendsten scho-
lastischen Philosophen, erwarb nur den Grad eines Baccalaureus, während die
meisten mittelalterlichen Philosophen darüber hinaus den Magistergrad der Philo-
sophischen Fakultät und dann den Doktorgrad der Theologischen Fakultät
erwarben. Ockham wurde daher „venerabilis inceptor“ (verehrungswürdiger Leh-
rer, zugleich aber auch „Anfänger“) genannt. Unter heutigen Verhältnissen würde
man ihn Assistenz- oder Juniorprofessor genannt haben und hätte ihn bei seiner
offensichtlichen Bewährung in der Lehre alsbald mit dem Titel „apl. Professor“
(außerplanmäßiger, d. h. nicht im Stellenplan des Universitätshaushaltes besolde-
ter Hochschullehrer) oder „Honorarprofessor“ (d. h. „ehrenhalber mit dem Profes-
sorentitel versehen, ebenfalls nicht im Stellenplan) versehen.
Man kann erwarten, daß dieses System in allen Wissenschaften noch immer
hervorragende Wissenschaftler hervorbringt. Es sind vor allem auch nicht weniger
36

als vor einem halben Jahrhundert, als der gesamte Wissenschaftssektor und die
Zahl der Hochschulen viel kleiner war als heute.
Aber vermutlich liefert es auch heutzutage nicht mehr hervorragende Wissen-
schaftler als damals, da das alte System – entgegen einer modischen Kritik an den
sozialen Bildungsschranken - längst darauf abgestellt war, mit Hilfe von Stipen-
dien alle Begabungsressourcen auszuschöpfen. Sie bilden das heran, was man
heute allenthalben als Elite beschwört, so als hätte man keine mehr. Aber das Bild
dieser wissenschaftlichen Elite in der Öffentlichkeit ist weder klar noch adäquat,
sonst hätten der Exzellenzdiskurs und ministerielle Bemühungen, Exzellenz über-
haupt erst hervorzubringen, nicht aufkommen können. Offensichtlich fehlt es
dieser Elite an Zeit und Willen, ihre Leistungen in der Medienöffentlichkeit ange-
messen zu vermitteln. Und diejenigen, die das für sie besorgen, sind nicht immer
ihre überzeugendsten Repräsentanten.
Wie aber schon gesagt, sind moderne Wissenschaftler meist Fachleute in den
immer enger gezogenen Grenzen ihrer Fachgebiete, in denen sie sich in der Regel
nur durch ihre veröffentlichten Forschungsleistungen bekannt machen. Damit
kommen wir aber zu einem Punkte, an dem das gegenwärtige Wissenschafts-
system besonders in Deutschland am meisten im argen liegt. Und es ist gerade
dieser Punkt, wo der Laie und der Studierende dem Wissenschaftssystem zuerst
und mit nachhaltigsten Auswirkungen begegnet.
Noch immer beruht das neuere deutsche Wissenschaftssystem, besonders der
Universitäten, auf den Ideen und Plänen Wilhelm von Humboldts.11 Ihre Realisie-
rung führte die deutsche Wissenschaft im 19. Jahrhundert an die Weltspitze und
wurde in den USA, Japan und einigen anderen Ländern übernommen. W. v.
Humboldt stellte in seinen einschlägigen Schriften die zwei wesentlichen Grund-
sätze der „Einheit von Forschung und Lehre“ und des „forschenden Lernens in
Einsamkeit und Freiheit“ heraus und schrieb sie gewissermaßen fest.
Die Einheit von Forschung und Lehre entsprach einer auch vordem an vielen
Universitäten herrschenden Tradition, nach der nur ausgewiesene Forscher dort
lehren sollten. Damit war ein grundsätzlicher Unterschied zwischen Schulen (auch
dem Gymnasium) mit streng geregeltem „Unterricht“ und Universitäten mit
„freier Lehre“ begründet. Dieses Organisationsprinzip der Universitäten wird
neuerdings durch die sogenannte Verschulung der Hochschulen und durch die
(noch weitgehend nur geplante bzw. diskutierte) Einführung reiner „Lehrprofes-
suren“ konterkariert. Deren Lehrdeputat soll zwischen 12 und 20 Veranstal-
tungsstunden pro Woche betragen, was dem üblichen Lehrpensum der Gymna-
siallehrer entspricht. „Studienräte im Hochschuldienst“ gab es aber auch bisher
schon vereinzelt. So soll durch die Lehrprofessuren dies Institut nur ausgeweitet
werden.

11
W. von Humboldt, Über die innere und äussere Organisation der höheren wissenschaftlichen Anstalten in Berlin (ca.
1810), in: W. v. Humboldt, Studienausgabe in 3 Bänden, hgg. von K. Müller-Vollmer, Frankfurt a. M. 1972, Band 2, S.
133 – 141.
37

Das humboldtsche forschende Lernen in Einsamkeit und Freiheit entsprach


ebenfalls einem verbreiteten Brauch, die Studierenden als erwachsene Menschen
ernst zu nehmen, die in der Lage sein sollten, nach eigenen Begabungen, Nei-
gungen und Interessen aus dem vielfältigen Lehrangebot dasjenige auszuwählen,
was sie selber zur Bildung ihrer Persönlichkeit und zur Qualifikation für künftige
Berufsaufgaben für richtig und wichtig hielten. Daß dies in engster Zusammenar-
beit mit ihren Lehrern, nämlich „in Teilnahme an ihren Forschungen“, geschehen
konnte, ergab sich bei der meist geringen Zahl der Studierenden von selbst.
Humboldts Ideen werden bis heute immer wieder beschworen, und sie gehören
zweifellos noch immer zum Selbstverständnis der meisten Wissenschaftler, und
dies nicht nur in Deutschland. Ihre Anwendung in der Praxis des modernen
Hochschulbetriebes ist freilich weithin zu einem Zerrbild geraten.
Die Einheit von Forschung und Lehre wird vom durchschnittlichen Hochschul-
lehrer so verstanden, daß er nur das lehrt, was er selbst erforscht hat. Da dies
naturgemäß nur einige Schwerpunkte seines Faches betreffen kann, das er vertre-
ten soll, findet man kaum noch Lehrer, die den Überblick über ihr Fach behalten
haben und es in den sogenannten „großen Vorlesungen“ oder in umfassenden
„Lehrbüchern“ vorführen können. So kann es auch nicht wundern, daß nunmehr
der Doktorand als studentischer Tutor oder der Doktor in der Rolle des Assistenz-
oder Juniorprofessors zur maßgeblichen Hochschullehrerfigur wird, da er in
seinem Seminar unmittelbar aus seinen Forschungen schöpft und schöpfen muß.
Die „Einsamkeit und Freiheit“ der Studierenden macht zweifellos noch immer
die große Attraktivität des selbstbestimmten Studentenlebens im „Freiraum Hoch-
schule“ aus. Dies im Unterschied zu den Schulen (und auch Fachhochschulen),
wo der (einstmalige) Schülerstatus merkliche Zwänge der Präsenz und Assiduität
mit sich brachte und z. T. noch mit sich bringt.
Es ist gewiß in erster Linie dem Ernstnehmen dieser Freiheit der Studierenden
durch die Universitätslehrer geschuldet, daß sie eher darauf warten, ob und daß
Studierende in ihre Lehrveranstaltungen und zur Beratung und Betreuung zu
ihnen kommen, als daß sie ihnen nachlaufen und irgend welchen Druck auf sie
ausüben. Das Problem besteht eben darin, in welchem Maße die vielfach „nicht
erwachsen werden wollenden“ jungen Leute dieser Freiheit gewachsen sind.
Jedenfalls sind es nicht die Professoren, die es ihnen verdenken oder sie gar daran
hindern, ihre Freiheit dazu zu benutzen, im gesellschaftlich einigermaßen angese-
henen Status der „Studierenden“ alles andere zu betreiben als zu studieren. Und
wäre das nicht so, so wäre ein einigermaßen geregelter Lehrbetrieb und die Be-
treuung in den meisten Fächern wegen Überfüllung schon längst nicht mehr
möglich. Andererseits wird man sich nicht verhehlen, daß immatrikulierte Studen-
ten, auch wenn sie nicht studieren, den regulären Arbeitsmarkt merklich entlasten.
Am meisten dürfte aber das „forschende Lernen“ unter gegenwärtigen Bedin-
gungen mißverstanden werden. Die „Teilnahme an der Forschung“ kann ersicht-
lich nur im engeren Kreis der Fortgeschrittenen, etwa bei der Anfertigung von
Examensarbeiten unter Anleitung und Betreuung der Hochschullehrer, stattfinden.
38

Dafür gibt es in den meisten Disziplinen jetzt besondere Forschungskolloquien.


Der durchschnittliche Student und besonders der Anfänger geht aber davon aus,
daß die Forschung schon im Proseminar oder einer „Übung“ beginne. Somit gilt
jetzt gewöhnlich schon das Lesen eines Aufsatzes oder gar eines ganzen Buches
oder das Herunterladen eines Textstückes aus dem Internet als echte Forschungs-
leistung. Dies umso mehr, als heute das Lesen wissenschaftlicher Texte selbst
schon als kaum zumutbare Arbeit gilt. Darum erwarten viele Studenten von ihren
Lehrern, daß sie ihnen „vortragen, was in den Büchern steht“ (wie es auch von
studentischen Fakultätsvertretern gelegentlich gefordert wird). Und das muß der
Hochschullehrer dann auch in gehörigem Maße tun. Vorauszusetzen, daß alle oder
auch nur die Mehrzahl von Seminarteilnehmern einen thematischen Text vor der
Seminar-Diskussion gelesen hätten, hieße, über die Köpfe der meisten hinweg-
zureden und sich von vornherein um den Lehrerfolg oder um eine positive Be-
wertung in den neuerdings eingeführten Lehrevaluationen durch die Studierenden
zu bringen.
Ein verhängnisvoller Mißstand der Studienorganisation besteht heute darin, daß
sich die Professoren auch wegen solcher Erfahrungen im Grundstudium weitge-
hend aus den Lehrveranstaltungen des Grundstudiums, also der Anfänger, zurück-
gezogen haben und die ganze Propädeutik der Fächer Aufgabe der wissenschaft-
lichen Mitarbeiter oder auch der studentischen Hilfskräfte geworden ist.
Bis in die frühen sechziger Jahre war das geradezu umgekehrt. Es war fast
Ehrensache und daneben auch von pekuniärem Reiz wegen der „erlesenen Hör-
gelder“ (nämlich 2,50 DM pro Hörer und Vorlesungsstunde), daß die Professoren
möglichst große Übersichts-Vorlesungen für Anfänger und „Hörer aller Fakultä-
ten“ hielten. Die Assistenten, die bis dahin durchweg mindestens schon den Dok-
torgrad erworben haben mußten, durften, wenn sie überhaupt zur Lehre heran-
gezogen wurden, Spezialseminare über ihre eigenen Forschungsgegenstände ab-
halten. Heute ist es dagegen fast allgemein üblich geworden, daß die sogenannten
Mitarbeiter meistens Doktoranden (gelegentlich auch „Magistranden“) sind, die
sich erst noch in ihren Forschungsgegenstand einarbeiten müssen. Nur die
wenigsten dieser wissenschaftlichen Mitarbeiter haben längerfristige Stellen (die
früheren Assistentenstellen bei einem Professor) inne. Die meisten werden jetzt
aus Drittmitteln eines Forschungsprojektes dotiert. Und das hat überall zu dem
geführt, was man das Prekariat nennt: junge und oft schon voll ausgebildete
Leute, die ihre besten Jahre in oft nur auf einige Monate befristeten Projektstellen
verbringen, bei denen kaum absehbar ist, ob sie verlängert werden, entfallen oder
durch ein anderes Projekt ersetzt werden können. Diese Mitarbeiter werden aber
in den meisten Fällen auch zur Lehre herangezogen.
Bis dahin und weithin noch jetzt war und ist das Vorlesunghalten überhaupt ein
striktes Privileg der Professoren und der mit der „Venia legendi“ (Verleihung des
Rechts, Vorlesungen zu halten) versehenen Privatdozenten. Eine eigentliche Aus-
bildung für das Vorlesungshalten gab es nie. Allenfalls ergaben sich Gelegen-
39

heiten zur Vertretung der Professoren bei deren Abwesenheit durch ihre Assisten-
ten in einzelnen Lehrveranstaltungen.
Aber das Abhalten von Vorlesungen überhaupt und das der „magistralen
Vorlesungen“ über das ganze Fach insbesondere hatte für die Professoren den sehr
großen Vorteil, daß sie dadurch jederzeit den Überblick über ihr ganzes Fach zu
erarbeiten, zu behalten und zu pflegen hatten. Es war gleichsam eine ständige
Turnübung für Geistesgegenwart. Und darüber hinaus war die Übung auch heu-
ristisch fruchtbar. Wer sich ständig um diese Geistesgegenwart bemühte, setzte
sich auch in die Lage, immer wieder neue Verknüpfungen zwischen den Inhalten
herzustellen, sie zu überprüfen und daraus Gesichtspunkte für neue Forschungs-
fragen zu entwickeln.
Als 1964 die genannten „erlesenen“ Hörgelder in der Bundesrepublik pau-
schaliert wurden, um den krassen Unterschied der Erzielung von Hörgeldern in
den großen Massenfächern und den kleinen sogenannten Orchideenfächern aus
Gründen der Gerechtigkeit einzuebnen, entdeckten die Didaktiker, daß soge-
nannter Frontalunterricht, unter den man auch die akademischen Vorlesungen
subsumierte, autoritär und indoktrinierend sei. Sofort sank das Interesse an den
Vorlesungen zugunsten des freien Dialogs im Seminarbetrieb, bei dem fortan der
nummerus clausus der Kleingruppen regierte.
Das kam vielen Privatdozenten und neu berufenen Professoren sehr zupaß,
denn sie hatten oft vor ihrem Amtsantritt noch nie eine Vorlesung gehalten,
wußten andererseits aber genau, wieviel Arbeit und Mühe dazu hätte investiert
werden müssen. Hinzu kam durch dieselbe Besoldungsreform der Oktroi einer
Lehrverpflichtung für die Professoren von acht (jetzt mancherorts neun), für
Assistenten bzw. wissenschaftliche Mitarbeiter von mindestens zwei Stunden.
Vordem waren die Professoren nur dazu verpflichtet, „nach Bedarf im Fache“
Lehrveranstaltungen abzuhalten. Das konnten zuweilen 15 Stunden sein, aber
auch „mindestens eine Lehreinheit“ (d. h. eine Vorlesung und ein zugeordnetes
Seminar), wie man sie im allgemeinen von den Privatdozenten forderte und auch
jetzt noch fordert. Manche berühmten Professoren, an deren Forschungen die
Universität und das zuständige Ministerium besonders interessiert waren, hatten
sich in ihren Berufungsverhandlungen sogar ausbedingen können, überhaupt keine
Lehrveranstaltungen abzuhalten, um sich gänzlich der Forschung zu widmen.
Begleitend zur Einrichtung reiner Lehrprofessuren sollen übrigens nach neuesten
Plänen auch wieder vermehrt solche reine Forschungsprofesssuren (ohne Lehr-
verpflichtung) eingeführt werden.
Der Lehrverpflichtung seit 1964 ließ sich am bequemsten durch Seminare und
Kolloquien nachkommen, da die Zeit für die Ausarbeitung von Vorlesungen
immer knapper wurde. Wer heute in das Vorlesungsverzeichnis einer Universität
schaut, wird leicht bemerken, daß nur noch die Historiker – ans Geschichten-
erzählen gewöhnt – in nennenswertem Umfang Vorlesungen halten, die übrigen
Professoren allenfalls eine einzige pro Semester, und die Assistenten dürfen und
mögen es immer noch nicht. Die neuen Junior-Professoren haben inzwischen
40

dieselben Lehrverpflichtungen wie ihre älteren Professorenkollegen. In manchen


Fächern, die sich besonders forschungsintensiv geben, verzichtet man zugunsten
der Forschungsseminare von vornherein auf Vorlesungen.
Die fatalen Folgen dieser Studienorganisation liegen eigentlich auf der Hand.
Aber man spricht kaum darüber, es sei denn, daß sie als Fortschritt gepriesen
werden.
Die ehemaligen „großen Fächer“ (Einzelwissenschaften) leben praktisch nur
noch in Instituts- und Seminarbezeichnungen fort. Die einstigen „Lehrstühle“ für
das ganze Fach, die man durchweg als Parallelprofessuren eingerichtet hatte,
werden jetzt für vielerlei Unterdisziplinen ausgelegt und ausgeschrieben, und das
setzt sich bei den ehemaligen „Extraordinariaten“, den vorigen C-3 und jetzigen
W-2 Professuren weiter fort.
Die Zerstückelung der Fächer in Spezialdomänen der bestallten Hochschul-
lehrer schon bei den Stellenausschreibungen wird zwar überall mit der notwen-
digen und sachangemessenen Spezialisierung der Forschung begründet. Aber
solche Spezialisierungen ergaben sich als „Schwerpunkte“ innerhalb des zu ver-
tretenden Lehrfaches schon immer von selbst. Die jetzt praktizierten Spezialisten-
Ausschreibungen dienen aber vor allem dem Zweck, überhaupt neue Professoren-
und Mitarbeiterstellen zu erhalten und jede Konkurrenz zwischen den Fachver-
tretern, wie sie nur durch die früher üblichen Parallelprofessuren in den Fächern
gewährleistet war, zu verhindern.
Das überall geforderte „Profil“ der Fächer besteht dann vor allem in der Viel-
zahl und Buntheit der Spezialitäten an den einzelnen Fakultäten und Universi-
täten. Es kann nicht verwundern, daß viele Professoren diese Gelegenheit nutzen,
ihr persönliches Lehrangebot und ihre speziellen Forschungsinteressen in einem
neuen Studiengang zu etablieren. An attraktiven und vielversprechenden Bezeich-
nungen dafür fehlt es nirgends. Dadurch sind aber die tatsächlich angebotenen
Studieninhalte kaum noch erkenbar oder vergleichbar geworden. Und um hier
dem Wildwuchs neuer Studiengänge zu steuern, haben die dadurch überforderten
Kultus- bzw. Wissenschaftsministerien deren Überprüfung, Vergleichung und
Vereinheitlichung privaten Akkreditierungsgesellschaften übertragen, vor denen
die Fakultäten und Fachbereiche ihre Studiengänge in regelmäßigen Abständen
offenzulegen und zu rechtfertigen haben. Diese Akkreditierungsgesellschaften
rekrutieren ihr Personal zum größten Teil aus selbsternannten „Hochschuldidak-
tikern“ und zum geringeren Teil aus Fachkollegen, die dadurch reichlich Gelegen-
heit und Mittel finden, ihre Vorstellungen von den richtigen und zukunftweisen-
den Inhalten der kurrikularen Lehrangeboten den jeweiligen Fächern aufzuok-
troieren.
Die auf diese Weise verursachte Zersplitterung des Lehrangebots hat kompen-
satorisch zur Einrichtung von „interdisziplinären“ Kooperationen und Koalitionen
(Clustern) mit einem Superprofil geführt. Was man dabei als „interdisziplinäre
Forschung und Lehre“ bezeichnet, ist zwar manchmal eine echte Kooperation der
Fachleute, die das Spezialwissen ihrer Fächer einbringen, sehr oft aber ein dilet-
41

tantisches Herumwildern in allen Disziplinen, die die Lehrenden vorher nicht


studiert haben.
Nichts erscheint jetzt einfacher, als für beliebige Probleme neue Professuren
oder gar Institute „In“ und „An“ den Hochschulen einzurichten, die das Problem
interdisziplinär „beforschen“ und in der Lehre plausibel darstellen sollen. Die
Lehr-Kurricula dieser „innovativen Fächer“ bestehen dann in der Regel aus den
Service-Leistungen älterer bodenständiger Fächer. Die Forschungsmethodologie
ergibt sich meist aus dem „Praxisbezug“ und allenfalls aus demjenigen, was die
dazu eingesetzten Lehrpersonen früher selbst studiert haben. Und hinter allen aus
dem Fächerfundus der traditionellen Universitäten gespeisten neuen Disziplinen
und Wissenschaften dehnt sich dann noch das weite Reich ehemaliger Fachschul-
und Handwerkslehren aus, die überall auf die „Akademisierung“ ihrer Kurrikula
an Universitäten drängen. Die Blüten solcher Entwicklungen kann man jede
Woche in den zahlreichen Annoncen neuer Studiengänge und Fortbildungsange-
boten von Hochschulen in der Tagespresse zur Kenntnis nehmen. Die Anzahl der
in Deutschland studierbaren Fächer und Fächerkombinationen beträgt aktuell etwa
eintausendachthundert.
Für die Studienanfänger und für die Öffentlichkeit ist diese Organisation der
Lehre naturgemäß bunt, verwirrend und interessant. Sie kommt den Erwartungen
an Vielfalt, Schwierigkeit und Tiefe der Fächer entgegen. Nur einen ungefähren
Überblick über das zu gewinnen, was zunächst oder überhaupt zu studieren wich-
tig ist, ist selbst zu einem Teil des Studiums geworden und trägt damit schon von
selbst seinen Teil zur Verlängerung der Studienzeiten bei.
Studierte man in früheren Zeiten das oder die Fächer, für die man in der gymna-
sialen Oberstufe am meisten Interesse entwickelt und die besten Schulnoten
bekommen hatte, so kommt es jetzt häufig oder gar überwiegend vor, daß man
gerade das interessant und studierenswert findet, wovon man auf der Schule nichts
oder wenig erfahren hatte. Naturgemäß erfreut sich gerade die Philosophie dieser
Attraktivität in besonderem Maße, was überall zu hoher Studiennachfrage und
vergleichsweise vielen Mißerfolgen im Studium führt.
Dabei verstärkt sich eine Anforderung an die Studierenden beträchtlich, die
auch Wilhelm von Humboldt schon im Auge gehabt hatte. Humboldt hatte gefor-
dert, daß die Studierenden die „Universalität“ des Lehrangebotes in ihrer persön-
lichen „Individualität“ zu einem Ganzen, einer „Totalität“ der erworbenen Bil-
dung verknüpfen sollten. Er ging dabei davon aus, daß diese Totalität gerade nicht
von den Lehrenden vorgegeben werden konnte noch sollte, da sie ja jeweils nur
ihre Fächer bzw. ihre Wissenschaft zu vertreten hatten. Die Umsetzung lieferte
daher Absolventen, in deren Köpfen sich nicht nur die studierte Einzelwis-
senschaft, sondern überhaupt wissenschaftliche Bildung zu einem Ganzen fügte.
Unter heutigen Verhältnissen kann dies kaum noch auf das Gesamt einer
einzigen, geschweige denn mehrerer oder gar aller Wissenschaften bezogen wer-
den. Im gleichen Maße wie die allgemeine Bildung verschwindet, nimmt das
öffentliche Reden über und Fordern von „Bildung“ zu. Auch die spezialisierten
42

Lehrer und Forscher haben, wie wir schon sagten, gewöhnlich nicht mehr den
Überblick über das Ganze ihres Faches. Und auch deswegen schotten sich die
einzelnen Fakultäten bzw. Fachbereiche mehr und mehr gegeneinander ab. Für
„interfakultative“ Gespräche und Treffen der Fachvertreter fehlt es bei der zuneh-
menden Spezialisierung und dem zeitlichen Druck der Geschäfte sowohl an Zeit
wie an Interesse.
Wohl aber hat der bei so vielen Spezialisten studierende junge Kopf noch
immer alle Chancen, sich Überblicke über den „Tellerrand“ seines engeren Stu-
dienfaches hinaus zu erarbeiten. Doch den meisten sind bei der jetzt üblichen
Kapazitätsplanung des Stundenbudgets für Besuch sowie Vor- und Nachbereitung
der Lehrveranstaltungen (die sich am Arbeitsvolumen von ca. 40 Wochenstunden
der lohnabhängig Beschäftigten orientiert) engste Grenzen gesetzt.
Erwähnen wir aber auch die neueste Initiative des Landes Nordrhein-Westfalen
im letzten Hochschulgesetzt von 2014 zur Aufhebung der persönlichen Anwesen-
heitspflichten der Studierenden in den Lehrveranstaltungen. Sie wird damit be-
gründet, daß so viele Studierende aus unterprivilegierten Bevölkerungsschichten
tagsüber ihren Lebensunterhalt durch eine berufliche Tätigkeit finanzieren müß-
ten. Da sie auf diese Weise tagsüber nicht mehr an Lehrveranstaltungen teil-
nehmen können, kann die Präsenz bei Lehrveranstaltung nur noch in besonders zu
begründenden Fällen verbindlich gefordert werden. Die einstige akademische
Freiheit zum Besuch oder Nichtbesuch von Vorlesungen (und nur von diesen) an
den Universitäten, wodurch die Studierenden gegebenenfalls auch ihren Beifall
oder ihre Mißbilligung bezüglich des jeweiligen Dozenten zum Ausdruck brach-
ten, wird durch das neue Hochschulgesetz auf alle Übungen und Seminare an
allen Hochschulen ausgedehnt.
Gewitzte Geister vermuten, daß im nächsten Hochschulgesetz alle Hochschulen
des Landes der Fern-Universität Hagen, die mit ca. 80 000 Studierenden ohnehin
die größte Hochschule Deutschlands ist, eingegliedert werden. Für das danach
folgende Hochschulgesetz wäre in Konsequenz zu erwarten, daß auch der gesamte
Lehrbetrieb eingespart und durch ein zentrales Videoprogramm exzellenter Lehre
im MOOC-Verfahren ersetzt wird. Deren Inhalte lassen sich preisgünstig als
Video-Mitschnitte von Lehrveranstaltungen der prominentesten Professoren US-
amerikanischer Ivy-League-Universitäten und auch schon einiger deutscher Ex-
zellenz-Universitäten kaufen.12

12
Eine vorsichtige Empfehlung des MOOC-Verfahrens (Massive Open Online Courses) liegt
schon seit einiger Zeit vor. Der geschäftsführende Direktor der German-American Fulbright Com-
mission Rolf Hoffmann verspricht sich davon: „Neue didaktische Modelle im online-learning
erhöhen die Qualität der Lehre, vermitteln komplexe Inhalte verständlicher, öffnen auch kleinen
Hochschulen neue Nischen bei der Rekrutierung und Einbindung Studierender (gerade im dualen
Bereich) und erreichen potenziell Studierwillige, die sonst nicht den Weg zur Hochschule finden“.
In: Forschung und Lehre 8/13, S. 606.
43

§ 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathemati-


schen“ Logik
Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik.
Moderne Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik,
auch im Hinblick auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer
erneuerten klassischen Logik und Kritik der Fehlentwicklungen der mathematischen Logik. Re-
integration intensionaler und extensionaler Logik. Das Verhältnis von Formalismus und inhalt-
lichem Wissen. Der Formalismus als Notation der Sprache. Kritik der üblichen logischen Zeichen-
formeln. Über den Unterschied ausdrucksbildender und urteilsbildender Junktoren. Die Gleichung
als definitorischer Ausdruck und als methodische Artikulationsform der Mathematik und mathe-
matischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen. Über Sprache
und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen guten
Formalismus

Um in die Wissenschaft überhaupt und in die Philosophie insbesondere einzudrin-


gen, tut man gut daran, sich mit der Logik zu befassen. Diese versteht sich
wesentlich als Lehre von der wissenschaftlichen Wahrheit, Falschheit und
Wahrscheinlichkeit. Sie ist die methodische Hauptdisziplin für alle Wissen-
schaften. Seit jeher wird sie als Teildisziplin der Philosophie gelehrt und erfüllt
damit einen letzten Rest ihrer früheren propädeutischen Aufgabe für alle Wissen-
schaften.
Da die Logik als Disziplin schon fast in den Anfängen der Philosophie von den
Megarern begründet, von den Sophisten geübt, von Aristoteles auch z. T. forma-
lisiert und jedenfalls in ihrer klassischen Gestalt schon ausgearbeitet worden ist,
von da an auch ständig ein beachtliches Hilfsmittel für die inhaltlichen Wissen-
schaften war, ist ihr Gebrauch selbstverständlich geworden, auch im alltäglichen
Denken. Auch der wissenschaftliche Laie ruft gelegentlich einen Gesprächs-
partner dazu auf, irgend eine Angelegenheit „logisch zu beurteilen“, sich über-
haupt „einen Begriff von einer Sache“ zu machen und aus bestimmten Sach-
verhalten „Schlüsse zu ziehen“. Auch das geflügelte Wort vom „gesunden Men-
schenverstand“ dürfte sich der Tatsache verdanken, daß man wenigstens die Rudi-
mente logischer Kultur in den weitesten Kreisen voraussetzt.
Das hat dazu geführt, daß viele Wissenschaftler glauben, ihre gleichsam mit der
Muttermilch aufgesogene logische Kompetenz genüge auch in ihrem Fache, und
eine besondere Befassung mit der disziplinären Logik erübrige sich.
Wenn argumentiert wird, versucht man seine Thesen zu begründen und beruft
sich eventuell auf das Leibnizsche Prinzip vom Grunde. Hält man etwas für
falsch, so versucht man einen Widerspruch aufzudecken und beruft sich auf das
Prinzip vom zu vermeidenden Widerspruch. Auch das Prinzip der Identität wird
noch gerne beschworen, falls jemand im Gespräch von einer zu einer anderen
Bedeutung eines ins Feld gestellten Terminus übergeht. Und will man ein Dis-
kussionsende erzwingen, so stellt man den Gesprächspartner gerne vor die Alter-
native, sich entweder für oder gegen eine entscheidende These auszusprechen.
44

Denn: „tertium non datur“, wie bekanntlich das Prinzip vom ausgeschlossenen
Dritten besagt.
Damit kommt man in den meisten Fällen ganz gut durch. Doch der wissen-
schaftstheoretisch etwas gewitztere Kollege kontert mit Autoritäten und neueren
Forschungsergebnissen. Er weiß von Karl Albert, daß man in der Wissenschaft
überhaupt nichts begründen kann. Denn jede Begründung ist entweder „dogma-
tisch“ (und schon deswegen theologischer Voreingenommenheit verdächtig), oder
sie beruht auf einer Petitio principii, (sie beweist, was sie vorausgesetzt hat, und
sie setzt voraus, was sie beweisen will), oder sie führt zu einem unendlichen
Regreß immer weiter zurückreichender Begründungen, und etwas Viertes gibt es
nicht. Das Argument geht auf Jakob Friedrich Fries zurück und ist mittlerweile
auch als Friessches Trilemma bekannt.13 Auch beim Widerspruch behauptet etwa
die neuere Paralogik (wie schon I. Kant bezüglich der „dynamischen Antinomien
der reinen Vernunft“), daß Widersprüchliches gelegentlich wahr sein könne. 14
Bezüglich der Identität der Begriffe hat L. Wittgenstein behauptet, daß sich
unter Begriffen nur „Familienähnlichkeiten“ und gegebenfalls gar keine Identitä-
ten der Bedeutungen erfassen ließen.15 Wem dies schon zu lange her ist, der beruft
sich auf die neueste daraus entstandene „Fuzzi-Logik“, die „unscharfe Begriffe“
(hinsichtlich ihrer Intensionen und/oder Extensionen) zuläßt.16
Das Tertium non datur gilt vielen schließlich durch die avanciertesten Theorien
der Mathematik und Mikrophysik als längst überholt und als eingeschränkter
Spezialfall für klassische Problembewältigung. 17
Werden solche Argumente noch durch einige logische bzw. mathematisch-
logische Formeln unterstützt, so wird der Muttermilch-Logiker sicher sogleich die
Waffen strecken und das Gespräch verständnislos beenden. Was ihn aber nicht
hindert, auf seiner Meinung zu bestehen und die moderne Logik und Wis-
senschaftstheorie insgesamt für sophistisches Gerede zu halten. Auch darin zeigt
sich die zunehmend sich weitende Kluft zwischen den wissenschaftlichen Kultu-
ren und den sogenannten Laien.
Die Mathematik hat für die sogenannten exakten Naturwissenschaften, aber im-
mer mehr auch darüber hinaus in Wissenschaften, die sich mit dem Prestige der
„Exaktheit“ der Naturwissenschaften, insbesondere der Physik, schmücken wol-
len, ebenfalls methodische Funktionen. Hervorgetreten sind hier vor allem die
Ökonomie, die Soziologie und Teile der Sprachwissenschaften. Auch die Mathe-
matik stellt eigene Theorien über Wahrheit, Falschheit und Wahrscheinlichkeit
13
K. Albert, Traktat über kritische Vernunft, Tübingen 1968, S. 13.
14
Manuel Bremer, Wahre Widersprüche. Einführung in die parakonsistente Logik, Sankt Augustin 1998.
15
L. Wittgenstein, Philosophische Untersuchungen (1953), Frankfurt a. M. 1971, Nr. 67, S. 57 f.
16
L. A. Zadeh, Fuzzy Logic and Approximate Reasoning, in: Synthese 30, 1975, p. 407 – 428.
17
K. Gödel, On Formally Undecidable Propositions of Principia Mathematica and Related Systems, hgg. von R. B.
Braithwaite, New York 1962; dt. Original: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme I. In: Monatshefte für Mathematische Physik 38, 1931, p. 173-198; N. Vasallo, Sulla problematicità del principio
del terzo escluso. Linguisticità e senso concreto del principio nella lettura intuizionista di L. E. J. Brouwer. In: Epistemolo-
gia 23, 2000, p. 99-118; F. von Kutschera, Der Satz vom ausgeschlossenen Dritten. Untersuchungen über die Grundlagen
der Logik, Berlin-New York 1985.
45

zur Verfügung. Nicht von ungefähr gilt ja eine richtige Gleichung wie etwa „2
mal 2 = 4“ als exemplarische Wahrheit, und die „Scheingleichung“ „2 mal 2 = 5“
als falsch. Wahrscheinlichkeiten gelten als die eigentliche Domäne der mathe-
matischen Statistik.
Die Mathematik hat sich, anders als die Logik, zu einer höchst umfangreichen
Einzelwissenschaft mit großen Instituten (an manchen Universitäten sogar zu
„Mathematischen Fakultäten“), einem eigenen Studiengang und einem Berufs-
profil der Mathematiker ausgeweitet. Die Schwierigkeit und damit der Aufwand
zu ihrem Studium ist beträchtlich und schreckt die meisten Wissenschaftler und
immer mehr auch die jungen Leute davon ab, sich näher damit zu befassen.
Gleichwohl empfiehlt es sich, und besonders für den Wissenschaftstheoretiker,
sich mathematische Grundkenntnisse anzueignen.
Auch die Mathematiker diskutieren ihre Grundlagenprobleme „logisch“. Und
viele betonen, daß die von ihnen gepflegte „mathematische Logik“ nur ein
Anwendungsgebiet der allgemeinen Logik für die Zwecke der Mathematik sei.
Die meisten mathematischen Logiker dürften jedoch der Meinung sein, daß die
sogenannte mathematische Logik bzw. „Logistik“ die von ihnen nun „klassisch“
genannte traditionelle Logik abgelöst und fast gänzlich ersetzt habe. W. Steg-
müller schreibt etwa: „Mit Recht wird heute zwar darauf hingewiesen, daß die
aristotelische Syllogistik nur einen infinitesimalen Teil dessen ausmacht, was man
gegenwärtig als Logik bezeichnet. Mit fast derselben Sicherheit kann man aber
behaupten, daß bereits in wenigen Jahrzehnten dasjenige, was heute Logik
genannt wird, nur mehr als Bruchteil der Logik betrachtet werden wird“ (wobei
mit „die Logik“ im wesentlichen die moderne mathematische Logik gemeint ist.18
Der Mathematiker Gottlob Frege, der diese Wendung am Ende des 19. Jahr-
hunderts mit eingeleitet hat, betont ausdrücklich, „daß die Arithmetik weiter
entwickelte Logik ist, daß eine strenge Begründung der arithmetischen Gesetze
auf rein logische und nur auf solche zurückführt“. 19 Der Mathematiker Hans
Hermes bekräftigte dies mit dem Hinweis: „Die Besinnung auf die Grundlagen
der Mathematik hat zu dem Versuch geführt, die Logik auf der Basis formaler
Sprachen von Grund auf neu zu begreifen und ihr Verhältnis zur Mathematik zu
untersuchen“. 20 Wobei vorausgesetzt wird, daß „formale Sprachen“ selbst schon
mathematische Zeichenkomplexe sind, die Wittgenstein in seinem „Tractatus
logico-philosophicus“ von 1921 als „Idealsprachen“ von den Gemeinsprachen
strikt unterschieden hatte. Zugleich bemerkt Hermes aber auch:
„Zu einer genauen Beschreibung des mathematischen modus procedendi gehört also
die Diskussion der logischen Schlußregeln. Welche Regeln werden angewandt?

18
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band 1: Wissenschaft-
liche Erklärung und Begründung, Berlin-Heidelberg-New York 1969, S. XVI.
19
G. Frege, Funktion und Begriff, in: G. Frege, Funktion, Begriff, Bedeutung. Fünf logische Studien, hgg. von G. Patzig,
Göttingen 1962, S. 25.
20
H. Hermes, Methodik der Mathematik und Logik, in: Enzyklopädie der geisteswissenschaftlichen Arbeitsmethoden, hgg.
v. M. Thiel, 3. Lieferung, München-Wien 1968, S. 4.
46

Merkwürdigerweise haben sich die Mathematiker mit dieser Frage fast zweitausend
Jahre lang kaum befaßt. Noch heute wird z. B. von einem an einer deutschen
Universität studierenden Mathematiker nicht verlangt, daß er sich mit diesem Prob-
lem beschäftigt. ... Obwohl der Mathematiker offenbar auch ohne Kenntnis der
logischen Regeln seine Wissenschaft betreiben kann, so sollte er doch beachten, daß
die Strenge der Mathematik mit den logischen Regeln zusammenhängt, und daß es
doch sehr erstaunlich ist, daß man in einer so intensiv betriebenen Wissenschaft, wie
es die Geometrie ist, mehr als zweitausend Jahre benötigte, um eine wesentliche
Lücke in der Beweisführung zu entdecken. Eine solche Panne wäre vermutlich nicht
eingetreten, wenn man die Regeln der Logik gekannt hätte“. 21

Dem kann man nur zustimmen. Tatsächlich wird jedoch von Seiten der meisten
Mathematiker der Anspruch erhoben, eine zeitgemäße moderne Logik könne nur
eine Teildisziplin der Mathematik sein.
Diese Meinung ist zuerst von dem Mathematiker George Boole (1815 - 1864)
in seiner „Untersuchung über die Denkgesetze, auf welche die mathematischen
Theorien der Logik und der Wahrscheinlichkeiten gegründet sind“ 22 vertreten
worden. Aber in diesem Werk zeichnen sich auch schon gravierende Unterschiede
zwischen der alten „klassischen“ und der neuen „mathematischen Logik“ ab. Man
findet zum ersten Mal die Ersetzung der logischen Kopula als Hauptjunktor des
Urteils durch die mathematische Gleichung (die eine logische Äquivalenz ist und
keineswegs mit der Kopula „ist“ in behauptenden Urteilen verwechselt werden
darf!). Daraus ergibt sich die seither in der mathematischen Logik herrschende
Auffassung, das Verhältnis von Subjekt und Prädikat im Urteil sei, wie in mathe-
matischen Gleichungen, ein solches der Bedeutungsidentität, das durch die ver-
schiedenen terminologischen und ausdrucksmäßigen Formulierungen, etwa durch
die Quantifikation des Subjekts und/oder eine Quantifikation des Prädikats dissi-
muliert werde. Wahre Urteile müßten daher als „Tautologien“ (wie Wittgenstein
im „Tractatus logico-philosophicus“ behauptete) verstanden werden.
An Boole schließt sich der Ausbau einer „Boolschen Algebra der Logik“ durch
W. S. Jevons und Ch. S. Peirce an, in der die Logik als „mathematischer Kalkül“
verstanden wird. H. Hermes definierte: „Jeder Kalkül besteht aus einem System
von Regeln, die es erlauben, Figuren herzustellen, die aus den Buchstaben eines
Alphabets gebildet sind, welche zu K (d. h. zum Kalkül) gehören“.23
Man wird also bei der „mathematischen Logik“ grundsätzlich davon ausgehen
müssen, daß es sich dabei um Anwendung der Mathematik auf einige traditionelle
logische Sachverhalte handelt. Was sich aus dem Bestand der klassischen Logik
für diese Anwendungen nicht eignet, wird dabei außer Betracht gelassen.
Unseren Bedenken gegen diese Auffassung von Logik haben wir in der „Logik“
(Aalen 1987), im „Grundriß der pyramidalen Logik mit einer logischen Kritik der
mathematischen Logik und Bibliographie der Logik“ (Internet der Phil.-Fak. der

21
H. Hermes, Methodik der Mathematik und Logik, S. 16.
22
G. Boole, Investigation of the Laws of Thought on which are Founded the Mathematical Theories of Logic and Proba-
bilities, London 1854, ND New York 1958.
23
H. Hermes, Methodik der Mathematik und Logik S. 34.
47

Universität Düsseldorf 2000) sowie in den „Elementa logico-mathematica“


(Internet der Phil. Fak. der HHU-Universität Düsseldorf 2006) sowie in einer
englischsprachigen Veröffentlichung 2013 24 Ausdruck gegeben. Wir schließen
damit an einen Grundlagenstreit an, den Günther Jakobi mit seinem Buch „Die
Ansprüche der Logistiker auf die Logik und ihre Geschichte“ 25 und Bruno v.
Freytag-Löringhoff mit seiner „Logik, ihr System und ihr Verhältnis zur Lo-
gistik“ 26 eröffnet hatten, ohne daß von den „Logistikern“ bzw. den „mathema-
tischen Logikern“ jemals darauf reagiert wurde.
Im Sinne von G. Jakobi und B. von Freytag-Löringhoff, wenn auch nicht auf
ihren Grundlagen, haben wir uns daher bemüht, eine klassisch-logische Kritik der
mathematischen Logik und ihrer Denkweisen zu entwickeln. Das veranlaßt uns
auch hier, dem Leser einige Winke zu geben, auf die er achten sollte, und zwar
besonders in Hinsicht auf das, was wir oben über die Erwartungen des Laien
gegenüber der Wissenschaft gesagt haben. Vor allem sollen dazu gewisse Unter-
schiede in der klassisch-logischen und mathematisch-logischen Denkweise her-
vorgehoben werden.
Dazu sei an einige traditionelle Forderungen erinnert, die an die Logik als
allgemeine wissenschaftliche Methodologie gestellt werden.
Die Logik sollte zunächst Kriterien dafür bereithalten, was in der Wissenschaft
als „Begriff“ gelten kann. Denn die Begriffe sind überall der Grundstoff, aus dem
das wissenschaftliche Wissen besteht. Darüber hinaus sollte man von ihr erwarten,
daß sie zeigt und Kriterien dafür hat, wie aus Begriffen und begrifflichen
Ausdrücken Urteile, Schlüsse und Argumente entstehen, mit denen man Wahres
und Falsches ausdrücken und ggf. nachweisen kann. Vor allem sollte man aber
auch Aufschluß darüber erwarten, wie man Wahres und Falsches von einander
unterscheiden kann, und wie die Frage dieser Unterscheidung oder ggf. ihrer
Nichtunterscheidbarkeit mit der Wahrscheinlichkeit zusammenhängt. Insbesonde-
re sollte die Logik auch deutlich machen können, wie sich aus alledem „Theorien“
zusammensetzen lassen, die nur das Wahre festhalten, es begründen und evtl.
beweisen und das Falsche ausscheiden. Schließlich muß gezeigt werden, was
Wahrscheinlichkeit ist und was sie mit den „Hypothesen“, in denen wissenschaft-
liche Vermutungen ausgedrückt werden, zu tun hat.
Über alle diese Gegenstände haben sich in der klassischen Logik und in der
mathematischen Logik verschiedene und oft entgegengesetzte Meinungen heraus-
gebildet. Und da die vorherrschende Meinung in der wissenschaftlichen Metho-
dologie darauf hinausläuft, daß die moderne und auf der Höhe der Wissenschaft
stehende Logik nur die mathematische Logik sein könne, die klassische Logik
aber durch sie überholt sei, so herrscht allgemein auch die Meinung, die ge-

24
Erweiterte und durch Anmerkungen und Korollarien ergänzte englische Übersetzung: L. Geldsetzer, Logical Thinking
in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements. Introduced and Translated from German
by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013
25
Stuttgart 1962.
26
Stuttgart 1955, 3. Aufl. 1961.
48

nannten Gegenstände seien in der klassischen Logik gleichsam nur angedacht und
in gänzlich unklaren Gestalten überliefert worden. In der mathematischen Logik
aber seien sie erst in angemessener formaler Fassung diskutierbar und mehr oder
weniger schon ein „fundamentum inconcussum“ jeder brauchbaren wissenschaft-
lichen Methodologie geworden.
Bei dieser Lage kann es nicht verwundern, daß auch gutwillige Liebhaber der
klassischen Logik kaum noch Anlaß gesehen haben, deren Potentiale weiterzuent-
wickeln und überhaupt die klassische Logik in eine moderne Form zu bringen.
Geschweige denn, daß sie diese Potentiale dazu benutzt hätten, daraus kritische
Gesichtspunkte zu entnehmen, um die mathematische Logik selber von ihrem
Standpunkt aus zu prüfen.
Genau dies haben wir in den oben genannten Veröffentlichungen versucht. Als
Ertrag dieser Studien und Ausarbeitungen der klassischen Logik seien folgende
hier relevante Punkte angeführt, zu denen auch einige Fehler in den Grundlagen
der klassischen Logik gehören, die z. T. auch in die mathematische Logik über-
nommen worden sind.

1. Es war und ist bisher ein erstrangiges Ideal sowohl der klassischen wie der
mathematischen Logik, den logischen Formalismus so auszubauen, daß sich in der
„logischen Formalisierung“ wissenschaftlicher Erkenntnisse deren Wahrheit un-
mittelbar „ablesen“ lassen könne. Natürlich sollte das auch dafür genügen, die
Falschheit formal kennzeichnen zu können, und über Wahrheit und Falschheit
hinaus auch die Wahrscheinlichkeit.
Dies ist weder in der klassischen noch in der mathematischen Logik gelungen.
In beiden Konzeptionen hat man sich damit begnügt, den Widerspruch als
formales Kennzeichen der Falschheit auszuweisen. Genauer gesagt: dies zu
behaupten. Somit auch die Aufdeckung von Widersprüchen in formalisierten
Theorien als Hauptmittel der Widerlegung von Irrtümern in der Wissenschaft zu
benutzen.
Daß dies falsch ist, weil der Satzwiderspruch aus einem wahren und einem
falschen allgemeinen Satz, die im Negationsverhältnis zueinander stehen, zusam-
mengesetzt ist und also nicht ausschließlich falsch sein kann, ist wohl auch
Aristoteles nicht entgangen. Nur hat er sich dazu nicht genau genug geäußert, als
er nur auf das Falsche beim Widerspruch hinwies. Zu dem Begründungsargument
für die übliche Auffassung, es handele sich bei der dann sogenannten Wider-
spruchsfalschheit um ein metasprachliches Phänomen, werden wir weiter unten
Stellung nehmen.
Unter dieser also selbst falschen Voraussetzung geht man davon aus, daß alles
„Logische“, in dem kein Widerspruch nachzuweisen ist, als „wahr“ (oder „gül-
tig“) zu behandeln sei. Das hat zur Folge, daß man einerseits jede noch so phan-
tastische Spekulation, wenn sie nur widerspruchslos ist, als wahr hinnehmen solle.
Es hat auch zur Folge, daß die Wahrscheinlichkeit immer nur hinsichtlich ihrer
49

„Wahrheitsnähe“ thematisiert wurde, nicht aber, wie es richtig wäre, ebenso hin-
sichtlich ihrer Falschheitsnähe.
Wir haben uns demgegenüber bemüht, auf der Grundlage der in der Logik alt-
bekannten „porphyrianischen Bäume“ bzw. der „Begriffspyramiden“ (das sind
„auf den Kopf gestellte“ Begriffsbäume) einen neuen logischen Formalismus zu
entwickeln, der dem alten logischen Ideal der Wahrheits- und Falschheits-
darstellung – und darüber hinaus der Wahrscheinlichkeitsdarstellung – direkt zu
genügen vermag.
Der „pyramidale Formalismus“ beruht auf der prinzipiellen Voraussetzung, daß
die Logik allgemein und ein logischer Formalismus speziell, die intensionalen und
extensionalen Begriffseigenschaften in allen logischen Verhältnissen gemeinsam
beachten und zum Ausdruck bringen muß. Das heißt, daß eine sogenannte rein
intensionale Logik (wie man sie gewöhnlich den Geisteswissenschaften unter-
stellt) ebenso wie eine rein extensionale Logik (auf die sich Mathematiker zu
berufen pflegen) schon deswegen keine Logik sein kann, weil sie nur eine Seite
des logisch Relevanten berücksichtigen.
Diese Verkennung der intensional-extensionalen Verknüpftheit in allen logi-
schen Elementen hat den ungeheuren Aufwand zur Folge, den man bei der
Entwicklung und Ausgestaltung dieser Einseitigkeiten der vermeintlich nur
intensionalen und der nur extensionalen Logik betreibt. Und auch von diesem
Aufwand kann man bei genauem Hinsehen feststellen, daß er immer wieder davon
zehrt, daß auf versteckte oder unbemerkte Weise intensionale Voraussetzungen in
die extensionale, und umgekehrt extensionale Voraussetzungen mehr oder
weniger unbemerkt oder gar dissimuliert in die intensionale Logik eingehen, ohne
welche ja Logik niemals funktionieren kann.
Der in unserer Logik vorgestellte pyramidale Formalismus integriert also beides,
nämlich intensionale und extensionale Logik, wieder zu einem Ganzen. In ihm
werden die gewohnten alphabetischen Notationszeichen (allerdings in Anwen-
dung auf Intensionen von Begriffen, nicht auf „ganze“ Begriffe) mit graphischen
Strukturen für die Anwendung auf Extensionen und auf die Verknüpfungs-
funktion der Junktoren verbunden. Der hier vorgeschlagene pyramidale Graph
formalisiert die logischen Verhältnisse so, daß an ihnen unmittelbar die inten-
sional-extensionale Struktur von Begriffen, ihrer Verknüpfungen mittels der Junk-
toren zu Ausdrücken und Urteilen, und schließlich auch deren Verknüpfung zu
Schlüssen und ganzen Theorien sichtbar und kontrollierbar wird.
In diesem Formalismus wird nicht nur die intensional-extensionale Definition
der im Formalismus vorkommenden Begriffe, sondern auch die „logische
Wahrheit“ der mit ihnen gebildeten Urteile unmittelbar an den regulären Rela-
tionen, die zwischen ihnen in der Pyramidenstruktur bestehen, sicht- und ablesbar.
Erweiterungen zu irregulären Strukturen machen entsprechend sicht- und
ablesbar, was als logisch formalisierte Falschheit und Wahrscheinlichkeit gelten
kann. Damit wird das eingangs genannte Ideal der Logik, Wahrheit, Falschheit
und Wahrscheinlichkeit direkt im Formalismus sichtbar zu machen, verwirklicht.
50

2. Das Verhältnis von logischem und mathematischem Formalismus zu inhalt-


lichen Erkenntnissen bzw. Theorien ist bisher höchst problematisch geblieben.
Man spricht üblicherweise von der Anwendung des Formalismus auf inhaltliches
Erkenntnismaterial und entsprechend von der „Erfüllung“, „Interpretation“,
„Deutung“ und „Modellierung“ des Formalismus durch dieses Erkenntnismaterial.
Aber oft spricht man auch umgekehrt von der „Interpretation“ inhaltlicher Sätze
durch den Formalismus.
Dabei wird gewöhnlich vorausgesetzt, daß der Formalismus als solcher „sinn-
und bedeutungslos“ bzw. „sinnleer“ sei, das materielle Wissen dagegen sinn- und
bedeutungshaltig, jedoch unstrukturiert und vage, so daß es (ohne Formalisierung)
nur in „Intuitionen“ und vagen Vorstellungen gehandhabt werden könne. Man
spricht bei diesem Prozedere der Anwendung des Formalismus auf inhaltliches
Wissen gerne von „logischer Rekonstruktion bzw. Formalisierung einer Intui-
tion“.
Die Unterscheidung von Formalismus und sachlichem Inhalt – die noch immer
von der aristotelischen Unterscheidung von Form und Materie zehrt – führt dann
allgemein zu der Unterscheidung von zwei Sphären mit jeweils eigenen Wahr-
heiten, Falschheiten und Wahrscheinlichkeiten. Es ist dann die Rede von „logisch-
formaler Wahrheit, Falschheit und Wahrscheinlichkeit“ und von „empirischer
Wahrheit, Falschheit und Wahrscheinlichkeit“, die im besten Falle zur Deckung
gebracht werden können, in vielen Fällen aber auseinanderklaffen. Im Extremfall
kommt es dann zu Thesen wie etwa der, daß etwas „logisch wahr“ aber „inhaltlich
falsch“ sein könne oder umgekehrt.
Nun zeigt aber schon eine kleine Überlegung, daß ein Formalismus, der ja aus
logischen bzw. mathematischen Zeichen besteht, niemals sinnleer bzw. inhaltlos
sein kann. Dies ebenso wenig wie ein Zeichen überhaupt ein Zeichen sein kann,
wenn es keine verweisende bzw. semantische Bedeutung hat. Die Frage kann also
nur sein, was die tatsächliche Bedeutung formaler Zeichen und damit des
Formalismus selber ist.
Daß die logisch relevante Bedeutung der in der Logik und Mathematik verwen-
deten großen und kleinen griechischen und lateinischen Buchstaben zunächst
einmal in ihrem Lautwert liegt, den man stets mitverstehen muß, um die
Buchstaben als Zeichen zu lesen, zu erkennen und zu unterscheiden, dürfte auf der
Hand liegen. Ihre genuin logischen Bedeutungen, die zu den sprachlich-lautlichen
Bedeutungen hinzutreten, sind aber selbst auf Begriffe zu bringen. Deren
Intensionen und Extensionen bilden auch in Urteilen, Schlüssen und Argumenten
deren eigenen formalen Sinngehalt. Dieser wird also nicht erst durch einzelne
inhaltliche Beispiele für Begriffe, Urteile, Schlüsse usw. geliefert. In der
Mathematik sind die mathematischen Gebilde wie geometrische Figuren, Zahlen,
Mengen, Strukturen, usw. selbst Sinngebilde. Und das steht zunächst einmal in
auffälligem Widerspruch zu der o. a. Meinung, der Formalismus als solcher sei
sinnleer und bedeutungslos.
51

Neben den Buchstaben benutzt man im logischen und mathematischen Forma-


lismus Verknüpfungszeichen, die sogenannten Junktoren (in der Mathematik
meist Funktoren bzw. Operatoren genannt). Diese hält man schon seit Aristoteles
für sinnleer oder bedeutungslos und geht davon aus, daß sie erst in Verbindung
mit (inhaltlichen) Begriffen (oder ganzen Sätzen) Bedeutung und Sinn erhielten.
Sie wurden daher von Aristoteles „Mit-Bedeutende“ („Synkategoremata“) ge-
nannt.
Gottlob Frege hat die These dahingehend erweitert, daß die Junktoren auch in
Verbindung mit Begriffen keine Bedeutung hätten (er nennt sie „ungesättigte
Funktionen“). Sie erhielten Bedeutung erst in behauptenden Sätzen bzw. Aus-
sagen, und zwar auch in reinen Formalismen. Diese These ist zweifellos inzwi-
schen zu einem Dogma der mathematischen Logik geworden.
Frege hat bei seiner Voraussetzung die Bedeutung der logischen Sätze bzw.
Aussagen grundsätzlich auf nur zwei Gegenstände beschränkt, die er „Wahr-
heitswerte“ nannte, nämlich Wahrheit und Falschheit. Man beachte dabei, daß die
Falschheit hier unter den allgemeineren Begriff „Wahrheitswert“ subsumiert
wurde. Das muß man zumindest als terminologische Fahrlässigkeit bewerten. Er
hätte ihn besser nur „Behauptungswert“ nennen sollen. Damit führte er zwar die
alte Tradition der zweiwertigen klassischen Logik fort, aber er gab ihr auch die als
modern und umstürzend eingeschätzte Wendung, die sogenannten zwei „Wahr-
heitswerte“ Wahrheit und Falschheit direkt zur „Bedeutung“ des Formalismus der
„Aussagenlogik“ zu machen.
Indem Frege für seine mathematische Logik nur die zwei „Wahrheitswerte“ in
Betracht nahm, wirkte seine ihm nachmals zugewachsene Autorität dahin, daß die
Frage nach einem dritten Wahrheitswert, wie ihn das sonst ausgeschlossene Dritte
und der Satzwiderspruch bzw. die sogenannte Wahrscheinlichkeit zweifellos
repräsentieren, auf lange Zeit aus logischen Analysen ausgeschlossen blieb. Wenn
ein dritter und evtl. weitere Wahrheitswerte in den letzten Dezennien diskutiert
werden, so in den speziell entwickelten „drei- und mehrwertigen Logiken“, deren
Zusammenhang mit der traditionellen zweiwertigen Logik und mit der
aristotelischen Modallogik ziemlich unterbelichtet blieb.
Von den von ihm allein festgehaltenen zwei Wahrheitswerten („wahr“ und
„falsch“) als „Bedeutungen“ logischer Aussagen unterschied Frege den „Sinn“
von Aussagen. Der Sinn sollte sich nach Frege unmittelbar an der Verknüp-
fungsweise von Begriffs- und Junktorzeichen ablesen und verstehen lassen. Der
Sinn von formalisierten Aussagen sollte also darin liegen, daß sie etwa positive,
negative, konjunktive bzw. adjunktive, disjunktive, implikative oder (wie in
mathematischen Gleichungen und den darin vorkommenden Rechenausdrücken)
äquivalente Ausdrücke darstellen. Auch diese „Sinngebung“ des Formalismus
kann inzwischen als kanonisch in der mathematischen Logik gelten. Sie wider-
spricht jedoch dem, was Frege selber „Ungesättigtheit“ solcher Zeichenverbin-
dungen genannt hat.
52

Frege übernahm seine Unterscheidung von Sinn und Bedeutung des logischen
bzw. mathematischen Formalismus aus der Hermeneutik.27 Das hat den mathe-
matischen Gleichungs-Formalismus grundsätzlich „mehrdeutig“ gemacht. Die
Fregesche Unterscheidung von Sinn und Bedeutung reproduziert ersichtlich die
alte hermeneutische Unterscheidung von vordergründigem Literalsinn eines
Textes (bei Frege der „Sinn“ der Formeln der Aussagenlogik bzw. mathe-
matischer Formeln) und „geistigem“ oder „mystischem“ Hintersinn (bei Frege die
beiden Wahrheitswerte „Wahrheit“ und „Falschheit“ als „Bedeutungen“ des
Formalismus). Diese Unterscheidung von Literalsinn und „Hintersinn“ (= Be-
deutung) wurde schon seit Philon von Alexandrien (ca. 25 v. Chr. – ca. 50 n. Chr.)
und Augustinus (354 – 430 n. Chr.) für die Interpretation der heiligen Schriften,
dann auch in der juristischen Gesetzesinterpretation entwickelt. Sie ist seither in
der Hermeneutik aller Textwissenschaften verbreitet worden. In der mittelalter-
lichen Logik aber war die Lehre von den „Suppositionen“ (d. h. das als gemeint
„Unterstellte“) der Zeichen ein bedeutendes Lehrstück über die mehrfache Be-
deutung bzw. des Sinnes von Wörtern, wobei zwischen Bedeutung und Sinn nicht
unterschieden wurde.
Durch Freges (implizite) „logische Hermeneutik“ des Doppelsinnes wurde der
logische Formalismus grundsätzlich zu einer eigenen „formalen Sprache“ ge-
macht. Frege selbst bemühte sich in einem seiner Hauptwerke, für diese formale
oder „ideale“ Sprache eine neue „Begriffsschrift“ zu entwickeln. 28
Daran war soviel richtig, daß es bei den üblichen logischen Formalismen tat-
sächlich um eine Notationsweise von ausgewählten sprachlichen Elementen geht.
Das zeigt sich in der Verwendung von Buchstaben und im gemeinsprachlichen
Sinn der meisten Junktoren. Falsch jedoch war es, den Formalismus als solchen
für eine selbständige Sprache zu halten. Keiner spricht „Mathematik“, und die
Formalismen werden auch nicht übersetzt, sondern in allen Sprachen in derselben
Gestalt notiert. Gleichwohl hat sich seither die Auffassung, die Logik und insbe-
sondere die mathematische Logik seien insgesamt „formale Sprachen“ (oder
„Idealsprachen“) ziemlich allgemein durchgesetzt. Und auch das widerspricht
ersichtlich der sonst herrschenden Meinung, der Formalismus sei als solcher
sinnleer. Entsprechend dieser Sprachauffassung vom Formalismus wurden auch
immer mehr grammatische Kategorien in die mathematische Logik übernommen.
Man spricht seither von „logischer Semantik“, womit man die „Bedeutungslehre“
als Lehre von den Wahrheitswerten meint, von „logischer Syntax“, was die
Verknüpfungsweisen mit ihrer „Sinn“-Befrachtung meint, und von „logischer
Pragmatik“, den methodischen Benutzungsweisen der vorgeblichen Idealsprache.

27
W. Hogrebe, Frege als Hermeneut (Bonner Philosophische Vorträge und Studien 16), Bonn 2001, S. 19 sieht Freges
hermeneutische Erkenntnis wesentlich darin, daß er von „nichtpropositionalen Ahnungen“ des Gemeinten speziell bei
undefinierbaren axiomatischen Begriffen spricht, zu denen auch „Sinn“ und „Bedeutung“ gehören sollen. – Zur „dogmati-
schen Hermeneutik der Mathematik“ vgl. den entsprechenden Abschnitt in § 44.
28
G. Frege, Begriffschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879; jetzt in:
G. Frege, Begriffsschrift und andere Aufsätze, hgg. von I. Angelelli, Darmstadt 1964.
53

Nun ist es schon an sich bedenklich, bezüglich des logischen bzw. mathe-
matischen Formalismus von einer besonderen Sprache zu reden. Wie schon ge-
sagt, keiner spricht oder schreibt „Logik“ oder „Mathematik“. Wären Logik und
Mathematik Sprachen, so müßten sie sich in andere Sprachen übersetzen lassen.
Es wäre ausgeschlossen, logische oder mathematische Formalismen in allen Kul-
tursprachen als Notationssystem gleicherweise zu verwenden und in diesen Ge-
meinsprachen zu interpretieren. Man kann allenfalls „logisch“ reden oder „mathe-
matisch“ argumentieren. Aber dabei werden nur logische oder mathematische
Denkstrukturen in einer inhaltlichen Bildungssprache verwendet.
Es scheint den Logikern und auch den Mathematikern gänzlich entgangen zu
sein, daß die logischen Junktoren durchweg aus der Gemeinsprache übernommene
und somit selbst eine sprachliche Bedeutung mit sich führende logische Elemente
sind. Ihre logische Bezeichnung geschieht deshalb auch durch logisch-formale
Zeichen, die nur stenographische Kürzel für bestimmte Verbindungswörter der
Gemeinsprache sind, die man in der Regel auch sprachlich sogleich versteht. Was
„und“ („“), „oder“ („“), „wenn... dann“ („“) „ist“ („“), „ist gleich“ („“)
und „nicht“ („“ bzw. „ “) bedeuten, steht in jedem guten Wörterbuch jeder
Einzelsprache. Dasselbe gilt aber auch von den meisten mathematischen Junk-
toren, die man als Rechenzeichen kennt. Einige von ihnen haben dieselbe Be-
deutung wie bestimmte logische Junktoren. Insbesondere muß auch hier betont
werden, daß das mathematische Gleichheitszeichen mit der logischen Äquivalenz
identisch ist, keineswegs aber mit der Kopula (dem „ist“). Einige mathematische
Junktoren aber bilden spezifisch mathematische Begriffe und Ausdrücke, die kein
logisches oder sprachliches Pendant haben.
Es gehört also schon ein besonderer Sinn für Mystisches dazu, sich beim
formalen Gebrauch dieser Zeichen nicht an ihre gemeinsprachliche Bedeutung zu
erinnern oder sich gar eine andere als die gemeinsprachliche Bedeutung vorzu-
stellen. Der Umgang mit diesen Junktoren in der Logik und Mathematik besteht
gerade darin, ihre gemeinsprachliche Bedeutung in den Formalismus zu über-
tragen.
Irreführend ist daher die häufig anzutreffende Darstellung, die Bedeutung der
Junktoren nähere sich nur gelegentlich und gar zufällig der gemeinsprachlichen
Bedeutung mehr oder weniger an und sei dann geradezu deren logisch und mathe-
matisch exaktere Fassung. Sind aber diese für die Logik tragenden Elemente der
Junktoren schon selber Bestandteile der Gemeinsprache, so kann das Verhältnis
von Formalismus und Sprache keineswegs als dasjenige von zwei verschiedenen
Sprachen - einer formalen und einer inhaltlichen - angesehen werden.
Der Abendländer ist gewohnt, seine Sprache wesentlich als geregelte Lautarti-
kulation aufzufassen, wobei die Schrift als Wiedergabe der Lautungen dient, die
Bedeutungen aber unabhängig von der Lautung hinzugedacht werden müssen. Im
allgemeinen hat er keine Übung im Umgang mit ikonischen Schriften, die nicht
die Lautung, sondern unmittelbar die Bedeutungen von Wörtern in anschaulichen
Bildern oder Symbolen notiert, wie es etwa im Rebus oder auch im Chinesischen
54

der Fall ist (wobei freilich manche chinesischen Schriftzeichen zugleich auch
einen Aussprachelaut mitrepräsentieren, wie das ja auch bei den alphabetischen
logischen Zeichen der Fall ist).
Die üblichen logischen und mathematischen Formalismen sind nach dem
Vorbild abendländischer Lautschriften entwickelt worden. Das sieht man schon
äußerlich daran, daß sie wie Texte in Zeilen von links nach rechts, und die Zeilen
untereinander geschrieben werden. Daher gleichen formalisierte Argumentationen
noch immer sprachlichen Texten, gelegentlich auch Versen.
Der Vorteil dieser „Schrift“ liegt darin, daß sie in allen Sprachen und Lautungen
gelesen und verstanden werden kann. Und nur deshalb gibt es bei dieser formalen
Notation kein Übersetzungsproblem in andere Sprachen. Sicherlich ist sie des-
wegen von Leibniz als „characteristica universalis“ (universelles Zeichenreser-
voir) bezeichnet worden.
In der Mathematik haben seit der Antike geometrische Sachverhalte als Veran-
schaulichungsmittel arithmetischer Verhältnisse gedient, und sie dienen auch bis
heute nicht nur in der Didaktik diesem Zweck. In der Logik sind seit der Spät-
antike auch Strukturbilder (sog. Graphen oder Diagramme), vor allem Baum-
schemata (und diese umgedreht in der Neuzeit als Pyramidenschemata) für die
Darstellung von Begriffsverhältnissen, vor allem der Hierarchie von Gattung,
Arten und Unterarten verwendet worden. Durch Raimundus Lullus in der Scho-
lastik, G. W. Leibniz, J. C. Lange (1712), Leonard Euler (1768) im 18. Jahrhun-
dert und vor allem durch John Venn im 19. Jahrhundert sind dann Kreise als
Bilder von Begriffsumfängen eingeführt worden. 29 Dadurch ließen sich auch
Implikations- und Inklusionsverhältnisse sowie Teilidentitäten von Begriffen
durch Einschreiben von kleineren in größere Kreise oder durch Überschneidungen
von Kreisen bildlich darstellen. Und da diese Verhältnisse auch als Urteile und
Schlüsse gelesen werden können, wurden dadurch auch diese z. T. bildlich
repräsentiert.
Man hält solche graphischen Darstellungen gewöhnlich nur für Hilfsmittel,
unterschätzt sie damit aber sehr. Denn in der Tat handelt es sich dabei um ikoni-
sche Notationen, die wenigstens einige logische Sachverhalte unmittelbar sinn-
lich-anschaulich darstellen und andere sonst nötige Notationen entbehrlich
machen. Unser Vorschlag einer neuen „pyramidalen“ Notation für den logischen
Formalismus knüpft an diese Tradition an, indem er bisherige lautschriftliche und
ikonische Repräsentationen der logischen Verhältnisse vereinigt.

3. Die logischen und mathematischen Anteile der Bildungssprache sind natur-


gemäß nur demjenigen zugänglich und verfügbar, der die hier vorkommenden
logischen und mathematischen Begriffe kennt. Das gilt aber allgemein von allen

29
John Venn, On the Diagrammatic and Mechanical Representations of Propositions and Reasoning, in: The London,
Edinburgh and Dublin Philosophical Magazine 10, S. 1-18, London 1880. Vgl. dazu G. Wolters, Art. „Venn-Diagramme“
in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 4, Stuttgart-Weimar 1996, S. 496 – 498;
ders., Art. “Diagramme, logische“, ibid. Band 1, Mannheim-Wien-Zürich 1980, S. 462 – 463.
55

wissenschaftlichen Teilen der Bildungssprache. Ein guter Mathematiker hat er-


sichtlich dieselben Schwierigkeiten mit den Begriffen etwa der Literaturwissen-
schaftler wie umgekehrt der Literaturwissenschaftler mit den Begriffen der
Mathematiker.
Die Fachbegriffe der Logik, die im Formalismus dargestellt werden, sind selbst
Begriff (dazu Intension und Extension bzw. Merkmal und Umfang), Subjekts-
begriff, Prädikatsbegriff, Gattung, Art, Individuum, Junktor, Urteil bzw. Aussage,
Schluß, Prinzip, Axiom, Argument, Identität, Widerspruch, Drittes u. s. w. Die der
Mathematik, soweit sie in der mathematischen Logik gebraucht werden, sind etwa
Einheit, Allheit, Zahl, Größe, Menge, Element, Unendliches (Infinites, Infinitesi-
males), Gleichung, Ungleichung, Abbildung, Summe, Differenz, Produkt, Quo-
tient, Differentialquotient, Integral, Struktur, Axiom, Theorem, Beweis usw. Und
nicht zuletzt sind, wie vordem schon gesagt, auch Wahrheit, Falschheit und Wahr-
scheinlichkeit sowohl in der Logik wie in der Mathematik einschlägige Begriffe.
Diese Grundbegriffe werden im Formalismus durch jeweils spezifische Zeichen
notiert. Hinzu kommen dann die „stenographischen“ Kürzel für die Junktoren.
Schließlich spielen auch die Zitatzeichen eine bedeutende und in der neueren
Logik geradezu ausschlaggebende Rolle. Oft werden sie nach mathematischem
Brauch als einfache oder mehrfache Klammern notiert.
Man sollte sich allerdings von dem Vorurteil freimachen, die logischen und
mathematischen Begriffe seien schon als solche klar und deutlich und hätten in
allen Verwendungen eine unumstrittene einzige Bedeutung. Mehr oder weniger
sind sie genau so umstritten und werden ebenso problematisiert, wie das in der
Regel für jeden Begriff anderer Disziplinen und Wissenschaften gilt. Vor allem
hat man damit zu rechnen, daß sich hinter einem als eindeutig eingeschätzten und
verwendeten logischen oder mathematischen Begriff Mehrdeutigkeiten verbergen,
die oft nicht erkannt werden und dann in der Verwendung zu widersprüchlichen
Folgerungen führen. Nicht zuletzt steht fast hinter jedem wissenschaftlichen
Begriff eine „etymologische“ Geschichte seines Bedeutungswandels, die zum
Verständnis seiner jeweils aktuellen Bedeutung oftmals in Betracht zu nehmen ist.
Die Ausbildung des logischen Formalismus geht auf Aristoteles zurück, der
logische Begriffe (Subjekt- und Prädikatsbegriffe) durch griechische Buchstaben
(die aber auch als Zahlen gelesen werden können) bezeichnete, die Junktoren
dabei aber in der Gemeinsprache ausdrückte. Für den mathematischen Formalis-
mus hat man seit ältesten Zeiten geometrische Gebilde wie Punkte, Strecken,
Flächen und Körper als Zeichen für Zahlen und Zahlverhältnisse benutzt. Auch
die speziellen Ziffern als Zahlzeichen verdanken sich wohl diesem Verfahren,
anschauliche Gruppierungen von Gegenständen durch ihr stilisiertes Bild darzu-
stellen. Erst seit der Renaissance wurden für gewisse Zahlen bzw. Begriffe von
Zahlen auch die in der Logik schon lange üblichen Buchstaben verwendet, was
dann zu einer schnellen Blüte der sogenannten Buchstabenrechnung und der
sogenananten analytischen Geometrie führte.
56

Betrachten wir einige grundlegende Züge des traditionellen logischen For-


malismus und knüpfen zugleich einige kritische Bemerkungen daran, die uns
veranlaßt haben, selber den neuen „Pyramiden“-Formalismus für die Logik
vorzuschlagen.
Wir haben an den traditionellen logischen Zeichen des Formalismus in erster
Linie zu beanstanden, daß ihre Grundzeichen für Begriffe – etwa „A“ und „B“ -
keine echten Radikalzeichen sind, sondern ihrerseits schon für recht komplexe
logische Sachverhalte stehen. Diese Buchstaben verdecken nämlich den Aufbau
dieser komplexen Gebilde aus elementaren Bestandteilen. Bei den Begriffen ist es
der Aufbau aus den Intensionen und Extensionen (Merkmale und Umfänge), aus
denen sich jeder Begriff zusammensetzt. Diese Dissimulationswirkung des logi-
schen Formalismus hat zur Folge, daß vieles, was im logischen Prozedere
betrieben wird, nur auf eine Kompensation von Unklarheiten hinausläuft, die die
damit operierenden Formalismen selbst erzeugen.
Was wir damit meinen läßt sich an den chinesischen Schriftzeichen für die
Begriffe zeigen, die aus Radikalen und Kombinationen aus Radikalen, und zwar
bis zu sechs Radikalen in einem einzelnen Schriftzeichen, bestehen. So gibt es im
Chinesischen z. B. ein Radikalzeichen für „Frau“ (nü) und für „Kind“ (zi), die
auch als stilisierte Bilder einer Frau und eines Säuglings entstanden sind. Jeder
chinesische Schüler lernt in der Grundschule, daß diese Zeichen stilisierte Bilder
sind. Werden diese zu einem einzigen (komplexen) Zeichen nebeneinander
gestellt, so erhält man das Schriftzeichen für „gut“ (hao), und jeder gebildete
Chinese versteht dadurch ganz anschaulich, was nach altchinesischer Tradition
überhaupt „gut“ sein kann.
Diese Bildungsweise der chinesischen Schriftzeichen für Wörter und Begriffe
entspricht aber genau dem, was wir in unserem „pyramidalen“ Formalismus für
die Notation der Intensionen bzw. Merkmale als der eigentlichen logischen Ra-
dikale, aus denen Begriffe zusammengesetzt sind, vorgeschlagen haben. Werden
sie sichtbar gemacht, so erübrigt sich jede „Definition“ der Begriffe. Man sieht an
den Buchstabenkombinationen in einem Begriff auf einen Blick, was an ihm
„generische Merkmale“ allgemeinerer Begriffe sind, unter die er fällt, und was
seine spezifische Differenz gegenüber gleichrangigen Nebenbegriffen (bzw. sei-
nen Negationen) und zugleich zu seinen Oberbegriffen ist. Vor allem aber sieht
man auch, welches (oder welche) Merkmale die axiomatischen Spitzenbegriffe
enthalten, durch die sie definierbar sind. Und das zeigt, daß die traditionelle These
von der Undefinierbarkeit der Axiome falsch ist.
Durch die Intensionen ist zugleich auch die Einordnung jedes Begriffs in eine
klassifikatorische „Begriffspyramide“ festgelegt, die die zugehörigen Quantifika-
tionen, insbesondere diejenigen der in seinem jeweiligen Umfang liegenden
Unterbegriffe, graphisch zum Ausdruck bringt. (Vgl. dazu § 9).
Entsprechendes ist kritisch zur „aussagenlogischen“ Notation von Urteilen bzw.
Sätzen (auch nach englischem Vorbild „Propositionen“ genannt) zu sagen. An den
hier verwendeten Zeichen für ganze Sätze „p“ und „q“ läßt sich nicht erkennen,
57

wie die Sätze aus Subjekts- und Prädikatsbegriffen zusammengesetzt sind (was in
der klassisch-logischen Notation etwa als „S ist P“ wenigstens noch zum Teil
gewährleistet war). Schon gar nicht wird dadurch die Verknüpfungsweise durch
spezielle Junktoren, einschließlich auch der Quantoren, sichtbar gemacht. Wird
das Satzsymbol („p“) durch ein vorgesetztes Negationszeichen spezifiziert („-p“,
d. h. „nicht p“), so wird dies gewöhnlich als Notation eines falschen Satzes
erklärt. Tatsächlich können negierte Sätze aber auch wahr sein, ebenso wie umge-
kehrt positive Sätze falsch sein können.
Vor allem läßt sich zeigen, daß im Urteil keineswegs immer „ganze“ Begriffe
als Prädikate mit dem Subjektsbegriff verbunden werden, sondern oft auch nur
reine Intensionen. Damit erübrigen sich auch viele Fragen nach der vermeint-
lichen begrifflichen und insbesondere ontologischen Natur der Prädikate, um die
sich seit dem Mittelalter der Universalienstreit vergeblich bemüht. Man sucht
seither nach dem ontologischen Ort z. B. des Begriffes „Röte“, während man bei
seiner prädikativen Verwendung im Urteil doch nur dem Begriff von Fläche oder
Ausdehnung eine pure Intension als Merkmal „rot“ zuspricht.
Ebenso wird im Formalismus der Schlüsse ohne weiteres sichtbar, warum sie
„gelten“ - und auch, daß einige klassische Syllogismen des Aristoteles keineswegs
„gültig“ sein können. Insbesondere kann gezeigt werden, daß die bei den aristote-
lischen Syllogismen vorkommenden partikulär und individuell quantifizierten
Sätze keineswegs Urteile mit einem für Urteile erforderlichen Behauptungssinn
sein können. Sie sind vielmehr Definitionen und müßten als Gleichungen bzw.
Äquivalenzen notiert werden.

4. Ist der Formalismus eine Spezialschrift eines Teils der spezialisierten Bildungs-
sprache, so ergibt sich von selbst, daß man mittels des Formalismus über den
Formalismus selbst reden und verhandeln kann, ebenso wie man in der Sprache
auch über die Sprache selbst reden und verhandeln kann. Und nicht weniger muß
dann gelten, daß man in der Bildungssprache über den Formalismus und mittels
des Formalismus über die Bildungssprache reden kann.
Dieses „Reden über ...“ wird in der Logik und Mathematik unter dem Titel
„Meta-Verhältnis“ thematisiert. Dabei wird vorausgesetzt, daß dasjenige, was im
Meta-Verhältnis zueinander stehen soll, gänzlich verschiedene Sprachen, nicht
aber Teile einer und derselben Bildungssprache seien.
Die kanonische Meinung ist die, mit der formalen (logischen oder mathema-
tischen) Metasprache ließe sich über die (inhaltliche) Gemeinsprache („Objekt-
sprache“) reden, über die formale Metasprache ihrerseits in einer dann „Meta-
meta-Sprache“ genannten weiteren formalen Sprache, usw. Als bislang ungelöstes
Problem gilt es dann, daß eine letzte Meta-meta...-Sprache wiederum die Gemein-
58

sprache sein müßte, so daß die Meta-Verhältnisse schließlich in einem Be-


gründungszirkel enden.30
Diese Auffassung von den Meta-Stufungen selbständiger Sprachen ist ersicht-
lich von dem Verfahren der Mathematik inspiriert, gewisse Zeichen oder Aus-
drücke in Klammern zu setzten, den Klammerausdruck ggf. wiederum mit
anderen Klammerausdrücken in doppelte Klammern einzuschließen, usw. Beim
Umgang mit diesen „Klammerausdrücken“ gilt dann die Regel, daß man vom
Sinn der eingeklammerten Ausdrücke gänzlich absehen könne, wenn man sich mit
den „höheren“ (Meta-) Sinn- und Bedeutungsstufen befaßt. Das hat eine gewisse
Ähnlichkeit mit dem Zitatwesen. Vom Zitieren und den dabei verwendeten An-
führungszeichen stammt auch die übliche logisch-formale Notation.
Das logische Zitieren und das mathematische Einklammern ist das Hauptmittel
dafür geworden, von inhaltlichen Sprachelementen oder Beispielen zum Forma-
lismus überzugehen. Das geschieht aber im allgemeinen unter der o. a. Voraus-
setzung der zwei gänzlich unterschiedenen Sprachen: der inhaltlichen Gemein-
oder Wissenschaftssprache und der rein formalen Ideal- oder Metasprache, die
dann noch mehrere Meta-Sprachstufen enthalten können soll.
Wer also den gemeinsprachlichen Satz: Der Schnee ist weiß, dessen Sinn in
einer Behauptung über die Farbe des Schnees besteht (und der überdies als
„analytisch wahr“ verstanden wird, weil es eben ein Merkmal des Schnees ist,
weiß zu sein), logisch als Zitat „Der Schnee ist weiß“ notiert, der sollte nach
dieser Sprachstufenunterscheidung in der logischen Metasprache damit nur
meinen, daß das Zitat ein logischer (im Beispiel überdies ein analytisch wahrer)
Behauptungssatz sei, und er sollte dabei gänzlich vom Sinn des Ausgangssatzes
absehen können.
Nach demselben Schema geht man vom Zitat zum Zitat des Zitats und damit
von der Meta- zur Meta-metasprache über. Die gemeinsprachliche Behauptung
Der Schnee ist weiß wird zum metasprachlichen (wahren) Satz „Der Schnee ist
weiß“, und dieser wird (nach Alfred Tarski) als ‚ „Der Schnee ist weiß“ ‟ zu
einem Begriff (bzw. zum Namen) eines wahren Satzes in der Meta-metasprache.31
Der logische und mathematische Anfänger hat bekanntlich die größten Schwie-
rigkeiten, diesen Vorgang des „Abstrahierens“ (Wegsehens) vom Zitat- oder
Klammersinn einzusehen und zu lernen. Meistens bemißt man logische und
mathematische Begabung gerade an dieser zu erwerbenden Fähigkeit des vor-
geblich abstrakten Denkens. Aber wie uns scheint, ganz zu Unrecht. Denn der sich
dabei sträubende gemeine Verstand des Lernenden hat die Erfahrung auf seiner
Seite, daß er ohne Verstehen und Festhalten des Behauptungssinnes des Aus-

30
Vgl. S. C. Kleene, Introduction to Metamathematics, Amsterdam-Groningen 1952; L. Borkowski, Formale Logik.
Logische Systeme – Einführung in die Metalogik (aus dem Polnischen 1968), Berlin 1976, 2. Aufl. München 1977; H.
Rasiowa and R. Sikorski: The Mathematics of Metamathematics, 3. Aufl. Warschau 1970.
31
Vgl. A. Tarski, Der Wahrheitsbegriff in den formalisierten Sprachen, in: Studia Philosophica 1, 1935, S. 261 - 405. ND
in: Logik-Texte, hgg. v. K. Berka und L. Kreiser, Berlin 1971, S. 445 - 559, 4. Aufl.. 1986, S. 443 - 546; A. Tarski, Die
semantische Konzeption der Wahrheit und die Grundlagen der Semantik, 1944, in: Wahrheitstheorien, hgg. von G.
Skirbekk, Frankfurt a. M. 1977, S. 140 – 188.
59

gangssatzes keineswegs nachvollziehen kann, daß und warum das Zitat überhaupt
ein Satz sein soll. Und noch weniger kann er nachvollziehen, daß und warum das
Zitat des Zitats einen logischen Begriff bzw. den „logischen Namen“ eines
wahren Satzes (wie Tarski behauptet) darstellen soll. Er muß dies als pure „aus-
sagenlogische“ Konvention zur Kenntnis nehmen.
Wir halten diese logische und mathematische Konvention einer vorgeblichen
Sinn-Eliminierung durch Zitatzeichen und Klammern (neuerdings spricht man
hier von „Deflation“) für irreführend und überflüssig. Mit dem hermeneutischen
Commonsense sind wir der Meinung, daß Zitatzeichen und Klammern keineswegs
die Sinnhaltigkeit logischer Zeichen eliminieren oder neutralisieren, sondern ihren
eigenen Zeichensinn zum Sinn des Zitierten hinzufügen. Und genau dies macht
erst ihren Gebrauch in der Logik verständlich und gemäß vollziehbaren Regeln
beherrschbar. Eine kleine Überlegung zum Zitieren in der hermeneutischen Praxis
der Geisteswissenschaften kann dies zeigen.
Der eigene Sinn der Zitatzeichen in der Schriftsprache ist grundsätzlich der, das
Zitierte hervorzuheben und die Aufmerksamkeit darauf zu lenken (wir machen
davon im vorliegenden Text reichlich Gebrauch!). Das Zitierte erhält dadurch den
Doppelsinn einer inhaltlichen (semantischen) Bedeutung und einer formalen
(syntaktischen) Bedeutung. Es war ersichtlich diese Doppeldeutigkeit, die G.
Frege zu seiner Unterscheidung von Sinn und Bedeutung veranlaßte. Ein drittes
und weitere Zitatzeichen werden zwar beim mathematischen Einklammern ver-
wendet, das kommt aber in der sprachlichen Verwendung nur in Ausnahmefällen
vor. Man kann damit allenfalls signalisieren, daß etwa ein Autor ein Wort, einen
Ausdruck oder einen Satz verwendet hat, den dann ein anderer zitierter Autor von
dem ersten Autor übernahm. Konsequenterweise muß aber auch das zweite Zitat-
zeichen dem Doppelsinn noch einen weiteren Sinn hinzufügen. Und dies führt zu
einer Sinnverdoppelung im Formalismus selber, die nur entweder tautologisch
(„der Satz des Satzes“) oder widersprüchlich („der Satz ist zugleich kein Satz“)
werden kann. Diese Meta-Weiterungen der Logik sind ein Beispiel dafür, wie die
Logik sich auch durch die Metastufentheorie der Sprachen Probleme selber
schafft, die sie dann nicht lösen kann.

5. Um hier weiter zu kommen, ist zu zeigen, daß und wie der logische Forma-
lismus als Spezialschrift für einen Teil der Bildungssprache selber eine Semantik,
d. h. eine inhaltliche genuin logische Bedeutungssphäre besitzt. Wir sagten schon,
daß die Junktoren selbst gemeinsprachliche Bedeutungen festhalten. Ein „und“
oder „oder“ verknüpft – wie in jeder Gemeinsprache – zwei Gegebenheiten. Das
können Intensionen, Extensionen, Begriffe oder Urteile bzw. Aussagen sein.
So bei allen Junktoren mit Ausnahme der in der modernen Logik erfundenen
„Selbstimplikation“. Sie soll etwas Gegebenes mit sich selbst verknüpfen. Aber
derartiges kann in der Tat gar keine Verknüpfung sein. Denn ersichtlich wird
dadurch in widersprüchlicher Weise aus einer Einheit eine Zweiheit gemacht, die
gleichwohl eine Einheit bleiben soll. Vielleicht war Kant für diese Auffassung
60

mitverantwortlich dadurch, daß er in seiner Kategorienlehre die Substanz als


Unterkategorie unter die Relationskategorie stellte. 32 Er definierte dadurch jede
„Substanz“ als eine „selbstbezügliche Relation“. Und das widersprach jedem bis
dahin überkommenenen Substanzverständnis als „selbständige ontologische Ein-
heit“.
Mit der „Selbstimplikation“ werden durchweg logische Widersprüche produ-
ziert, insofern das mit sich selbst Verknüpfte zugleich dasselbe und zweierlei
Unterschiedenes sein soll. Das hat sich in Bertrand Russells paradigmatischem
„Mengenparadoxon“ deutlich erwiesen. Denn die dazu erfundene mathematische
„Menge, die sich selbst enthält“, ist gewiß eine und zugleich zwei Mengen.
Das gilt auch für die Art und Weise, wie man in der Logik die sogenannte
Tautologie notiert, nämlich wie sie J. G. Fichte in seiner „Wissenschaftslehre“ als
„X = X“ (bzw. als Beispiel: „Ich bin Ich“) als ersten logischen Grundsatz der
Position bzw. Einführung eines Begriffs benutzte. 33
Die logische Tautologie gilt zwar (besonders seit L. Wittgensteins „Tractatus
logico-philosophicus“) als exemplarische analytische Wahrheit, insofern sie das
Identitätsprinzip formal darstelle. Aber das ist in zweierlei Hinsicht falsch. Denn
einerseits werden Tautologien nicht als behauptende Urteile mit Wahrheitswerten
formalisiert, sondern als Äquivalenzen bzw. Gleichungen, die eine Identität defi-
nieren sollen. Andererseits stellt eine Tautologie das Identische in der Gleichung
„x = x“ durch gleiche Zeichen dar. Und das widerspricht dem formalen Sinn der
Gleichung bzw. der logischen Äquivalenz, die eine identische Bedeutung durch
verschiedene Zeichen darstellen muß. Schon die stoischen Logiker haben derar-
tige „selbstbezüglichen“ Ausdrücke als „Wiederholungen“ eines und desselben
Elementes aus der Logik ausgeschlossen. Sie haben richtig erkannt, daß durch
solche tautologischen Wiederholungen weder etwas definiert noch behauptet
werden kann. Daß jedoch die logische Tautologie inzwischen als populäre Floskel
in Verkehr geraten ist, sieht man an dem dümmlichen Spruch „eine Rose ist eine
Rose ist eine Rose…“, in welchem auch die (mathematische) Gleichheit mit der
logischen Kopula verwechselt wird.
Bei den dann übrigbleibenden Junktoren ist es außerordentlich wichtig, zwi-
schen zwei gänzlich verschiedenen Arten von Junktoren zu unterscheiden, näm-
lich den ausdrucksbildenden und den urteilsbildenden Junktoren.
Die ausdrucksbildenden Junktoren verbinden nur Begriffe untereinander zu be-
grifflichen (komplexen) Ausdrücken. Ausdrucksbildend sind „und“, “oder“, die
negative Bezeichnung eines Begriffs (z. B. „Nicht-Raucher“) sowie die Quantifi-
katoren „alle“, „einige“, „ein“ und „kein“. Mit ihnen allein läßt sich kein Behaup-
tungssinn ausdrücken. Das zeigen Ausdrücke wie „Max und Moritz“, „Sein oder
Nichtsein“, „Nicht-Raucher“, „ein Ding“, „einige Tiere“, „alle Vögel“, „kein
Mensch“. Derartige Ausdrücke besitzen keinen Wahrheitswert. Setzt man solche

32
I. Kant, Kritik der reinen Vernunft, A 80/B 106, in: I. Kant, Werke, hgg.von W. Weischedel, Band 2, Darrmstadt 1956,
S. 118.
33
J. G. Fichte, Grundlage der gesamten Wissenschaftslehre, 1794, hgg. von W. G. Jacobs, Hamburg 1970, S. 12 – 15.
61

Ausdrücke z. B. als Subjekte oder Prädikate in behauptende Urteile ein, kompli-


ziert dies die Urteilsformen beträchtlich. Und das hat in neueren Zeiten zur Ent-
wicklung von Prädikatenlogiken höherer Stufen geführt.
Besonders sei hier betont, daß auch der mathematische Äquivalenzjunktor „ist
gleich“ (bzw. „=“) zu den ausdrucksbildenden Junktoren gehört. Er dient zur
Definition von Begriffen und begrifflichen Ausdrücken durch jeweils andere
Begriffe. Dies ist jedermann (in sprachlichen Beispielen) bei Synonymen in einer
Sprache oder im Verhältnis verschiedener Sprachen geläufig, wo zwei verschie-
dene Wörter eine und dieselbe Bedeutung besitzen. Bei Definitionen erläutert man
– wie in Sprachwörterbüchern üblich - eine und dieselbe Bedeutung eines Begriffs
(oder Wortes) oder Ausdrucks durch einen anderen, wie z. B. „Armut = Pauvreté“
oder „Wasser = H2O“.
In der modernen Logik wird diese Äquivalenz auch als „gegenseitige Impli-
kation“ bezeichnet und mit „Wenn A dann B, und wenn B dann A“ oder kürzer
mit „A dann und nur dann wenn B“ formalisiert. Dies ist jedoch eine irreführende
Notationsweise, da die Implikationen Wahrheitswerte besitzen und die „doppelte
bzw. gegenseitige Implikationen“ suggeriert, dies sei auch bei Äquivalenzen der
Fall.
In der Mathematik spielen die Gleichungen eine erheblich größere Rolle als in
der Logik. Fast alles, was in der Mathematik artikuliert wird, bedient sich dazu
der Gleichungen.
Daß die Gleichung in der Mathematik diese Bedeutung erlangt hat, dürfte auf
Euklids Behandlung des Themas „Gleichheit“ in seinem Lehrbuch „Elemente“ zu-
rückzuführen sein. Dieses Werk ist bekanntlich bis ins 19. Jahrhundert das para-
digmatische Lehrbuch der Mathematik im Abendland gewesen. Mathematiker
haben es stets als Muster für den Aufbau einer wissenschaftlichen Disziplin ge-
schätzt. Auch von den „trivialen“ Logikern ist seine Methodik der Voranstellung
von begründenden Axiomen und Ableitung von Folgesätzen aus diesen als „Mos
geometricus“ geschätzt worden. Manche Lehrbücher einzelner Disziplinen im 17.
und 18. Jahrhundert betonen im Untertitel, daß sie „more geometrico demonstra-
ta“ (nach geometrischer Weise des Euklid) aufgebaut und in allen Teilen bewiesen
seien.34
In § 19 wird über Euklid ausführlicher berichtet, so daß hier nur auf dasjenige
hingewiesen zu werden braucht, was aus seinem Werk bei den Gleichungen rele-
vant geworden ist.

34
Prototypisch dafür war die Darstellung seiner eigenen Philosophie durch Descartes unter dem Titel „Renati Des Cartes
Principiorum philosophiae pars I et II, more geometrico demonstratae, Amsterdam 1644 u. ö. B. Spinoza hat die Philo-
sophie des Descartes unter demselben Titel bearbeitet und in Amsterdam 1663 veröffentlicht. Auch sein postum veröf-
fentlichtes Hauptwerk „Ethica, ordine geometrico demonstrata“ (in seinen Opera posthuma), Amsterdam 1677 trug we-
sentlich zur Verbreitung bei. In Deutschland hat sich vor allem Chr. Wolff für den mos geometricus stark gemacht und ihn
als „methodus scientifica“ in seinen zahlreichen lateinischen Disziplinendarstellungen verbreitet. Vgl. dazu besonders
seinen „Discursus praeliminaris de Philosophia in genere / Einleitende Abhandlungen über Philosophie im Allgemeinen,
(1728), historisch-kritische Ausgabe, übers., eingel. und hgg. von G. Gawlik und L. Kreimendahl, Stuttgart-Bad Cannstatt
1996. Im Gegensatz zum modernen Axiomenverständnis legte Wolff größten Wert darauf, daß die axiomatischen Begriffe
klar und deutlich definiert sein müssen, um aus ihnen Folgesätze ableiten zu können.
62

Euklid thematisiert die Gleichheit nach der Behandlung der Definitionen und
Postulate.35 Es handelt sich bei seinen Ausführungen darüber offensichtlich um
Einsichten, die an den Eigenschaften der Waage gewonnen wurden, die hier als
Modell für den Umgang mit Gleichem und Ungleichem dient. Andernfalls wären
diese angeblichen „Axiome“ unverständlich. Hauptsache dabei ist die Vorstellung
vom Gleichgewicht, die man an jeder Waage mit zwei gleichen Hebelarmen (in
gerader Linie und parallel zum Horizont, bei Euklid „Ebene“ genannt) beobachten
kann.
Machen wir aber auch auf die Dialektik aufmerksam, die in die platonisch-
euklidische Mathematikbegründung eingebaut ist, und die sich auch am Waage-
modell erweist. Die hier herausgestellte Gleichheit der beiden Seiten beruht er-
sichtlich zugleich auf der Ungleichheit ihrer Ausrichtung, also auf ihrem Gegen-
satz, d. h. auf der Ungleichheit ihrer (vektoriellen) Ausrichtung. Diese Dialektik
macht sich später noch in Newtons Definition der Kräfte bemerkbar, wonach be-
kanntlich jede Kraft einer entgegengesetzten Kraft „gleich“ sein soll, obwohl sie
ihr in dieser Entgegensetzung gerade „ungleich“ ist.
Die Erfahrung lehrt, daß der Gleichgewichtszustand einer Waage sich auch
dadurch aufrecht erhalten läßt, daß man verschiedene Gewichte in jeweils ver-
schiedenen Abständen vom Aufhängepunkt der Waage anbringt. Jedes Wiegen
und Wägen besteht ja darin, daß man ausprobiert, welche Gewichte in welchen
Abständen vom Aufhängepunkt die Waage im Gleichgewicht halten. Dies ge-
schieht in kontinuierlichen Veränderungen der jeweiligen Gewichte und der Ab-
stände vom Aufhängepunkt der Waagebalken. Damit aber ergibt sich auch die
Modellvorstellung für das jenige, was man seither bei den Umwandlungen von
Gleichungen in einfachere oder komplexere Gestalten (sog. Kürzen oder Herüber-
nehmen von Ausdrücken der einen auf die andere Seite unter Auswechseln der
Rechenjunktoren) praktiziert.
Ein entscheidender Schritt in der Entwicklung der Mathematik war dann die
Ablösung der Arithmetik von jeder geometrischen Veranschaulichung in der soge-
nannten Algebra, und zwar unter Beibehaltung der Gleichung als Hauptmittel der
methodischen Artikulation. Was man als geometrische Gleichung jederzeit mit
Pythagoras demonstrieren kann, nämlich die Gleichung a² + b² = c² (Flächen-
Summe der Kathedenquadrate = Flächen-Summe des Hypothenusenquadrats am
rechtwinklichen Dreieck) läßt sich rein arithmetisch keineswegs für beliebige
Zahlen beweisen. Für a = 3, b = 4, c = 5 ist es auch eine arithmetische Gleichung.
Für a = 2, b = 3, c = 4 ist es keine Gleichung, obwohl es so erscheint. Damit er-
öffnet sich ein ungeheures Problemfeld für diese neue Disziplin, nämlich der
Nachweis, ob solche Formeln überhaupt Gleichungen sind oder nicht, und welche
Zahlenwerte sie „erfüllen“, damit sie Gleichungen bleiben. Irgendwelche Formeln
als Gleichungen zu notieren, ohne zu wissen, ob es tatsächlich Gleichungen sind,
erfüllt auch in der Mathematik den Tatbestand der Irreführung und Täuschung.
35
Euklid‟s Elemente. Fünfzehn Bücher aus dem Griechischen übersetzt von J. F. Lorenz, neu hgg. von C. Brandan Moll-
weide, 5. verb. Ausgabe Halle 1824, S. 4.
63

Die von den ausdrucksbildenden Junktoren strikt zu unterscheidenden Verbin-


dungspartikel sind die urteilsbildenden Junktoren, die stets einen Behauptungs-
sinn des Urteils produzieren. Urteile besitzen im Unterschied zu Ausdrücken
einen Wahrheitswert, d. h. sie können wahr, falsch oder beides zugleich sein.
Behauptende Urteile werden also nur mittels der urteilsbildenden Junktoren for-
muliert. Die meist gebrauchten sind die Kopula „ist“ und ihre Negation „ist
nicht“, der Existenzjunktor „es gibt“ sowie vier genau unterscheidbare Impli-
kationsjunktoren „wenn ... dann“. Dies sind die allgemeine, materiale, formale
und korrelative Implikation. Sie sind in den üblichen Formalismen bezüglich ihrer
Verküpfungsweise kaum unterscheidbar und werden daher oft miteinander ver-
wechselt. In der pyramidalen Darstellung zeigen sich jedoch ihre Unterschiede
sehr deutlich
Die klassische und die mathematische Logik unterscheiden sich erheblich in
ihrem Verständnis der Bedeutung und Funktion der Junktoren. Viele „klassische“
Logiker halten die Definitionen (als Äquivalenzen) für behauptende Urteile (mit
Wahrheitsanspruch) und sprechen deswegen gerne von „wahren Begriffen“. Wenn
Begriffe als solche jedoch wahr sein könnten, müßte jedes Sprachwörterbuch mit
seinen fremdsprachlichen Äquivalenzen der Lemmata als Wahrheitstresor gelten.
Was wohl niemand behaupten wird.
Auch in der mathematischen Logik und speziell in der Arithmetik gilt die logi-
sche Äquivalenz (die mathematische Gleichung) allgemein als Standardjunktor
für mathematische Behauptungen mit Wahrheitsanspruch. Dabei identifiziert man
oft die Kopula „ist“ mit dem Äquivalenzjunktor „ist gleich“. Wir haben schon
vorn Beispiele für diese „mathematischen Wahrheiten“ und dann sprichwörtlich
gewordenen Alltagswahrheiten genannt wie „2 ∙ 2 = 4“ oder Kants Paradeexempel
für ein „wahres synthetisches Urteil apriori“: „5 + 7 = 12“.
Charles Sanders Peirce hat das mit der Einführung eines besonderen Zeichens
„€ ” sanktioniert, das er aus „C“ (= Kopula für logische „Unterordnung“) und
Äquivalenzjunktor „ = “ (für Gleichungszeichen) kombiniert hat. Er sagt darüber:

“Die Kopula ‚ist‟ wird bald die eine, bald die andere der beiden Beziehungen aus-
drücken, die wir mittels der Zeichen C und = dargestellt haben. ... Ausführlichst
wird dieses Zeichen als ‚untergeordnet oder gleich‟ zu lesen sein“.36

Peirce hat zwar richtig gesehen, daß die logische Kopula eine Unterordnung eines
Subjektbegriffs unter seine Gattung anzeigt, und daß das Gleichheitszeichen die
Bedeutungsidentität zweier Ausdrücke besagt. Aber diesen wesentlichen Unter-
schied in einem neuen Junktor unsichtbar werden zu lassen, hat in der mathe-
matischen Logik große Folgeschäden gehabt.
Der Mathematiker Hermann Weyl dokumentiert, daß die Kantische Auffassung
von der mathematischen Gleichung als behauptendes Urteil sakrosankt war – und
läßt dabei seine Fehleinschätzung der Logik erkennen:

36
Ch. S. Peirce, Vorlesungen I, zitiert nach J. M. Bochenski, Formale Logik , 3. Aufl. Freiburg i. Br. S. 357.
64

„(Beispiel für) ein wirkliches Urteil (ist) 17 + 1 = 1 + 17“.... „Ein Existentialsatz – etwa
‟es gibt eine gerade Zahl‟ - ist überhaupt kein Urteil im eigentlichen Sinne, das einen
Sachverhalt behauptet. Existential-Sachverhalte sind eine leere Erfindung der Logi-
ker“.37

Daß die mathematischen Gleichungsformeln Definitionen ohne Wahrheitswert


sind, bemerkt man schon daran, daß die Zahlbegriffe (d. h. ihre Bedeutungen als
„Größen“) stets durch viele Ausdrücke darstellbar sind und sich somit unterein-
ander ersetzen bzw. „substituieren“ lassen. Man lernt und memoriert diese Defi-
nitionen als „kleines und ggf. großes Einmaleins“. Man weiß dann, daß etwa die
Bedeutung der Zahl 4 dieselbe (identisch) ist mit den Summen 1 + 3, 2 + 2, oder
mit den Differenzen 5 – 1, 7 – 3, oder mit dem Produkt 2 ∙ 2 (und zugleich auch
-2 ∙ -2) , oder mit dem Quotient 8 : 2, oder mit der 2. Potenz von 2, oder mit der
Wurzel aus 16.
Die erstmalige Definition (man spricht jetzt nach S. Kripke vom „Taufereignis“)
neuer Zahlbegriffe (über die in den Beispielen angebenen Ausdrücke für „natür-
liche positive sowie negative Zahlen“ hinaus) ergab sich historisch aus dem
Problem, die Rechenarten über den anschaulichen Bereich abzählbarer Gegen-
stände hinaus auszuweiten.
Subtrahiert man 4 von der 4, so bleibt Nichts übrig. So wurde die Null (lat.:
nullus = keiner) definiert als „4 – 4 = 0“. Subtrahiert man 5 von der 4, so definiert
man eine negative Zahl: „4 – 5 = – 1“. Multipliziert man eine Zahl mit sich
selbst, so definiert man eine Potenzzahl: 4 ∙ 4 = 16“. Teilt man 1 durch 3, so defi-
niert man eine Irrationalzahl: „1 : 3 = 0,333...“ Zieht man die 2. Wurzel aus einer
negativen Zahl, so definiert man eine imaginäre Zahl: „√-4 = 2i“, usw.
Das Definieren neuer Zahlarten und Unterarten von Zahlen läßt sich beliebig
ausweiten und ist längst über jeden Verständnishorizont von Nicht-Mathematikern
ausgeweitet worden. Die Definition einer neuen Zahlart gilt jedoch in der Mathe-
matik und mathematischen Logik als Entdeckungsleistung und Einsicht in neue
Wahrheiten. Aus der Sicht der klassischen Logik aber handelt es sich dabei um
die Ausweitung eines fachspezifischen arithmetischen Synonymenlexikons.
Algebraische Funktionsgleichungen (mit „Unbekannten“, z. B. x, y), die sich
einer geometrischen Veranschaulichung gänzlich entziehen, werden zwar wie die
analytischen (auf die Geometrie bezogenen) als Gleichungen notiert, eben weil
man die Gleichungen für Behauptungssätze hält. Sie sind aber korrelative Impli-
kationsurteile, die in der Form: „wenn es ein so beschaffenes y gibt, dann gibt es
(auch) ein so oder anders beschaffenes x“ (oder: „y → (f)x“) zu formalisieren
wären. Sie können deswegen im Gegensatz zu normalen bzw. echten Äquivalenz-
Gleichungen des Typs „y = (f)x“ wahr oder falsch sein. In ihnen werden rein

37
H. Weyl, Über die neue Grundlagenkrise der Mathematik (1921), in: O. Becker, Grundlagen der Mathematik in ge-
schichtlicher Entwicklung, 2. Aufl. Freiburg-München 1964, S. 350.
65

arithmetische Größenwerte (ohne Bezug auf geometrische Sachverhalte) einander


zugeordnet. Diese Größenwerte sind in der Regel verschieden und als solche
erkennbar. Es können jedoch auch gleiche Zahlenwerte einander zugeordnet
werden. Das dürfte ein Grund dafür sein, daß solche Korrelationen als Äquiva-
lenzen erscheinen und immer noch in Gleichungsform notiert werden.

6. Am meisten macht sich der Unterschied zwischen logischem und mathe-


matisch-logischem Denkstil in der modernen Aussagenlogik bemerkbar. Die Be-
zeichnung „Aussagenlogik“ suggeriert von vornherein, es handele sich dabei um
einen modernen Kalkül wahrer und falscher Behauptungen.
Dieser Kalkül beruht aber grundsätzlich auf der Nichtunterscheidung von aus-
drucksbildenden und urteilsbildenden Junktoren. In den Wittgensteinschen (und
Postschen) Wahrheitswerttabellen werden allen dort aufgeführten Junktoren
Wahrheitswerte zugesprochen. Die klassische Kopula und die Quantifikatoren
werden allerdings nicht aufgeführt und somit nicht definiert. Dies signalisiert von
vornherein einen gravierenden Mangel der sogenannten Wahrheitswerttabellen für
die Junktordefinitionen und damit auch des Gesamtkonzepts der „Aussagenlogik“.
Darüber hinaus aber beruht die Aussagenlogik auf der irreführenden Benutzung
der Metastufentheorie, von der vorn schon die Rede war. Sinn bzw. Bedeutung
der Junktoren wird in der Aussagenlogik als Meta-Sinn bzw. Meta-Bedeutung der
durch sie verknüpften wahren und/oder falschen sog. Elementarsätze definiert.
Dabei wird jedoch grundsätzlich verkannt, daß die objektsprachlichen wahren
und/oder falschen Sätze auf der Metastufe nur noch als begriffliche Ausdrücke
(eben: „wahrer Satz“ / „falscher Satz“) aufgefaßt werden, die keinen Behaup-
tungssinn und damit auch keinen Wahrheitswert besitzen können. Überhaupt
defininiert die Aussagenlogik für alle ausdrucksbildenden Junktoren einen
Wahrheitswert. Es wurde aber schon gezeigt, daß ein Ausdruck wie „wahrer und
falscher Satz“ (der in der Aussagenlogik als „falsche“ Behauptung definiert wird,
überhaupt kein wahrheitswertfähiger Behauptungssatz sein kann. (Mehr darüber
in § 9).

7. Ist der Formalismus entsprechend gebaut, so wirkt er gleichsam wie ein struk-
turierter Filter. Er läßt nur Begriffe und begriffliche Ausdrücke, behauptende
Sätze und Satzketten als Schlüsse durch und zwingt ihnen seine Form auf. Alles
andere Sprach- und Vorstellungsmaterial aber läßt er nicht passieren. Das heißt
zugleich auch, daß nicht alles, was man sich vorstellen und selbst in grammatisch
korrekter Weise besprechen kann, logisch formalisiert werden kann.
Ein falsch verstandenes Logikkonzept verunklart den formalen Logikfilter da-
durch, daß er ihn der Grammatik einer Sprache annähert oder gar mit Teilen einer
Sprachgrammatik gleichsetzt. Die sprachliche Grammatik ist aber selbst ein Filter
der Sinnhaftigkeit von Laut- und Schriftgebilden. Werden in dieser Weise gram-
matische Elemente zu logischen Formen gemacht, so kommt es zu den diversen
Logiktypen etwa einer speziell temporalen, deontischen, Normen-, Wunsch- oder
66

Quaestionenlogik und der Wahrscheinlichkeitslogik. Die neuerdings erfundene


„Fuzzy-Logik“ ist ein Versuch, die letzten Reste des in der Gemeinsprache vor-
kommenden logisch Nicht-Formalisierbaren auch noch zu formalisieren.

8. In den üblichen Formalismen sind die bisherigen formalen Elemente wie Buch-
staben, Junktorenzeichen, Klammern und Zitatzeichen, auch mathematische Re-
chenzeichen, weit davon entfernt, das einzulösen, was man sich seit Leibniz unter
einer Kalkülisierung des logischen Prozedere verspricht. Die in der mathema-
tischen Logik vertretene Kalkülisierung bzw. Algebraisierung des Denkens insi-
nuiert zwar, man habe nach dem Vorbild des mechanischen Rechnens längst
einige zuverlässige „intellektuelle“ Denkmaschinen (sog. Turing-Maschinen) er-
funden. Aber es handelt sich trotz allem, was man darüber sagt, um pure
mathematische Metaphern, die dem logischen Denken nur sehr vage und allenfalls
so weit entsprechen, als auch in der Mathematik Logik enthalten ist. Ganz außer
acht bleibt dabei, daß die Mathematik selbst auf weite Strecken dialektisch ist.
Das wird über die quasi-mathematischen Formalismen der mathematischen Logik
naturgemäß in die klassische Logik zurückübertragen.
Der ursprüngliche römische Calculus war ein Kalksteinchen, bei den Griechen
Psephos genannt. Er diente zur sinnlichen Repräsentanz einer Recheneinheit. Man
konnte mehrere von ihnen gruppieren, einteilen und trennen und so die Grund-
rechenarten mechanisch praktizieren. Reste von diesen Verfahren finden sich
noch im Abacus und im japanischen Soroban.
Die Hauptsache bei einem solchen Rechenkalkül war und ist es, den Zahlen
oder Anzahlen von Gegenständen Rechensteine zuzuordnen, um dann unter ihnen
Gruppierungen gemäß den Rechenarten vorzunehmen. Von einem „logischen“
Kalkül sollte man erwarten, daß er den aus Reden oder Schriften entnommenen
Begriffen in gleicher Weise manipulierbare Dinge zuordnet.
Genau dies haben wir bei der Entwicklung der „Begriffspyramide“ im Auge
gehabt. Sie ordnet den Begriffen Positionen in einer Begriffspyramide zu. Die in
den Reden und Schriften verwendeten Junktoren, soweit sie Ausdrücke und
Urteile bestimmen, zeigen die sich ergebenden Relationen zwischen den Be-
griffspositionen an. Dadurch wird das hierarische Allgemeinheitsgefälle und die
Nebeneinanderstellung der vorkommenden Begriffe abgebildet.
Trägt man die so verstandenen Begriffe in die Pyramidenpositionen ein (oder
stellt sie sich in dieser pyramidalen Ordnung vor), so wird man leicht erkennen,
welche Begriffe dabei regulär sind, und welche – wenn sie nicht in die reguläre
Pyramidenstruktur passen – irregulär, also z. B. kontradiktorisch sind. Und vor
allem wird man dann bei einiger Übung und Routine sogleich noch weitere
junktorielle Verknüpfungen zwischen ihnen herstellen (oder sich vorstellen)
können, als in der Rede oder Schrift artikuliert werden.
Für das eigene logische Argumentieren wird man demnach seine eigenen
Gedanken schon von vornherein als pyramidal geordnete Begriffe explizieren.
Gelingt dies nicht in erhoffter Weise, so kann dies nur ein Anzeichen für unklares
67

Denken oder eine im begrifflichen Material liegende Problematik sein. Gelingt es


aber, so wird man mit Leichtigkeit von einem Begriff zum nächsten – sei es ein
allgemeinerer oder speziellerer oder durch Negationen abgetrennter – übergehen
und darin zugleich einen „rhetorischen Leitfaden“ für die theoretische Ordnung
einer mehr oder weniger umfassenden Argumentation zur Verfügung haben.

§ 8 Über den Unterschied logischer und mathematischer Denkmethoden


Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegriff-
lichung von Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und
des extensionalen Aspektes und die Verselbständigung von intensionaler und extensionaler Logik.
Die Funktion der Dialektik als Denken begrifflicher Widersprüche in beiden Logiken. Die Dia-
lektik des Zahlbegriffs. Die Dialektik des Mengenbegriffs. Der Import der dialektischen Begriffs-
bildung von der Mathematik in die Physik. Die Dialektik physikalischer Begriffsbildung. Bei-
spiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische Verschmelzung der logischen
Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion der dreiwertigen
Logiken

Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Aber sprachliche Wörter bezeichnen regel-
mäßig nur die Intension(en) eines Begriffs, nicht aber die zugehörigen Exten-
sionen. Deswegen sind sprachliche Wörter nicht mit wissenschaftlichen Begriffen
zu verwechseln.
Traditionellerweise wurden die wissenschaftlichen Begriffe aus griechischen
und lateinischen Wörtern gebildet, aus deren Kenntnis man meist schon ihre
Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter (oder was man dafür hält) importiert. Daneben gibt es
freilich einen neueren Brauch, künstliche „Termini“ aus Anfangsbuchstaben von
Wörtern zu bilden (Akronyme), aus denen man die Bedeutung nicht mehr erraten
kann (z. B. DNS = „Desoxyribonukleinsäure“, KI-Forschung = „künstliche Intel-
ligenz“-Forschung, MOOC = massive open online course). Das ist man zwar aus
Firmenbezeichnungen gewöhnt, in der Wissenschaft aber führt es zu einer
Esoterisierung der Terminologie, die ein Verständnis „nichteingeweihter“ Laien
und nicht weniger auch von Wissenschaftlern anderer Disziplinen fast unmöglich
macht.
68

Vielfach ist es auch üblich, wissenschaftliche Gegenstände, Begriffe, Probleme,


Hypothesen mit dem Namen ihrer Entdecker oder Erfinder zu bezeichnen (z. B.
„Friessches Trilemma“, „Kant-Laplacesche Hypothese“, „Einsteinsche Relativi-
tätstheorie“, „Heisenbergsche Unbestimmtheitsrelation“). Auch deren Verständnis
setzt schon Insiderwissen voraus, das dem Laien meist unzugänglich ist. Man
möchte jedoch dem Laien empfehlen, von denen, die solche Bezeichnungen ge
brauchen, eine Erläuterung zu erbitten. Sehr oft stellt sich dann nämlich heraus,
daß auch Experten keine klare oder übereinstimmende Vorstellung vom Gemein-
ten besitzen.
Bei weitem die meisten wissenschaftlichen Theorien werden aber noch immer in
der gewöhnlichen Bildungssprache formuliert, besonders wenn sie wissenschaft-
liche Begriffe in den Bildungswortschatz aufgenommen hat. Und so läßt sich auch
an sprachlichen Beispielen demonstrieren, was auch in der Wissenschaft Begriffe,
wahre und falsche Sätze, Schlüsse und begründende Argumente sind.
Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften
an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als
Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist überhaupt
die Grundlage für die Formalisierung in der Logik und dann auch der Ausbildung
der formalen als einer zweiwertigen Logik geworden.
Bestimmte grammatisch ausgezeichnete Wörter (Substantive und Eigenschafts-
wörter) wurden durch stellvertretende Zeichen (Buchstaben bzw. Zahlen) ersetzt.
Grammatische Behauptungssätze erhielten die Form des Urteils als Verknüpfung
von Subjekts- und Prädikatsbegriffen. Komplexe Wortverknüpfungen wurden
durch ausdrucksbildende Junktoren dargestellt. Dabei behielten die sprachlichen
Verbindungspartikel (Junktoren bzw. Funktoren) ihren sprachlichen Verknüp-
fungs- oder Bestimmungssinn bei, den man ohne weiteres sprachlich versteht. Die
satzbildenden Junktoren wie Bejahung, Existenzbehauptung („es gibt“), Vernei-
nung, Folgerungen, und die ausdrucksbildenden Junktoren wie und, oder, alle,
einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurzschriftzeichen
notiert.
Weitere grammatische Satzformen wie Wunsch-, Befehls-, Fragesätze wurden
in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht gelassen.
Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade dadurch,
daß sie auch derartige Satzformen formalisiert haben und sie damit als wahrheits-
wertfähig zulassen. Das hat wesentlich zur Komplizierung der Wahrheits- und
Falschheitsfragen beigetragen, die seither mit Fragen der (methodischen) Gültig-
keit und Ungültigkeit, Regelhaftigkeit, Normgerechtheit u. ä. vermischt, gelegent-
lich auch dadurch abgelöst werden.
Die wichtigste Einsicht in die logische Natur der Begriffe seit Platon und
Aristoteles ist wohl die, daß sie aus Intensionen („Begriffsmerkmale“, die ihre Be-
deutung ausdrücken) und Extensionen („Umfänge“, die ihren Anwendungsbereich
markieren) zusammengesetzt sind.
69

Seit Aristoteles weiß man auch, daß die Intensionen allgemeiner Begriffe voll-
ständig als sogenannte generische Merkmale in den Merkmalsbestand aller in
ihrem Umfang liegenden spezielleren Begriffe eingehen und bei deren Bedeu-
tungsverstehen mitgedacht werden müssen. Die niederen bzw „konkreteren“ Be-
griffe enthalten zusätzliche Merkmale („spezifische Differenzen“), die in ihnen
mit den generischen Merkmalen vereinigt werden (concresci = lat.: zusammen-
wachsen). Unterste Begriffe nennt man daher im Unterschied zu den abstrakten
oberen auch konkrete Begriffe. Meist sind sie Eigennamen oder quantifizierte
allgemeinere Begriffe. Letztere nennt man seit Bertrand Russell Kennzeich-
nungen.
Aus diesem Zusammenspiel der Intensionen und Extensionen der Begriffe
ergibt sich unter ihnen das, was man ihre Hierarchie oder das Allgemeinheits-
gefälle nennen kann. Dieses ist schon durch den einführenden Kommentar (Isa-
goge) des Porphyrios (um 232 – um 304 n. Chr.) zum aristotelischen Organon als
„porphyrianischer Baum“ beschrieben worden und hat in der scholastischen Logik
immer wieder auch zu graphischen Baumdarstellungen von Begriffshierarchien
geführt. Bei Porphyrios bilden die allgemeinsten Begriffe (Gattungen) den Stamm
und die Arten (Eidos) und Unterarten bis zu den Individuen die Äste und Blätter.
Moderne Fassungen solcher Begriffshierarchien stellen das Allgemeinheitsgefälle
in der Gestalt der Begriffspyramide dar, also gegenüber dem Baumschema gleich-
sam auf den Kopf gestellt, wovon auch in der hier vorgeschlagenen „pyramidalen
Logik“ ausgegangen wird.
Nun sollte man meinen, von einem Begriff könne in der Logik und mittels der
Logik in den Wissenschaften überhaupt nur die Rede sein, wenn seine inten-
sionalen und extensionalen Bestimmungen genau bekannt sind und offengelegt
werden. Ebenso sollte man meinen, daß Intensionen (Merkmale) und Extensionen
(Umfänge) für sich genommen nicht selber Begriffe sein können, da sie ja erst in
ihrer Vereinigung einen Begriff ausmachen. Um dies aber in der logischen Be-
griffslehre klar und deutlich festzuhalten, war die von Aristoteles eingeführte und
seither beibehaltene Formalisierung der Begriffe durch einfache Großbuchstaben
(die im Griechischen zugleich Zahlzeichen sind) nur unzulänglich geeignet. Sie
konnte die Intensionen und Extensionen der Begriffe nicht selbst formal darstellen
und verdeckte dadurch den internen Aufbau des Begriffs aus Intensionen und
Extensionen.
Als Kompensation dieses Nachteils der formalen Notation der Begriffe erfand
Aristoteles die nach ihm benannte Definitionsweise. Sie besteht darin, für einen
Begriff seine generischen Merkmale und die spezifische Differenz (zusätzliches
Merkmal) gesondert anzugeben.
Dies geschieht für einen beliebigen Begriff durch Angabe des nächsthöheren
Allgemeinbegriffs (genus proximum), dessen sämtliche Merkmale er (als „gene-
rische Merkmale“) aufnimmt und in dessen Umfang der zu definierende Begriff
liegt. Hinzu tritt das sogenannte spezifische Merkmal, das ihn einerseits von der
Gattung, andererseits auch von anderen unter dieselbe Gattung fallenden Art-
70

begriffen unterscheidet. Auf diese Weise wurde etwa das gemeinsprachliche Wort
„Tier“ als wissenschaftlicher Begriff definiert, indem man als nächsthöhere Gat-
tung „Lebewesen“ angab (das „Lebendigsein“ ist generisches Merkmal von
„Tier“), als spezifische Differenz seine es von den Pflanzen unterscheidende
Eigenschaften der Beweglichkeit und Sinnesausstattung.
Mit dieser aristotelischen und auch jetzt noch als logischer Standard geltenden
Definitionsweise können keineswegs alle Intensionen und Extensionen eines
Begriffs offengelegt werden. Um die Definition genau und vollständig zu machen,
müßten alle generischen Merkmale aller allgemeineren Begriffe, in deren Umfang
der zu definierende Begriff liegt, offenliegen (d. h. die ganze Hierarchie der
allgemeineren Begriffe, nicht nur das genus proximum, müßte bekannt sein).
Platon hat das schon in seiner „Definition“ des „Angelfischers“ (im Dialog So-
phistes) sehr klar vorgeführt. 38 Ebenso müßte aber auch die Extension des Be-
griffs durch Angabe aller untergeordneten Begriffe, die in seinen eigenen Umfang
fallen, deutlich werden. Das wiederum kann man im „Angelfischer“-Beispiel in
Platons Dialog Sophistes an den verschiedenen „Handwerkern“ (einschließlich
des Angelfischers) sehen, die unter den Begriff „Handwerker“ fallen und dort eine
ganze Hierarchie ausmachen.
Die Grenzen des aristotelischen Definitionsverfahrens wurden freilich schon in
der Antike entdeckt und diskutiert. Sie liegen in Richtung des Allgemeineren da-
rin, daß man beim Versuch, Begriffshierarchien aufzustellen, zu „obersten Gat-
tungen“ (Aristoteles‟ Kategorien, Euklids „axiomatische“ Grundbegriffe) gelangt,
die dann kein genus proximum mehr über sich haben. Nach unten aber gelangt
man so zu konkreten Ding- und Lagebezeichnungen („Eigennamen“) mit so
vielen Eigenschaften, daß man von ihnen dann unübersehbar viele Merkmale
nebst einer spezifischen Differenz angeben müßte. Dies hielt man gemäß dem
scholastischen Diktum: „individuum est ineffabile“ (das Individuelle läßt sich
nicht erschöpfend aussagen) für unmöglich.
Diese Begrenzungen – die in der Tat aber nur Schwächen der aristotelischen
Definitionsweise sind – haben dazu geführt, daß man „nach oben“ die Kategorien
und axiomatischen Grundbegriffe und „nach unten“ die Individuen weitgehend
aus der logischen Betrachtung ausnahm bzw. ihnen eine restringierte logische
Stellung einräumte.
Diese Beschränkungen der aristotelischen Standarddefinitionsweise sind bis
heute dogmatisch als allgemeine Grenze der Definierbarkeit von Begriffen fest-
gehalten worden. Seither sind die Logiker und Mathematiker gleicherweise der
Meinung, Grundbegriffe als höchste Gattungen (Kategorien, „Axiome“) könnten
überhaupt nicht definiert werden, und ebensowenig unterste konkrete Begriffe, die
allenfalls durch Eigennamen oder Russellsche Kennzeichnungen angedeutet
werden könnten.

38
Platon, Sophistes 219 a – 221 a, in: Platon, Sämtliche Werke nach der Übersetzung von F. Schleiermacher hgg. von W.
F. Otto u. a. (Rowohlts Klassiker der Literatur und der Wissenschaft, Griechische Philosophie Band 5) Hamburg 1958, S.
188 – 192.
71

Dies ist höchst erstaunlich angesichts der Tatsache, daß es neben der aristote-
lischen eine Menge anderer Definitionsweisen gibt, die geeignet sind, das hier
Vermißte zu leisten.
Bei höchsten Begriffen kann es nur darauf ankommen, von den spezifischen
Differenzen der nächst niederen Arten abzusehen und das ihnen gemeinsame
Merkmal festzuhalten und zu benennen, wofür freilich nicht immer ein geeignetes
„Wort“ zur Verfügung steht. Bei den sogenannten Individuen lassen sich die
generischen Merkmale, die es ja mit anderen Arten und Gattungen gemeinsam
hat, durch diese oberen Begriffe angeben, und die Spezifität als spezifische
Differenz immer auf ein einziges Merkmal reduzieren (und sei es die nur einmal
vergebene Buchstaben-Nummernkombination eines individuellen Automobils
oder eines Personalausweises). Deshalb kann und muß eine effektive Begriffs-
logik auch die höchsten und untersten begrifflichen Positionen in Begriffs-
hierarchien hinsichtlich ihrer intensionalen und extensionalen Komponenten ge-
nau konstruieren und definieren. Dadurch wird eine empfindliche Lücke in der
Begriffslogik und in der Theorie der Axiome geschlossen.
Die aristotelische Standarddefinition geht von den Intensionen (Merkmalen)
eines Begriffs aus, die dann als generische Leitfäden zugleich auch die Begriffs-
umfänge festlegen. Daran anschließend hat man später gemeint, es ließe sich auch
eine rein „intensionale Logik“ unter Absehung von den Begriffsextensionen ent-
wickeln. Da aber „Begriffe ohne Umfang“ grundsätzlich keine Begriffe sein kön-
nen, laufen diese Versuche auf reine „Bedeutungslehren“ (Semantiken) von Wör-
tern hinaus, wie sie in der philologischen Lexikographie zum Thema werden.
Von daher lag es aber nahe, als Gegenstück auch so etwas wie eine rein „exten-
sionale Logik“ zu entwickeln. Es waren die Mathematiker, die sie als „Klassen-
logik“ und mathematische Mengenlehre entwickelten. Sie wurde zum Kern der
modernen mathematischen Begriffslehre.
Auch dazu ist kritisch anzumerken, daß „Begriffe ohne Intensionen“ grund-
sätzlich keine Begriffe sein können, so daß eine strikt durchgehaltene extensionale
Logik keine Logik sein kann, sondern allenfalls zu Klassifikationen dienen kann.
Dies hat sich spätestens auch in der Logik von William Van Orman Quine,
einem der renommiertesten mathematischen Logiker in den USA, gezeigt. In
seiner Logikkonzeption des von ihm sogenannten Extensionalismus haben die
(rein extensional definierten) „Begriffe“ keinen bestimmbaren Inhalt, sie „referie-
ren nicht“ auf Bedeutungen. Daher können sie auch nicht in andere „Sprachen“ (d.
h. hier andere logisch konstruierte Theorien) „übersetzt“ werden. Die mit ihnen
gebildeten Sätze (propositions) konstruieren und gliedern immer nur einen ganzen
„holistischen“ Theorieraum, der ausschließlich durch den Anwendungsbereich
(Umfang) eines solchen „Begriffes“ bestimmt sein soll.
In der Tat werden jedoch in der mathematischen Klassen- und Mengenlogik die
Extensionen zugleich (aber meist nicht explizit) auch als Intensionen der Klassen-
und Mengenbegriffe behandelt. Das macht sie manchmal doppeldeutig und zu
dem, was wir als contradictiones in adiecto vorgeführt haben. Sie sind dann ganz
72

wesentlich für die sich hier ergebenden Widersprüche und Paradoxien verant-
wortlich. Dies zeigt sich aber erst, wenn man die klassische Begriffslogik und
unsere Analyse des Aufbaus der nichtregulären (dialektischen) Begriffe als Maß-
stab anlegt. Dann zeigt sich auch genauer der Unterschied, der zwischen klas-
sisch-logischer und mathematisch-logischer Begriffslehre besteht und damit auch
die logische von der mathematischen Denkweise trennt.
Dieser Unterschied besteht unserer Einschätzung nach wesentlich in der Stel-
lung, die die Dialektik in den Begriffslehren der klassischen und der mathe-
matischen Logik einnimmt. Und dies hat wieder beträchtliche Unterschiede
zwischen der logischen und mathematischen Auffassung von der Definition und
ihrer Formalisierung zur Folge.
In der klassischen Logik galt und gilt die Dialektik als eine „Logik des Wider-
spruchs“, die man traditionellerweise zu vermeiden und zu bekämpfen suchte, die
aber auch immer ihre Anhänger und Vertreter hatte. In der mathematischen Logik
aber gilt das Denken in Widersprüchen und mit Hilfe widersprüchlicher Begriffe
geradezu als unmöglich. Schon die Bezeichnung „Dialektik“ ist hier verpönt.
Wenn Widersprüche auftauchen und in der Forschung herausgearbeitet werden –
wie die zahlreichen mathematischen Paradoxien es zeigen – gelten sie als Grund-
lagenprobleme der Disziplin. Und von daher hält sich unbeirrt die Meinung der
Mathematiker und mathematischen Logiker, die reine Mathematik und mathe-
matische Logik könne und müsse widerspruchslos auf- und ausgebaut werden. So
definiert ein älteres Lexikon die „Mathematik“ folgendermaßen:
„Die reine Mathematik hat das Eigentümliche, daß sie aus gewissen einfachen Begriffen und
Voraussetzuungen ihre Ergebnisse durch rein logische Schlüsse ableitet, deren Rich-
tigkeit jedes Wesen, das mit menschlicher Vernunft begabt ist, zugeben muß. Er-
forderlich ist dabei nur, daß jene Begriffe und Voraussetzungen so gewählt sind, daß
man niemals auf einen Widerspruch stößt, denn ein solcher würde sofort das ganze
Gebäude umstoßen. Deshalb entnimmt die Mathematik ihre ersten Begriffe und
Voraussetzungen der Anschauung. So entnimmt die Analysis den Begriff der ganzen
Zahl und die Erzeugung der ganzen Zahlen aus der Einheit der inneren Anschauung
und entwickelt daraus alles Weitere; die Geometrie entnimmt die Begriffe der gera-
den Linie etc. der äußeren Anschauung. In beiden Fällen aber werden von den
Merkmalen der Begriffe, die man in der Anschauung vorfindet, nur gerade so viele
beibehalten, als erforderlich sind, um daraus Schlüsse ziehen zu können. Wenn nun
jemand jene ersten Begriffe und Voraussetzungen zugibt, was bei zweckmäßiger
Auswahl jeder wird tun müssen, so kann er nicht umhin, auch alles, was daraus
gefolgert wird, als richtig anzuerkennen. In diesem Sinne haben die mathematischen
Sätze eine solche Sicherheit, daß man sprichwörtlich von mathematischer Gewißheit,
Strenge und Wahrheit spricht, und eine Beweisführung mathematisch nennt, um sie
als völlig einwandfrei zu bezeichnen. In diesem Sinne nennt man auch die Mathe-
matik vorzugsweise eine exakte Wissenschaft“.39

Dieser „hohe Ton“ ist zwar heute aus den Lexika verschwunden. Sicher aber nicht
die darin zum Ausdruck kommende Überzeugung von „Gewißheit, Strenge,

39
Art. „Mathematik“ in: Meyers Großes Konversationslexikon, Band 13, 6. Aufl. Leipzig-Wien 1908, S. 432.
73

Exaktheit und Wahrheit“ aus den Köpfen der Laien und der meisten Mathema-
tiker.
Der zitierte Artikel ist, wie man leicht erkennt, im Kantischen Sinne formuliert,
wo bekanntlich Geometrie und Arithmetik auf die „Anschauungsformen“ (Raum
und Zeit) begründet werden. Jetzt ist man mehrheitlich wieder auf die platonische
„Anschauung mit einem geistigen Auge“ zurückgekehrt (was ersichtlich ein
dialektisches Oxymoron ist). Und dies nicht zuletzt, um den zahlreichen Perple-
xitäten der sinnlichen Anschauung zu entgehen, an denen schon die antike Mathe-
matik sich abgearbeitet hatte. Aber auch von der sinnlichen Anschauung gilt die
Kant-Horazische Maxime: Naturam expellas furca, tamen usque recurret. Soll
heißen, auch die moderne Mathematik kommt nicht ohne Anschaung aus.
Was man jetzt „reines Denken“ oder „unanschauliche Vorstellung“ nennt, be-
darf, um überhaupt einen Gehalt zu haben, anschaulicher Elemente. Soll das
„reine Denken“ einen Gehalt besitzen, so kann er nur in dem bestehen, was die
Sinne dem Gedächtnis und der Phantasie übermittelt haben. Ohne solchen Gehalt
bleibt keineswegs reines Denken übrig, sondern pures Nicht-Denken. Daher sind
Gedächtnis und Phantasie auch diejenigen sogenannten Vermögen, die in der
Mathematik am meisten benötigt und kultiviert werden.
Phantasie unterscheidet sich von der direkten „Anschaung“ (und zwar aller
einzelnen Sinne) dadurch, daß sie auch dasjenige noch zu irgend einer einheit-
lichen Vorstellung bringt, was nicht zugleich und im gleichen Erfahrungskontext
anschaulich gemacht werden kann. Gerade diese kreative Vorstellungsbildung ist
aber das Wesen aller sogenannten Dialektik geworden. Davon haben die Künste
gezehrt, die den „Pegasus“ (der nur als Pferd oder Vogel anschaubar ist) als
„geflügeltes Pferd“ kreierten. Ebenso aber auch die griechischen Mathematiker,
als sie „Punkt und Linie“ sowie „Eines und Vieles“ in Begriffe faßten.
Das Verfahren dieses kreativen dialektischen Denkens war den antiken Philoso-
phen geläufig. Das zeigen die Formulierungen des Parmenidesschülers Zenon
vom „fliegenden Pfeil, der ruht“, und des Heraklit vom „Logos“, der das „Wider-
sprechende vereinigt“. Derartige Denkbemühungen wurden bei den Logikern im
alten Megara und bei den Sophisten zu einem Denksport geselliger Unterhaltung.
Platon hat in seiner Ideenlehre vielfach davon Gebrauch gemacht und die
Dialektik jedenfalls nicht verachtet. Aristoteles aber wollte sie aus seiner Logik,
die wesentlich auf der sinnlichen Anschauung beruht, ausscheiden oder vermei-
den. Aber auch ihm gelang es nur teilweise, denn er hat sie in seine sogenannte
Modallogik integriert und dadurch an die Nachwelt weitergegeben.
Es dürfte nun gerade die im obigen Zitat beschriebene Einstellung und Grund-
haltung gewesen sein, die sowohl die Laienwelt als auch die Mathematiker selbst
blind gemacht hat für die offensichtliche Tatsache, daß Mathematik und die an sie
anknüpfende mathematische Logik in weiten Teilen eine ausgebaute Dialektik
widersprüchlicher Grundprinzipien und Grundbegriffe ist. Zeigen wir es an eini-
gen Beispielen.
74

Das mathematische Hauptbeispiel für inhaltliche Begriffe waren und sind die
Zahlen. In den Zahlen sah und sieht man in der neuzeitlichen Mathematik auto-
nome ontologische Gebilde, die entdeckt, erforscht, erkannt und auf Begriffe
gebracht werden müssen. Den Zahlen als mathematischen Begriffen mußten dem-
nach autonome mathematische Bedeutungen bzw. Intensionen zukommen, ebenso
Extensionen, die sich wiederum auf (andere) Zahlen erstrecken mußten. Deren
dialektische Definitionen haben wir an anderer Stelle (vgl. Elementa logico-
mathematica, Internet der Phil. Fak. der HHU Düsseldorf, 2006)40 dargestellt.
Danach ist der allgemeine Zahlbegriff eine widersprüchliche Verschmelzung der
logischen Quantoren „ein“ und „alle“ D. h. er ist zugleich elementare Einheit bzw.
genauer: Einzelheit, wie auch Gesamtheit bzw. Totalität. Logisch ist er als „All-
Einheit“ oder „Ein-Allheit“ zu definieren. Und demgemäß ist auch jede weiter zu
definierende Zahlart im Umfang des allgemeinen Zahlbegriffs ein Gebilde, das
mittels des generischen Merkmals des allgemeinen Zahlbegriffs zugleich eine
Zahleinheit und ein Gesamt von (anderen) Zahlen darstellt. So ist die Eins („ 1 “)
eine „elementare“ Einheit der natürlichen Zahlen, zugleich aber auch das Gesamt
aller ihrer echten Bruchzahlen geworden. Und jede andere natürliche Zahl ist
zugleich eine „Zahleinheit“ als Gesamt (z. B. Summe, Produkt usw.) von Ein-
heiten der natürlichen Zahlen.
Aber daß die Zahlen als solche in dieser Weise dialektisch zu definieren wären,
hat man stets „vermieden“, und wo es nicht vermieden werden konnte, durch
Dissimulationen unsichtbar gemacht. Das gelang in der Neuzeit durch die syste-
matische Trennung von Geometrie und Arithmetik.
Die alte Auffassung bis auf die Zeit von Descartes bezog die Zahlen als bloße
Quantifikationen auf geometrische Gegenstände. Diese galten als vorgegebene
„Bedeutungen“ (Intensionen), denen durch die zahlenmäßigen Quantifikationen
„Umfänge“ (extensionen) zugesprochen wurden. In dem quantifizierten Ausdruck
„3 Meter“ steht „Meter“ für die Intension der (konventionellen) Maßeinheit einer
geraden Linie; „3“ ordnet der Intension als Umfang „drei hinter einander gelegte
Einheitslängen“ zu. Das „in einer geraden Linie Hintereinanderlegen“ wird frei-
lich nicht ausgedrückt. Es muß mitverstanden werden.
Bei Euklid wurden z. B. die später sogenannten natürlichen Zahlen als Punkte
oder auch als Erstreckungseinheiten von geometrischen Linien dargestellt. Darü-
ber hinaus sprach Euklid von Flächenzahlen (zweite Potenzen) und Körperzahlen
(dritte Potenzen). Von daher stammt die Meinung, es ließe sich überhaupt eine
rein „extensionale Logik“ der Quantifikationen aufbauen. Das hieß jedenfalls, daß
die geometrischen Gebilde neben anderen Gebilden, etwa Viehherden, wirtschaft-
lichen Gütern, Münzbeständen usw. ein Anwendungsbereich arithmetischer Quan-
tifikationen war.

40
Zuletzt in: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concept: The Logical and Mathematical Ele-
ments. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013,
S. 20 – 26 und S. 94f. – Vgl. dazu auch § 9 der vorliegenden Schrift.
75

Auf dieser Nutzbarkeit der arithmetischen Quantifikation in Bezug auf zählbare


Gegenstände der Wirklichkeit beruht ersichtlich bis heute die überaus große Be-
deutung der Mathematik für die Berechenbarmachung der Welt, insbesondere in
der Physik. Soweit die Arithmetik solche inhaltliche Anwendung auf zähl- und
meßbare Gegenstände erfuhr (und noch erfährt), blieb und bleibt sie frei von jeder
Dialektik.
So lernt man denn auch den Umgang mit den Zahlen durch Abzählen (Quan-
tifizieren) von Dingen oft schon früher als den Umgang mit Begriffen. Nichts
erscheint daher selbstverständlicher und widerspruchsloser als ein primitives
Zahlverständnis, das an den vorgewiesenen Fingern von Eins bis Zehn zählt und
die Null durch die in der Faust verborgenen Finger demonstriert. Genau so
widerspruchslos kann man Kindern am selben Gegenstand „Faust“ auch logische
Qualifikationen und Quantifikationen beibringen. Dann würde man am vorge-
haltenen Finger die „Bedeutung“ (die Merkmale des Begriffs „Finger“, etwa daß
ein Finger aus „artikulierten“ Knochen, Muskeln und Sehnen, Haut und einem
Fingernagel besteht) klarlegen. Anschließend würde man erklären, was „ein
Finger“, „einige (oder manche) Finger“, „alle Finger“ und „kein Finger“, also die
logischen „Extensionen“ (Quantifikationen) besagen. Und schließlich könnte man
durch die Eigennamen der Finger (wie im Kinderlied: „das ist der Daumen ...“)
die individuellen Finger benennen bzw. kennzeichnen.
Bei solchen Übungen würde man leicht bemerken, daß die mathematische
Quantifikation durch Zahlen und die Null mit dem logischen Prozedere des
Quantifizierens identisch ist. Der Unterschied liegt nur darin, daß das logische
„einige“ durch jede beliebige Zahl oberhalb der Eins innerhalb einer Gesamtheit
ersetzt werden kann (das logische „einige“ oder neuerdings sogenannte „manch“
wird zahlenmäßig gespreizt). Das logische „alle“ wird immer durch die letztge-
zählte Zahl eines Gesamts ausgedrückt.
Nur das, was man „einige“ und „alle“ nennt, wird man dem Kind dann auch als
„Menge von Fingern“ erklären. Keineswegs aber wird man es dadurch verwirren,
daß man auch „einen“ oder gar „keinen Finger“ eine „Menge von Fingern“ nennt.
Das aber tut die mathematische Mengenlehre, und es ist noch vor einiger Zeit
einigen Generationen deutscher Schüler mit der „Mengenlehre“ eingebleut wor-
den. Schon gar nicht wird man die in der Faust verborgenen fünf Finger als „fünf
negative Finger“ bezeichnen.
Die widerspruchslose Logizität des mathematischen Quantifizierens von gege-
benen Dingen ist die Grundlage für alle Anwendungen der Mathematik in dazu
geeigneten Einzelwissenschaften und in der Alltagspraxis geblieben. Bei solchen
Anwendungen werden inhaltliche Begriffe der Wissenschaften und des Alltags (z.
B. physikalische Örter, Zeitpunkte, Massen, Kräfte etc.), deren Intensionen durch
die jeweilige Wissenschaft oder den Sprachgebrauch vorgegeben werden, mit
zahlenmäßig quantifizierten Extensionen versehen. So spricht man etwa von
„einem Ort“, „zwei Uhr“ (gemeint sind zwei Stunden seit Mittag), „drei Pfund
Butter“, „vier Pferdestärken“ („PS“) usw. Und auf dieser Gegenstands-Quanti-
76

fizierung beruht letztlich die allgemeine Anwendung, Fruchtbarkeit und Überzeu-


gungskraft der Mathematik.
Die Übereinstimmung mit der Logik und ihrer Anwendbarkeit auf Gegenstände
hört aber auf, sobald die Arithmetik nicht mehr nicht-mathematische Begriffe bloß
quantifiziert, sondern von mathematischen „Begriffen“ (z. B. den Zahlen als sol-
chen) die Rede ist. Was dann an die Stelle der Logik tritt, ist eine autonom gewor-
dene Arithmetik und Algebra.
Nach Platon, Euklid und Proklos meint der mathematische Platonismus, diese
genuin mathematischen Begriffe ließen sich als vorgegebene „Ideen“, d. h. als
genuine Begriffe, durch ein „geistiges Auge“ (wie Platon sagte) erschauen, und
sie ließen sich dann auch noch zusätzlich dem gemeinsamen logisch-arithme-
tischen Quantifikationsverfahren unterwerfen. Das platoni(sti)sche Programm for-
dert dann, das zählende Quantifizieren auf den Begriff der Zahl zu bringen und
den Zahlbegriff selbst zu quantifizieren. Ein wichtiges Resultat dieser Bestrebung
zeigte sich in der von Franciscus Viëta (François Viète, 1540 - 1603) eingeführten
sogenannten Buchstabenrechnung. In ihr stehen aristotelische Begriffszeichen
(große Buchstaben) für Zahlen, die ihrerseits durch Zahlen quantifiziert werden
(z. B. „5 X“ oder „2 Y“).
Nun hat gewiß noch kein Mensch mit seinem sinnlichen Auge, und das sind die
einzigen Augen, die der Mensch besitzt, das gesehen, was man eine Zahl oder
Menge an sich bzw. als solche nennt. Man benutzt die Wörter „Zahl“ und „Men-
ge“ normalsprachlich daher in der vorn geschilderten anwendenden bzw. exten-
sionalen Weise so, daß man von „Mengen von etwas“ oder auch „einer Anzahl
von etwas“ spricht, was man in der Regel sinnlich wahrnimmt. Man verharrt auch
dabei, Ausdrücke wie „Menge von einer Sache“ (Einer-Menge) und „Menge von
keinen Sachen“ (Null-Menge) für grammatischen Unsinn zu halten.
Von der Mathematik muß man sich jedoch belehren lassen, daß es eine „über-
anschauliche Anschauung“ gäbe, die es im Studium auszubilden und zu üben
gelte. Wenn das gelinge, könne man sich sehr wohl Zahlen und Mengen „an sich“
vorstellen, daher auch „Einer-Mengen“ und „Nullmengen“ („leere Mengen“),
schließlich sogar „Mengen von Zahlen“ und „Zahlen von Mengen“ sowie „ab-
zählbare Mengen“, bei denen sich jedem sogenannten Element der Menge eine
natürliche Zahl zuordnen läßt. Dazu auch „überabzählbare Mengen“, bei denen
eine solche Zuordnung nicht möglich ist. Hilfsweise dürfe man sich der unzu-
länglichen „Modelle“ der anschaulichen logischen Mengenvorstellungen bedie-
nen, die freilich bei weitem nicht alles mathematisch Denkbare abdecken.
Daß die „mathematischen“, genauer gesagt, die mathematisierten Begriffe an-
ders gebildet werden als die logischen, dürfte daraus schon hervorgehen. Man
unterscheidet sie als „metrische“ oder „quantitative“, nach E. Cassirer auch als
„Funktionsbegriffe“, von den logischen Begriffen, die dann „qualitative“ genannt
werden. Daß das Quantitative bzw. Metrische sich auf die zahlenmäßige
Quantifizierung solcher Begriffe bezieht, liegt auf der Hand. Aber diese Charak-
77

teristik genügt bei weitem nicht, sich einen (logischen) Begriff von diesen mathe-
matischen Begriffen zu machen.
Sollen sie überhaupt Begriffe sein, so muß das Metrisch-Quantitative auch auf
Intensionen bezogen werden. Das geschieht allerdings durch die stillschweigende
Voraussetzung bzw. die Gewohnheit, daß die Intensionen mathematischer Be-
griffe immer noch wie bei Euklid geometrische Sachverhalte bedeuten, nämlich
(unausgedehnte) Punkte, Ausdehnungen, Strecken, Abstände. Ohne diese traditio-
nellen Veranschaulichungen, die heute „Modelle“ oder „Graphen“ genannt wer-
den, lassen sich die mathematischen Begriffe gar nicht denken. Das aber hat zur
Folge, daß die Anwendung der mathematischen Begriffe auf Wirklichkeitsberei-
che zunächst eine Geometrisierung der Objekte verlangt. Zeigen wir auch dies an
einigen Beipielen.
Der „quadriviale“ Hauptanwendungsbereich der Mathematik war und ist die
Physik geblieben. Alles, was in der Physik mit mathematischen Begriffen erfaßt
wird, enthält daher das geometrische Ausdehnungsmoment (Strecke) als generi-
sches Merkmal. Und mit ihm zugleich auch die Voraussetzung, daß diese Ausdeh-
nung aus (geometrischen) Punktreihen bestünden. Wie man weiß, ist aber das
Verhältnis der vorausgesetzten Diskontinuität von Punkten und des Linienkon-
tinuums bis heute ein vieldiskutiertes geometrisches Problem, dem selber eine
Dialektik zugrunde liegt.
Diese Dialektik von Punkt und Linie bzw. Unausgedehntheit und Ausdehnung
überträgt sich also von vornherein in die physikalischen Grundbegriffe. Redet
man vom physikalischen Zeitbegriff, so muß er zunächst als Ausgedehntes, näm-
lich als Zeitstrecke, aber zugleich auch als Punktreihe von „Zeitpunkten“ ver-
standen werden. Ebenso beim physikalischen Raumbegriff, der ein Komplex
seiner Erstreckungsdimensionen in Punktreihen ist (gemäß der cartesianischen
analytischen Geometrie). Die physikalische Masse wird ebenso als „Punktmasse“
(man spricht dann von „Idealisierung“) verstanden, die sich immer schon an be-
stimmten Raum- und Zeitpunkten befinden soll, während sie tatsächlich doch
immer räumlich ausgedehnt ist. Das ist von Descartes geradezu zum Wesensmerk-
mal („extensio“) der physikalischen „Substanzen“ erklärt worden.
Entsprechend der logischen Bildung abgeleiteter (deduzierter) Begriffe verste-
hen sich dann alle weiteren physikalischen Begriffe als aus diesen Grundbegriffen
zusammengesetzt. Aber ihre Zusammensetzung ist nicht eine von generischen und
spezifischen Merkmalen. Vielmehr werden diese Komplexierungen der abgelei-
teten physikalischen Begriffe gemäß den Rechenarten gebildet.
Es sind vor allem die Rechenarten der Summierung, der Subtraktion (zur Defi-
nition negativer Begriffe), der Multiplikation, der Potenzbildung und der Division,
in der Neuzeit dann die Differential- und Integralbildung, später noch die Loga-
rithmenbildung, die die mathematischen Hauptmittel als mathematische Junktoren
bzw. Operatoren dazu hergeben. Und je nach ihrer Anwendung zur Bildung der
entsprechenden Begriffe könnte man sie Tupel-Begriffe (Paare, Drillinge usw.),
negative Begriffe, Produktbegriffe, Potenzbegriffe, Quotientenbegriffe, Differen-
78

tialbegriffe und Integralbegriffe bzw. entsprechende komplexe Ausdrücke nennen.


Solcherart gebildete Begriffe und Ausdrücke können dann ihrerseits wiederum
nach denselben Rechenarten miteinander zu noch komplexeren Begriffen und
Ausdrücken zusammengesetzt werden. Eine Grenze für die Erzeugung derartiger
Komplexionen kann es offenbar nicht geben, wohl aber Grenzen der Darstellbar-
keit durch Zeichen und ihrer rechnerischen Handhabbarkeit.
Nehmen wir als Beispiel den physikalischen Geschwindigkeitsbegriff. Er ist ge-
wiß einer der einfachsten physikalischen Begriffe und geht in viele andere physi-
kalische Begriffe und Ausdrücke ein. Und doch weist er alle Charakteristika auf,
die ihn von logischen Begriffen unterscheiden.
Logisch sollte man denken, daß Geschwindigkeit eine Eigenschaft von Bewe-
gung, und diese wiederum eine Eigenschaft eines bewegten Körpers sei. Und das
wird natürlich auch in der physikalischen Mechanik stillschweigend voraus-
gesetzt. Der physikalische Begriff der Geschwindigkeit aber enthält keinen Hin-
weis darauf, daß die Geschwindigkeit einer Bewegung an einen bewegten Körper
gebunden ist. Er wird als Quotient aus räumlicher und zeitlicher Erstreckung
dargestellt. Logisch ist er jedoch als Verhältnis bzw. Proportion einer räumlichen
zu einer zeitlichen Strecke definiert („s : t“). Und das ist keineswegs dasselbe wie
ein Quotient als Resultat einer Division. In der Mathematik werden aber sowohl
die Proportionen wie auch die Quotienten mit demselben Ausdruck bezeichnet
(„s / t“) bezeichnet. Als Terminus für die Geschwindigkeit steht dafür „v“ (velo-
citas), der durch die Gleichung „v = s / t“ definiert wird.
Die physikalische Begriffsbildung suggeriert die Unanschaulichkeit des damit
Gemeinten. Man kann keine für sich bestehende Geschwindigkeit (ohne etwas
Bewegtes) als solche beobachten. Was damit gemeint ist, ist daher logisch nicht
nachvollziehbar. Es sei denn, man ließe sich darauf ein, über „körperlose“ Bewe-
gungen von Geistern zu spekulieren. In der Physik aber gehört die körperlose
Geschwindigkeit zum Standard-Begriffsarsenal.
Da die räumliche und zeitliche Erstreckung einer Bewegung auch für jeden
Punkt der jeweiligen (cartesianischen) Dimensionen gelten muß (da ja die
geometrischen Strecken als Punktreihen vorgestellt werden), fällt es dem Physiker
auch nicht schwer, von „Punktgeschwindigkeit“ eines bewegten Körpers zu reden.
Der physikalische Laie wie auch der Logiker (und auch schon der Parmenideer
Zenon), der (mit Euklid) davon ausgeht, daß ein Punkt keinerlei Ausdehnung
besitzt, muß es jedoch für unlogisch halten, einem bewegten Gegenstand über-
haupt eine Punktgeschwindigkeit zuzusprechen. Und zwar deshalb, weil ja die
physikalische Geschwindigkeit ausdrücklich als Quotient (genauer: als Propor-
tion) von Strecken (also nicht von Punkten) definiert ist. Wäre s = 0 („keine
Strecke“) und ebenso t = 0 („keine Dauer“), so wäre die Punktgeschwindigkeit als
v = 0 / 0 zu definieren. Der Logiker würde dann sagen, die Geschwindigkeit
verwandelt sich in Nichtgeschwindigkeit, und das könnte logisch nur das Gegen-
teil von Bewegung, also „Stillstand“ (physikalisch „Ruhe“) bedeuten.
79

Nun geht der Physiker davon aus, daß ein auf einer Strecke in bestimmter Zeit
bewegter Körper auch auf jedem Punkt der Strecke und zu jedem Zeitpunkt diese
Geschwindigkeit besitzen muß. Um gerade dies auch zu beweisen, haben Leibniz
und Newton mit ihrer Erfindung der Fluxions- und Differentialbegriffe in dialek-
tischer Weise den Punkt zur Strecke gemacht. Sie definierten den euklidischen
„ausdehnungslosen Punkt“ zu einem „unter jede zahlenmäßige Bestimmbarkeit
hinabreichende („infinitesimale“ = „gegen Null verschwindende“) Erstreckung“
um. Und dies zweifellos nicht ohne den verschwiegenen Einfluß von Berkeleys
sensualistischer Geometrie, in welcher der geometrische Punkt als ein „minimum
sensible“, also als etwas minimal Ausgedehntes definiert war.
Diese dialektische Definition verbirgt sich noch bis heute hinter manchen
Mystifizierungen in der Lehre von den Differentialen. Denn wohl kein Mathema-
tiker wäre geneigt zuzugeben, daß der Widerspruch in die Erfindung und Defi-
nition dieser neuen arithmetischen „Größen“ („unterhalb jeder zahlenmäßigen Be-
stimmbarkeit“) gleichsam eingebaut ist.
Der Leibnizsche Differentialquotient „d s / d t“ hält ersichtlich die Geschwin-
digkeitsdefinition als Proportion einer räumlichen und einer zeitlichen Er-
streckung bei. Aber die durch das Zeichen „d“ („differential“) quantifizierten
Strecken sollen gemäß Definition als „infinitesimale“ (gegen Null verschwin-
dende) Größenbezeichnung zugleich auch keine quantifizierbaren Strecken
(„Größen“) sein. Was nur heißen kann, daß die als Differentialgeschwindigkeit
definierte Punktgeschwindigkeit sowohl eine meßbare Größe als auch keine
(quantifizierbare) meßbare Größe ist. Und so ist das Differential von Leibniz als
neuer widersprüchlicher Zahlbegriff in die Arithmetik eingeführt worden. Logisch
läßt er sich nur als widersprüchlicher Begriff definieren, nämlich als „bestimmt-
unbestimmte Zahlengröße“. Was hier von Leibnizens Begriff des Differentials
gesagt wurde, gilt mutatis mutandis auch vom Fluenten-Begriff Isaak Newtons.
Die Definition der Punktgeschwindigkeit durch den Differentialquotienten be-
herrschte die klassische Mechanik. Als man jedoch um die Wende zum 20. Jahr-
hundert mit verfeinerten Beobachtungs- und Meßinstrumenten in die Ausdeh-
nungsbereiche der (damaligen) Elementarteilchen vordrang, glaubte man, die (in-
finitesimalen) Punktgeschwindigkeiten von Elementarteilchen ließen sich mit den
neuen Meßmethoden direkt und exakt bestimmen.
Wäre es dabei logisch zugegangen, so hätte sich das von vornherein als
vergebliche Mühe einschätzen lassen. Die Punktgeschwindigkeiten der Elemen-
tarteilchen konnten auch in den Bereichen der Mikrophysik nichts anderes sein als
Proportionen von Raum- und Zeitstrecken.41
Aber die mathematische Denkart verlangte in diesen Mikrodimensionen nach
der messenden Feststellung einer „idealen“ Punktgeschwindigkeit. Bei dieser
mußte, wie man voraussetzte, der „genaue Ort und der genaue Zeitpunkt eines

41
Vgl. dazu L. Geldetzer, Über den Begriff des Zeitpunktes bei Meßbestimmungen kanonisch-konjugierter Größen in der
Physik und über das Problem der Prognostik in der Mikrophysik. In: Geschichte und Zukunft, Festschrift für Anton Hain,
hgg. v. Alwin Diemer, Meisenheim (Hain) 1967, S. 142 - 149.
80

Teilchens auf seiner Bahn“ ermittelt werden. So sehr man aber in den darauf
gerichteten Experimenten die Meßskalen verfeinerte, stellte sich durchweg eine
Grenze der Geschwindigkeitsmessungen „auf dem Punkte“ heraus.
Anstatt diese Grenze auf den als Streckenproportion bzw. als Quotienten defi-
nierten Geschwindigkeitsbegriff selber zurückzuführen, brachte Werner Heisen-
berg sie in seiner Formel von der grundsätzlichen „Unbestimmtheit“ der „gleich-
zeitigen“ Erfassung von Raumstelle und Zeitpunkt der Elementarteilchen mit dem
Planckschen Wirkungsquantum h in Verbindung. Was bedeuten sollte, daß es
zwar Punktgeschwindigkeiten der Elementarteilchen geben müsse, daß aber der
messende (und somit wirkungsübertragende) Eingriff in die Bewegung der Teil-
chen deren genaue Bestimmung in der Größenordnung des Wirkungsquantums
verhindere.
Heisenberg erhielt dafür bekanntlich den Nobelpreis. Und das konnte nur be-
deuten, daß alle Mikrophysiker diese Theorie als wahr und grundlegend aner-
kannten. Heisenbergs Theorie von der prinzipiellen „gleichzeitigen“ Unbestimmt-
heit von Ort und Zeitpunkt (und anderer in Proportionen bzw. Quotientenbegriffen
„konjugierten Größen“) der Mikrophysik begründet seither das moderne physika-
lische Weltbild mit seiner Unterscheidung von Makro- und Mikrophysik und den
diesen Bereichen jeweils zugeschriebenen kausalen und indeterministischen
(akausalen) Strukturen. Auch die Bezeichnung „Quantenphysik“ verdankt sich der
Theorie von der punktuellen Unbestimmtheit in der Größenordnung des Planck-
schen Wirkungsquantums. Die Natur offenbart sich, so meint man seither, in ihren
Mikrophänomenen nur „gequantelt“. Unsere Überlegungen dürften aber schon
gezeigt haben, daß sich auch die Makrophänomene nur in „gequantelten“ Ge-
schwindigkeits-Proportionen bzw. Quotienten definieren und messen lassen.
Betrachten wir aber noch weitere dialektische Einschüsse in der physikalischen
Behandlung der Geschwindigkeit.
Ändert sich die Geschwindigkeit eines bewegten Körpers, so versteht man lo-
gisch ganz richtig, daß sie zu- oder abnimmt, und man nennt es gemeinsprachlich
Beschleunigung oder Verlangsamung. Kommt eine Bewegung eines Gegenstan-
des aber zum Stillstand, so wird man logisch überhaupt nicht mehr von Bewegung
und Geschwindigkeit reden.
In der Physik ist das anders. Hier wird jede Veränderung einer Geschwindigkeit
(also auch eine Verlangsamung), ja sogar die Richtungsänderung einer Bewegung,
als „Beschleunigung“ definiert. Da wundert sich der laienhafte Autofahrer, der
mit einer Geschwindigkeit von 80 Kilometer pro Stunde in der Kurve fährt, daß er
dabei seine (logische) Geschwindigkeit beibehält und zugleich (physikalisch) be-
schleunigt.
Logisch sollte man vermuten, daß eine Geschwindigkeit v, die als beschleunigte
gleichmäßig zunimmt, allenfalls als Summe der Ausgangsgeschwindigkeiten und
der hinzugekommenen (erhöhten) Geschwindigkeiten bezüglich der zurückge-
legten Strecken definiert werden müßte. Und das wird in der Praxis durch Inte-
gralbildung über die differentiellen Geschwindigkeiten der zurückgelegten
81

Strecke so berechnet. Definiert aber wird die Beschleunigung als eine weitere
Proportion der Geschwindigkeit im Verhältnis zur Zeit, also v / t = (s / t) / t.
Logisch sollte man wiederum meinen, daß eine Geschwindigkeit, die selber nur
das Verhältnis einer zurückgelegten Raumstrecke zu einer Zeitstrecke sein kann,
nicht nochmals in ein Verhältnis zu derselben Zeitstrecke gestellt werden könnte.
Der mathematisch denkende Physiker aber produziert aus den beiden Zeitstrecken
(die eine und dieselbe, aber zugleich auch zwei verschiedene sein müssen) ein
Zeitquadrat „ t² “ und definiert die Beschleunigung als „s / t² “.
Da nun aber die einfache gleichmäßige Geschwindigkeit als Proportion s / t
definiert ist, muß sich der mathematische Physiker die Beschleunigung nunmehr
als eine Proportion einer räumlichen Strecke und einer zeitlichen Fläche vorstel-
len. Was aber eine zeitliche Fläche oder auch ein mit sich selbst multiplizierter
Zeitbegriff „ t² “ bedeuten könnte, das wird er sich kaum vorstellen können (es sei
denn, er nehme seine Zuflucht zu M. Heideggers Spekulationen über die „Zeit-
lichkeit der Zeit“). Er beachtet nur die extensionalen Quantifikationen seines Be-
griffs. Mit anderen Worten: Er hält sich daran, daß jede Einsetzung von Zahlen an
die Stellen seiner Strecken- und Zeitparameter eine durch Division errechenbare
Zahl (den Quotienten) ergibt, die ihm die Größe der jeweiligen Beschleunigung
anzeigt. Und er beschwichtigt sein unzulängliches Vorstellungsvermögen mit der
Meinung, es handele sich ja bei den Begriffszeichen um bloße Meßanweisungen
(„Dimensionen“) der jeweiligen Begriffskomponenten.
Doch auch damit sind die dialektischen Einschüsse bei den physikalischen Ge-
schwindigkeitsvorstellungen nicht erschöpft. Sie setzen sich in den Grundlagen
der sogenannten Relativitätstheorie kosmischer Geschwindigkeiten fort.
A. Einsteins „revolutionärer Sturz der klassischen Newtonschen Mechanik“
durch seine Relativitätstheorie beruhte grundsätzlich darauf, daß er die Licht-
geschwindkeit c als Naturkonstante postulierte. 42 Einstein trug damit den nega-
tiven Resultaten der Michelson-Morley-Experimente Rechnung, die darauf aus-
gerichtet waren, den Einfluß der Eigengeschwindigkeit von Lichtquellen auf die
Geschwindigkeit der ausgestrahlen Licht-Quanten (oder Lichtwellen) festzu-
stellen.
Logischerweise hätte man erwarten können, daß sich die Geschwindigkeiten der
jeweiligen Lichtquelle und des ausgestrahlten Lichtes addieren oder subtrahieren
ließen, wenn sie sich auf einer und derselben Strecke bewegen. So, wie bekannt-
lich eine aus einem fliegenden Jet in Flugrichtung abgeschossene Rakete um den
Betrag der Jet-Geschwindigkeit schneller fliegt, als sie es von einem stehenden
Abschußgerät aus tun würde. Aber dies freilich unter der Voraussetzung, daß sich
die sogenannten Lichtquanten wie nacheinander abgeschossene Raketen von der
Lichtquelle entfernen. Paradigmatische Phänomene hatten sich vorher schon beim
akustischen „Doppler-Effekt“ gezeigt: Das Motorengeräusch eines sich entfernen-
den Fahrzeugs klingt dumpfer oder tiefer, eines sich nähernden „höher“ als zum
42
Vgl. dazu H. A. Lorentz, A. Einstein, H. Minkowski, Das Relativitätsprinzip. Eine Sammlung von Abhandlungen mit
einem Beitrag von H. Weyl und Anmerkungen von O. Sommerfeld. Vorwort von A. Blumenthal, 6. Aufl. Darmstadt 1958.
82

Zeitpunkt des Passierens. Und das wird erklärt als Verlängerung bzw. Verkürzung
der Schallwellen, die beim Hörer eintreffen.
Einstein postulierte nun zur Erklärung der negativen Befunde Michelsons und
Morleys, daß sich das Licht ganz unabhängig von der Eigengeschwindigkeit der
Lichtquelle immer mit gleicher Geschwindigkeit nach allen Richtungen hin
ausbreite. Die Lichtausbreitung zeige also, anders als die Schallausbreitung, kei-
nen Doppler-Effekt. Das war die Einsteinsche Idee von der absoluten „Konstanz
der Lichtgeschwindigkeit nach allen Richtungen und unabhängig von der Eigen-
bewegung der Lichtquelle“. Ersichtlich war dies eine „paradoxe“ und mithin als
Widerspruch in sich hinzunehmende Idee. Sie wurde von den meisten Physikern
auch so verstanden. Was allerdings zeigt, daß sich in der Physik das dialektische
Denken wenigstens in dieser Frage durchzusetzen begann.
Es wurden seither zahlreiche weitere Dialektiken bzw. Widersprüche in der
Relativitätstheorie entdeckt. Sie machen sich etwa als „Uhrenparadox“ bei der
Abstimmung gegeneinander mit annähernder Lichtgeschwindigkeit bewegter
Uhren bemerkbar (was freilich nur im Gedankenexperiment demonstriert wird).
Die Relativitätstheorie verbietet auch, die Ablenkung von Lichtstrahlen („Perihel-
verschiebung“) im Gravitationsfeld kosmischer Massen als „Beschleunigung der
Lichtgeschwindigkeit“ zu deuten. Einstein begründete das damit, daß der kosmi-
sche Raum insgesamt in Abhängigkeit von der Verteilung der Sternmassen in ihm
„gekrümmt“ sei, so daß die krummen Linien dieser sogenannten (nicht-euklidi-
schen) Minkowski-Räume eben als „gerade Linien“ des relativistischen kosmi-
schen Raumes anzusehen seien.
Nun haben die bekannten Rotverschiebungen im Spektrum des Lichtes weit
entfernter Sterne, die man weiterhin analog zum akustischen Doppler-Effekt als
Maß für die sich vergrößernde Entfernung solcher Sterne (und als Argument für
eine fortschreitende Ausdehnung des Universums) benutzt, nicht dazu geführt, das
Einsteinsche Postulat der Konstanz der Lichtgeschwindigkeit, das ersichtlich den
Rotverschiebungen widerspricht, aufzugeben. Einstein selbst schlug vielmehr die
„Relativierung“ der kosmischen Maßeinheiten vor. Alle Maßeinheiten für Entfer-
nungsmessungen (auch der Lichtquellen!) sollen in Proportion zur Geschwin-
digkeit der Bewegung der Meßgeräte „kontrahieren“, d. h. kürzer werden, und
dementsprechend sollen auch die Zeitperioden der Zeitmeßinstrumente „dilat-
tieren“, also länger werden.
Auch das ist für den Logiker nicht nachvollziehbar. Denn es wird ihm zuge-
mutet sich vorzustellen, daß ein Metermaß, das er evtl. bei einem Raumflug (mit
angenäherter Lichtgeschwindigkeit) mit sich führt, zugleich dasselbe bleibt und
auch kürzer wird. Und daß die mitgeführte Uhr in gleichem Rhythmus weitertickt
und zugleich langsamer geht.
Physiker „erklären“ dies dem Laien so, daß der Raumfahrer bei der langsamer
verstreichenden Zeit der Reise jünger bleibt als die zurückgebliebenen Erdbe-
wohner (was ersichtlich die Raumfahrt attraktiv macht). Der Logiker aber wird
dagegenhalten, daß die widersprüchliche Relativitätstheorie auch den gegentei-
83

ligen Schluß zuläßt. Der zurückbleibende Erdbewohner entfernt sich mit der-
selben Geschwindigkeit vom Raumschiff wie dieses von der Erde. Und so müssen
auch die irdischen Uhren im Verhältnis zu den Uhren im Raumschiff langsamer
ticken. Dialektisches Denken erlaubt es, beides zu beweisen.
1983 hat die (internationale) 17. Allgemeine Konferenz für Maße und Gewichte
eine neue Längeneinheit (anstatt des Pariser „Urmeters“) als diejenige Strecke
definiert, die das Licht im Vakuum in 1/299792458 Sekunden zurücklegt. „Damit
wurde die Lichtgeschwindigkeit c als Naturkonstante endgültig festgelegt und die
Längendefinition von der Zeitdefinition abhängig gemacht“.43 Man kann das eine
Art apostolischer Definition nennen. Denn wenn die physikalischen Grundbegriffe
Raum und Zeit durch die Lichtgeschwindigkeit definiert werden, kann man sie
nicht mehr Grundbegriffe nennen und die Geschwindigkeit durch sie definieren.

Ein anderer wichtiger physikalischer Begriff ist der Kraftbegriff. Er ist schon von
Aristoteles in die Naturphilosophie eingeführt worden, und zwar im Zusammen-
hang seines Vier-Ursachenschemas der Erklärung von Veränderungen und Bewe-
gungen der natürlichen Dinge (vgl. dazu § 18).
Bei Aristoteles ist Kraft eine Disposition bzw. Anlage der toten und lebendigen
Wesen, auf Grund ihrer „materialen Ursache“ (hýle, ὕλη, lat. materia) „Formen“
(morphé, μορθή, lat. forma) anzunehmen, die ihre dann veränderten Bewegungs-
zustände bzw. ihre veränderten Gestalten als „aktuellen Zustand“ (energeia ἐνέρ-
γεια, lat. actus, dt. wörtlich “Beim-Werke-sein“ oder „Wirklichkeit“) anzeigen.
Aristoteles nannte diese Eignung zur Aufnahme von Formen „Dynamis“ (δύναμις,
lateinisch potentia, Kraft). Das blieb im späteren abendländischen Wortschatz als
„Potenz“ und somit auch in der Bezeichnung von Kräften erhalten. Die Bezeich-
nung des jeweils „aktuellen“ Zustandes aber blieb im modernen Energiebegriff
erhalten.
Das Vier-Ursachenschema diente vor allem der Erklärung von natürlichen und
(durch andere Körper) erzwungenen Bewegungen (ί, lat. motus) der irdi-
schen und kosmischen Körper und legte insofern den Grund für eine „dynami-
sche“ Physik bzw. physikalische Kinetik.
Als „natürliche Bewegungen“ beschrieb Aristoteles die sinnlich beobachtbaren
geradlinigen Bewegungen von erdhaften und flüssigen Substanzen zum Erdmittel-
punkt, die geradlinigen Bewegungen von lufthaften und feurigen Substanzen in
entgegengesetzter Richtung nach oben, schließlich die Bewegungen der Gestirne
auf „vollkommenen“ Kreisbahnen. Diese natürlichen Bewegungen erklärte
Aristoteles durch teleologische Ursachen (ηέ, causa finalis), die das „Ziel“
dieser natürlichen Bewegungen als ihren „heimatlichen Ort“ (ἰκῖ ηóπος oikei-
os topos) bestimmten. Als „Entelechie“ (ἐνηελέτεια, lat. impetus, tendentia, „inne-
res Streben“) bezeichnete er die ständige Ausrichtung des bewegten Körpers bzw.
des sich verändernden Lebewesens auf dieses Ziel hin. Vermutlich hat ihm dafür

43
R. Knerr, Goldmann Lexikon Mathematik, Gütersloh und München 1999, S. 247.
84

die beständige Ausrichtung einer Magnetnadel auf einen Magneten bei allen
Lageveränderungen als Modell für das Entelechiekonzept gedient.
„Erzwungene Bewegungen“ ergaben sich bei Aristoteles durch die Berührun-
gen und Kreuzungen der natürlichen Bewegungen der Körper. Wobei der Eingriff
des Menschen in diese natürlichen Bewegungen selbst das deutlichste anschau-
liche Beispiel für das Bewirken von Veränderungen wurden. Die erzwungenen
Bewegungen werden durch eine Wirkursache (ὅ ἡ ἀὴ ηῆ ή,
„woher der Ursprung der Bewegung“, causa efficiens) hervorgebracht. Ein Stoß
oder Druck (πή, lat impulsus, „Einschlag“) verleiht einem Körper eine Bewe-
gung in eine Richtung, die von der natürlichen ungezwungenen Tendenz zu
seinem „heimatlichen“ Ziel abweicht. Die durch Wirkursachen hervorgerufenen
Bewegungen stören also die natürlichen Bewegungen. Dies aber nach Aristoteles
nur solange, bis die natürlichen Bewegungen der Substanzen wieder bestimmend
werden und diese ihre natürlichen Ziele „anstreben“. Das ist von der neuzeitlichen
Newtonschen Physik im Begriff der Trägheitskraft als Beharren in einer unge-
störten geradlinigen Bewegung sowie als Beharren in „Ruhe“ beibehalten worden.
Bis in die Spätscholastik wurde das aristotelische Vier-Ursachenschema soweit
ausgebaut, daß die vier Ursachen die Interventionen der Körper untereinander auf
folgende Weise erklärten: die materielle Ursache erklärte überhaupt die Existenz
eines oder mehrerer Körper. Die formale Ursache erklärte ihre Gestalt. Die kau-
sale Ursache wirkte als „Einschlag“ (impulsus) eines Körpers auf einen anderen in
direkter Berührung, wodurch eine Kraft (potentia) übertragen wurde. Und die
Finalursache bewirkte als sogenannter Impetus (lat. intus petere, wörtlich: inneres
Streben oder Tendenz) die Einhaltung der natürlichen Bewegung, die ggf. durch
einen Impuls gestört wurde.
Die neuzeitliche Physik entwickelte sich aus dem Zusammentreffen dieser
aristotelischen (nicht-mathematischen und sozusagen phänomenologischen) Phy-
sik mit der neuplatonischen Phänomen- und Geisterlehre und ihrer teilweisen
Durchdringung. Der Platonismus aber brachte auch die Mathematisierung in die
neuzeitliche Physik.
Die neuplatonischen Geister (Engel) galten als die „Ausflüsse“ (Emanationen)
aus dem göttlichen Schöpfergott. Wie Gott die Welt geschaffen hat, so wirken
auch diese Geister unsichtbar auf die sinnlichen Erscheinungen ein. Die Verän-
derungen in der körperlichen Naturwelt wurden alsbald neuplatonisch in der
aristotelischen Terminologie von Kräften (Potenzen, Energien und Entelechien)
erklärt. Neuplatonischen Physikern war es daher selbstverständlich, daß man diese
Kräfte nicht sinnlich beobachten und wahrnehmen, sondern nur auf Grund ihrer
Wirkungen erschließen konnte. Und die Ausbreitung des neuplatonischen Den-
kens in weiteren Kreisen führte gleichzeitig mit der Entwicklung der modernen
Physik zu einem wuchernden Gespenster- und Hexenglauben in der Bevölkerung.
Die Unbeobachtbarkeit der Kräfte und Energien blieb seither ein neuplato-
nisches Erbstück der neuzeitlichen Physik. Man nennt derartiges heute „unbeo-
bachtbare Parameter“. Da man sie nur aus ihren Wirkungen erschließen können
85

sollte, wies man den beobachteten natürlichen und erzwungenen Bewegungs-


formen des Aristoteles jeweils diese Kräfte als Wirkursachen zu. Und das ver-
änderte die aristotelische Erklärungsweise mittels des Vier-Ursachenschemas.
Das neuzeitliche Methodenbewußtsein der Physiker stellt als wesentliche Verän-
derung und als wissenschaftlichen Fortschritt die Eliminierung der (aristote-
lischen) teleologischen Ursachen zugunsten reiner „Kausalerklärungen“ (allein
mittels der causa efficiens) heraus. Das ist jedoch eine falsche Ansicht späterer
Naturwissenschaftler, die das aristotelische Vier-Ursachenschema als überholt
ansahen und dabei die tatsächliche Rolle des aristotelischen Entelechie- und
Impetusbegriffs mißverstanden. Zwar verschmähte man den Terminus „Ente-
lechie“ zusammen mit der „causa finalis“ und schnitt diese Terminologie gleich-
sam mit dem Ockhamschen Rasiermesser aus dem physikalischen Sprach-
gebrauch heraus, weil man sie für „überflüssige“ Reminiszenzen an Spuk- und
Geistereinflüsse in die Naturwelt hielt. Tatsächlich aber wurden sie unter anderen
Bezeichungen in die Grundlagen der modernen Physik übernommen.
In neuer Terminologie sprach man nun von der „Kraft der Beharrung im
Zustand entweder der Ruhe (Trägheits- bzw „Faulheits“-Kraft) oder der ungestör-
ten gleichformigen und geradlinigen Bewegung“ (I. Newton).
Sowohl die „Ruhe“ als auch die „geradlinige Bewegung“ wurden so als die
einzig übrigbleibenden „natürlichen Bewegungen“ des Aristoteles beibehalten und
durch die „Trägheitskraft“ (als Nachfolger der „Entelechie“) erklärt. Die Kreisbe-
wegungen (zugleich mit allen Bewegungsformen gemäß den geometrischen
Kegelschnitten) aber wurden nunmehr als erzwungene Bewegungen angesehen
und mußten „kausal“ (ausschließlich durch Wirkursachen) erklärt werden.
Als materielle Ursache galt weiterhin die Materie. Von Demokrit und Epikur
übernahm man die Bezeichnung „Atom“. Die Atome aber wurden dann zu „Kor-
puskeln“ und schließlich zur physikalischen „Masse“ („m“).
Definiert wurde die Masse zuerst mittels ihrer (natürlichen teleologischen) En-
telechie, sich auf den Erdmittelpunkt hin zu bewegen, was man dann ihre
„Schwere“ oder „Gewicht“ nannte. Nachdem die sogenannte kopernikanische
Revolution aber die Erde zu einem „Himmelskörper“ neben den anderen (Plane-
ten, Sonne und alle Sterne) erklärt hatte, wurde die „Erdenschwere“ zu einer
allgemeinen Bestimmung aller Himmelskörper im gegenseitigen Verhältnis zu-
einander. Die „Schwere“ wurde zu einer Entelechie aller Himmelskörper. Die
berühmte „Gravitationskraft“ (Schwerkraft oder Anziehungskraft) der Massen
Newtons, die dieser bekanntlich weder erklären wollte noch konnte, resultierte aus
der Verallgemeinerung der alten aristotelischen „natürlichen“ Bewegungsrichtung
der „schweren“ Massen untereinander.
Die Interventionen der kosmischen und sublunarischen Körper wurden dadurch
zu einem Kräftespiel der Beharrungs- und Veränderungskräfte, das man nur an
ihren Bewegungen ablesen konnte. Es kam alles darauf an, eine Darstellungsweise
einzuführen, die die Identität der beobachtbaren Körper, ihrer Bewegungen,
Geschwindigkeiten, Beschleunigungen mit ihren Potenzen zu formulieren ge-
86

stattete. Das war die mathematische Gleichungsform und ihre Eignung zur Defi-
nition quantifizierter Größen.
Was man dabei als Kraft definieren sollte, darüber bestand lange keine Über-
einstimmung unter den Physikern.
Descartes und seine Schule schlugen vor, die physikalische Kraft als m × s / t.
(d. h. „Massen-Geschwindigkeit“) zu definieren: also K = m × v. Das ist auch so
beibehalten worden. Aber die Kraft des bewegten Körpers ließ sich so nur für
geradlinige und gleichförmig bewegte Körper bestimmen. Man hatte es aber in
vielen und interessanten Fällen mit beschleunigten und nicht auf geraden Linien
bewegten Körpern zu tun.
Hierzu machte man Gebrauch von den Definitionsgleichungen der Beschleu-
nigungen, die wir vorn schon behandelt haben. Es war Leibniz, der dafür den Be-
griff der „lebendigen Kraft“ (vis viva“ vorschlug, weil sich solche unregel-
mäßigen Bewegungen augenfällig bei Lebewesen beobachten ließen. Das wurde
zunächst angenommen und mit dem gleichsam brachliegenden aristotelischen
Begriff der Energie („E“) benannt. Die Definition der Energie bei Leibniz und
seinen Zeitgenossen lautete E = m × v². Auch dies wurde festgehalten, wie man
noch bei Einstein sieht, der die (gesamte kosmische) Energie als „E = m × c² “
(Masse multipliziert mit dem Quadrat der Lichtgeschwindigkeit c) definierte.
Daß es den Physikern aber auf die rein quantitativen Bestimmungen dabei nicht
allzu sehr ankam, sieht man daran, daß Jean LeRond d‟Alembert schon im 18.
Jahrhundert und G. C. Coriolis 1829 die Leibnizsche Definition durch den Faktor
½ korrigieren wollten und die Energie somit als „ ´ m × v² “ definierten. Diese
Korrektur berücksichtigt die Entdeckung der „Calculatores“ (Rechenkünstler) des
Oxforder Merton-Colleges in der Scholastik, wonach die Endgeschwindigkeit
einer gleichmäßig beschleunigten Bewegung der „mittleren“ Durchschnittsge-
schwindigkeit entspricht.44
Diese Definitionen typischer physikalischer Begriffe zeigen, daß in der Physik
die Berechnungsweisen von Meßdaten der Grundgrößen von Zeit- und Raum-
strecken in die intensionalen Definitionen der jeweiligen komplexeren Begriffe
übernommen werden. Logisch aber besteht doch Bedarf, über die Tragweite und
Sinnhaftigkeit dieses Verfahrens genauere Klärungen herbeizuführen.
So ist es schon logisch fragwürdig, Proportionen zwischen irgendwelchen
Größen, die als Quotientenbegriffe dargestellt werden, grundsätzlich auszurech-
nen. Bei den Geschwindigkeiten hat man sich daran gewöhnt. Aber wer würde
etwa das Ergebnis eines Fußballspiels von 6 : 2 Toren als 3 Tore angeben? Ganz
abgesehen davon, daß dasselbe Torverhältnis auch als 2 / 6 = 0, 333... „ oder „1/3“
angegeben werden könnte.
Noch fragwürdiger erscheinen die mathematischen Potenzierungen von Begrif-
fen, in denen logisch ja ohne Zweifel Begriffe mit sich selbst zu neuen Begriffen
vereinigt werden. Auch an dieses Verfahren hat man sich seit Euklids Zeiten
44
Vgl. dazu M. Jammer, Art. „Energie“, in: J. Ritter (Hg.), Historisches Wörterbuch der Philosophie, Band 2, Basel-
Stuttgart 1972, Sp. 494 - 499.
87

durch die Definitionen von Flächen (a²) und Körpern (a³) durch Potenzierung ihrer
Seitenlängen gewöhnt. Aber man hat nicht darauf geachtet, daß das Meßver-
fahren, einen Maßstab a an zwei bzw. drei ganz verschieden ausgerichtete (im
rechten Winkel zueinanderstehende, d. h. vektoriell verschiedene) Seiten eines
Quadrats oder eines Kubus anzulegen, keineswegs darauf schließen läßt, daß eine
Quadratfläche aus der 2. Potenz des Begriffs Strecke bzw. ein Kubus aus der 3.
Potenz einer Strecke hervorgehen könnte. Und somit erst recht nicht bei nicht-
euklidischen Flächen und Körpern. Es kann nur diese Denkgewohnheit sein, die
dem Physiker auch Begriffe wie Zeitquadrat oder Geschwindigkeitsquadrat in
irgend einer Weise als „rationale“ Denkhilfe bei seinen Begriffen erscheinen
lassen.
Geht man der historischen Entwicklung dieser Denkgewohnheit in Potenzen
nach, so stößt man auf „logische“ Begriffsbildungen, die als „Reflexionsbegriffe“
bekannt geworden sind und seit jeher als rätselhaft gelten. Der Prototyp scheint
des Aristoteles „noesis noeseos“, d. h. „Denken des Denkens“ gewesen zu sein.
Aristoteles hielt das „Denken des Denkens“ für eine nur einem Gotte zukom-
mende Fähigkeit. Aber später machte dieser Reflexionsbegriff als „Selbst-Be-
wußtsein“ auch bei minderen Geistern bedeutend Fortüne.
Raimundus Lullus (um 1235 – 1315) hat in seiner Ars Magna schon jede
Menge anderer Begriffe in dieser Weise mit sich selbst potenziert. Auch Charles
Bouillé (Carolus Bovillus, 1470 - ca. 1553, ein seinerzeit berühmter Logiker aus
der Schule des Petrus Ramus (Pierre de la Ramée) hat - freilich recht beiläufig -
vorgeschlagen, eine produktive Verschmelzung eines Begriffs mit sich selbst in
die Logik einzuführen. Er schlug vor, den ersten Menschen Adam als „homo“,
Eva als aus dem ersten Menschen gemacht als „homo-homo“ und Abel als dritten
Menschen und gemeinsames Produkt der Eltern als „homo-homo-homo“ zu be-
zeichnen.45 Aber bekanntlich wurden solche Vorschläge von den Logikern nie-
mals ernst genommen, wohl aber von Leibniz. Und Leibniz hat maßgeblich daran
mitgewirkt, diese „mathematische Begriffsbildung“ für „logisch“ und selbstver-
ständlich zu halten.
Die Dialektik in der mathematischen und physikalischen Begriffsbildung ist
gewiß nicht allen Mathematikern und Physikern entgangen. 46 Aber die meisten
halten die entdeckten Widersprüche und Paradoxien für Probleme, die auf dem
Wege künftiger Forschung durch widerspruchslose Lösungen zu überwinden
seien. Manche jedoch, wie etwa der Nobelpreisträger Richard P. Feynman, be-
haupten, daß z. B. die Quantenphysik – im Unterschied zum logischen Common-
sense – der „Absurdität“ (d. h. Widersprüchlichkeit) der Natur Rechnung tragen
müsse:

45
Carolus Bovillus, Liber de Sapiente, im Nachdruck der Ausgabe seiner Schriften Paris 1510, Stuttgart-Bad Cannstatt
1970 (erst 1973 erschienen) S. 132.
46
Zum Widerstand einiger Philosophen und Logiker gegen Riemanns mehrdimensionale Raumtheorie vgl. R. Torretti,
Philosophy of Geometry From Riemann to Poincaré, Dordrecht-Boston-London 1978, Chap. 4, 1: „Empiricism in Geo-
metry“ und 4,2: „The Uproar of Boeotians“, S. 255 – 301.
88

„Die Theorie der Quanten-Elektrodynamik beschreibt die Natur vom Standpunkt des
Commonsense als absurd. Und sie stimmt gänzlich mit den Experimenten überein.
So hoffe ich, daß Sie die Natur als das akzeptieren können, was sie ist, - absurd“.47

Und offensichtlich in der Meinung, solche Widersprüchlichkeiten ließen sich


weder denken noch verstehen, sagt er an anderer Stelle:

„Ich denke man kann mit Sicherheit sagen, daß niemand die Quantenmechanik
versteht“.48

Andere wie N. D. Mermin umschreiben den Sachverhalt als „magisch“: „Das


Einstein-Podolski-Rosen-Experiment kommt der Magie so nahe wie jedes physi-
kalische Phänomen, das ich kenne, und an Magie sollte man sich erfreuen“.49
Paul Marmet, dem diese Äußerungen (in meiner Übersetzung) entnommen
sind50, bucht solche Widersprüche gänzlich auf das Konto der sogenannten Ko-
penhagener Schule Niels Bohrs und ihre (angeblich auf George Berkeley grün-
dende) idealistische Erkenntnistheorie. Er glaubt, sie alle durch einen entschie-
denen Realismus und Rationalismus „lösen“ zu können. Die Mathematik aber
nimmt er gänzlich von dem Vorwurf aus, sie könne für diese Widersprüche ver-
antwortlich sein. Für ihn „bildet der mathematische Formalismus, der in der
Physik gebraucht wird, wahrscheinlich dasjenige, was das kohärenteste und logi-
sche interne System ist, welches es in der Wissenschaft gibt“ (ibid. S. 20). Da
irritiert ihn nicht einmal Werner Heisenbergs Eingeständnis, daß die „Paradoxien
der dualistischen Wellen- und Teilchenvorstellungen“ in der Mikrophysik „ir-
gendwie im mathematischen (Denk-)Schema verborgen liegen“.51
Kommen wir nach den Beispielen der physikalischen Begriffsbildung zu den
Gemeinsamkeiten und Unterschieden, die zwischen Logik und mathematischer
Logik bzw. Mathematik hinsichtlich ihrer Urteilsbildung oder Aussageformen
bestehen. Auch sie sind beträchtlich.
Gemeinsam ist der logischen wie der mathematischen Methodologie, daß sie die
Urteils- bzw. Aussageformen (Propositionen, engl.: propositions) als Mittel der
Formalisierung von wahren und falschen Behauptungen, darüber hinaus auch von
Wahrscheinlichkeiten behandeln. Für diese Formalisierungen werden bestimmte
Junktoren benutzt, durch welche die jeweiligen Begriffe verknüpft werden. Die
gemeinsame Vorlage, gleichsam das Muster dafür, ist der reguläre grammatisch
wohlgebildete sprachliche Behauptungssatz: „Irgend etwas ist (oder verhält sich)
so“.
47
R. P. Feynman, The Strange Theory of Light and Matter, Princeton University Press , N. J., 1988, S. 10.
48
R. P. Feynman, The Character of Physical Law, 1967, S. 129.
49
N. David Mermin, „Is the Moon There when Nobody Looks? Reality and Quantum Theory“, in: Physics Today, April
1985, S. 47.
50
P. Marmet, Absurdities in Modern Physics: A Solution, or: A Rational Interpretation of Modern Physics, Ottawa 1993.
51
W. Heisenberg, Physics and Philosophy, the Revolution in Modern Science, New York 1966, S. 40, zit. bei Marmet S.
24.
89

In der Logik ist der Hauptjunktor für behauptende Urteile bzw. Sätze die sprach-
liche Partikel „ist“, die sogenannte Kopula geblieben. Sie wird daher auch seit
jeher schlechthin „Verknüpfungsjunktor“ (lat.: copula) genannt. Und in Anknüp-
fung an die logische und sprachliche Verwendung der Kopula wurde auch in der
Mathematik das „ist“ beibehalten. Allerdings mit einer entscheidenden Einschrän-
kung, die mit der Behauptung der „Gleichheit“ ausgedrückt wird.
Die Behauptungsformel in der Mathematik lautet also „irgend etwas ist gleich
einem anderen etwas“. Der Verfasser gesteht bei dieser Gelegenheit gerne, daß er
sich im mathematischen Grundschulunterricht – weil im Deutschen „gleich“ auch
„sofort“ bedeutet - eine zeitlang zu der Meinung verführen ließ, die Mathematiker
hätten es mit ihren Gleichungen nur auf Schnelligkeit des Denkens, d. h. „sofor-
tige“ Ausrechnungen der Gleichungen angelegt.
Nun wird diese mathematische Gleichheitsaussage seit jeher für eine exaktere
Form der logischen kopulativen Sätze gehalten. Wie das von Ch. S. Peirce und H.
Weyl begründet wurde, ist schon im vorigen Paragraphen gezeigt worden. Man
sieht das auch an dem laxen Sprachgebrauch vieler Mathematiker, die ihre Glei-
chungen auch in der Form „a ist b“ oder ähnlich lesen. Und so findet man zwi-
schen Descartes und Kant immer wieder mathematische Gleichungen als Bei-
spiele für besonders klare und exakte Urteile angeführt. Berühmt ist das schon
erwähnte Beispiel Kants für das, was er für ein „synthetisches Urteil a priori“
hielt, nämlich die Gleichung „7 + 5 = 12“.52
Der logische kopulative Behauptungssatz drückt jedoch in keiner Weise irgend
eine Gleichheit zwischen einem Subjekt und einem Prädikat aus. Handele es sich,
um mit Kant zu reden, um analytische oder synthetische Urteile, so wird in ihnen
durchweg gerade eine Ungleichheit zwischen Subjektsbegriff und Prädikatsbegriff
vorausgesetzt. Nämlich dadurch, daß („analytisch“) eine Eigenschaft (ein Merk-
mal), das sich neben anderen Merkmalen im Subjektbegriff findet, eigens heraus-
gestellt und betont wird, oder daß es („synthetisch“) zu den Merkmalen des Sub-
jektsbegriffs hinzugefügt wird. In mathematischen Gleichungen stehen jedoch die
Ausdrücke links und rechts vom Gleichheitszeichen in keinerlei logischem Sub-
jekt-Prädikatverhältnis. Durch die Gleichung wird vielmehr die vollkommene
logische Identität der Bedeutungen der Ausdrücke links und rechts vom Gleich-
heitszeichen zum Ausdruck gebracht. Und deswegen kann eine mathematische
Gleichung keineswegs eine exaktere Form eines logischen kopulativen Urteils
sein.
Die Gleichung ist in der Tat eine „Aussageform“, die in der klassischen Logik
ebenfalls immer benutzt worden ist, nämlich eine sogenannte Äquivalenz. Die
Gleichung bzw. Äquivalenz geht vermutlich auf den philologischen Brauch zu-
rück, in den Wortlisten und späteren Sprachlexika Wörter verschiedener Sprachen
mit identischer Bedeutung nebeneinander anzuordnen, wobei das Gleichheitszei-

52
I. Kant, Kritik der reinen Vernunft, A 164, sowie Einleitung B 16 und B 205; auch in den Prolegomena, Vorerinne-
rungen § 2, c.
90

chen eingespart wird (z. B. Armut = Pauvreté). Dasselbe Verfahren der Neben-
einanderstellung wurde und wird aber auch innerhalb einer und derselben Sprache
bei den sogenannten Synonymen verwendet, also bei verschiedenen Wörtern oder
Ausdrücken, die dasselbe bedeuten.
Die logische Form dieser Äquivalenzen ist dann zur Standardform der logischen
Begriffsdefinition geworden. Es kommt hierbei ausschließlich darauf an, einen
(durch ein Wort bzw. Term bezeichneten) Begriff dadurch zu erläutern, daß seine
Merkmale (Intensionen) und sein Anwendungsbereich (die Extension) deutlich
werden. Auch die aristotelische Standarddefinition durch Angabe der generischen
und spezifischen Merkmale bezweckt nichts anderes.
Nun kann man freilich auch den Logikern den Vorwurf nicht ersparen, daß sie
den Unterschied zwischen kopulativen Behauptungen und definitorischen Erläu-
terungen (Äquivalenzen) nicht immer bemerkt und beachtet haben. Kennzeich-
nend dafür ist, daß man etwa die sogenannten Subalternationen, bei denen „eini-
ge“ und „ein“ Exemplar einer Gattung (also eine von mehreren Arten und ein
bestimmtes Individuum einer Gattung) definiert werden, für partikuläre und indi-
vidualisierende „Urteile“ mit einem bestimmten Wahrheitswert hält.
Hält man den Unterschied zwischen kopulativen behauptenden Urteilen der
Logik und gleichungsmäßigen Definitionen der Mathematik fest, so muß man
auch einsehen, daß die mathematischen Gleichungen in ihrer regulären Verwen-
dung nur Definitionen mathematischer Begriffe und Ausdrücke sein können. Und
das muß dann auch für die Anwendungen mathematischer „metrischer Begriffe“
in den mathematisierten Wissenschaften, insbesondere in der Physik gelten.
Es gilt also mit dem epochalen Mißverständnis Schluß zu machen, mathema-
tische Gleichungen wie „3 ∙ 3 = 9“ oder physikalische wie „s / t = v“ seien
überhaupt Urteile bzw. Behauptungen, die mit Wahrheit oder Falschheit in Ver-
bindung zu bringen seien. Es sind vielmehr Definitionen von Begriffen und evtl.
Ausdrücken, denen ein Terminus zugeordnet wird. Und die dadurch eingeführten
Begriffe sind teils durch ihr Alter, teils durch Auswendiglernen in der Alltags-
sprache sanktioniert worden. Da es sich dabei um Ausdrücke und Begriffe han-
delt, haben sie logisch also keinen sogenannten Wahrheitswert.
Das kann allerdings nicht heißen, daß der Umgang und die Beherrschung
solcher Ausdrücke und Begriffe immer so leicht wie beim Auswendiglernen eines
Vokabulars oder des kleinen Einmaleins wären. Jede Rechenaufgabe in der Form
einer Gleichung mit größeren Zahlen und/oder komplexeren Rechenanweisungen
stellt gegebenenfalles eine große Herausforderung dar. Aber ein nach allen Regeln
der praktischen Rechenkunst erzieltes Rechenergebnis als wahre Erkenntnis oder
neues Wissen zu deuten, geht an den logischen Tatsachen vorbei. Und das gilt
auch in den Fällen, wo die praktische Rechenkunst bei Nicht-Aufgehen von Rech-
nungen dazu geführt hat, immer neue Zahlarten (wie die negativen Zahlen beim
Subtrahieren über die Null hinaus, oder die imaginären Zahlen beim Wurzelziehen
aus negativen Zahlen) zu definieren.
91

Der Übergang zu etwas anderem als Begriffsdefinitionen liegt allerdings dort vor,
wo Mathematiker und Physiker sich in Prosatexten ohne Gleichungsformeln
äußern oder zu solchen Äußerungen veranlaßt werden. Hier müssen sie mittels
Behauptungen gleichsam Farbe bekennen, nämlich über das, was sie für wahr
und/oder falsch halten. Dabei unterliegt aber die Prüfung von Wahrheit und
Falschheit ausschließlich logischen Kriterien. Und das zeigt, daß letzten Endes
auch Mathematik und Physik in ihren Einsichten, Erkenntnissen und Theorien auf
die klassische Logik verpflichtet werden können und müssen.
Der Unterschied zwischen der logischen und mathematischen Denkweise redu-
ziert sich dadurch auf professionelle Voreingenommenheiten bezüglich ihrer
Textsorten. Denn der Logiker achtet auf die grammatische und logische Kor-
rektheit der mathematischen und ggf. physikalischen Behauptungen und sucht in
den mathematischen Formeln allenfalls Erläuterungen dazu, falls er sie nicht
gänzlich überschlägt. Der Mathematiker und Physiker aber geht davon aus, daß
sich der Behauptungsgehalt am deutlichsten und exaktesten in den angeführten
Gleichungen darstelle, und daß alles Reden darüber nur eine mehr oder weniger
einleuchtende Interpretation sei. Und dies kann nach allem, was über Gleichungen
zu sagen war, nur als Selbsttäuschung bezeichnet werden.
Die Lage kompliziert sich dadurch, daß es bei logischen Urteilen mit der zwei-
wertigen Logik von „wahr“ und „falsch“ nicht getan ist. Hinter dem Thema drei-
und/oder mehrwertiger Logiken verbergen sich mehrere Problematiken, von de-
nen man kaum wird sagen können, daß sie bis jetzt angemessen geklärt geschwei-
ge denn gelöst sind.
Zunächst hat man damit zu rechnen, daß in der Wissenschaft neben manifest
wahrem und methodisch falsifiziertem falschem Wissen, das in klaren Behaup-
tungen formuliert wird, vielerlei in Vermutungen, Hypothesen, Konjekturen und –
wie eingangs schon behandelt – in der Gestalt von Glauben und Intuitionen arti-
kuliert wird. Das mag noch mancher vorsichtige Forscher in seinen Reden und
Texten im sprachlichen Konjunktiv oder mittels verbaler Relativierungen des
Behauptungscharakters wie „könnte“, „dürfte“, „sollte“, „möglicherweise“ u. ä.
formulieren. Hat er aber logische oder mathematische Ambitionen, so kann er
nicht auf die nichtbehauptende Satzform der Vermutung zurückgreifen, denn
weder in der Logik noch in der Mathematik gibt es einen Konjunktiv. Also bleibt
ihm gar nichts anderes übrig, als seine Vermutungen in der behauptenden Urteils-
form oder mathematisch in der vermeintlich behauptenden Gleichungsform auszu-
drücken.
Auf diese Weise formulierte Vermutungen zielen naturgemäß auf die Wahrheit.
Und deshalb zeigen sie vor allem, was der Autor für wahr hält, viel weniger aber,
was er eventuell für falsch halten könnte. Und deswegen wiederum spricht man
angesichts solcher Vermutungen von „Wahrscheinlichkeit“. In welchem Begriff ja
der Wahrheitsanspruch und zumindest eine gewisse Wahrheitsnähe prätendiert
wird. Es „scheint so“, als sei die Wahrheit in der Vermutung schon enthalten. Man
weiß natürlich, daß eine Vermutung gelegentlich auch bestätigt wird, und das gilt
92

als „Verifikation“ bzw. Wahrheitsbeweis. Aber ebenso weiß man auch, daß eine
Vermutung gänzlich „daneben liegen“ kann. Aber dafür gibt es bisher leider
keinen gleichwertigen Begriff der „Falschscheinlichkeit“ von Vermutungen.
Dies waren und sind sicher genügend ernsthafte Gründe, die Wahrscheinlichkeit
in der Logik als einen dritten „Wahrheitswert“ auszuzeichnen und ihn in der
mathematischen Wahrscheinlichkeitslehre noch numerisch zu einem Kontinuum
von „Wahrscheinlichkeiten“ zu spreizen.
Wir gehen nun davon aus und haben schon früher gezeigt (vgl. Logik, Aalen
1987), daß die „Wahrscheinlichkeit“ von Vermutungen, aber dann auch in der
logischen Form der Behauptung, nichts anderes ist als ein „zugelassenes Drittes“
zwischen und neben den wahren und falschen Behauptungen. Ebenso wurde
schon gezeigt, daß dieses „Dritte“ mit dem „Widerspruch“ identisch ist und also
„Wahr-Falschheit“ genannt werden sollte. Die Widersprüche im Wahrscheinlich-
keitsbegriff erweisen sich anhand von mehren Charakteristika, die man leicht auch
als Paradoxien formulieren kann.
Auch bezüglich der Wahrscheinlichkeitskonzepte halten sich die Unterschiede
zwischen logischem und mathematischem Denken durch. Logische Wahrschein-
lichkeit ist stets symmetrisch wahr und falsch zugleich; mathematisch-numerische
Wahrscheinlichkeit spreizt die Wahrheit und Falschheit zu unterschiedlich quanti-
fizierten Anteilen auf, bzw. sie geht davon aus, daß dies so wäre. Gleichwohl liegt
die logische nicht-quantifizierbare Wahrscheinlichkeit auch jeder mathematischen
Wahrscheinlichkeit zugrunde.
Wegen der großen Wichtigkeit der Wahrscheinlichkeit und ihrer immer noch
recht undurchsichtigen Natur, soll ihr ein eigener § 11 gewidmet werden.
93

§ 9 Die logischen und mathematischen Elemente

Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige Induktion.
Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion: Kontrolle der korrekten
Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der logischen Deduktion des Zahlbegriffs und der
hauptsächlichen Zahlarten. Die Primzahlberechnung. Die Funktion der Buchstabenzahlen (Variablen) in der Mathematik.
Unterscheidung der begriffs- und ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre
pyramidale Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behaup-
tungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“ zwischen Urteils- und Schlußlehre.
Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale Formalisierung der Hegelschen „Phänomenologie des
Geistes“ und einer logischen Zahlentheorie. Die Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des
Widerspruchs und des „Dritten“ und die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit

Ausgehend vom Primat der Logik auch für das Verständnis der elementaren
mathematischen Begriffe, seien im Folgenden die logischen Elemente vorgestellt
und erläutert. Soweit möglich, seien dann auch die elementaren mathematischen
Elemente im Vergleich mit den logischen vorgestellt und ggf. auf diese zurück-
geführt.

1. Begriffe und ihre logische Konstruktion


Begriffe und ihre Bildung und Handhabung sind grundlegend für alle Wissen-
schaften. Jede Wissenschaft ist durch die Anzahl und logische Qualität an Klarheit
und Deutlichkeit ihres Begriffsbestandes grundsätzlich bestimmt und begrenzt.
Über ihren eigentlichen Begriffsbestand hinaus verfügt jedoch jede Wissen-
schaft über einen mehr oder minder umfangreichen Vorrat an bildungssprachli-
chen Wörtern. Diese tragen zu einem mehr oder weniger klaren Vorwissen über
den thematischen Bereich bei, auf den sich die jeweilige Wissenschaft bezieht.
Die Bildungssprache liefert allerdings in der Regel nur „Bedeutungen“ der jewei-
ligen thematischen Wörter, die gewöhnlich in den allgemeinen sprachlichen Lexi-
ka verzeichnet sind. Selten oder gar nicht liefert sie zugleich auch Vorwissen über
die Extensionen bzw. Umfänge, die in den eigentlichen wissenschaftlichen Be-
griffen unabdingbar damit verbunden sind, und durch die alle relevanten Begriffe
in einer „theoretischen“ bzw. wissenschaftlichen Allgemeinheitshierarchie unter-
einander verknüpft werden.
Begriffe sind keine „Einheiten“, wie es die alphabetischen Fachlexika und die
üblichen Formalismen insinuieren. Vielmehr sind sie mittels ihrer Bedeutungen
(Intensionen) und Umfänge (Extensionen) untereinander verknüpfte Hierarchien
von Themen- und Verweisungskomplexen des wissenschaftlichen Wissens. Die
hierarchische Ordnung eines wissenschaftlichen Begriffsbestandes drückt sich im
Allgemeinheitsgefälle von Gattung, Art, Unterart, Unter-Unterart usw. bis zu un-
tersten Begriffen als „Kennzeichnungen“ individueller Fakten und Daten aus.
Ihre hierarchische Struktur wird in Begriffspyramiden (den umgekehrten „por-
phyrianischen“ Begriffsbäumen) sichtbar. Obere (allgemeinere) Begriffe teilen
ihre Bedeutungen – hier durch Buchstaben bezeichnet - allen in ihrer Extension
liegenden unteren Begriffen als „generische Merkmale“ in identischer Weise zu.
94

Untere Begriffe aller Stufen enthalten zusätzlich als „spezifische Differenzen“


weitere Bedeutungsmerkmale.
Dies läßt sich in einem pyramidalen Formalismus für die regulären (wider-
spruchslosen) Begriffe eines Themenkomplexes darstellen. Links in den Kreisen
(Begriffspositionen) werden die generischen Merkmale notiert, rechts außen ste-
hen die spezischen Differenzen.

Extensional-dihäretische Begriffspyramide Extensional-multiple Begriffspyramide


mit eingeschriebenen Intensionen mit eingeschrieben Intensionen

A A

AB AC AB AC AD AE

ABD ABE ACF ACG ABF ABG ADH ADI ADJ

2. Die Gewinnung von regulären Begriffen durch Induktion


Eine reguläre Begriffspyramide zeigt, was eine logische Induktion (Epagogé)
bzw. begriffliche Abstraktion ist. Merkmalsreiche unterste Begriffe werden ver-
glichen und darauf hin geprüft, welche Merkmale in ihnen gleich sind, d. h.
Identitäten darstellen, und worin sie sich spezifisch unterscheiden. Identische
Merkmale werden hierbei durch gleiche Buchstaben dargestellt. In höheren bzw.
allgemeineren Begriffen werden sie zusammengefaßt und wiederum entsprechend
überprüft. Zuletzt wird die jeweils höchste Gattung für den Prüfbereich gebildet,
die mindestens ein allen Unterbegriffen gemeinsames Merkmal enthält. Diese In-
duktion zur Begriffsbildung ist immer vollständig.
Die Induktion legt keine bestimmte Abstraktionsrichtung zu bestimmten Ober-
begiffen fest. Jedes beliebige Merkmal läßt sich für die Wahl einer Induktions-
richtung (Verallgemeinerung) benutzen. Durch die Merkmalswahl wird ein Induk-
tionsrahmen festgelegt. Durch die verschiedenen Induktionsrahmen unterscheiden
sich verschiedene Theorien über demselben Erfahrungsbereich. Drei verschiedene
Induktionen mögen das an einem inhaltlichen Beispielen zeigen:

1 2 3

A B C

AB BA CB

ABC BAC CBA

Sokrates = ein philo- Sokrates = ein grie- Sokrates = einer der „Sokrates“ genannten
sophischer Grieche chischer Philosoph Personen unter den philosophischen Griechen

Merkmale bzw. Intensionen: A = griechisch B = philosophisch C = sokratisch


95

Erläuterung: In 1 wird „Griechentum“ als Induktionsrahmen gewählt, innerhalb


dessen „einige Griechen“ Philosophen, einige (d. h. alle anderen) Nicht-Philoso-
phen sind. „Sokrates“ wird als „ein philosophischer Grieche“ definiert.
In 2 wird „Philosoph“ als Induktionsrahmen gewählt. „Einige Philosophen“
sind Griechen, einige sind Nicht-Griechen. Sokrates wird als „ein griechischer
Philosoph“ definiert.
In 3 bilden „alle Sokrates“ genannten Individuen den Induktionsramen, von
denen „einige Philosophen“, einige Nicht-Philosophen sind. Sokrates wird als
„einer der ‚Sokrates„ genannten philosophischen Griechen definiert.
Schon beim Thema Induktion zeigt sich ein wesentlicher Unterschied der logi-
schen und mathematischen Auffassung. Von der logischen Induktion, wie sie
durch Platon und Aristoteles als „Epagogé“ („Hinführung zum Allgemeinen“)
eingeführt wurde, ist zu zeigen, daß sie immer „vollständig“ ist. Schon von einer
individuellen Instanz aus (wie Wilhelm von Ockham mit Recht bemerkte und wie
die obigen Beispiele zeigen 53) läßt sich durch Weglassen spezifischer Differenzen
ein Allgemeinbegriff induzieren. Dessen Merkmale bestimmen dann, welche
anderen bekannte oder noch unbekannte Instanzen entweder dieselben Merkmale
des induzierten Allgemeinbegriffs aufweisen und deswegen „unter ihn fallen“
oder mangels dieser Merkmale nicht unter ihn fallen.
Es kann bei der Induktion also keinesfalls darauf ankommen, ob und wieviele
weitere Instanzen hinsichtlich dessen überprüft werden, ob sie die Merkmale eines
regelrecht induzierten Allgemeinbegriffs aufweisen oder nicht. In der Logik hat
sich aber durch Sextus Empiricus (um 200 - 250 n. Chr.) die falsche Meinung
durchgesetzt, daß die Begriffsinduktion grundsätzlich „unvollständig sei“, (genau-
er: unmöglich sei!) weil man niemals alle Instanzen überprüfen könne“. 54
Die Mathematik vertritt demgegenüber die ursprüngliche Meinung von Platon
und Aristoteles. Das was hier mathematische Induktion zur Gewinnung z. B. des
allgemeinen Zahlbegriffs genannt wird, sei grundsätzlich „vollständig“. Das gilt
zwar für die Induktion ganz allgemein, dürfte aber in der Arithmetik geradezu
paradox erscheinen angesichts der Tatsache, daß man weder „alle Zahlen“ kennt
noch eine einheitliche Meinung darüber besteht, was überhaupt die gemeinsamen
Merkmale aller Zahlen in mathematischen Zahlbegriffen sind.

53
Vgl. Léon Baudry, Lexique philosophique de Guillaume d‟Ockham, Paris 1958, art. Induction, S. 119: “Aliquando
universale quod debet induci habet pro subiecto speciem specialissimam et ad habendam cognitionem de tali universali
frequenter sufficit inducere per unam singularem” / Zuweilen hat der zu induzierende Allgemeinbegriff als Instanz eine
speziellste Unterart, und um die Kenntnis eines solchen Allgemeinbegriffs zu erreichen genügt es häufig, ihn von einem
Einzelnen aus zu induzieren.
54
Sextus Empiricus, Pyrrhoneische Grundzüge. Aus dem Griechischen übersetzt und mit einer Einleitung und Erläute-
rungen versehen von Eugen Pappenheim, Leipzig 1877, Kap. 15, S. 142: „Sehr abzulehnen aber, meine ich, ist auch die
Weise in Betreff der Induction. Da sie (scl.: die Logiker) nämlich durch sie von den Einzeldingen aus das Allgemeine
beglaubigen wollen, so werden sie dies thun, indem sie entweder doch an all die Einzeldinge herangehen oder an einige.
Aber wenn an einige, so wird die Induction unsicher sein, da möglich ist, dass dem Allgemeinen einige von den in der
Induction ausgelassenen Einzeldingen entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen,
da die Einzeldinge unbegrenzt sind und unabschließbar. So dass auf diese Weise von beiden Seiten, mein„ ich, sich ergibt,
dass die Induction wankend wird“.
96

Ersichtlich ist auf Grund dieser angeblichen mathematischen „Vollständigkeit“


und damit Sicherheit der Induktion auch das negative Vorurteil gegen die logische
und das positive zugunsten der mathematischen Induktion entstanden. Das hat
wesentlich dazu beigetragen, alle mathematische Begriffsbildung für genauer,
zuverlässiger und maßgeblicher zu halten, als es die logische jemals vermöchte.
Es ist außerdem zu betonen, daß die Induktion eine Methode der Begriffbildung,
jedoch keineswegs eine Methode zur Gewinnung allgemeiner Behauptungssätze
ist, wie dies in der neueren Logik seit J. St. Mills Induktionstheorie der Kausal-
gesetze eingeführt und in der modernen Wissenschaftstheorie allgemein angenom-
men wird. Denn Behauptungssätze setzen schon die in ihnen verwendeten Begrif-
fe voraus. Das gilt also auch von Kausalgesetzen, bei denen man schon über
Begriffe dessen, was Ursache, und dessen, was Wirkung ist, verfügen muß. Erst
recht bedarf es bei Kausalsätzen eines Vermittlungselementes zwischen Ursache
und Wirkung, das die „Humesche Lücke“ zwischen den Kausalgliedern schließt.
Fehlt dieses Zwischenglied, so bleibt ein vermeintlicher Kausalsatz eine korre-
lative Implikation. Auch dieses vermittelnde Element in kausalen Implikationen
muß als Begriff induziert werden (s. u. „korrelative Implikationsurteile“).

3. Die Konstruktion von Begriffen durch Deduktion


Eine reguläre logische Deduktion setzt die induktive Gewinnung eines Induk-
tionsrahmens mit einem dadurch wohldefinierten allgemeinsten Begriff voraus.
Sie distribuiert die induktiv gewonnenen Merkmale auf die unteren Begriffs-
positionen und dient insofern zur Kontrolle einer regelrechten Induktion.
Widersprüchliche Begriffe (contradictiones in terminis bzw. contradictiones in
adiecto) werden gewöhnlich deduktiv gebildet. Sie verschmelzen induktiv gewon-
nene reguläre Artbegriffe, die in vollständiger Disjunktion (in kontradiktorischem
Gegensatz) zueinander stehen, zu einem einzigen Begriff, welcher die sich aus-
schließenden spezifischen Differenzen bzw. Merkmale zugleich und gemeinsam
enthält.
G. F. W. Hegel hat allerdings in seiner „dialektischen Methode“ der Begriffs-
bildung bzw. des Abstrahierens eine Induktion widersprüchlicher Begriffe be-
nutzt. Sie besteht darin, dihäretische Begriffe in einem ersten Schritt zu einem
gemeinsamen Begriff zu verschmelzen, in welchem die sich gegenseitig negie-
renden spezifischen Differenzen der Ausgangsbegriffe gemeinsam enthalten blie-
ben. Erst in einem zweiten Schritt, den er „Aufheben“ (bzw. Abstrahieren) nannte,
wurden diese sich negierenden spezifischen Differenzen weggelassen („erstes
Aufheben“) und die gemeinsamen generischen Merkmale beider Ausgangsbe-
griffe in einem regulären Begriff festgehalten („zweites Aufheben“). Der Aufbau
von Hegels „Phänomenologie des Geistes“ zeigt diese Induktion. Sie beginnt z. B.
mit der Dihärese von „Objekt“ und „Subjekt“, verschmilzt diese zum dialekti-
97

schen Begriff der „Erfahrung“ und abstrahiert daraus den regulären Begriff des
„Allgemeinen“.55
In diesem und anderen Beispielen solcher dialektischen bzw. kontradiktorischen
Begriffe werden Merkmale der Realität vereinigt, die nicht zu einem gemein-
samen Erfahrungskontext gehören. Sie können daher nur in der Phantasie bzw. in
Erinnerungen an absolut Ungleichzeitiges komponiert werden.
Widersprüchliche Begriffe sind deswegen auch die Bausteine der sogenannten
möglichen Welten. Zu diesen möglichen Welten gehört auch die Welt der mathe-
matischen Gebilde, die in der Regel durch Deduktionen konstruiert werden.
Als spekulative Konzeptionen sind solche widersprüchlichen bzw. „dialektischen“
Begriffe für die Wissenschaft, Kunst und Technik kreativ. Für die Forschung sind
sie heuristisch fruchtbar und daher unentbehrlich. In der Argumentation verursa-
chen sie Zwei- und Mehrdeutigkeiten, die sich in Widersprüchen und Paradoxien
ausdrücken. Und diese werden dann selbst wider Motive zu ihrer „Auflösung“
bzw. Eliminierung oder Ersetzung durch widerspruchslose Begriffe.
Kontradiktorische Begriffe lassen sich an jeder Stelle einer Begriffspyramide
zwischen je zwei dihäretischen (vollständig disjunkten, d. h. im Negationsver-
hältnis zueinander stehenden) Begriffen als deren Verschmelzung bzw. Fusion
einschreiben. Sie umfassen dann die Extensionen der fusionierten Artbegriffe ge-
meinsam. Diese Eigenschaft haben sie mit dem jeweiligen Oberbegriff (Gattung)
der dihäretischen Artbegriffe gemeinsam, und sie werden daher oft mit Gattungs-
begriffen verwechselt. Die Gattung unterscheidet sich von ihnen aber dadurch,
daß sie die spezifischen Differenzen der disjunkten Arten nicht enthält, während
sie in deren kontradiktorischer Verschmelzung gerade enthalten sind. Das sieht
formal so aus:

Widersprüchlicher Begriff zwischen dihäretischen Artbegriffen


Biologisches Beispiel:
A = Lebewesen A
AB = lebendiger Organismus
AC = toter Organismus (Leiche)
ABC
ABC = Zombie AB AC

Erläuterung: Zombies, d. h. „lebendige Leichen“, trifft man in in keinem Er-


fahrungskontext der Wirklichkeit an. Es gibt sie nur als Phantasieprodukte von
Künstlern und besonders Filmemachern.
Auch der Begriff der Zahl als Grundelement der Arithmetik läßt sich als dia-
lektische Verschmelzung in obigem Schema darstellen. Er dürfte dadurch viel von
seinem mystischen Charakter verlieren, den er in den üblichen Zahltheorien

55
Vgl. dazu L. Geldsetzer, Über das logische Prozedere in Hegels ‚Phänomenologie des Geistes‟, in: Jahrbuch für Hegel-
forschung I, hgg. von H. Schneider, Sankt Augustin 1995, S. 43 – 80 und die daraus entnommene Begriffspyramide in
Abschn. 8.
98

besitzt. Der Mathematiker Leopold Kronecker hat sich in einem geflügelten Wort
so über die Zahlen geäußert: “Die (positiven, d. h. natürlichen) ganzen Zahlen hat
der liebe Gott gemacht, alles andere ist Menschenwerk” 56
Die logische Terminologie liefert für den mathematischen Zahlbegriff den Gat-
tungsbegriff (die aristotelische Kategorie) der Quantität (in der obigen Forma-
lisierung: A) und seine beiden dihäretischen Artbegriffe Einheit (AB, logisch:
„ein“) und Allheit (AC, logisch: „alle“). Logisch gilt daher : „Einheit ist nicht
Allheit“ und umgekehrt.
Der mathematische Begriff der Zahl verschmilzt aber diese genau unterschie-
denen Artbegriffe zu dem widersprüchlichen Begriff der „Ein-Allheit“ oder „All-
Einheit“ (ABC). Zahlen sind daher zugleich Einheiten und Allheiten, von denen
dann nach dem obigen formalen Schema die Definitions-Gleichung gilt: „Einheit
= Allheit“ bzw. in Umkehr: „Allheit = Einheit“. ABC bezeichnet jede Zahl als ein
Etwas, das sowohl als Einheit bzw. „Element“ wie auch als Allheit (bzw. ein
Ganzes oder Gesamt von vielen Einheiten) gedacht wird.
Daß es „gedacht“ werden muß und keineswesg „sinnlich anschaulich“ gemacht
werden kann, erklärt sich wie bei allen dialektischen Begriffen daraus, daß nur die
Ausgangsbegriffe der Einheit (logisch: Individuelles) und der Allheit bzw. eines
Ganzen (logisch: alles) in jeweils verschiedenen Kontexten anschaulich werden
können, niemals aber zugleich und gewissermaßen auf einen Blick. Denn ent-
weder betrachtet man etwas als (elementare) Einheit und erfaßt dann nicht die es
umfassende Ganzheit; oder man achtet auf das Ganze und muß insofern dessen
Einheiten bzw. Elemente außer acht lassen. Mathematisches Denken aber besteht
gerade darin, diese getrennten Erfahrungen kreativ zu „einer Idee“ bzw. zu einem
dialektischen Begriff zu vereinen.
In der Extension des Begriffs der Zahl liegen alle weiteren speziellen Zahl-
begriffe, über deren Definitionen weiter unten zu sprechen sein wird. Daher be-
sitzen sie, soweit es sich überhaupt um Zahlen handeln soll, das generische
Merkmal der „All-Einheit“. Das zeigt sich z. B. darin, daß man die Zahl Eins in
Bruchzahlen zerlegt, was voraussetzt, daß auch sie eine Allheit von Zahlen um-
faßt. Umgekehrt darin, daß jede „größere Zahl“, die aus Einheiten zu einer Allheit
bzw. einem Ganzen zusammengesetzt wird, selber eine Zahl-Einheit darstellt.57
Der am meisten logisch klingende „Begriff“ der Zahl ist der Mengenbegriff, den
auch Euklid in seinem Lehrbuch „Elementa“ schon definierte. Logisch ist der
Mengenbegriff definiert, wenn er nur als logische Gattung der beiden logischen
Quantifikationsjunktoren „alle“ und „einige“ verstanden wird. Als mathemati-
scher Begriff ist „Menge“ jedoch geradzu ein Paradigma der Dialektizität der
mathematischen Begriffsbildung geworden. Denn man hat in ihm alle logischen

56
Leopold Kronecker in “Ueber den Zahlbegriff”, in: Journal für reine und angewandte Mathematik 10, 1887, p. 261 –
274, auch in: L. Kronecker, Werke, vol. 3, hgg. von K. Hensel, Leipzig 1899, ND New York 1968.
57
Zur pyramidalen Formalisierung der Zahlbegriffe in: L. Geldsetzer, Logik, Aalen 1987, S. 133 – 155; ders., Elementa
logico-mathematica, Internet der HHU Duesseldorf 2006; ders., Logical Thinking in the Pyramidal Schema of Concepts:
The Logical and Mathematical Elements, Dordrecht-Heidelberg-New York-London 2013, S. 20 – 28. Die Pyramide der
Zahlbegriffe in Abschn. 8 (s. u.) ist um die Prim- und Nicht-Primzahlen erweitert worden.
99

Quantifikatoren zusammengefaßt, die in „gespreizten“ zahlenmäßigen Quantifi-


kationen eine Rolle spielen.
Der logisch denkende Mensch weiß und hält es für selbstverständlich, daß man
„einige“ Dinge „eine Menge“ nennen kann. Er wird es auch verstehen, daß
Mengen kleinere Mengen, als sie selbst sind, umfassen und aus ihnen bestehen
können.
Der moderne mathematische Mengenbegriff (nicht aber der euklidische)
verlangt, auch dann von „Menge“ zu reden, wenn sie nur aus einem einzigen
Element besteht. Ebenso wenn sie überhaupt kein einziges Element enthält (die
„Null-Menge bzw. leere Menge). Und schließlich auch, wenn sie (selbstbe-
züglich) „sich selbst enthält“.
Daß der mathematische Mengenbegriff deshalb geradezu ein Wespennest von
Widersprüchen in sich birgt, ist logisch ersichtlich, und die Paradoxien (d. h. die
spezifischen Widersprüche) der Mengenlehre sind seit B. Russell allgemein
bekannt. Gleichwohl hat man einigen Generationen von Schülern die mathema-
tische „Mengenlehre“ aufoktroyiert und ihnen beigebracht, daß es sich bei diesem
mathematischen Mengenbegriff um den einzig „wissenschaftlichen“ handele, und
daß daher die gemeinsprachliche, nämlich logische Vorstellung von Menge unzu-
länglich und überholt sei.
Es sei zusätzlich bemerkt, daß die hier vorgeführte Deduktion des Zahlbegriffs
aus den logischen ein- und all-Quantoren nur demjenigen Logiker oder
Mathematiker als grundsätzlich falsch erscheinen kann, der alles Widersprüch-
liche für grundsätzlich falsch und nur für falsch hält.
Zur logischen Durchsichtigkeit der mathematischen Begriffsbildung scheint es
von erheblicher und sehr unterschätzter Wichtigkeit zu sein, sich über den
begrifflichen Charakter der Buchstabenzahlen klar zu sein. Diese sind von
Franciscus Viëta (François Viète, 1540 - 1603) in die moderne Mathematik ein-
geführt worden. Eigentlich sollte die üblich gewordene Bezeichnung schon den
Verdacht erregen, es handele sich dabei um ein Oxymoron, angesichts der
allgemeinen Überzeugung, daß Zahlen nicht Buchstaben und Buchstaben nicht
Zahlen sind.
Daß sie in der Neuzeit allgemein akzeptiert wurden, ist aber selbst schon
Ausweis einer intendierten Logifizierung der Mathematik. Die Buchstaben sollten
formale Statthalter für Zahlbegriffe und Zahlausdrücke sein, ebenso wie sie in der
formalen Logik seit Aristoteles für die Subjekts- und Prädikatsbegriffe stehen.
Die Einführung der durch Buchstaben bezeichneten „Variablen“ trieb alsbald
einen neuen Zweig der Arithmetik als „Analysis“ hervor. Von der damals üb-
lichen geometrischen Veranschaulichung der Zahlen durch Strecken blieb erhal-
ten, daß die meistgebrauchten Buchstaben X, Y (evtl. auch Z) noch auf das carte-
sische Koordinatensystem der Raumdimensionen verweisen, in denen die Zahlen
durch Abstände auf den drei Koordinaten veranschaulicht wurden. In der Regel
stehen sie für „Unbekannte“ (Zahlen).
100

Die Buchstaben wurden zunächst nur als Variable verwendet. Die Bezeichnung
besagt, daß etwa X als Begriff für „beliebige“ Einsetzungen („Erfüllungen“) von
Zahlen stehen soll. Und zwar ebenso, wie das logische Zeichen „S“ für beliebige
Subjektbegriffe stehen kann. Dies allerdings mit der von der Logik übernom-
menen Einschränkung, daß bei solchen Einsetzungen in Rechnungen immer die-
selbe Zahl (ob man sie kennt oder auch nicht kennt) durch die Variable vertreten
wird. Diese Einschränkung wurde aber alsbald fallen gelassen. In den sogenann-
ten Funktionsgleichungen stehen die Variablen in der Regel für verschiedene
Zahlen bzw. „Größen“, was in der Logik keine Parallele hat.
Da aber Rechnungsgleichungen, wie sogleich zu betrachten ist, kreativ für die
Definition von Zahlarten sind, hat man auch einige solcher Zahlarten mit anderen
Buchstaben bezeichnet, die man seither Konstanten nennt. Am verbreitetsten sind
etwa der Quotient des Verhältnisses von Kreisumfang zum Kreisdurchmesser,
genannt „Pi“ (griech.: π = 3,14159…), der nur eine und in allen Berechnung
dieses Verhältnisses bei verschieden großen Kreisen gleichbleibende Irrational-
zahl bezeichnet. Dann etwa „i“ als Konstante für eine „imaginäre“ Komponente
aller Zahlen, die sich aus dem Wurzelziehen (Radizieren) aus negativen Zahlen
ergeben. Oder auch der Differentialquotient „δx/δy“, der den sog. Grenzwert einer
sich asymptotisch der Null annähernden „unter jeden angebbaren Zahlenwert
hinabreichenden“ Quotienten bezeichnet (dazu s. u. über Differentialquotienten-
bildung). Logisch gesehen sind solche Konstanten Eigennamen für bestimmte
mathematische Gebilde, die bei ihrer Einführung wegen „Widersprüchlichkeit“
von vielen Mathematikern abgelehnt und gar nicht als „Zahlen“ anerkannt
wurden. Mit ihnen umzugehen muß der Mathematiker ebenso lernen, wie man
sich auch sonst bestimmte Wörter und Namen einprägt.
Mit der Einführung der Variablen verbunden war das Aufkommen der sog.
(mathematischen) analytischen Methode. Sie besteht darin, einerseits beliebige
Zahlen durch Variablen vertreten zu lassen, anderseits bestimmte unbekannte
Zahlen bzw. Zahlgrößen als bekannt zu behandeln und mit ihnen wie mit
bekannten Zahlen zu rechnen. Dadurch wurde die Rechentechnik außerordentlich
erleichtert und vereinfacht. Dies vor allem in den Fällen, wo sich die Unbekannten
durch geschickte Gestaltung von Rechenoperationen (z. B. das „Wegkürzen“ in
Gleichungen) zum Verschwinden bringen lassen. Was man von den „Unbe-
kannten“ ohnehin nicht weiß, braucht man dann auch nicht mehr zu wissen.
Man hat wohl bis heute nicht bemerkt, daß die Buchstaben sowohl als Variable
wie als Konstanten ebenso wie das (mathematische) analytische Verfahren selbst
eine dialektische Seite besitzen. Die Dialektik besteht darin, daß mit den
Variablen die sogenannten kommensurablen Zahlen (Zahlen, die aus einer und
derselben Einheit zusammengesetzt sind, wie die Rationalzahlen) und die
inkommensurablen Zahlen (aus verschiedenenartigen Einheiten, wie die irratio-
nalen und imaginären bzw. komplexen Zahlen und erst recht die Infinite-
simalzahlen, die keinen Zahlenwert besitzen) gleicherweise als Zahlengrößen
dargestellt werden konnten. Daraus kann man entnehmen, daß die Buch-
101

stabenzahlen bzw. Variablen selbst dialektische Zahlbegriffe aus der Fusion des
Begriffs der kommensurablen mit dem Begriff der inkommensurablen Zahlarten
sind, was ihren widersprüchlichen Charakter ausmacht.
Die Variablen vertreten grundsätzlich Zahlenwerte, die ihrerseits den arithme-
tischen Quantifizierungen unterworfen werden. Man kann sagen: dadurch werden
Quantitäten nochmals quantifiziert.
Man versteht mathematisch etwa „3x“ als Multiplikation einer unbekannten
Zahl (x) mit 3, oder „3/x“ als drei Xtel. Das versteht jeder, der weiß, was „drei
Äpfel“ oder „drei Teile eines Apfels“ sind. Er wird nicht vermuten, daß aus den
drei Äpfeln oder drei Apfelteilen beim Multiplizieren etwas ganz anderes als
Äpfel werden könnten. In der Mathematik aber muß gelernt werden, daß etwa 3x
jede beliebige Zahl bedeuten kann, die sich beim Multiplizieren mit Drei ergeben
kann. Setzt man für x die eins ein, so bleibt es bei der Drei. Setzt man 1/3 ein, so
ergibt sich die Eins. Rechnet man jedoch im Dezimalsystem, so ergibt sich im
letzteren Fall „3  0,333....“, was nicht die Eins, sondern die Irrationalzahl 0,999...
ergibt, die ersichtlich keine 1, sondern eine kleinere Zahl als 1 ergibt. Nur Mathe-
matiker finden das, wenn sie es gelernt haben, „ganz logisch“ und vor allem
„exakt“.
Konträre Begriffe lassen sich zwischen Begriffen in multiplen Artenreihen ein-
schreiben. Ihre Extension besteht dann aus denjenigen der verschmolzenen Art-
begriffe. Es handelt sich hier um die sogenannten Dispositionsbegriffe.

Dispositionsbegriff „ABC“ zwischen Artbegriffen aus einer multiplen Artenreihe


physikalisches Beispiel: psychologisches Beispiel:

A A = Aggregatzustand A = Wahrnehmung
AB = fest AB = Sehen

ABC AC=flüssig (geschmolzen) AC = Hören

AB AC AD AD = dampfförmig AD = Tasten
ABC = schmelzbar ABC = Wahrnehmungs-
vermögen

Ihr dialektischer Charakter zeigt sich ebenso wie bei den kontradiktorischen
Begriffen darin, daß man die in ihnen verschmolzenen Merkmale zwar in ver-
schiedenen bzw. getrennten Erfahrungskontexten, ihre fusionierte Vereinigung
aber nicht in einem und demselben Erfahrungskontext wahrnehmen kann.
Von dieser Art sind zahlreiche Grundbegriffe der Physik wie auch der Psy-
chologie, nämlich die Begriffe von Kräften und Potentialen sowie von Vermögen,
Veranlagungen, Fähigkeiten. Da sie seit Jahrhunderten auch in der Alltagssprache
gebraucht werden, vermutet man kaum, daß sie einen dialektischen Charakter
besitzen könnten. Man wundert sich nicht einmal darüber, daß man Kräfte und
Fähigkeiten niemals sinnlich wahrnehmen kann, sondern nur ihre sogenannten
102

Wirkungen als physikalische Veränderungen von Zuständen, oder psychologisch


als manifeste Handlungen und Verhaltensweisen. Nur wenige Physiker, wie etwa
Ernst Mach, haben versucht, den Kraftbegriff deshalb gänzlich aus der Physik zu
eliminieren. In der Psychologie und Anthropologie sind die „Vermögen“ bzw.
„Fähigkeiten“ offenbar niemals auf ihren logischen Charakter hinterfragt worden.

4. Die Junktoren bzw. Funktoren oder Operatoren


Begriffe sind zwar unentbehrliche Bausteine des Wissens, aber sie sind als solche
noch nicht geeignet, wissenschaftliches Wissen auszudrücken. Dazu müssen sie in
die logischen Formen von Urteilen bzw. behauptenden Aussagen eingesetzt wer-
den. Erst in Behauptungsform wird das Wissen wahrheitswertfähig, d. h. es kann
als wahres, falsches oder wahr-falsches oder auch „wahrscheinliches“ Wissen
ausgewiesen werden.
Das logische Mittel, Begriffe zu behauptenden Aussagen zu verknüpfen, stellen
einige Junktoren („Verknüpfungspartikel“, in der mathematischen Logik auch
Funktoren oder Operatoren genannt) dar.
In der hier vorgeschlagenen pyramidalen Formalisierung sind Junktoren selbst
zugleich logische Begriffe für die Beschreibung und Lesung der Relationen, die
zwischen den Begriffspositionen einer Pyramide bestehen. Es gibt nur vertikale
und horizontale Relationen. Deren Richtung ist dabei von entscheidender Bedeu-
tung für die Definition des jeweiligen Junktors. Deshalb lassen sie sich auch durch
Pfeile darstellen. Einige ausgerichtete Relationen werden durch die logischen
Junktoren in mehrfacher Weise beschrieben. Darauf beruhen Synonymien
zwischen einigen Junktoren.
Von den Junktoren verknüpfen einige allerdings die Begriffe nur zu begriff-
lichen Ausdrücken, die nicht wahrheitswertfähig sind. Wir haben sie ausdrucks-
bildende Junktoren genannt.
Ausdrucksbildende Junktoren sind das Und (Konjunktor, manchmal auch
Adjunktor genannt) und der mathematische Summenjunktor (Plus), das aus-
schließende und nicht-ausschließende Oder (Alternative und Disjunktor, letzterer
ebenfalls manchmal Adjunktor genannt), die Quantoren (ein, einige, alle, kein)
und der Äquivalenzjunktor bzw. das mathematische Gleichheitszeichen. Auch die
Negation wird bei sogenannten negativen Begriffen als ausdrucksbildender Junk-
tor gebraucht. Als „bestimmte Negation“ bezeichnet sie einen (positiven) Begriff
durch seine negierte (dihäretische) Nebenart und ist dann umkehrbar (z. B. „Rau-
cher“ - „Nichtraucher“: Nicht-Nichtraucher = Raucher). Als unbestimmte Nega-
tion bezeichnet sie einen (positiven) Begriff einer multiplen Artenreihe durch eine
negierte Nebenart und ist dann nicht umkehrbar. (z. B. „gelb“ – „nicht-gelb“:
nicht-nichtgelb ≠ gelb). Der Nichtbeachtung dieses Unterschieds zwischen be-
stimmter und unbestimmter begrifflicher Negation verdanken sich viele Fehler in
logischen Argumentationen (s. u.).
Die übrigen logischen Junktoren verknüpfen Begriffe zu wahrheitswertfähigen
Urteilen. Wir nannten sie urteils- oder satzbildende Junktoren. Nur durch sie
103

lassen sich Behauptungen formulieren, die wahr, falsch oder auch wahr-falsch
sein können. Diese sind die Kopula (ist), das allgemeine und das spezielle
(aristotelische) Zukommen, die urteilsbildende Negation (ist nicht) und der
Existenz- bzw. Produktjunktor (es gibt) sowie vier verschiedene Implikations-
junktoren (wenn ... dann). Die Unterscheidbarkeit der wird erst in einer regulären
Begriffspyramide sichtbar. Ihre traditionelle Nichtunterscheidung hat immer
wieder zu Problemen geführt, so daß man sogar mit Nelson Goodman vom
„Rätsel der Implikation“ sprach.
Die in der folgenden Figur eingezeichneten Pfeile drücken die Verknüpfungs-
richtung aus.
104

Begriffspyramide der satzbildenden Junktoren

Allg. Implikation
↕↔
Wenn…dann

↕ Allg. Aristotel. ↔ Korrelative


Zukommen Implikation
Gehört zu Wenn...dann

↑ Kopula ↓ Arist. Zukom. ↔


−d Negation →← Existenz-
Materiale Implik. Formale Implik. ist nicht bzw. Produkt-
ist, wenn dann Inklusion junktor Es gibt
Es gibt

Die ausdrucksbildenden Junktoren lassen sich als widersprüchliche Begriffe in die Pyramide der
satzbildenden Junktoren einschreiben.

Begriffspyramide aller Junktoren

Allg. Implikation
↕↔
Wenn…dann

↕↔ Disjunktor vel
und/oder
↕ Allg. Aristotel. ↔ Korrelative
Zukommen Implikation
Gehört zu Wenn...dann

↕↔ Kon- ↕↔Alter-
↕↔
junktor native
und oder, aut
↕↔ Quantoren = Äquivalenz
und alle, einige, ein dist ↔
gleich, d. h.

↑ Kopula ↓ Arist. Zukom. − Negation →← Existenz-


Materiale Implik. Formale Implik. ist nicht bzw. Produkt-
ist, wenn dann Inklusion junktor Es gibt
Es gibt
105

Enthalten Urteile widersprüchliche Begriffe, so erlauben die Junktoren sowohl


eine wahre wie eine falsche Lesung. D. h. Urteile mit widersprüchlichen Begriffen
sind zugleich wahr und falsch bzw. widersprüchlich.

Über die einzelnen urteils- bzw. satzbildenden (behauptenden) Junktoren mit


Wahrheitswerten ist folgendes zu sagen. Wir notieren dazu nur einige markante
Beispiele:
Die oberste Gattung der satzbildenden Junktoren ist die allgemeine Implikation.
Ihre Bedeutung ist es, die Pyramidenbegriffe in jeder Richtung miteinander zu
verknüpfen. Sie faßt die wahren Wahrheitswerte der drei untergeordneten Impli-
kationsformen zu einem gemeinsamen Wahrheitswert zusammen. Sie besitzt
keinen Falschheitswert, weil sich für jede Anwendung ein Wahrheitswert einer
speziellen Implikation angeben läßt.
Die Nichtunterscheidung der allgemeinen Implikation von den drei speziellen
Implikationsformen mit Wahrheitswerten hat in der Geschichte der Logik immer
wieder das Problem erzeugt, daß manche ihrer Anwendungen in Beispielen als
wahr, andere als falsch erscheinen. Die allgemeine Implikation läßt sich wie folgt
darstellen:

Allgemeine Implikation

„Wenn A dann AB“ und „wenn A dann AC“


A „wenn AB dann A“ und „wenn AC dann A“.
„wenn AB dann AC“ und „wenn AC dann AB“.
AB AC

Die korrelierende Implikation wird hier ohne Pfeil notiert. Sie korreliert nur durch
Negation unterschiedene Begriffe.
Die beiden dihäretischen Arten (unter der Gattung der allgemeinen Implikation)
sind einerseits das allgemeine (aristotelische) „Zukommen“, das vertikal in beiden
Richtungen verknüpft. Sie ist seit langem außer Gebrauch und macht sich nur
bemerkbar, wenn untere Begriffe oberen Begriffen zugeordnet werden („Zukom-
men“ als „Inklusion“ von AB in A), oder wenn die (generischen) Merkmale
oberer Begriffe den in ihre Extensionen fallenden unteren Begriffen beigelegt
werden („Zukommen“ als Implikation von A in AB und AC). Andererseits die
korrelierende Implikation, die allgemein horizontal alle durch Negation bestimm-
baren Begriffe verknüpft. Nur die korrelierende Implikation ist zur Formalisierung
von Kausalverhältnissen (Ursache ... Wirkung) geeignet.
Die dihäretischen Unterarten des allgemeinen Zukommens sind das spezielle
„Zukommen“ (Inklusion) bzw. die formale Implikation, welche nur von oben nach
unten verknüpft, sowie die materiale Implikation, welche nur von unten nach
106

obenverknüpft. Die Kopula („ist“ bzw. „sind“) ist synonym mit der materialen
Implikation.
Dihäretische Unterarten der korrelierenden Implikation sind die Negation und
der Existenzjunktor, die horizontal in beiden Richtungen verknüpfen (nämlich die
Begriffe, die durch die Urteils-Negation „ist nicht“ unterscheidbar und korrelier-
bar sind).

Die Negation ist der Unterscheidungsjunktor von nebenrangigen Begriffen. Sie


wird als das „Leere“ zwischen nebenrangigen Begriffspositionen notiert und
gelesen. Sie ist nur zwischen dihäretischen Nebenarten einer Begriffspyramide
umkehrbar. Zwischen Begriffen einer multiplen Artenreihe oder zwischen belie-
bigen Begriffen verschiedener Begriffspyramiden ist sie nicht umkehrbar. Viele
logische Schlußfehler beruhen auf der Nichtbeachtung dieses Unterschiedes.
Negation („ist nicht“)

AB AC „AB ist nicht AC“ und „AC ist nicht AB“

Der Existenzjunktor („es gibt“) führt Begriffe in eine Pyramide ein. Er korreliert
Intensionen und Extensionen miteinander zur Einheit des Begriffs, d. h. er
„produziert“ Begriffe. In Anwendung auf inhaltliche Beispiele behauptet er die
Existenz eines dem Begriff entsprechenden Gegenstandes. Da reguläre Begriffe
auf der Induktion aus sinnlichen Wahrnehmungen beruhen, bezeichnen die durch
Negation unterschiedenen unteren Positionen die Extension, ihre gemeinsamen
Merkmale die Intensionen der so eingeführten Begriffe.

Existenzjunktor
„es gibt A“ , nämlich als induktiv gewonnene Gattung der durch
A Negation unterschiedenen Artbegriffe AB und AC

AB AC

Ausdrucksbildende Junktoren

Sie sind aus je zwei der oben genannten dihäretischen urteilsbildenden Junktoren
zu widersprüchlichen Junktorbegriffen verschmolzen. Dadurch heben sich deren
Funktionen für die Wahrheitswertbildung auf. Die ausdrucksbildenden Junktoren
haben daher keinen Wahrheitswert.
Die nicht-ausschließende Disjunktion („und/oder“ bzw. lateinisch „vel“) ist aus
dem allgemeinen Zukommen und der korrelierenden Implikation verschmolzen
und verknüpft in allen Richtungen. Konjunktion bzw. Adjunktion („und“) und
Alternative („entweder... oder“, lateinisch „aut ...aut“) spezifizieren diese Ver-
knüpfungsweisen. Der mathematische Summenjunktor („und“ im Sinne von
107

„plus“) verknüpft nur horizontal Gleichartiges. Der mathematische Differenz-


junktor („minus“) ist aus der Adjunktion und der Negation zusammengesetzt
(„und nicht“) und verknüpft ebenfalls nur horizontal Gleichartiges (vgl. unten
über Grundrechenarten).
Die (positiven) Quantoren bzw. Quantifikatoren (ein, einige alle) sind aus der
Kopula und dem speziellen Zukommen verschmolzen und verknüpfen vertikal in
beiden Richtungen. „Alle“ verknüpft einen Begriff mit sämtlichen in seinem Um-
fang liegenden Unterbegriffen. „Einige“ verknüpft unbestimmt einen Begriff mit
einem seiner Unterbegriffe. Er drückt aber nicht aus, mit welchem von zweien
oder mehreren. „Ein“ verknüpft einen Begriff unbestimmt mit einem seiner Un-
terbegriffe bzw. einem in seinen Umfang fallen Individuum, drückt aber nicht aus,
mit welchem von „allen“, die unter den Begriff fallen. Deshalb sind die partikulär und
individuell quantifizierten Begriffe stets definitionsbedürftig.
die Quantoren bzw.Quantifikatoren

A Quantifizierte Begriffe in dihäretischer Position


liefern als „Gegenprobe“ Definitionen ihrer Ge-
einige A einige A genarten: „einige A = AB“/„einige A = nicht AB
(= AC). Als „partikuläre Urteile“ wären sie Wi-
dersprüche.
ein A ein A Eigennamen definieren Individuen: „ABD =
ein A“ (z. B. „Sokrates = ein Mensch“).

Mathematische Quantoren sind bezüglich von Einheiten synonym mit dem


logischen „ein“. Bezüglich bestimmter Zahlenwerte („größer als Eins“) sind sie
Spreizungen (Spezifikationen) des logischen „einige“. Bezüglich infinitesimaler
und „unendlicher“ (infiniter) mathematischer Bestimmungen sind sie synonym
mit dem logischen „alle“.
Das logische „kein“ ist aus der Negation und dem „ein“ zusammengesetzt
(„nicht ein“). In der Mathematik wird die Negation auch mit dem „alle“ ver-
knüpft. Dieser Ausdruck heißt dann auch „leer“. Die mathematische Quantifi-
kation des „Leeren“ ist die Null („leere Menge“).

Die Äquivalenz bzw. der mathematische Gleichungsjunktor


Der Äquivalenzjunktor ist aus der Negation und dem Existenzjunktor ver-
schmolzen. Die Äquivalenz verknüpft horizontal durch bestimmte Negation Un-
terscheidbares. Diese Unterscheidbarkeit bedingt, daß in einer Äquivalenz niemals
etwas mit sich selbst (also Ununterscheidbares) äquivalent sein kann, wie es der
falsche Gebrauch der sogenannten Tautologie in der Logik insinuiert. In der
Mathematik ist die tautologische Gleichungen (z. B. 2 = 2) per Konvention
üblich.
Die Äquivalenz induziert zugleich eine gemeinsame Bedeutung des Unter-
schiedenen, wie es der Existenzjunktor vorgibt. Im Gemeinsprachengebrauch wird
die Äquivalenz Synonymie genannt.
108

Neuerdings wird die Äquivalenz auch als „gegenseitige Implikation“ („genau


dann wenn“ bzw. „dann und nur dann, wenn“) dargestellt. Dies ist jedoch irre-
führend insofern, als durch diese Verwendung der „Implikation“ der Eindruck
erweckt wird, es handele sich bei der Äquivalenz um behauptende Urteile mit
Wahrheitswerten. Indem die Äquivalenzen jedoch Synonymien zwischen Begrif-
fen und Termini bzw. zwischen Rechenausdrücken und Zahlwerten audrücken,
sind sie logische Ausdrücke ohne Wahrheitswerte. Sie dienen als Definitionen, die
„frei setzbar“ sind.
In der Mathematik wird das meiste, was überhaupt behandelt wird, in der Ge-
stalt von Gleichungen vorgeführt. Und durch die Anwendung der Mathematik ist
die Gleichung auch in der Physik die Hauptform der Argumentation geworden. Es
bleibt aber auch hier zu betonen, daß Gleichungen grundsätzlich Äquivalenzen
bzw. Definitionen ohne Wahrheitswert sind. Gleichwohl gelten sie, wie im
vorigen Paragraphen schon gesagt wurde, in der Mathematik und und ihren
Anwendungen seit G. Boole als behauptende Urteile mit Wahrheitswerten. Mehr
darüber wird unten bei den Definitionen zu sagen sein.

Die mathematischen Grundrechenarten sind logisch gesehen ausdrucksbildende


Junktoren, die bestimmte Zahlkonfigurationen definieren, nämlich Summe, Diffe-
renz, Produkt und Quotient. An ihnen läßt sich eindrucksvoll zeigen, wie und wo
das mathematische Prozedere logisch ist, und wie und wo es von der Logik zur
Dialektik übergeht.

Das Addieren ist eine auf gleichrangige Nebenarten eingeschränkte Konjunktion


bzw. Adjunktion. Logisch daran ist, daß man beliebige Zahlen bzw. Zahlaus-
drücke zu Summen zusammenfassen kann. So wie man „einen Apfel und einen
(anderen) Apfel“ zu einem „Äpfelpaar“ summiert oder „mehrere Äpfel“ zu einer
„Apfelmenge“. Dialektisch ist die Aufhebung der Restriktion auf Gleichrangigkeit
der Summanden bei der Integralsumme. Darin wird das mathematische Additions-
verfahren kreativ. Denn hierbei werden gerade lauter ungleichartige Summanden
(nämlich Differentialquotienten) summiert. Bekanntlich handelt es sich beim Inte-
grieren einerseits um eine Summenbildung, andererseits aber auch um Nicht-
summenbildung. Das zeigt sich darin daß Integrale nicht ausrechenbar sind,
sondern daß ihre Zahlenwerte „empirisch“, d. h. durch gemessene Exhaustion von
unregelmäßigen Flächen oder Körpern gewonnen und in Tabellen zur Verfügung
gestellt werden.

Das Subtrahieren ist eine Verknüpfung der logischen Konjunktion und der Nega-
tion zu einem Ausdruck von Differenzen. Logisch ist es, wenn man sagt „AB und
nicht AC“: Und das bleibt bei Anwendung auf Beispiele so lange logisch, wie der
Subtrahend kleiner ist als der Minuend. Es ist also logisch, daß man nicht mehr
„wegnehmen“ kann als „vorhanden“ ist. Nimmt man jedoch genau das weg, was
vorhanden ist, so wird das Subtrahieren dialektisch und kreativ. Die Subtraktion
109

definiert dann in widersprüchlicher Weise „Etwas und nicht Etwas“ als „Nichts“
und definiert somit die Null als Zahl (mathematisch „+ 2 -2 = 0“).
Die Dialektik setzt sich fort in der kreativen Definition der negativen Zahlen,
denn dabei wird mehr weggenommen als vorhanden ist. Logisch muß man sagen:
negative Zahlen sind zugleich negierte bzw. Nicht-Zahlen. Deshalb wurde ihr
Zahlcharakter von vielen Mathematikern bis in die Neuzeit bestritten. Als man im
Handel und Bankwesen den negativen Zahlen eine positive Bedeutung als Schul-
den oder Kredit zusprach, setzten sich auch die negativen Zahlen als spezifische
Zahlen in der Arithmetik durch. Noch Kant befaßte sich in seinem „Versuch, den
Begriff der negativen Größen in die Weltweisheit einzuführen“ 58 mit diesem
Problem. Er diagnostizierte ganz richtig den logisch widersprüchlichen Charakter
des Verfahrens und versuchte gleichwohl, die inhaltliche Anwendung des Ver-
fahrens als „Realrepugnanz“ antagonistischer Entitäten (wie z. B. Newtons Kraft
und Gegenkraft), als nichtwidersprüchlich darzutun.

Das Multiplizieren hat als logische Grundlage die Verschmelzung bzw. Fusion
beliebiger Intensionen zu Begriffen unter Zuweisung von Extensionen. Diese Ver-
schmelzung geschieht nicht mittels eines verknüpfenden Junktors. Wie sie funk-
tioniert wurde bei der Begriffsbildung vorgeführt. Die logische Fusion führt zur
„Produktion“ neuer Begriffe, seien sie regulär oder auch widersprüchlich. Bei-
spiele sind zusammengesetzte Begriffe wie das reguläre „Gast-Haus“ oder das
irreguläre „hölzerne Eisen“ (ein bekanntes sprachliches Oxymoron).
In der Arithmetik wird die Fusion auf Zahlen und Zahlausdrücke angewandt und
liefert dadurch mathematische „Produkte“. Als Rechenverfahren wird die Multi-
plikation auf wiederholtes Summieren zurückgeführt (3  2 = 2 + 2 + 2) und
dadurch erläutert und definiert. Die Multiplikation dient neben den anderen Re-
chenverfahren ebenfalls zur Definition der Zahlen. Im mathematischen Grund-
unterricht werden die Definitionen der Zahlen aus der dezimalen Zahlreihe am
häufigsten mittels des (kleinen) „Ein-mal-Eins“ auswendig gelernt.
Die traditionelle geometrische Veranschaulichung hat die Mathematiker an die
Kreativität der Produktbildung gewöhnt, so daß sie als „logisch“ erscheint. Man
stellt Zahlgrößen durch Strecken dar, die multipliziert Flächeninhalte (ein nicht-
streckenhaftes Produkt!) produzieren. Dabei wird grundsätzlich ausgeblendet, daß
es sich nicht um gleiche Strecken, sondern um Vektorstrecken (die in der Fläche
ganz verschieden ausgerichtet sind) handelt. Und nur so kann die Multiplikation
von Strecken (a  b) zu einem nicht-streckenhaften Flächenprodukt („ab“) führen.
Dieses traditionelle Beispiel findet weite Anwendung bei der multiplikativen
Fusion unterschiedlich dimensionierter naturwissenschaftlicher Begriffe. Der
Physiker verschmilzt z. B. den Massenbegriff (m) mit dem Begriff einer Strecke
(s) und bildet so den Begriff „Arbeit“ (ms = Masse  Weg). Wollte man das Ver-

58
I. Kant, Versuch, die negativen Größen in die Weltweisheit einzuführen, Königsberg 1763, in: I. Kant, Werke in sechs
Bänden, hgg. v. W. Weischedel, Darmstadt 1960, S. 777 – 819.
110

fahren am logischen Beispiel erläutern, so müßte man definieren können: „Äpfel


mal Birnen = Kompott“.

Das Potenzieren
Die Dialektik setzt sich fort in der Potenzbildung, also im sogenannten Poten-
zieren. Hierbei wird, logisch gesehen, etwas mit sich selbst verschmolzen, was
einerseits eines und dasselbe bleibt, andererseits auch etwas anderes sein kann.
Ersteres zeigt sich in der Einerpotenz (1  1 = 1), letzteres in den Potenzen aller
anderen Zahlen (z. B. 3  3 = 9).
Die Selbstfusion von etwas mit sich selbst und somit die Widersprüchlichkeit
des Potenzierens wird in der Mathematik durch die traditionelle Veranschau-
lichung an geometrischen Anwendungen dissimuliert. Daher spricht man bekannt-
lich seit Euklid von „Quadratzahlen“ (2. Potenz) und „Kubikzahlen“ (3. Potenz).
Diese Art der Begriffsbildung wird seit der Renaissance heuristisch und spe-
kulativ benutzt, um gewisse Probleme auf den Begriff zu bringen. So ist z. B. in
der Kinematik (Bewegungslehre) der Geschwindigkeitsbegriff (v, d. h. die Pro-
portion Wegeinheit zu Zeiteinheit) mit sich selbst zu „v²“ potenziert worden, um
damit die Beschleunigung zu erfassen. (Nach der vorn schon genannten Merton-
Regel wird allerdings Beschleunigung als „mittlere Geschwindigkeit zwischen der
langsamen Anfangs- und der schnelleren Endgeschwindigkeit, also als „ ½ v² “
definiert.) Man findet in der einschlägigen Literatur keinen Hinweis darauf, daß
Physiker sich darüber Rechenschaft gaben, daß sie damit einen Begriff bildeten,
der eine Proportion von flächenhaften „Streckenquadraten“ und „Zeitquadraten“
darstellt, die sich jeder Veranschaulichung hinsichtlich bewegter Massen entzieht.
Und das wird in der Regel damit begründet, daß es sich bei den Potenzbegriffen
um rein numerische und an Beispielen empirisch verifizierte Meßgrößen handele.
In der nichtmathematischen Begriffsbildung ist das Verfahren des Potenzierens
Grundlage für das Verständnis sogenannter reflektiver bzw. ipsoflexiver (selbst-
bezüglicher) Begriffsbildung in der Reflexionsphilosophie. Beispiele sind etwa
das „Denken des Denkens“ (aristotelische „noesis noeseos“) oder „Bewußtsein
von Bewußtsein = Selbstbewußtsein“). Diese Begriffsbildung wird jedoch ebenso
wenig wie der mathematische Potenzbegriff als dialektisch durchschaut und aner-
kannt.

Das Wurzelziehen
Das als Umkehrung des Potenzierens eingeführte Wurzelziehen bzw. Radizieren
zerlegt die Potenzzahlen in ihre Faktoren. Darauf beruht die Notation der Potenz-
zahlen, die die „Wurzel“ als Basis und die Anzahl der multiplizierenden Fusionen
als Exponent notiert, wie z. B. 32 oder auch 3x . Wurzelzahlen lassen sich insofern
aus allen durch Potenzieren definierte Zahlen ziehen. Läßt man diese Beschrän-
kung fallen, so wird auch das Radizieren kreativ für die Definition neuer Zahl-
arten, und zwar sogleich mehrfach. Einerseits definiert man so die irrationalen
Zahlen, die wir „ungenau“ nennen können (vgl. unten bei Division), andererseits
111

die sogenannten imaginären Zahlen als Wurzeln aus negativen Zahlen. Hinzu
kommt, daß dieselbe Potenzzahl sich aus positiven wie negativen Wurzeln glei-
cher Größe definieren (z. B. √4 = +2 und = –2). Wollte man diese doppelte
dialektische Definition an einem nicht-mathematischen Beispiel demonstrieren, so
könnte man sagen: „Der Wurzelbegriff des Selbst-Bewußtseins ist sowohl das Be-
wußte wie das Nicht- bzw. Unbewußte“.

Die Division
Das Dividieren bzw. die Teilung hat zur logischen Grundlage die logischen Quan-
toren. Es liegt auf der Hand, daß „einige A“ und „ein A“ Teile von „A“ (bzw. von
„allen A“) sind. Diese Teile sind in allen Bildungssprachen schon durch eigene
Wörter bezeichnet, wie etwa „Element von...“, „Hälfte“, „Drittel“ usw. Worauf es
ankommt ist, daß die Partikularisierungen stets das „alle“ bzw. „das Ganze“ im
Blick behalten. Daher entsteht das Rechenverfahren der Division aus einer Ver-
schmelzung bzw. Fusion des Allquantors mit den Partikularisierungsquantoren.
Logisch könnte man dies „Teil-Ganzes“ nennen. Das erklärt, daß der mathemati-
sche Quotient als Ergebnis der Rechenoperation Division ebenfalls nur einen Teil
eines Ganzen definiert.
Logische Teilungen eines Ganzen können über „Teilbereiche“ nur bis zu
„Elementarteilen“ (was immer man in Beispielen dafür hält) führen. So ist es ganz
logisch, daß man All- oder Ganzheiten, die aus Einheiten bestehen, in vielfacher
Weise in ihre Teile bis zu den Einheiten zerlegen kann. Wobei das Divisions-
verfahren z. B durch die Rechengleichung „6 : 3 = 2“, wie gesagt, nur den
Zahlenwert eines Teils definiert. Die beim Teilen entstehenden übrigen Teile ver-
schwinden gleichsam im mathematischen Nirvana. Und dies ist logisch und
didaktisch die Grundlage für das Erlernen des Divisionsverfahrens.
Das mathematische Teilungsverfahren geht dialektisch darüber hinaus und wird
kreativ für die Definition neuer Zahlarten, nämlich der Bruchzahlen oder kurz: der
Brüche und insbesondere der sog. unendlichen Brüche. Die „elementare Einheit“,
aus der nach Euklid alle Zahlen zusammengesetzt werden, erscheint hierbei zu-
gleich als logische Einheit und als Allheit. Sie kann darum in noch „elementarere
Einheiten als die Zahleinheit“ zerlegt bzw. „zerbrochen“ werden. Darauf beruht
schon die übliche Notierung der Brüche als „1/2“, „1/3“, „1/4“ usw. gemäß den
sprachlichen Bezeichnungen „eine Hälfte“, „ein Drittel“ und „ein Viertel“ (immer
hinzugemeint: von einem Ganzen), usw.
Die Notation der Bruchzahlen mittels des Bruchstriches („ / “) ist zugleich eine
Formalisierung der Rechenaufgabe. Das Divisionsergebnis, das man speziell
„Quotient“ nennt, ist jedoch nur eine Umformung in die Dezimalnotation mittels
der Äquivalenz-Gleichung, d. h. von der Bruch- in die Dezimalform (1/2 = 0,5).
Dabei erweist sich wiederum der kreative dialektische Charakter des Verfahrens
bei der Definition der „unendlichen“ Brüche. „1/2 = 0,5“ definieren sich gewiß
gegenseitig. Aber schon der einfache Quotient „1/3“ ist nicht in dezimaler Form
definierbar. Die Gleichung „1/3 = 0,333...“ (bei Abbruch der Rechnung an belie-
112

biger Stelle hinter dem Komma) liefert ersichtlich keinen genauen dezimalen Zah-
lenwert. Sie definiert daher logisch gesehen ungenaue Zahlen (sog. „Grenzwerte“
von Reihen) als eine besondere „ungenaue“ Zahlart neben denjenigen Zahlen, die
man „genaue Zahlen“ nennen kann. Die Gleichung ist dann zugleich (dialektisch!)
keine Gleichung bzw. sie wird eine Ungleichung.
Die Division hat ebenso wie das Multiplizieren und Potenzieren zu höchst
kreativen Begriffsbildungen in der Mathematik und ihren Anwendungen geführt.
Die übliche Formulierung von Divisionsaufgaben (als Rechenoperation) ist selbst
zugleich Ausdruck für Proportionen, bei der die proportionierten Größen bzw.
Dimensionen selbständige Begriffe sind. Das hat auch Euklid in seinen „Elemen-
ten“ berücksichtigt, als er die Proportionen von den Teilungen unterschied.

Proportionen sind Teilungen, bei denen berücksichtigt wird, daß dabei nicht nur
ein „Quotient“, sondern ebenso viele „Quoten“ entstehen, wie der Divisor vorgibt.
Diese für den Praktiker jederzeit anschauliche und verständliche Operation wäre
eigentlich formal z. B. als „6 / 3 = 2  3“ zu notieren. Das ist in der Mathematik
jedoch ausgeschlossen, weil es als Ungleichung und „falsche Rechnung“ verstan-
den würde.
Und doch werden diese Proportionen als gemeinsprachige Ausdrücke häufig
verwendet, z. B. bei der Angabe von Wettkampfergebnissen („Eins zu Drei“ oder
umgekehrt, etwa bei Ergebnissen von Fußballspielen). Es würde wohl niemandem
einfallen, Fußballergebnisse in der Weise einer Divisionsaufgabe auszurechnen,
also das obengenannte „Eins zu Drei“ auszurechnen und als ein Drittel bzw.
0,333... (oder umgekehrt: 3/1 bzw. 3,0) anzugeben.
Das Beispiel kann darauf aufmerksam machen, daß es logisch auszuschließen
ist, eine quantifizierte Proportion als Divisionsaufgabe auszurechnen. Die Aus-
rechnung von Proportionen führt jedoch in der Mathematik zu Definitionen einer
Reihe genuin mathematischer und in Anwendungen physikalischer Begriffe. Als
Beispiel wurde schon die Proportion von Kreisumfang und Kreis-Durchmesser als
Quotient genannt, die mit dem (stets ungenau bleibenden) Zahlenwert 3,14159...
ausgerechnet wurde. Das Ergebnis ist die Definition der Naturkonstante Pi (π), die
für alle Kreise aller beliebigen Größen gilt.
Der mathematische Formalismus erzwingt jedoch nach der Zulassung der Null
als Zahl auch die Ausrechnung von Divisionsproblemen, bei denen Nullwerte im
Dividenden oder Divisor vorkommen. Die Rechenergebnisse reichen dann ins
Infinite und Infinitesimale. Dabei ist man allerdings nicht konsequent geblieben.
Man hat solche Rechenausdrücke als „sinnlos“ bzw. unzulässig „verboten“. Dies
aber erzeugte den Bedarf, auf andere Weise mit dem sich hier zeigenden Infi-
nitesimalproblem umzugehen. Und das Ergebnis war die Einführung einer beson-
deren Quotientenart: des sogenannten Differentialquotienten.

Bei den Differentialquotienten tritt die arithmetische Dialektik dem Logiker wohl
am eindrucksvollsten entgegen. Es handelt sich um ein Divisionsverfahren mit
113

„Zahlen, deren Zahlenwert unter jede bestimmbare Größe hinabreicht und sich
asymptotisch der Null annähert (d. h. ohne sie zu erreichen)“. Logisch wird man
solche „Zahlen ohne Zahlengröße“ als Nichtzahlen bezeichnen. Die Buchstaben-
rechnung war jedoch das geeignete Mittel, diese dialektische Eigenschaft als
irrelevant erscheinen zu lassen. Und so wurden diese „hybriden“ nicht-zahlhaften
Zahlen als „Infinitesimalzahlen“ zugelassen und buchstabenmäßig (was dann
„algebraisch“ genannt wurde) wie Zahlen behandelt. Daraus hat sich eine ganze
mathematische Disziplin, die „Infinitesimalmathematik“ entwickelt.
Nun sollte man nicht erwarten, daß in der Mathematik angesichts ihrer rein
„theoretischen“ (d. h. unanschaulichen) Ausrichtung überhaupt etwas unendlich
Kleines (Infinitesimales) oder auch unendlich Großes (Infinites) vorkommen
könnte, da sich Großes und Kleines und ungeheuer Großes oder winzig Kleines
ausschließlich in der sinnlichen Anschauung findet. Hier hat man dasjenige, was
man bei der Beobachtung mit bloßem Auge unendlich klein und unendlich groß
nennt, mit Mikro- und Teleskop ziemlich vergrößert oder verkleinert. Die Infini-
tesimalmathematik empfiehlt und plausibilisiert sich daher mit dem (allerdings
metaphorischen) Versprechen, gewissermaßen in eine Feinstruktur der Zahlen
(und ebenso in eine Megastruktur des Zahlenkosmos mittels der Cantorschen
„Mächtigkeiten“ von Zahlsystemen) einzudringen. Ein Mathematiker bekennt
dazu: „In den letzten 200 Jahren hat sich dieser Zweig der Mathematik zu einem
umfassenden Hilfsmittel der Naturwissenschaften entwickelt. Er ist immer noch
nicht völlig erforscht.“ 59
Daß hier noch viel Forschungsbedarf besteht, kann den Logiker nicht verwun-
dern. Das wird auch so bleiben, wenn man sich in der Infinitesimalmathematik
nicht über die hier waltende Dialektik im klaren ist. Und das war schon so, als
besonders George Berkely das infinitesimal-geometrische Verfahren von Leibniz
und das physikalisch-mechanische Fluxions-Verfahren von Newton als dialek-
tisches Unternehmen analysierte und kritisierte.
Die Preußische Akademie der Wissenschaften hatte dies in einer Preisfrage für
das Jahr 1784 über das Wesen des Unendlichhen so formuliert:
„Man weiß, daß die höhere Geometrie kontinuierlich vom unendlich Großen und
unendlich Kleinen Gebrauch macht. Indessen haben die Geometer, und sogar die
antiken Analysten, sorgfältig alles vermieden, was mit dem Unendlichen zu tun hat;
und berühmte Analysten unserer Zeit bekennen, daß die Termini unendliche Größe
widerspruchsvoll sind. Die Akademie verlangt also, daß man erkläre, wie man aus
einer widerspruchsvollen Annahme so viele wahre Sätze deduziert hat, und daß man
ein sicheres und klares, d. h. wirklich mathematisches Prinzip angebe, das geeignet
ist, das Unendliche zu ersetzen, ohne die Forschungen, die darauf beruhen, zu
schwierig oder zu lang zu machen.“ 60

59
R. Knerr, Goldmann Lexikon Mathematik, Art. „Infinitesimalrechnung“, München 1999, S. 163.
60
Nouveaux Mémoires de l‟Académie Royale des Sciences et Belles-Lettres, Berlin 1784, S. 12: „On sait que la haute
Géometrie fait un usage continuel des infiniment grands et des infiniment petits. Cependant les Géometres, et mȇme les
Analystes anciens, ont évité soigneusement tout ce qui approche de l‟infini; et de grands Analystes modernes avouent que
les termes grandeur infinie sont contradictoires. L‟Académie souhaite donc qu‟on explique comment on a déduit tant de
théoremes vrais d‟une supposition contradictoire, et qu‟on indique un principe sȗr, clair, en un mot vraiment mathématique,
114

Eine Antwort vom logischen Standpunkt hätte auch damals lauten können: Der
Differentialquotient, der ausschließlich in Buchstabenzeichen (δx/δy) dargestellt
wird, bleibt logisch immer eine nicht auszurechnende Proportion (wie bei den
Fußballergebnissen). Die Proportion wird aber (wie im Falle von Pi) als Quotient
bzw. Divisionsaufgabe behandelt und (wenn auch nur buchstabenmäßig) „ausge-
rechnet“. Das Ergebnis wird dann als neu definierter mathematischer Begriff
behandelt, dessen Widersprüchlichkeit keine mathematische Besonderheit dar-
stellt, wie es die Preisfrage der Preußischen Akademie unterstellt, da sie dem dia-
lektischen Verfahren der üblichen mathematischen Begriffsbildung entspricht.
G. W. Leibniz hatte das dialektische Verfahren dadurch begründet, daß er alle
Begriffe kontinuierlich bzw. „stetig“ in einander übergehen ließ. Dafür postulierte
er seine berühmte „Lex continuationis“61. Dies „Gesetz“ steht in offenbarem Wi-
derspruch zur logischen Begriffsbildung und Begriffsunterscheidung, wonach
grundsätzlich keine Kontinuität zwischen Begriffen bestehen kann, da sie gerade
durch ihre gegenseitige Abgrenzung (griech. peras, lat. definitio, im Gegensatz
zum apeiron als „Infinitem) zu Begriffen werden.
Die Widersprüchlichkeit zeigt sich in dem von Leibniz in die Geometrie ein-
geführten Begriff vom „Grenzübergang“, der einerseits eine Abgrenzung der Be-
griffe voraussetzt, andererseits diese Grenze negiert. Was hier eine Grenze über-
schreitet, gehört somit beiden Bereichen diesseits und jenseits der Grenze zugleich
an. Ersichtlich lassen sich daraus widersprüchliche geometrische Urteile über das-
jenige deduzieren, was einerseits zum Bereich diesseits, andererseits jenseits der
Grenze gehört und zugleich beiden Bereichen gemeinsam sein soll. Und dies
beantwortet die Akademie-Preisfrage nach der Fruchtbarkeit des Verfahrens. Na-
turgemäß weisen Leibnizens Beispiele aus der projektiven Geometrie der „in
einander übergehenden“ Kegelschnitte eben dieselbe kreative Dialektik auf. Und
das gilt nicht minder für alle erst im 19. Jahrhundert entwickelten Kontinui-
tätstheorien der Zahlentheorie (Dirichlet).
Leibnizens Hauptbeispiel für die Deduktion des Differentialquotienten ist eine
geometrische Strecke (die Sekante einer Kurve), die „im Grenzübergang“ in einen
geometrischen Punkt (Berührungspunkt einer Tangente) übergeht. Übrigens ein
Beispiel, das auch Nikolaus von Kues schon in vielen Variationen diskutiert
hat.62 Im Grenzübergang kann daher die Strecke zugleich Punkt und Strecke sein.
Der dialektische Begriff „Grenzübergang“ wurde nachfolgend aber nicht auf die
Grenze zwischen Strecken und Punkten beschränkt, sondern in der Geometrie
allgemein auf alle Punkte einer Strecke (oder Kurve) angewandt, die dann zu-
gleich auch Strecken in einem Punkte sein sollten. Das konnte logisch nur be-

propre à ȇtre substituté à l‟Infinie, sans rendre trop difficiles, ou trop longues, les recherches qu‟on expédie par ce moyen”
(zit. nach G. W. F. Hegel, Ges. Werke, Band 7, Hamburg 1971, Anhang S. 369f. Hier auch die Titel der eingereichten und
weiterer Arbeiten).
61
G. W. Leibniz, „Principium quodam generale“ / „Über das Kontinuitätsprinzip“, in: Hauptschriften zur Grundlegung
der Philosophie I, hgg. von E. Cassirer, Leipzig 1904, auch Hamburg 1966, S. 84 – 93.
62
Nikolaus von Kues, „De mathematica perfectione / Über die mathematische Vollendung“, in: Nikolaus von Cues, Die
mathematischen Schriften, hgg. v. J. Hofmann und J. E. Hofmann, Hamburg 1952, S. 160 – 177.
115

deuten, daß alle Punkte auf einer Strecke zugleich als „Strecken-Punkte“ und die
Strecken in einem Punkte als „Punkt-Strecken“, d. h. als ausgedehnt und zugleich
nicht-ausgedehnt definierbar wurden.
Isaak Newton hat diesen dialektischen Begriff „Fluente“ genannt. Sein Haupt-
beispiel entstammt der physikalischen Kinematik: Die Geschwindigkeit einer
physikalischen Bewegung bliebe danach auch in einem „Zeitmoment“ (d. h. in
einem Zeit-Punkt) erhalten. Logisch widerspruchslos läßt sich allerdings nur be-
haupten: Eine Strecke ist kein Punkt; und eine durch Raum- und Zeiter-
streckungen definierte Geschwindigkeit läßt sich nicht auf einen Punkt über-
tragen, denn dies wäre allenfalls ein „Ruhepunkt“ (was übrigens Zenon, der
Schüler des Parmenides, schon in der Antike und Nikolaus von Kues im Über-
gang vom Mittelalter zur Neuzeit demonstriert hatten).
Sicher dient es zur Dissimulierung dieses Widerspruchs im Begriff des Diffe-
rentialquotienten, daß er in Lehrbüchern immer noch anhand von Leibnizens
geometrischer Veranschaulichung als „Grenzübergang“ von einer Sekanten-
Strecke zu einem Tangenten-Punkt einer Kurve dargestellt wird. Man hat sich so
sehr daran gewöhnt, daß diese Demonstration nicht mehr als widersprüchlich
durchschaut wird, wenn damit behauptet wird, die Eigenschaften einer Strecke
(bezüglich ihrer Lage im Raum) blieben auch im unausgedehnten Punkt erhalten.
Die Folge ist, daß man dann auch in der Physik von „Punktgeschwindigkeiten“
redet, wo logisch nur das Gegenteil von Geschwindigkeit, nämlich „keine Ge-
schwindigkeit“ angetroffen werden kann. Werner Heisenberg hat, wie schon
vorne erwähnt, mit seiner „Unschärferelation“ bei sogenannten konjugierten phy-
sikalischen Größen aus der Not dieses Widerspruchs die Tugend einer onto-
logischen Eigenschaft der Mikro-Natur gemacht.

5. Die Definitionen

Definitionen sind Äquivalenzausdrücke. Sie sind daher keine behauptenden wahr-


heitswertfähigen Urteile, und darum frei bzw. willkürlich festsetzbar. Es ist ein
verhängnisvoller Fehler, sie mittels der Kopula zu notieren oder auszudrücken,
anstatt durch das Gleichheitszeichen oder mit Hilfe sprachlicher Wendungen wie
„das heißt“. Die Mathematik bezieht, wie schon gezeigt wurde, einen beträcht-
lichen Teil ihres wissenschaftlichen Renommees aus diesem Mißverständnis, ihre
Gleichungen seien wahrheitswertfähige Behauptungen. Definitionen beschreiben
einen Begriff mit extensionalen und/oder intensionalen Eigenschaften in den Aus-
drücken anderer Begriffe, oder umgekehrt. Die Definitionen der Begriffe sind in
der „pyramidalen“ Formalisierung durch die Position des zu definierenden Be-
griffs in einer Begriffspyramide direkt ablesbar.
Die aristotelische Standarddefinition umschreibt einen Begriff durch explizite
Angabe seiner generischen Intensionen mittels des „nächst höheren“ Begriffs
(Gattung) und durch die spezifische Intension bzw. „Differenz“, die ihn von der
Gattung und seinen Nebenarten unterscheidet. Die aristotelische Definitionsweise
116

erlaubt keine Definition höchster Gattungsbegriffe (axiomatische Grundbegriffe).


Wohl aber lassen sich solche axiomatischen Begriffe auf andere Weise (siehe
Induktion) definieren. Die üblicherweise in der Logik und Mathematik angenom-
menen axiomatischen Grundbegriffe bzw. Kategorien, die nicht definierbar sein
sollen, können daher überhaupt keine Begriffe sein.
Die sogenannten partikulären Urteile sind Definitionen. D. h. daß auch sie
keine wahrheitswertfähigen Urteile sind. Gleichwohl werden sie seit jeher und
noch immer ganz allgemein für Urteile gehalten und in den Lehrbüchern als
solche behandelt. Sie drücken die Äquivalenz zwischen einem extensional unter-
bestimmten Begriff und einem Begriff aus („Einige Lebewesen, d. h. Tiere“). Die
Negation führt hier stets zu einer weiteren Definition (Einige Lebewesen, d. h.
Nicht-Tiere). Die Negation eines sogenannten partikulären Urteils kann daher als
Gegenprobe auf ihren Definitionscharakter gelten.
Die sogenannten singulären bzw. individuellen Urteile sind ebenfalls Defini-
tionen. Sie drücken die Äquivalenz zwischen einem Begriff und seiner Umschrei-
bung durch die generischen Merkmale und die singuläre Extension seiner Gattung
aus („Mensch, d. h. ein vernünftiges Lebewesen“).
Mathematische Gleichungen sind ebenfalls Definitionen. Sie drücken Äquiva-
lenzen zwischen einer Zahl und deren Umschreibung durch Rechenausdrücke
bzw. zwischen Rechenausdrücken mit Variablen aus.
Tautologien in der Gleichungsform „x = x“ sind weder logische Ausdrücke
noch sprachlich sinnvolle Sätze. Sie sind mißbräuchliche Verwendungen der
logischen Definitionsform für den Ausdruck der Identität (mehr darüber unten bei
Axiome).
Sogenannte Funktionsgleichungen („Funktionen“) sind einerseits Äquivalenzen
von Rechenausdrücken mit Variablen (Unbekannten). Ihre übliche formale Glei-
chungsnotierung „y = f (x)“ besagt nur, daß der Begriff y dasselbe bedeutet wie
ein durch f (eine spezifische Differenz) bestimmter anderer Begriff x. Z. B.
„Quadrat, d. h. gleichseitig-rechtwinkliges Viereck“, oder „Gattin, d. h. verhei-
ratete Frau”. Insoweit sind auch Funktionsgleichungen Definitionen.
In der sogenannten analytischen Geometrie, die auf die cartesische Veranschau-
lichung der Zuordnung von Zahlgrößen zu geometrischen Punkten in der Fläche
zurückgeht, wird die Gleichungsform auf die Zuordnung auch gänzlich ver-
schiedener Zahlgrößen angewandt. Diese analytischen Funktionsgleichungen de-
finieren durch Gleichungen einen oder mehrere gemeinsame Punkte auf Kurven
bzw. anderen geometrischen Gebilden, und zwar durch zwei verschiedene Zahl-
arten, nämlich der x- und der y-Größen auf den Flächenkoordinaten. Insofern ist
ihre Notation als Gleichung gerechtfertigt.
Bei den algebraischen Funktionsgleichungen aber entfällt die geometrische
Veranschaulichung als Bezug auf die definierten Punkte. Dadurch werden die
Gleichungen zu Ungleichungen im Gewande von Gleichungen. Als Ungleichun-
gen werden sie zu korrelierenden Implikationsurteilen über das Verhältnis der
Variablen y und x. Solche algebraischen Funktionsgleichungen sind daher logisch
117

zu formulieren als: „wenn y dann (f)x“. Als Implikationen sind diese Funktionen
Behauptungen und haben daher Wahrheitswerte (Über behauptende Funktionen
mit Wahrheitswerten siehe unten bei Urteil).

6. Urteile bzw. Propositionen

Urteile machen den Bestand des Wissens aus. Sie können wahr, falsch oder beides
zugleich sein. Letzteres im Falle der widersprüchlichen Urteile bzw. der Wahr-
scheinlichkeitsurteile. Sie sind immer allgemein, wie die stoische Logik gegen
Aristoteles mit Recht annahm. Und zwar, weil die sogenannten partikulären und
individuellen Urteile, wie gezeigt, Definitionen ohne Wahrheitswerte sind.
Wahre Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Wahrheitsdefinition.
Beispiele für wahre Urteile in der pyramidalen Formalisierung
1. 2. 3.
A A alle AB sind nicht AC =
kein AB ist AC,
wenn AB dann AC
A kommt allen
AB alle AB sind A = AB AB zu = AB AC
wenn AB dann A wenn A dann AB

(kopulatives Urteil = (aristotel. „Zukommen = (allg. negatives Urteil und


materiale Implikation) formale Implikation) korrelative Implikation)

Die materiale und die formale Implikation können nicht zur logischen Forma-
lisierung von Kausalrelationen dienen. Dies offensichtlich deshalb, weil Begriffe
nicht kausale Ursachen von einander sind. Die übliche Rede von „logischen
Gründen“ verführt aber häufig zu Verwechslungen von logischen und kausalen
„Gründen“.
Die korrelative Implikation dient einerseits zur Formalisierung von beliebigen
Nebeneinanderstellungen. Sie ist jedoch auch die formale Gestalt von Kausal-
relationen. Bei diesen bedarf es jedoch weiterer anwendungsbezogener bzw.
inhaltlicher Präzisierungen. Erstens muß ein zeitlicher Unterschied zwischen den
Bedeutungen der korrelierten inhaltlichen Begriffen vorausgesetzt werden.
Zweitens muß der inhaltliche Oberbegriff als Garant der kausalen Verknüpfung
(das seit Hume gesuchte „innere Band“ zwischen Ursache und Wirkung) bekannt
und bestimmt sein.
Falsche Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Falschheitsdefinition. Diese
ergeben sich im Formalismus der Pyramide am einfachsten durch regelwidrige
(„verkehrte“) Lesung der satzbildenden Junktoren: z. B. der Kopula als negierte
Kopula und umgekehrt; oder einer der Implikationen, z. B. der Korrelation als
materiale oder formale Implikation, und umgekehrt.
118

Beispiele für falsche Urteilslesung in pyramidaler Formalisierung

1. 2. 3.
alle AB sind AC /
A A alle AC sind AB

AB alle AB sind nicht A AB A kommt AB nicht zu AB AC

Verwechselung von Unter- und Oberbegriffen (4 u. 5) und von Nebenarten mit Unterordnung

4. 5. 6.
AB
B

AB
A AB A

Wahr-falsche (widersprüchliche) Urteile verknüpfen reguläre (nicht-widersprüch-


liche) und irreguläre (widersprüchliche) Begriffe mittels der urteilsbildenden
Junktoren derart, daß die Verknüpfung bezüglich der im irregulären Begriff
verschmolzenen Intensionen sowohl als wahr wie als falsch gelesen werden kann.
Diese Urteile werden oft nicht als widersprüchlich erkannt, wenn der irreguläre
Begriff selbst nicht als contradictio in adiecto erkannt wird. In diesem Falle hat
man sich gewöhnlich per Konvention auf eine der beiden Lesungen geeinigt. Die
klassische und die mathematische Logik lesen das widersprüchliche Urteil als (in
toto) falsch, da sie Wahr-Falschheit als „Drittes“ nicht zulassen.
Beispiele für zugleich wahre und falsche Urteile (wahr-falsche bzw. widersprüchliche Urteile)

1 2. 3.
A A wahr als korrelative Impl.
falsch als formale
wahr als materiale I. wahr als formale I. und als materiale Implikation
falsch als formale und falsch als mat. I. und
AB
als korrelative Impl. AB
als korrelative Impl. AB AC

wenn AB dann A wenn A dann AB wenn AB dann AC

4. 5. 6.
A -A AB AC
Wahr-falsches Urteil als
wahr-falsch wahr-falsch als Ur- wahres neg. U. und falsches
als Urteil mit teil mit widerspr. kopulatives Urteil
widerspr. Prädikat Subjekt
AB ABC AB AC

alle AB sind A und -nicht A alle ABC sind AB und AC alle AB sind AC und nicht AC
119

Widersprüchliche Urteile gelten (zu unrecht) in der klassischen und in der


mathematischen Logik als falsche Urteile bzw. Aussagen. Damit wird jedoch in
dialektischer Weise das darin enthaltene wahre Urteil ebenfalls für falsch erklärt.
Die Begründung für diese merkwürdige Meinung ergibt sich in der klassischen
Logik aus deren Zweiwertigkeit. Man schloß einen „dritten Wahrheitswert“ aus
der Logik aus und hielt das damit Behauptete für „unvorstellbar“ bzw. „absurd“.
Die mathematische Logik bzw. „Aussagenlogik“ übernahm diese Meinung und
begründete sie mit der (Frege-Tarski) Unterscheidung von Sinn und Metasinn
bzw. „Sinn“ und „Bedeutung“ von Aussagen. Der „Metasinn“ von widerprüch-
lichen Aussagen wurde dogmatisch als „falsch“ definiert, um damit überhaupt ein
formales Falschheitsmerkmal auszuzeichnen. Und dies u. a. auch deshalb, weil
man davon ausging, es ließe sich kein rein formallogisches Merkmal für (ein-
fache, nicht-widersprüchliche) falsche Behauptungen angeben. Wie oben gezeigt,
ist dies in der pyramidalen Formalisierung möglich.
Auch die Urteilsalternativen (z. B. alle AB sind entweder A oder Nicht- A / alle
AB sind entweder AC oder nicht-AC) sind wahr-falsche Urteile. Sie ergeben sich
durch Einsetzen eines nicht wahrheitswertfähigen alternativen Ausdrucks als
Prädikat in ein kopulatives oder implikatives Urteil, welches dadurch Wahrheits-
werte erhält. Der alternative Prädikatsausdruck bedeutet dann aber nur, daß die
durch „entweder … oder“ verknüpften Prädikatsbegriffe in einem dihäretischen
Nebenartverhältnis zueinander stehen. Das kopulative Urteil mit einem alterna-
tiven Prädikat behauptet deshalb nur, daß einer der beiden Prädikatsbegriffe auf
den Subjektsbegriff zutrifft (was als „wahr“ gilt) und deshalb der andere nicht
zutrifft (was als „falsch“ gilt).
Ein alternatives Urteil ist allerdings nur sinnvoll zu benutzen, wenn grund-
sätzlich unbekannt ist, welcher Prädikatsteil zutrifft und welcher nicht. Dagegen
wird in der Praxis häufig verstoßen. So besagt etwa die sogenannte Abtrennungs-
regel, daß man von einem alternativen Prädikat jeden der beiden Prädikats-
Begriffe als „wahr“ annehmen und damit weitere wahre Urteile bilden könne. Und
dies eben deswegen, weil das alternative Urteil insgesamt wahr sei. Darauf be-
ruhen viele Fehler und Irrtümer bei der Anwendung der Urteilsalternative auf
Sachverhalte.
Die Meinung, daß alternative Urteile ohne Rücksicht auf inhaltliche Sach-
verhalte wahr seien, ist in der klassischen und modernen Logik seit jeher dog-
matisch festgehalten worden. Eine Begründung dafür ist die, daß der Alternativen-
Junktor (das ausschließende Oder) den Sinn einer Negation des Und-Junktors
(„oder = nicht und ...“) hat. Und da die Und-Verknüpfung sich widersprechender
Behauptungsanteile als formal „falsch“ gilt, gilt die Negation dieser Falschheit
schon deswegen als formale Wahrheit. Da man in der Form alternativer Be-
hauptungen demnach immer eine Wahrheit aussprechen können soll, ist die Ur-
teilsalternative eine der beliebtsten Formulierungsformen in den Wissenschaften
geworden. Sie erlaubt es, durch alternative Urteile stets recht zu behalten ohne
Rücksicht auf inhaltliche Sachverhalte.
120

Die mathematische (Aussagen-) Logik definiert für die Aussagenalternative


auch „falsche Wahrheitswerte“, nämlich wenn beide Prädikatsteile wahr oder
beide falsch seien. Dadurch werden aber nur „Nicht-Alternativen“ und nicht etwa
falsche Alternativen definiert. In der mathematischen Logik sind daher die „fal-
schen Alternativen“ zugleich nicht-alternative Alternativen.
Im Gegensatz zur (vermeintlichen) Absurdität der widersprüchlichen Behaup-
tung behauptet die (echte) Alternative nur das Nichtwissen darüber, welcher
Behauptungsanteil wahr und welcher falsch ist (d. h. die Unentschiedenheit oder
Unentscheidbarkeit). Sie kann also, wie schon gesagt, nur im Falle solchen Nicht-
wissens sinnvoll gebraucht werden. Und deshalb ist sie die logische Form „mög-
licher Antworten“ auf präzise Forschungsfragen, die eine Entscheidung über den
wahren bzw. falschen Behauptungsanteil erbringen sollen.
In der neuzeitlichen Logik sind auch sogenannte Wahrscheinlichkeitsurteile
mehr und mehr in den Vordergrund des Interesses der Logiker getreten. Trotz
ihrer Verbreitung im Forschungsbetrieb ist ihre logische Natur noch keineswegs
angemessen geklärt worden. Sie sind durchweg Vermutungen (Konjekturen bzw.
Hypothesen) im Gewande von Behauptungen. Das läßt von vornherein auf ihren
dialektischen Charakter schließen.
Was man vermutet, weiß man bekanntlich gar nicht oder nicht genau. Deshalb
formuliert man Vermutungen alltagssprachlich im Konjunktiv („es könnte sein
daß ...“). Ihr Gegenstandsbereich ist hauptsächlich alles Zukünftige, daneben aber
auch gegenwärtig mehr oder weniger Unbekanntes. Niemand, der seine Alltags-
sprache und ihre Grammatik beherrscht, wird die Konjunktivsätze mit Behaup-
tungen verwechseln.
Obwohl Aristoteles in seiner zweiwertigen Logik die Behauptungssätze zum
Substrat von Wahrheit und Falschheit gemacht hatte, hat er aber auch Vermutun-
gen (über die „possibilia futura“, d. h. zukünftig Mögliches) in seiner Modallogik
in Behauptungsformen ausgedrückt. Bekanntlich gibt es seither weder in der
Logik noch in der Mathematik konjunktivische Satzformen. Um gleichwohl dem
Nichtwissen in den Vermutungen Rechnung zu tragen, hat man die aristotelische
Modallogik zur dreiwertigen Logik erweitert. Der sogenannte „dritte Wahrheits-
wert“ ist jedoch gerade das, was Aristoteles aus der zweiwertigen Logik aus-
schließen wollte, nämlich das „Dritte“ neben Wahrheit und Falschheit.
Die Bezeichnung für dieses Dritte neben Wahrheit und Falschheit, also die
„Wahrscheinlichkeit“, wuchs den damit verbundenen Problemen erst in der
Neuzeit zu. Noch Joachim Jungius konnte in seiner „Logica Hamburgensis“ von
1681 die Wahrscheinlichkeit mit der Wahrheit gleichsetzen. Er definierte: „Wahr-
scheinlich ist, was von den Meisten oder Klügeren gebilligt, d. h. als wahr ein-
geschätzt wird“.63 Von daher ist dem Wahrscheinlichkeitsbegriff auch später stets
die Wahrheitsnähe vindiziert worden.

63
„Probabile verum est, quod plerisque aut sapientioribus probatur, hoc est verum censetur“, Joachim Jungius, Logica
Hamburgensis, hgg. v. R. W. Meyer, Hamburg 1957, S. 2 und S. 403.
121

Kant widmete der Wahrscheinlichkeit ein Kapitel seiner Logikvorlesungen und


definiert sie schon etwas einschränkender als „ein Fürwahrhalten aus unzurei-
chenden Gründen ..., die aber zu den zureichenden ein größeres Verhältnis haben,
als die Gründe des Gegentheils“64. Er unterscheidet dabei zwischen der „mathe-
matischen Wahrscheinlichkeit (probabilitas)“, die „mehr als die Hälfte der Gewiß-
heit sei“ (ibid. S. 91), und der „bloßen Scheinbarkeit (verisimilitudo); einem Für-
wahrhalten aus unzureichenden Gründen, insofern dieselben größer sind als die
Gründe des Gegentheils“ (ibid. S. 90). Bei letzterer entfällt jeder „Maßstab der
Gewißheit“. Daher könne es auch keine „Logik der Wahrscheinlichkeit (logica
probabilium)“ geben, „denn wenn sich das Verhältnis der unzureichenden Gründe
zum zureichenden nicht mathematisch erwägen läßt, so helfen alle Regeln nichts“
(ibid. S. 91).
Kants Hinweis auf den Unterschied zwischen logischer und mathematischer
Wahrscheinlichkeit wurde freilich nicht beachtet. Wohl aber wurde durch ihn die
(falsche) Meinung verstärkt, daß die (mathematische) Wahrscheinlichkeit näher
bei der Wahrheit als bei der Falschheit sei.
Kant sah jedenfalls ganz richtig, daß auf den „Schein der Wahrheit“ kein Verlaß
ist, und daß hinter dem Schein durchaus auch die Falschheit versteckt sein könnte.
Genau das ist auch der Fall. „Wahrscheinlichkeit“ ist eine recht euphemistische
Bezeichnung für den dritten Wahrheitswert geblieben, der diesen Namen nicht
verdient. Denn was nur „wahr erscheint“, kann ebensowohl „falsch“ sein. Und um
dies zu benennen, fehlt es noch bislang an einem Begriff von „Falschscheinlich-
keit“.
Logisch betrachtet ist die Wahrscheinlichkeit dasselbe wie Falschscheinlichkeit.
Und das kann man etwas strikter als „Wahr-Falschheit“ bezeichnen. Was das ist,
haben wir schon ausführlich als die logische Form des Urteilswiderspruchs be-
handelt.
Der widersprüchliche Charakter der Wahrscheinlichkeitsurteile zeigt sich zu-
nächst darin, daß sie Vermutungen (also Nicht-Behauptungen) im Gewande von
Behauptungen sind. Dann aber auch darin, daß sie (wie die Alternativen) ein
Nichtwissen als Wissen „erscheinen“ lassen. Zeigen wir dies am Beispiel von
prognostischen Wahrscheinlichkeitsurteilen.
Werden Wahrscheinlichkeits-Prognosen als Urteile behandelt (was durchaus
problematisch ist), so sind sie wahr-falsche Konjunktionen bzw. Adjunktionen
einer positiven und einer negativen Aussage über denselben zukünftigen Sach-
verhalt. Erweist sich die positive Aussage als wahr (sogenannte Verifikation, was
freilich nicht in der Zukunft, sondern in der Gegenwart festgestellt wird, wenn die
Prognose nicht mehr Prognose ist!), so war die negative falsch. Erweist sich die
negative Aussage als wahr (sog. Falsifikation), so war die positive Aussage
falsch.

64
I. Kant‟s Logik. Ein Handbuch zu Vorlesungen, hgg. v. G. B. Jäsche, erl. v. J. H. v. Kirchmann, Leipzig 1876, S. 90.
122

Der logische Musterfall dieser Verhältnisse ist der Münzwurf. Man weiß mit
Sicherheit, daß die geworfene Münze Bild oder Zahl zeigen wird, aber man weiß
nicht, welche Seite sich zeigen wird. Wenn die Münze auf dem Rand stehen
bleibt, gilt dies nicht als Münzwurf. Die logische und zugleich mathematische
Formulierung des Falles aber lautet: die Wurfergebnisse stehen im Verhältnis von
1 : 1 (oder „fifty-fifty“). Man beachte dabei, daß es sich bei dieser Formulierung
um eine Proportion (wie beim Fußballspiel), keineswegs aber um einen aus-
rechenbaren Quotienten handelt.
Man sieht, daß die Wahrscheinlichkeiten (auch „Chancen“ genannt) für den
einen und den anderen Fall der Münze gleichverteilt sind. Man kann auch sagen:
Wahrheit und Falschheit der Prognose sind im Gleichgewicht. Was wiederum
bedeutet, daß man mittels der logischen Wahrscheinlichkeit überhaupt nichts über
das prognostizierte Ergebnis behaupten kann.
Mathematiker berechnen die „statistische Wahrscheinlichkeit“ mittels ausge-
rechneter Quotienten. So ergeben sich Wahrscheinlichkeits- (oder „Risiko-“) Ko-
effizienten. Darüber soll im § 10 mehr gesagt werden. Jedenfalls kann schon
festgehalten werden, und jedes Beispiel numerischer Wahrscheinlichkeiten zeigt
es, daß die logische Halbe-Halbe-Wahrscheinlichkeit immer auf alle mathema-
tischen („statistischen“) Wahrscheinlichkeiten durchschlägt. Letztere mögen hoch
oder niedrig sein, das Ergebnis ist im Einzelfall immer gänzlich unbestimmt.
Selbst das Höchst-Wahrscheinliche passiert manchmal gerade nicht, und das
Unwahrscheinlichste passiert.
Deshalb kann man mit Wahrscheinlichkeitsaussagen – je nach Standpunkt –
immer Recht behalten oder immer falsch liegen.

Analytische Funktionsgleichungen sind, wie die Bezeichnung besagt, Gleichungen


und als solche Definitionen. Gegenstand der Definitionen waren (und sind) in der
analytischen (cartesischen) Geometrie die gemeinsamen Punkte, die durch die
Zahlvariablen der zwei (flächenbestimmtenden) oder drei (raumbestimmenden)
cartesischen Koordinaten dargestellt werden. Was wir hierbei Definitionsglei-
chungen genannt haben, wird in der Terminologie der analytischen Geometrie als
„Abbildung“ (d. h. ein-eindeutliche Zuordnung) von Variablenwerten (gewöhn-
lich von y-Werten zu x-Werten in der cartesischen Fläche) verhandelt. Die nume-
rischen Ausdrücke mit den Variablen x und y links und recht des Gleichheits-
zeichens beziehen sich auf einen Punkt oder alle Punkte auf einer Kurve als ihre
gemeinsame Bedeutung.
Die Ausweitung der euklidisch-cartesianischen Geometrie auf nicht-euklidische
Räume und mehrdimensionale Zahlordnungen hat inzwischen die ursprünglichen
geometrischen Veranschaulichungen der Funktionszusammenhänge in den Glei-
chungen weit hinter sich gelassen. Das führte zur Entwicklung rein arithmetischer
algebraischer Funktionen. Zwar versucht man auch für diese - oft aus didakti-
schem Interesse – geometrische Veranschaulichungen (sog. Graphen) zu finden,
aber das ist nur noch beschränkt möglich. Bei komplizierteren Funktionen geht
123

die Gleichungseigenschaft der ein-eindeutigen Zuordnung der Variablenwerte


verloren. Die numerische Analysis ist daher dazu übergegangen, die Gleichungs-
notation zugunsten einer korrelierenden Implikation aufzugeben. Statt y = f(x)
formalisiert man „y → f(x)“ d. h. “wenn x dann ein anderer (nur in Aus-
nahmefällen derselbe) Zahlenwert von y“.65 Darin deutet sich ein grundsätzlicher
Übergang der Funktionentheorie von der Definition ihrer numerischen Ausdrücke
zu (hypothetischen bzw. kreativen) Behauptungen in der Form korrelierender
Implikationen über das Vorliegen von existierenden neuen numerischen Gebilden
an.

7. Schlüsse.
Implikative Urteile sind zugleich einfachste Schlüsse. Komplexe Schlüsse, auch
Argumente genannt, sind Urteilsverbände, wie die aristotelischen Syllogismen
und die stoischen (chrysippschen) Schlüsse.
Man bemerke, daß sich bei den Urteilsimplikationen als einfachsten Schlüssen
nicht die Frage nach einem „falschen“ ersten oder zweiten Schlußglied stellen
kann, da diese selbst nur Begriffe, jedoch keine wahrheitswertfähigen Urteile sind.
Aristotelische Syllogismen sind Argumente aus drei Begriffen, deren inten-
sionale und extensionale Verflechtungen in einer Begriffspyramide durch Urteile
und/oder Definitionen klar und deutlich dargestellt werden. Ihre Subsumptions-
verhältnisse im Gattungs-Art-Individuum-Zusammenhang werden durch die Ko-
pula bzw. die materiale Implikation (oder beides zusammen) von unten nach oben,
oder (wie oft bei Aristoteles) durch das spezielle „Zukommen“ bzw. die formale
Implikation (oder beides zusammen) von oben nach unten dargestellt. Ihre Unter-
scheidungen von Nebenbegriffen werden durch die Negation dargestellt.
Da hierbei alles auf die Unter- und Nebenordnung der drei Begriffe des Syl-
logismus ankommt, spielen in den aristotelischen Syllogismen die Quantifi-
kationen die Hauptrolle. Die Nebenordnung kann durch die Negation eines Be-
griffs („kein ... ist“) oder durch die Negation der Kopula („.... ist nicht“) dar-
gestellt werden. Die in vielen aristotelischen Syllogismen enthaltenen sogenann-
ten partikulären bzw. individuellen Urteile sind als Definitionen zu lesen (statt
„ist“ lies „das heißt“).
Alle klassischen Syllogismen des Aristoteles lassen sich auf drei Verknüpfungs-
schemata zurückführen. Diese sind nicht mit den sog. syllogistischen Figuren des
Aristoteles zu verwechseln. Sie sehen folgendermaßen aus:

65
R. Knerr, Goldmann Lexikon Mathematik, München 1999, S. 131.
124

Die drei Schemata der aristotelischen Syllogismen


1. Leiter 2. Riß 3. Spitze

A A

AB AB AC AB AC

ABD ABD

Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund

Erklärung: In der „Leiter“ wird eine Unterart bzw. ein Individuum mit einem
Artbegriff, dieser mit seiner Gattung und im engeren „Schluß“ ersteres mit letzte-
rem verknüpft. Im Beispiel: Alle Hunde sind Tiere. Alle Tiere sind Lebewesen.
Also sind alle Hunde Lebewesen (modus barbara).
Im „Riß“ werden Unterart und Artbegriff verknüpft und beide durch Negation
von einer Nebenart unterschieden. Im Beispiel: Alle Hunde sind Tiere. Kein Tier
ist Pflanze. Also ist keine Pflanze Hund (modus calemes).
In der „Spitze“ werden zwei Artbegriffe gegeneinander abgegrenzt und mit ihrer
Gattung verknüpft. Im Beispiel: Kein Tier ist Pflanze. Alle Tiere sind Lebewesen.
Also sind (eigentl. =) einige Lebewesen Nicht-Pflanzen (modus felapton). Der
Schluß i. e. Sinn ist eine Definition von „Tier“ durch Negation der Nebenart
„Pflanze“!
Die von Aristoteles als „gültig“ dargestellten und in einem berühmten Merk-
spruch benannten Syllogismen spielen sämlich in diesen Figuren. Jedoch sind
nicht alle echte Syllogismen, da in einigen mittels negativer Definitionen mit
mehr als drei Begriffen „gespielt“ wird.
Die sogenannten stoischen Schlüsse (Chrysipps fünf „Unbeweisbare“ bzw.
„Indemonstrablen“) sind Argumente, in denen zwei Begriffe in einem pyrami-
dalen Zusammenhang gemäß den möglichen junktoriellen Verknüpfungen ein-
geführt („es gibt...“) oder eliminiert werden („es gibt nicht...“). Sie bestehen aus
einem hypothetischen bzw. nicht-behauptenden Anteil (falls es gäbe, ... so gäbe es
auch …), der sprachlich im Konjunktiv formuliert wird, und einem behauptenden
Anteil, den im engeren Sinne sogenannten Schluß (nun gibt es... also gibt es … /
gibt es nicht …).
Der Einführung oder Eliminierung eines Begriffs in den oder aus dem pyrami-
dalen Formalismus entspricht gemäß dem nicht-formalen Logikverständnis der
Stoiker die inhaltliche Behauptung oder Negierung der wirklichen Existenz von
Gegenständen, die unter den jeweiligen Begriff fallen. Die Schlüsse i. e. S.
behaupten daher die Existenz oder die Nichtexistenz des unter den einen Begriff
125

Fallenden in Abhängigkeit von der Existenz oder Nichtexistenz von Gegenstän-


den, die unter den anderen Begriff fallen (sog. modus ponens und modus tollens).
Gemäß der universaldeterministischen Ontologie der Stoiker lassen sich ihre
Schlüsse nur auf die logische Klärung des Verhältnisses von Ursache und
Wirkung bzw. von Wirkung und Ursache beziehen. Das Kausalverhältnis setzt
(worauf Sextus Empirikus besonders hinweist 66 ) stets ein zeitliches Verhältnis
voraus: Die Ursache geht zeitlich voraus, die Wirkung folgt zeitlich nach. Ein
Ursache-Wirkungsverhältnis kann aber, wie vorn gezeigt wurde, nur durch die
korrelierende Implikation zwischen Nebenartbegriffen dargestellt werden. Denn
weder kann die Gattung Ursache für Unterbegriffe noch können Unterbegriffe
Ursache für ihre Gattungen sein. Nur so erklärt sich der Sinn der fünf „unbeweis-
baren“ Schlußformen des Chrysipp. Diese lassen sich so formulieren:

a. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im disku-
tierten Beispielsfall) eine Ursache. Also gibt es (auch) eine Wirkung (modus ponens).

b. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im
diskutierten Beispielsfall) keine Wirkung. Also gibt es (auch) keine Ursache (modus
tollens).

c. Es gäbe nicht (gleichzeitig) eine Ursachen und eine Wirkung. Nun gibt es aber eine
Ursache. Also gibt es (noch) nicht eine Wirkung.

d. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Bei-
spielsfall eine Ursache. Also gibt es (noch) keine Wirkung.

e. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Bei-
spielsfall) keine Wirkung. Also gibt es (erst nur) eine Ursache. 67

Der Orientierung der stoischen Schlußlehre am Ursache-Wirkungszusammenhang


kann man entnehmen, daß diese Schlußformen in der Wissenschaft eine Haupt-
form der logischen Methode zur Entdeckung (oder Widerlegung) der Existenz von
Kausalfaktoren geworden ist.
Beispiel ist die langwährende Debatte der Stoiker über die Existenz des (demo-
kriteischen) Leeren bzw. des leeren Raumes, den sie gegen die aristotelische
Bestreitung („horror vacui“ der Natur) zu beweisen suchten. Sie schlossen von der
Existenz sichtbarer Schweißperlen auf der Haut, daß es auch unsichtbare „Poren“
in der Haut geben müsse, durch welche die Schweißperlen austreten. Das Beispiel
zeigt zugleich, daß die Kausalforschung der Stoiker eine Grundlage für die Suche
nach „unbeobachtbaren Parametern“ (wie den unbeobachtbaren Kräften in der
Physik) geworden ist.

66
Sextus Empiricus, Pyrrhoneische Grundzüge, aus dem Griechischen übersetzt und mit einer Einleitung und Erläute-
rungen versehen von Eugen Pappenheim, Leipzig 1877, 3. Buch Kap. 3,26, S. 170.
67
Vgl. die Darstellung der fünf „Unbeweisbaren“ bei J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg-München 1970,
S. 145f.
126

Die sogenannte Aussagenlogik

Die moderne Aussagenlogik steht zwischen der traditionellen Urteilslehre und der
Schlußlehre. Es werden beliebige inhaltliche Urteile („Aussagen“ bzw. sog. Ele-
mentarsätze als Beispielsfälle) in die Begriffspositionen eingesetzt, so daß die
Junktoren nicht mehr Begriffe, sondern selbständige wahre oder falsche Urteile zu
komplexen Aussagen verknüpfen. Diese komplexen Aussagen ähneln den Ver-
knüpfungen von Urteilen zu Schlüssen.
Für die komplexen Aussagen werden je nach den darin verwendeten Junktoren
eigene Wahrheitswerte („wahr“ oder „falsch“; ein dritter Wahrheitswert wird
strikt ausgeschlossen) definiert bzw. festgesetzt. Die vorne satzbildende Junktoren
genannten Operatoren behalten ihre traditionellen (von den Stoikern detaillierter
als bei Aristoteles ausgearbeiteten) Definitionen.
Die ausdrucksbildend genannten Junktoren erhalten in der Aussagenlogik eben-
falls Wahrheitswert-Definitionen, deren Sinn rätselhaft erscheint und deshalb um-
stritten ist. Dies kann nicht verwundern, weil sie gar keinen Wahrheitswert besit-
zen können. Die für die Definitionen aller Junktoren aufgestellte „Wahrheits-
werttabelle“ 68 gilt als bedeutende Errungenschaft der modernen Logik. Obwohl
sich Wittgenstein selbst später vom damaligen Stand seiner Philosophie distanziert
hat, gehört der „Tractatus“ noch immer zum obligatorischen Lehrstoff der Logik-
seminare.
Die Aussagenlogik beruht auf zahlreichen fehlerhaften Annahmen, die mehr
Probleme in der Logik aufgeworfen als gelöst haben.
Die grundlegende (falsche) Voraussetzung ist das Vorurteil, die Logik insgesamt
sei eine Meta-Sprache. D. h. ihr „Vokabular“ (Variable und Junktoren) und ihre
„Grammatik“ (die Regeln der Verknüpfung der Vokabeln und Junktoren zu „Aus-
sagen“) erzeuge eine autonome logische Bedeutungsschicht mit eigenständiger
Wahrheit und/oder Falschheit über dem Bedeutungsbereich der normalen und der
inhaltlichen wissenschaftlichen Bildungssprachen, die jeweils ihre eigenen Wahr-
heitswerte besitzen. Das hat vielfach widersprüchliche oder gar paradoxe Folgen.
Sie bestehen darin, daß die definierten Wahrheitswerte der Meta-Sprache selbst in
Widerspruch zu den Wahrheitswerten der Beispielsätze geraten.
Wittgenstein hat selbst den Terminus „Elementarsatz“ eingeführt, aber niemals
ein Beispiel für einen Elementarsatz geliefert. Aus seiner Definition: „Der Ele-
mentarsatz besteht aus Namen. Er ist ein Zusammenhang, eine Verkettung, von
Namen“ (Tractatus 4.22) kann man aber schließen, daß er mathematische Aus-
drücke wie Summen, Quotienten, Produkte und ihre „Verkettungen“ für wahr-
heitswertfähige Behauptungssätze hielt. Das ist jedoch, wie gezeigt wurde, falsch.

68
Vgl. L. Wittgenstein im Tractatus logico-philosophicus. 1920/21 Satz 5.101, in: L. Wittgenstein, Tractatus logico-
philosophicus. Logisch-philosophische Abhandlung, Frankfurt a. M. 1963, S. 60. – Vgl. dazu die Darstellungen bei J. M.
Bochenski und A. Menne, Grundriß der Logistik, 4. Aufl. Paderborn 1973, S. 36f. sowie W. Stegmüller, Probleme und
Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band I: Wissenschaftliche Erklärung und Begründung,
Berlin-Heidelberg-New York 1969, S. 6 - 25.
127

Eine weitere (falsche) Voraussetzung Wittgensteins besteht darin, daß die in der
Aussagenlogik verknüpften „Elementarsätze“ (Basissätze) keinerlei thematischen
Kontext zu besitzen brauchen. Was Aristoteles durch den „Mittelbegriff“ als Zu-
sammenhang zwischen Prämissen und Folge garantiert hatte, ist also fallenge-
lassen worden. Das aber hat u. a. zur Folge, daß auch die Abfolge von Vorder-
und Hintersätzen (bzw. von Prämissen und Folgerungen) willkürlich gewählt
werden kann.
So lehrt die Aussagenlogik, die gewöhnlich beliebige Behauptungssätze als
Elementarsätze verwendet, z. B. folgende metasprachliche „Wahrheiten“: Werden
ein beliebiger wahrer und ein ebenfalls beliebiger falscher Satz durch den Junktor
„und“ zu einem aussagenlogischen Argument verknüpft, so hat das Argument ins-
gesamt den Wahrheitswert „falsch“. Werden ein beliebiger wahrer Satz und ein
beliebiger falscher Satz durch den Junktor „oder“ (hier ist das ausschließende
„entweder ... oder“, die Alternative, gemeint) zu einem Argument verknüft, so hat
das Argument den Wahrheitswert „wahr“. Wird ein beliebiger falscher Satz und
ein beliebiger wahrer Satz durch den Junktor „wenn ... dann“ (Implikation) zu
einem Argument verknüpft, so hat das Argument den Wahrheitswert „wahr“.
Wird in umgekehrter Reihenfolge ein beliebiger wahrer und ein beliebiger
falscher Satz durch den Implikationsjunktor zu einem Argument verknüpft, so hat
das Argument den Wahrheitswert „falsch“. Und werden zwei beliebige falsche
Satze durch den Implikationsjunktor zu einem Argument verknüpft, so hat das
Argument den Wahrheitswert „wahr“.
Die Formen dieser Argumentbildungen erscheinen nur deshalb in einigen Hin-
sichten als plausibel, weil sie die Urteilsbildung der klassischen Logik nach-
ahmen. Aber der Schein trügt.
Es wurde vorn schon gezeigt, daß in der klassischen Urteilslehre ausdrucks-
bildende Junktoren ohne Wahrheitswert und satzbildende Junktoren, die den
Wahrheitswert bestimmen, zu unterscheiden sind. Gerade diese grundlegende
Unterscheidung wird in der Aussagenlogik außer acht gelassen. Nimmt man die
Voraussetzungen der Aussagenlogik beim Wort, so muß man z. B. ganze Bücher
voller falscher Sätze mit einer daraus gefolgerten falschen These für „wahr“ hal-
ten. Und das kommt in den Wissenschaften nicht selten vor (und wird durch die
Aussagenlogik gleichsam abgesegnet). Der entscheidende Fehler, der viele andere
nach sich zieht, ist also der, den ausdrucksbildenden Junktoren bzw. Operatoren
generell und speziell auf der Meta-Ebene Wahrheitswerte zuzusprechen.
Geben wir noch einige Beispiele dieses Fehlers, die sich aus dem Meta-
Ebenenansatz ergeben. So muß z. B. eine „alternative“ Verknüpfung zweier belie-
biger wahrer Sätze (mit „entweder ... oder“) wie „entweder ist Paris die Hauptstadt
von Frankreich oder die Erde ist ein Planet“ für falsch gehalten werden. Man
bemerkt aber, daß es sich nicht um eine falsche, sondern überhaupt nicht um eine
Alternative handelt.
Ebenso gilt die Konjunktion (mit „und“) eines falschen und eines wahren Satzes
wie „Paris ist die Hauptstadt von Deutschland und die Erde ist ein Planet“ (ebenso
128

in umgekehrter Reihenfolge) als falsch. Zu verstehen dabei ist allenfalls, daß die
Konjunktion nach dem Muster der Widerspruchsfalschheit für falsch gehalten
wird, obwohl es sich keineswegs um einen echten Widerspruch handelt. Es
handelt sich vielmehr um eine bloße Nebeneinanderstellung eines selbständigen
wahren und eines falschen Satzes. Man sieht dabei nicht ein, warum die beiden
Sätze noch einen übergeordneten Meta-Wahrheitswert haben sollten.
Formalisiert man die Beispielsätze selbst (üblicherweise mit den Variablen für
ganze Behauptungssätze „p“ (= wahrer Satz) und „-p“ (falscher Satz), so verkennt
der gesamte Meta-Sprachenansatz und mit ihm die Aussagenlogik, daß durch
diese Formalisierung (p bzw. –p) der inhaltliche Beispielsatz seine eigene wahre
oder falsche Satz-Bedeutung verliert und ein nicht wahrheitswertfähiger Ausdruck
an seine Stelle tritt. „Wahrer Satz“ bzw. „falscher Satz“ sind nicht selbst wahre
oder falsche Behauptungen, sondern Bezeichnungen eines (logischen) Sach-
verhaltes. Dies ebenso wie die nebeneinandergestellten Ausdrücke „weiße Kuh
und schwarze Kuh“.
Die Aussagenlogik ist entwickelt worden, um komplexe Satzverknüpfungen als
Argumente formalisieren zu können. Tatsächlich lassen sich die behauptenden
komplexen Urteile (also solche mit satzbildenden Junktoren) in der Regel auf
syllogistische und stoische Schlußformen zurückführen. Als Hauptjunktor ver-
wendet man dann die Implikation (wenn ... dann) und interpretiert die damit
verknüpften Aussagen nach der scholastischen Faustregel: „Ex falso seqitur quod-
libet“ (Aus dem Falschen folgt Beliebiges, d. h. Wahres und Falsches) und „Ve-
rum sequitur ex quolibet“ (Wahres folgt aus Beliebigem, d. h. aus Wahrem und
aus Falschem).
Diese Faustregeln, die aus der scholastischen Syllogistik in die Aussagenlogik
übernommen worden sind, machen aber nur Sinn, wenn das „Beliebige“ als Wi-
derspruchsfalschheit (also als wahr und falsch zugleich) verstanden wird. Nur
wenn ein widersprüchliches Urteil wahr und falsch zugleich ist, kann sowohl
Wahres als auch Falsches daraus gefolgert werden. Und ebenso folgt das Wahre
nur dann aus Beliebigem, wenn das „Beliebige“ ebenfalls als widersprüchliches
Urteil sowohl wahr als auch falsch zugleich ist und damit das Wahre mitenthält.
Diese – eigentlich auf der Hand liegende – restriktive Bedingung für das Funk-
tionieren solcher Schlüsse hat aber weder die scholastische Logik noch die Aus-
sagenlogik anerkannt. Als logisches „Falsum“ wurden und werden einfach falsche
Beispielsätze (anstatt widersprüchliche Sätze) in die Faustregel-Schemata einge-
setzt, und man wundert sich dann oft über die Schlußfolgen.
Dieser traditionelle Fehler verbindet sich schließlich mit dem durch die Aus-
sagenlogik neu eingeführten weiteren Fehler, den wir schon genannt haben. Er
macht sich auch in den gerade genannten Beispielssätzen bemerkbar. Er besteht
darin, daß bei der Formalisierung der Argumente auf jeden begrifflichen Zusam-
menhang zwischen den Argumentsätzen verzichtet wird. Dieser „kontextuelle“
Zusammenhang bleibt jedoch für jede Schlußbildung eine wesentliche Bedingung.
In der Aussagenlogik wird aber aus beliebigen Sätzen und Ausdrücken und ihren
129

Verknüpfungsweisen durch die Junktoren auf die Wahrheit oder Falschheit des
Gesamtarguments geschlossen. Deshalb kann man auch nur aus der Aussagen-
logik (nicht aber aus einem aristotelischen Syllogismus) den „wahren Schluß“
lernen: „Wenn 4 eine Primzahl und Berlin die Hauptstadt von Frankreich ist, dann
ist die Erde kein Planet“. Pfiffige Geister können daraus den moralischen Schluß
ziehen: Glaubwürdigkeit ergibt sich auch durch konsequentes Lügen.
Die von L. Wittgenstein vorgeschlagene Wahrheitswerttabelle von 16 Wahr-
heitswerten für die Kombination zweier Elementarsätze hat seither durch ihren
mathematischen Charakter der Variation aller möglichen Nebeneinanderstellun-
gen zweier Elementarsätze mit ihnen zugelegten Wahrheitswerten fasziniert. Sie
dürfte der bislang letzte Ausläufer der Lullischen Kunst sein, die darin bestand,
alle Kombinationen von 9 Kategorien mechanisch zu erzeugen.69
Nach allem, was vorn über die logische Leistungsfähigkeit der Junktoren gesagt
wurde, dürfte klar sein, daß die Wahrheitswertdefinitionen der Aussagenlogik sich
insgesamt dem mathematischen „dialektischen“ Prozedere verdanken.
Daher wird z. B. die Kopula, sicher der wichtigste, weil in der Logik meistge-
brauchte Junktor, überhaupt nicht definiert, sondern mit dem Gleichheitszeichen
und dem Existenzjunktor gleichgesetzt (Tractatus 3.323). Die vieldiskutierte
„Tautotologie“ mit dem Wahrheitswert „immer wahr“, mit der Wittgenstein gar
das Wesen der Logik erfaßt haben wollte, besteht in einer (nicht wahrheits-
wertfähigen) Konjunktion zweier (widersprüchlicher) Selbstimplikationen („Wenn
p, so p; und wenn q so q“).70 (Die „Kontradiktion“ mit dem Wahrheitswert „im-
mer falsch“, wird gleichsam spiegelbildlich als Konjunktion zweier wider-
sprüchlicher Satzvariablen dargestellt („p und nicht p; und q und nicht q“). Es sei
dem Leser überlassen, sich über den Unterschied der logischen und mathema-
tischen Denkweise anhand solcher Belege weiter klar zu werden.

8. Theorie
Theorien sind logisch geordnete Begriffspyramiden über einem abgegrenzten Er-
fahrungsbereich. Basisbegriffe einer Theorie sind unterste Artbegriffe bzw. Be-
schreibungstermini oder Eigennamen. Alle anderen Begriffe sind induktiv durch
Weglassen der spezifischen Differenzen und Festhalten der gemeinsamen generi-
schen Merkmale aus diesen zu abstrahieren. Das gilt insbesondere für die höch-
sten Gattungsbegriffe, die sogenannten axiomatischen Grundbegriffe oder Kate-
gorien der Theorie.
Beachtet man nur die Begriffe einer Theorie, ohne auf die Relationen zwischen
ihren Begriffspositionen Rücksicht zu nehmen, so hat man es mit dem zu tun, was
man als den „harten Kern“ (hard core) einer Theorie bezeichnen kann. Über diese
Begriffe zu verfügen, nennt man wissenschaftliche Kenntnisse. Erst die Notierung

69
Vgl. dazu L. Geldsetzer, Metaphysik. Einleitung und Geschichte der antiken und mittelalterlichen Metaphysik. Internet
des Philosophischen Instituts der HHU Duesseldorf 2009.
70
Vgl. jedoch dazu Tractatus 4.243: „Ausdrücke wie ‚a = a‟, oder von diesen abgeleitete, sind weder Elementarsätze,
noch sonst sinnvolle Zeichen“!
130

und Lesung der satzbildenden junktoriellen Beziehungen zwischen den Begriffen


einer Theorie liefert ihre Behauptungen, die man wissenschaftliche Erkenntnisse
nennt.
Bei Theorien kann es vorkommen, daß nur einzelne ihrer Sätze falsch oder
wahr-falsch sind. Man kann diese, wenn sie erkannt werden, aus der Theorie
durch Umordnung ihrer Begriffspositionen eliminieren.
In der üblichen Praxis und unter der Voraussetzung, daß Satzwidersprüche
„logisch falsch“ seien, hält man eine Theorie jedoch insgesamt für falsch und
widerlegt, wenn sich nur ein oder nur einige Widersprüche darin finden. Da diese
sich aber durch Umstrukturierung ihres pyramidalen Zusammenhanges elimi-
nieren lassen, kann man vorhandene Theorien verbessern. Das erklärt die ebenso
übliche Praxis, bewährte Theorien nicht aufzugeben (was K. Popper jedoch
empfahl), sondern sie zu „retten“ und der Erfahrungslage anzupassen.
Induktiv gewonnene Theorien sind in der Regel widerspruchslos und werden,
wenn dies (evtl. durch Deduktion aller involvierten Begriffe) bestätigt wird, als
wahr akzeptiert. Man muß freilich betonen, daß es tatsächlich wahre Theorien gibt
angesichts der unter Wissenschaftlern verbreiteten Meinung, Theorien könnten
allenfalls wahrscheinlich sein. Letzteres würde nach den hier vorgestellten logi-
schen Prinzipien nur bedeuten, daß sie Widersprüche enthalten.
Viele Theorien werden allerdings rein deduktiv entwickelt. Sie sind in der Regel
anfällig für die absichtliche oder unbemerkte Einführung widersprüchlicher
Begriffe. Die Verknüpfung solcher widersprüchlicher Begriffe liefert dann auch
widersprüchliche Aussagen bzw. Theoreme dieser Theorien.
Alle Theoriebegriffe müssen definierbar sein, wie bei der Induktion gezeigt
wurde. Allerdings geht man in der Logik wie in der Mathematik seit Aristoteles
ganz allgemein davon aus, daß die obersten Gattungsbegriffe (axiomatische
Grundbegriffe) nicht definierbar seien. Wir sagten vorne schon: wenn dies so
wäre, würde es sich dabei nicht um Begriffe handeln. Und in der Tat werden sie
auch durch „Intuitionen“ eingeführt, die keinen Anspruch darauf machen, als
Begriffe akzeptiert zu werden. Das hält die üblichen Theorien gewissermaßen
lebendig und jeweils offen für vielfältige Interpretationen.
Als Beispiele für eine induktiv konstruierte Theorie in Form einer Begriffs-
pyramide sei hier zunächst eine formale und zugleich semiformale Darstellung der
Hauptgedanken der „Phänomenologie des Geistes“ von Hegel vorgestellt. Semi-
formal heißt: anstelle der Intensionen-Variablen sind die inhaltlichen Begriffe
Hegels in die Begriffspositionen eingetragen.
131

Die „Theorie“ der Hegelschen „Phänomenologie des Geistes

A
Erinnerung
absoluter Geist
Vern. Wissen

ABC
Schaffen
AB Taten AC
Selbstbewußt Institutionen
sein,Person Normen

ABDE
Handeln
ABD Begierde ABE ACP ACQ
unglückl. Be- freies Herren- Sitte Recht
wußtsein Bewußtsein

ABDFG
Begreifen
ABDF Begriff ABDG ABEN ABEO
Totes Äuße- Inneres Leben "stoisches" "sekptisches"
res, Sinne Verstand Bewußtsein Bewußtsein

ABDFHI
Wahrnehmung ABDGLM
ABDFH Täuschung ABDFI ABDGL Erklärung ABDDGM
Allgemeines Einzelnes, Kraft Gesetz
Dieses, sagen Meinen

ABDFHJK
ABDFHJ Erfahrung ABDFHK
Ding, Objekt Ich, Subjekt

Erläuterung: Hegel beginnt mit der Induktion der „Erfahrung“, in welcher die
beiden sich dihäretisch gegenüberstehenden Instanzen Objekt und Subjekt bzw.
Ding und Ich zu einem dialektischen Begriff verschmolzen sind. „Erfahrung“
enthält die spezifischen Merkmale des Objektiven (…J) und Subjektiven (…K)
gemeinsam. Werden diese weggelassen, so wird der Begriff des „Allgemeinen“
bzw. des als „Dieses … Sagbare“ als Oberbegriff der beiden Ausgangsbegriffe
erreicht. Dem „Allgemeinen“ (…H) steht im Negationsverhältnis gegenüber der
Begriff des „Einzelnen“ (…I) bzw. des nur „Meinbaren“. Allgemeines und Be-
sonderes bzw. das Sag- und Meinbare werden zum dialektischen Begriff dessen,
was zugleich „Wahrnehmung” und „Täuschung“ ist, verschmolzen. Wird von den
gemeinsamen spezifischen Differenzen (…HI) abgesehen („aufheben 1“), gewinnt
man den höheren Begriff des durch die „Sinne wahrgenommenen Äußeren” und
„Toten“ („aufheben 2“). Diesem steht im Negationsverhältnis gegenüber das
durch den „Verstand zu erfassende innere Leben“. Usw. bis zur letzten Induktion
des „absoluten Geistes“ mit seinen „Er-Innerungen“ des gesamten Induktions-
prozesses.
Man bemerke, daß Hegel nicht alle Begriffe als „dialektische“ konstruiert,
sondern daß er dialektische Begriffe als eine Stufe der Begriffsinduktion ein-
schaltet. Gelegentlich deduziert er aus der erreichten Stufe weitere Begriffe, wie
sie auf der rechten Seite des Schemas erscheinen.
132

Als Beispiel für eine deduktiv konstruierte Theorie sei eine semiformale Pyramide
der Zahlbegriffe vorgestellt.

Semiformale Dartellung einer logisch begründeten Zahlentheorie

Logische
Quantifikation

Zahlbegriff
Menge Logisches
Logisches
Alle = Ganzes
Ein = Element

Buchstabenzahl
Kommensurable Inkommensurable
Variable, Konstante
rationale Zahl komplexe Zahl

Null Non-standard-
Zahl

Positive Zahl Negative


Neg. number
Zahl Irrationalzahl Imaginäre Zahl
ganze Zahl and
Integer und z.B.period.Bruchzahl Wurzel aus negativer
rationale Bruchzahl irrationale Wurzel Zahl
ra-
tional fractals

rationale ganze Zahl


Bruchzahl „natürliche“ Zahl

ungerade Zahl gerade Zahl


nicht halbierbar halbierbar

nmber
nmber
Primzahl Nicht-Primzahl
nur durch sich nicht nur durch
selbst teilbar sich selbst teilbar

Erläuterung: Es handelt sich um den Vorschlag einer logisch begründeten De-


duktion des allgemeinen Zahlbegriffs (Menge) und der hauptsächlichen Zahlarten
und Unterarten. Er unterscheidet sich als „logische Deduktion“ ersichtlich von
allen bisher vorgeschlagenen mathematischen Zahldefinitionen. Die Pyramide
stellt bei Lesung der Verknüpfungen zwischen den Begriffspositionen eine Zahl-
theorie dar.
133

Die in die Elipsen eingezeichneten Begriffe sind logische Quantifikationsbegriffe.


Aus den Begriffen „Eines“ (Element) und „Alles“ (Gesamt) wird der mathe-
matische Grundbegriff „Zahl“ (logisch „Menge“ genannt) fusioniert, der beide
logische Merkmale zugleich enthält. Von diesem dialektischen Zahlbegriff ist der
nichtwidersprüchliche logische Quantifikator „Einige“ zu unterscheiden, der die
mittlere Position in der multiplen Artenreihe „ein, einige, alle“ einnimmt und
deswegen die sich widersprechenden Merkmale des mathematischen Zahlbegriffs
nicht enthält. Alle spezielleren Zahlbegriffe enthalten die widersprüchlichen
Merkmale des Mengen- bzw. Zahlbegriffs als generische Merkmale und sind
deswegen in Rechtecke eingeschrieben. Aus den dihäretisch deduzierten Neben-
arten von Zahlen lassen wiederum fusionierte dialektische Zahlbegriffe induzie-
ren, die die spezifischen Differenzen der beiden Nebenarten gemeinsam enthalten,
und deren Extensionen sie gemeinsam umfassen.
Die Deduktion der Primzahlen als „ungerade nur durch sich selbst teilbare“, und
der Nichtprimzahlen als „nicht nur durch sich selbst teilbare ungerade ganze
Zahlen“ ergibt sich aus der – an anderer Stelle ausgeführten – Kritik an der seit
Euklid üblichen Zulassung der 2 und Nichtzulassung der 1 als genuiner Prim-
zahlen.

Corollarium zur Goldbachschen Vermutung:


Die Vermutung von C. Goldbach (1690 – 1764) lautet bekanntlich, daß jede gera-
de Zahl, die größer als 2 ist, durch die Summe zweier Primzahlen dargestellt wer-
den könne. Die Vermutung kann ersichtlich wegen der üblichen Primzahldefini-
tion nicht entschieden werden.
Die Zulassung der 1 als Primzahl sollte eigentlich selbstverständlich sein. Denn
sie erfüllt die traditionelle euklidische Definition der Primzahlen als „nur durch
sich selbst und die 1 teilbare (natürliche ganze) Zahl“, wie auch Henry Lebesgue
annahm. Daß die 1 als Primzahl zugelassen wird, ist für die Lösung des Problems
ausschlaggebend.
Ob die 2 als Primzahlen zugelassen wird oder nicht, spielt für die Goldbachsche
Vermutung jedoch keine Rolle. Wohl aber, daß die 1 eine ungerade und die 2 eine
gerade Zahl ist. Das Kriterium für eine Lösung liegt in den Primzahlzwillingen
(also Primzahlabständen der Größe 2). Nur mit der 1 als Summand läßt sich zur
Bildung jeder geraden Zahl, die größer als 2 ist, der kleinere Primzahlzwilling zur
„Summe zweier Primzahlen“ ergänzen. Q. e. d.

9. Axiome
Axiome als oberste Gattungsbegriffe werden, wie gesagt, in vielen Wissenschaften
als „unableitbare“ Kategorien des jeweiligen Bereiches vorgestellt. Da sie nach
klassischem aristotelischem Definitionsmuster nicht definierbar sind und diese
Meinung sich allgemein durchgesetzt hat, spricht man mit D. Hilbert von ihrer
impliziten Definition, die sich erst im Verlauf von Deduktionen und Interpretatio-
nen aus ihnen herausklären lassen soll.
134

Die definitorische Unbestimmtheit der Kategorien als oberster Gattungen der


wissenschaftlichen Theorien hat seit der Antike den großen Freiraum für Interpre-
tationen dessen geschaffen, was mit ihnen in den jeweiligen Wissenschaften bzw.
Wissenszusammenhängen gemeint sein konnte. Die Fachtermini zur Bezeichnung
der Kategorien konnten sich so über Jahrhunderte konstant erhalten. Die Ausle-
gung ihres Sinnes hat jedoch zu allen Zeiten und bei allen Schulbildungen inner-
halb der Disziplinen eine große Variationsbreite gehabt. Die Technik solcher
Auslegungen führte schon in der Spätantike zur Ausbildung sogenannter dogma-
tischer und zetetischer Hermeneutiken in der alexandrinischen Philologie und von
daher in der Jurisprudenz und Theologie.71
Am deutlichsten hat sich die hermeneutische Methode in der Ausbildung einer
eigenen mathematischen Disziplin „Axiomatik“ zur Geltung gebracht. Ihr Gründer
war David Hilbert. Er reklamierte in einem berühmt gewordenen Dictum „jeden
Gegenstand des wissenschaftlichen Wissens“ in einer ausgereiften Theorie als
„Gegenstand der axiomatischen Methode“ und somit „indirekt als Gegenstand der
Mathematik“.72
Dieser axiomatische Aufbau der Mathematik geht von vornherein davon aus,
daß die axiomatischen Grundbegriffe der Mathematik grundsätzlich nicht definier-
bar seien, sondern daß sich ihr Sinn erst in den Interpretationen offenbare. Kom-
pensatorisch dazu hat die Mathematik jedoch eine Reihe von Kriterien entwickelt,
die zur Auszeichnung und Bestimmung derjenigen „Ideen“ dienen sollen, die sich
als Axiome verwenden lassen. Diese Kriterien lauten bekanntlich: Unabhängigkeit
(von einander), Widerspruchslosigkeit, Vollständigkeit und ggf. Evidenz.
Kriterien sind nun freilich keine Theoriebegriffe. Es handelt sich dabei eher um
Ideale oder „Postulate“, die das Selbstverständnis der Mathematiker über Ziel und
Zweck ihrer Wissenschaft ausdrücken. Man möchte in den vorhandenen mathema-
tischen Theorien diejenigen Begriffe herausfinden, die als „unabhängig“ von ein-
ander nicht deduziert werden können. Man strebt an, daß alles mathematisch De-
monstrierte und Bewiesene widerspruchslos sei. Auch soll alles Mathematische in
der Gestalt von Theorien vorgeführt werde, die ihrer Natur nach einen thema-
tischen Bereich „vollständig“ abdecken. Und das alles soll sogleich auch „ein-
leuchten“ (evident sein) und insofern überzeugen.
Nach allem, was vorn über den pyramidalen Zusammenhang von Begriffen in
Begriffspyramiden von Theorien gesagt wurde, dürfte leicht zu sehen sein, daß
diese sogenannten Kriterien oder vielmehr Ideale für ihre Zwecke untauglich sind
– und sich schon gar nicht dazu eignen, gleichsam als Super-Kategorien behandelt
zu werden.
Denn wenn Axiome unabhängig von einander sein sollen, können sie nicht auf
Widerspruchslosigkeit hin geprüft werden. Wenn sie widerspruchslos sein sollen,

71
Vgl. dazu und zum Folgenden L. Geldsetzer, Art. „Hermeneutik“ in: Handlexikon der Wissenschaftstheorie, hgg. v. H.
Seiffert und G. Radnitzky, München 1989, S. 127 – 138, sowie § 45 im vorliegenden Text.
72
Vgl. D. Hilbert, Axiomatisches Denken, in: Mathematische Annalen 78, 1918, S. 405 – 415, ND in: Gesammelte
Abhandlungen III, Berlin 1935, S. 146 – 156; ND New York 1965.
135

können sie nicht unabhängig von einander sein. Wenn sie vollständig sein sollen,
muß schon der ganze Inhalt der Theorie aus ihnen abgeleitet, begründet und be-
kannt sein. Wenn sie evident sein sollen, müssen ihre Intensionen und Extensionen
bekannt sein, d. h. es geht nicht ohne ihre Definition.
Als oberste Gattungen („axiomatische Grundbegriffe“ oder „Kategorien“) so-
wohl der Logik wie auch der Mathematik gelten seit jeher die Begriffe Identität,
Widerspruch und Drittes. Da sie in Axiomatiken als nicht-definierbar gelten, kann
man sich nicht wundern, daß sie bis heute höchst umstritten, d. h. interpretierbar
geblieben sind. Ihre Problematik dürfte aber nur eine scheinbare sein, denn es läßt
sich zeigen, daß es sich bei der Identität, dem Widerspruch und dem Dritten
keineswegs um Kategorien, sondern um nachrangige Begriffe logischer Theorien
handelt.
Dafür spricht, daß sie bei Erläuterung ihrer logischen und mathematischen Natur
gewöhnlich mit den Begriffen Wahrheit und Falschheit in Verbindung gebracht
werden. Man sagt, die Identität garantiere die Wahrheit, der Widerspruch bringe
die Falschheit zum Ausdruck, und das Dritte liege außerhalb von Wahrheit und
Falschheit.
Diese Meinung wird damit begründet, daß die Identität eine Tautologie sei, bei
der man gewissermaßen keinen Irrtum begehen könne; daß der Widerspruch in der
Form einer Behauptung überhaupt „Nichts“ behaupte (deshalb wird sein Wahr-
heitswert aussagenlogisch mit 0 (Null) = Falschheit bezeichnet); das Dritte aber
liege jenseits der zweiwertigen Logik und werde erst in der neueren dreiwertigen
oder in mehrwertigen Logiken als eigenständiger Wahrheitswerte-Bereich ausge-
spreizt. Dieser Bereich umfasse die sogenannten Wahrscheinlichkeitswerte.
Als die tatsächlichen Axiome der Logik und Mathematik erweisen sich dadurch
die Begriffe von Wahrheit, Falschheit und Wahr-Falschheit.
Wahrheit und Falschheit sind diejenigen obersten Gattungen, in deren Extension
alle logischen und mathematischen Urteile und Schlüsse liegen. Im Umfang des
Wahrheitsbegriffes liegen sämtliche wahren Urteile und Schlüsse; im Umfang des
Falschheitsbegriff liegen alle falschen Urteile und Schlüsse. Die Begriffe von
Wahrheit und Falschheit stehen im Negationsverhältnis zueinander. Dadurch kön-
nen sie auch in Äquivalenzgleichungen definiert werden. Diese lauten: Wahrheit
= Nicht-Falschheit; sowie: Falschheit = Nicht-Wahrheit.
Wahr-Falschheit ist ein kontradiktorischer Begriff, der aus der Verschmelzung
der Begriffe von Wahrheit und Falschheit entsteht. Man erinnere sich, daß die
Extension eines kontradiktorischen Begriffs die Extensionen beider verschmol-
zenen Ausgangsbegriffe umfaßt. In seiner Extension liegen daher alle wahr-fal-
schen sowie Wahrscheinlichkeitsurteile und -Schlüsse, da sie aus wahren und
falschen Urteilen bzw. Schlüssen zusammengesetzt sind. Die Definition lautet
demnach: Wahr-Falschheit = Wahres und Falsches bzw. Nicht-Wahres und
Nicht-Falsches.
Man bemerke, daß Begriffe als logische und mathematische Elemente nicht
unter diese Kategorien von Wahrheit, Falschheit und Wahr-Falschheit fallen.
136

Begriffe können nicht wahr oder falsch oder wahrscheinlich sein. Insbesondere
sind es kontradiktorische und konträre widersprüchliche Begriffe nicht, die man
oft „falsche Begriffe“ nennt. Sie sind allerdings als Prädikatsbegriffe in Urteilen
das Hauptmittel, diese Urteile wahr-falsch zu machen. Im übrigen sind sie, wie
gezeigt wurde, phantastische Vorstellungen mit erheblicher heuristischer und
kreativer Relevanz.
Die Definitionen von Wahrheit, Falschheit und Wahr-Falschheit lassen erken-
nen, daß diese Kategorien nicht „unabhängig“ sondern im Gegenteil abhängig von
einander sind. Daher stellt sich die Frage der Kriterien anders als es die mathe-
matische Axiomatik vorschlägt.
Das Wahrheitskriterium besteht in der logischen Kohärenz (oft auch Konsistenz
genannt) und Komprehensibilität (Umfassendheit) einer Theorie als Urteils-
system. Kohärenz ergibt sich im definitionsgemäßen Gebrauch und entsprechen-
der Lesung der satzbildenden Junktoren in Anwendung auf reguläre Begriffe.
Komprehensibilität bedeutet, daß eine einzelwissenschaftliche Theorie sich in das
Gesamt des jeweiligen Fachwissens einschließlich seiner philosophischen (meta-
physischen und grunddisziplinären) Begründungen kohärent einfügen läßt.
Das Falschheitskriterium bedeutet: logische Inkohärenz bzw. Nicht-Kohärenz.
Diese zeigt sich im definitionswidrigen Gebrauch und entsprechender Lesung der
satzbildenden Junktoren in Anwendung auf reguläre (widerspruchslose) Begriffe.
Bei der Verwendung widersprüchlicher Begriffe in Urteilen ergibt sich die Inko-
härenz durch die falschen Anteile in den wahr-falschen Behauptungen.
Das Kriterium der Wahr-Falschheit ergibt sich aus gleichzeitiger Kohärenz und
Inkohärenz einer Theorie. Diese zeigen sich im definitionsgemäßen Gebrauch und
entsprechender Lesung satzbildender Junktoren in Anwendung auf irreguläre
(kontradiktorische und konträre) Begriffe. Hauptformen sind die widersprüch-
lichen Urteile, insbesondere als Möglichkeitsurteile, Paradoxe und Wahrschein-
lichkeitsurteile.
Bemerken wir auch an dieser Stelle: Es ist ein häufiger, jedoch irreführender
logischer Sprachgebrauch, widersprüchliche Urteile als „unlogisch“ oder gar
„sinnlos“ bzw. “absurd“ zu bezeichnen, und dies im Unterschied zu falschen Ur-
teilen. Denn Urteilswidersprüche gehören ebenso wesentlich zur Logik wie wider-
spruchslose falsche Urteile.
Sind dadurch die logischen und mathematischen begrifflichen Axiome klar und
deutlich als „Kohärenz“ und „Inkohärenz“ definiert, so lassen sich mit ihnen auch
die logischen und mathematischen „axiomatischen Grundsätze“ formulieren: 1.
„Alles Wahre ist kohärent“, 2. „Alles Falsche ist inkoherent“. 3. „Alles Wahr-
Falsche bzw. Wahrscheinliche ist kohärent und inkohärent zugleich“. Diese axio-
matischen Eigenschaften lassen sich im pyramidalen Formalismus sowohl dar-
stellen als auch ablesen.
137

§ 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften

Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter
von Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die
übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als
widersprüchlicher Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung
des Nichts gewordenen Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des
noch nicht seienden Zukünftigen im gegenwärtigen Sein. Die geschichtliche „Realität“ und das
Zukünftige als ontologische Bereiche von Möglichkeiten. Die Konstruktion der Notwendigkeit als
unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs
als Fusion von Wirklichkeit und Möglichkeit

In § 5 wurde bereits auf den Unterschied zwischen der gemeinsamen wirklichen


Lebenswelt des Menschen und den sonderbaren möglichen Welten der Wissen-
schaftler aufmerksam gemacht. Nachdem im Vorangegangen zusätzlich einiges
über die Logik ausgeführt worden ist, kann nunmehr etwas genauer über diese
möglichen Welten gehandelt werden.
Die bereits von Aristoteles konzipierte Modallogik hat zu einer in der ganzen
Logikgeschichte bearbeiteten Formalisierung der Vermutungen bzw. Hypothesen
geführt. Aristoteles hatte seine Modallogik als Theorie der „zukünftigen Mög-
lichkeiten“ (possibilia futura) entwickelt. Mit ihr sollten nicht wahre oder falsche
Behauptungen formalisiert werden, sondern „unentscheidbare“ Vermutungen über
zukünftige Ereignisse, also gerade das, was man im grammatischen Futur oder in
grammatisch-konjunktivischen Sätzen äußert. Aristoteles stellte diese Vermu-
tungen als „Möglichkeitsurteile“ neben die Notwendigkeitsurteile und die Wirk-
lichkeitsurteile.
Unter Notwendigkeitsurteilen konnte man in der aristotelischen Logiktradition
die rein formalen Urteile verstehen, da der logische Formalismus als „zwingende
Notwendigkeit“ aufgefaßt wurde. Inhaltliche bzw. nicht-formalisierte Urteile gal-
ten dann als Wirklichkeitsurteile. Zusammen mit diesen wurden die Vermutungen
als Möglichkeitsurteile i. e. S. dann in der sogenannten Modallogik behandelt.
Gerade dadurch, daß die Modallogik als traditioneller Teil der klassischen Logik
galt und die Möglichkeitsurteile zusammen mit den Notwendigkeitsurteilen (seit
Kant: „apodiktische Urteile“) und den Wirklichkeitsurteilen (seit Kant auch: „as-
sertorische“ bzw. „faktische Urteile“) behandelt wurden, wurden auch die „Mög-
lichkeitsurteile“ (Kant nannte sie „problematische Urteile“) zum Gegenstand
zweiwertiger Wahrheitswertbetrachtungen. Daraus haben sich eine Reihe spe-
zieller Modallogiken und Modalkalküle entwickelt.73 Das hat dahin gewirkt, daß

73
Vgl. dazu neben den im § 5 genannten Arbeiten die Artikel „Modalität“, „Modalkalkül“ und „Modallogik“ von K.
Lorenz in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, Band 2, Mannheim-Wien-Zürich
1984, S. 904 – 906, 906 – 907 und 907 – 911.
138

man den Möglichkeitsbegriff selbst für einen regulären logischen Begriff gehalten
hat.
Leibniz definierte den Möglichkeitsbegriff in Übereinstimmung mit dieser logi-
schen Tradition als „das Widerspruchslose“ bzw. als das, „was eingesehen werden
kann, d. h. was klar eingesehen wird“. 74 Das wird durch Christian Wolff (1679 –
1754) in seiner Definition: das Mögliche ist das, „was keinen Widerspruch in sich
enthält“ 75 gemeine Auffassung der neueren Philosophie.
Kants Transzendentalphilosophie legt ebenfalls diese Möglichkeitsdefinition zu-
grunde. Transzendentalphilosophie verstand sich ausdrücklich als eine Erfor-
schung der „Bedingungen der Möglichkeit von Erkenntnis“, d. h. der begrifflichen
Grundlagen der Erkenntnis. Dabei sollte diese „Ermöglichung“ der wissenschaft-
lichen Erkenntnis (neben den Anschauungsformen der Sinne und den „dialek-
tischen“ Ideen der Vernunft) wesentlich in Grundbegriffen („Kategorien“ bzw.
„konstitutiven“ Grundbegriffen) des Verstandes bestehen, die widerspruchslos
sein sollten.
Die Leibniz-Wolff-Kantische Möglichkeitsdefinition macht jedenfalls verständ-
lich, daß die begrifflichen „Möglichkeiten“ als reguläre (widerspruchslose) Be-
griffe gefaßt werden. Umgekehrt hat es auch dazu geführt, daß Begriffe überhaupt
als „Möglichkeiten“ verstanden werden. Das Mögliche soll sich also wider-
spruchslos denken bzw. vorstellen lassen. Was aber einen Widerspruch enthält,
gilt danach als negierte Möglichkeit, also als „unmöglich“ (daher auch „absurd“
bzw. „sinnlos“). Auch das ist so von der modernen Logik übernommen worden.
Der Möglichkeitsbegriff ist außerhalb der Logik zum Stammbegriff einer Reihe
von Grundbegriffen in den Einzelwissenschaften geworden. Auf das griechische
„dynamis“ und die lateinische Übersetzung „potentia“ gehen der physikalische
Kraftbegriff und die „Potentialität“ sowie die anthropologischen und psycho-
logischen Begriffe „Vermögen“, „Anlage“, „Disposition“ zurück. Von der Medi-
zin bis in die Vulgärsprache sind auch die aristotelischen Begriffe der geschlecht-
lichen „Potenz“ und des Geschlechts-„Akts“ erhalten geblieben.
Die vorgenannten Begriffe von Kräften und Vermögen haben in den betref-
fenden Wissenschaften immer etwas Rätselhaftes behalten. Sie sollen als ange-
nommene Ursachen manifest Wirkliches (bei Aristoteles „energeia“, lateinisch
„actus“, deutsch wörtlich: „Wirklichkeit“), das immer sinnlich wahrnehmbar ist,
aus einem unsichtbaren und theoretisch konstruierten Hintergrund erklären. Physi-
kalische Kräfte werden erst in ihren Wirkungen erfaßt und bemessen, psychische
Vermögen und Anlagen erst, wenn sie sich in manifesten Leistungen darstellen.
Daher hat es auch nicht an Kritikern gefehlt, die z. B. eine Physik ohne Kräfte

74
„Possibile est, quod intelligi potest, id est ... quod clare intelligitur“, in: G,. W. Leibniz Confessio philosophi, 1673, zit.
nach H. Seidl, Art. Möglichkeit, Historisches Wörterbuch der Philosophie, hgg. v. J. Ritter und K. Gründer, Band 6, Basel-
Stuttgart, 1984, Sp. 85.
75
Vgl. H. A. Meissner, Philosophisches Lexikon aus Christian Wolffs Sämtlichen Deutschen Schriften, Bayreuth und Hof
1737, ND hgg. von L. Geldsetzer, Instrumenta Philosophica, Series Lexica III, Düsseldorf 1970, S. 379.
139

(Ernst Mach) oder eine Psychologie ohne Vermögen (J. H. Herbart) gefordert
haben.
Die meisten Physiker und Psychologen fuhren jedoch fort, von den Kräften und
Vermögen so zu reden, wie man vordem von Geistern und Dämonen redete. Diese
bewirken alle physischen und psychischen Prozesse, doch nimmt sie niemand
wahr, und sie zeigen sich niemals in manifesten Erscheinungen. Und so bilden
auch jetzt noch die „potentiellen Kräfte“ und „unentdeckten, unausgeschöpften
und unbewußten Vermögen bzw. Kapazitäten“ (jetzt manchmal auch „Kompe-
tenzen“ genannt) ein wissenschaftstheoretisches Gespensterreich hinter denjeni-
gen physikalischen und psychischen Phänomenen, die aktuell beobachtet werden.
Der traditionelle Glaube in der Philosophie und in den Wissenschaften, daß da,
wo ein Wort eine lange Geschichte aufzuweisen hat und als „Terminus“ in den
Wissenschaften verbreitet ist, auch ein regulärer Begriff zugrunde liegen müsse,
hat den Begriff der „Möglichkeit“ immer davor geschützt, als das erkannt und
durchschaut zu werden, was er ist: nämlich ein widersprüchlicher Begriff (con-
tradictio in terminis). Da widersprüchliche Begriffe bei der Satz- und Urteils-
bildung widersprüchliche Urteile nach sich ziehen können, liegt in solchen Be-
griffen die Grundlage für die „dialektische Logik“, die von der klassischen auf
Nichtwidersprüchlichkeit abzielenden Logik unterschieden werden muß. Die fak-
tische Existenz dieser Dialektik ist auch dort, wo man sie nicht vermutet, offen-
sichtlich.
Nun scheint es besonders die vermeintliche Undefinierbarkeit der höchsten Gat-
tungen gewesen zu sein, die die Logiker und Ontologen seit jeher dem Möglich-
keitsbegriff zugute gehalten haben. Sie verstehen ihn dann als (oberste) Gattung
über den beiden ontologischen Artbegriffen „Sein“ und „Nichts“ bzw. „Wirk-
lichkeit“ und „Unwirklichkeit“. Verwendet man den Möglichkeitsbegriff („das
Mögliche“) als genus proximum über den Begriffen „Sein“ und „Nichts“, so er-
gibt sich die gewiß im Abendland traditionelle Definition von „Sein“ als „Seins-
Möglichkeit“ und von „Nichts“ als „Nicht-Möglichkeit“ bzw. „Unmöglichkeit“.
Vom Sein läßt sich dann als wahr behaupten, daß es nicht Nichts ist; und vom
Nichts, daß es nicht Sein ist.
Trotz der Plausibilität und allgemeinen Verbreitung dieser Definition weist sie
jedoch einen gravierenden logischen Fehler auf, der erst durch die genaue Analyse
der Intensionen und Extensionen des Möglichkeitsbegriffs sichtbar wird.
Wäre „Möglichkeit“ die Gattung über „Sein“ und „Nichts“, dann müßte zur
Bildung des Begriffs der Möglichkeit von den spezifischen Differenzen „Sein“
und „Nichts“ (bzw. „Nichtsein“) abstrahiert werden können. „Möglichkeit“ bliebe
dann nur als gemeinsame Gattung übrig, und „möglich“ müßte als generisches
Merkmal den Artbegriffen „Sein“ und „Nichts“ zukommen. Was zur Folge hätte,
daß alles Seiende und alles Nichtige auch möglich sein müßte. Dieses reine
„Mögliche“ müßte sich in irgend einer Weise denken bzw. vorstellen lassen, und
zwar ohne Verknüpfung mit irgendwelchen Vorstellungen von Sein oder Nichts,
denn davon müßte ja abstrahiert werden. Es verhielte sich nicht anders als
140

beispielsweise beim Begriff des „Lebendigen“, dessen Definition man durch


Abstraktion von den spezifischen Merkmalen der Arten des Lebendigen, nämlich
der „Tiere“ und der „Pflanzen“ erhält.
Der Möglichkeitsbegriff kann jedoch keine Gattung über den Artbegriffen Sein
und Nichts sein. Die Logiker entledigen sich jedoch der Frage nach seinen
Intensionen und Extensionen durch die These von der grundsätzlichen Unde-
finierbarkeit höchster Begriffe, zu denen die „Möglichkeit“ neben „Sein“ und
„Nichts“ traditionellerweise gerechnet wird.
Es wurde schon früher 76 vorgeschlagen, den Möglichkeitsbegriff als wider-
sprüchlichen Begriff zu verstehen. „Möglichkeit“ wird danach nicht durch Ab-
straktion von Sein und Nichts als gemeinsame Gattung beider induziert, wie das
bei regulären Gattungsbegriffen (und somit auch bei höchsten Gattungen bzw.
Kategorien) der Fall ist, sondern durch Verschmelzung der beiden im Nega-
tionsverhältnis zu einander stehenden Begriffe „Sein“ und „Nichts“ zu einem
dritten Begriff. „Möglichkeit“ ist dann als „Sein-Nichts“ oder auch (wegen der
Symmetrie der Verschmelzung) als „Nichts-Sein“ zu definieren. Schon die Tat-
sache, daß solche zusammengesetzten Bezeichnungen in der Philosophie- und
Logikgeschichte bisher nicht aufgetaucht sind, zeigt, daß diese dialektische Be-
griffsverschmelzung im Möglichkeitsbegriff bisher nicht gesehen worden ist.
Intensional bedeutet das, daß der Möglichkeitsbegriff die sich ausschließenden
Intensionen „Sein“ und „Nichts“ zugleich enthält, was eben seine Widersprüch-
lichkeit ausmacht. Daneben aber enthält der Möglichkeitsbegriff kein eigenes
Merkmal, wie es von einer gemeinsamen Gattung über Sein und Nichts zu fordern
wäre. Die Extension des Möglichkeitsbegriffs besteht hier in den vereinigten
beiden Extensionen der Ausgangsbegriffe „Sein“ und „Nichts“.
Das hat aber weitreichende Folgen für das, was man sich bei „Möglichkeit“
vorzustellen und zu denken hat. Es handelt sich nicht um etwas Transzendentes,
was über Sein und Nichts bzw. Wirklichkeit und Nichtwirklichkeit hinausliegen
könnte (wie bei einer Gattung zu fordern wäre), sondern gerade um alles das, was
man zugleich und in gleicher Hinsicht „nichtiges Sein“ und „seiendes Nichts“
nennen könnte. Wer also von Möglichkeiten spricht und sich dabei etwas denkt
bzw. vorstellt, der kann damit in der Regel nur etwas Wirkliches meinen, das er
zugleich für unwirklich hält, oder umgekehrt etwas Unwirkliches, was er zugleich
für wirklich hält.
Bezüglich der „Möglichkeit“ denkt sich freilich jeder Logiker und Wissen-
schaftler irgend etwas, wenn es auch schwer fällt zu sagen, was es ist und wie es
beschaffen sein könnte. Und darum meint man allgemein auch, „Möglichkeit“
müsse etwas anderes sein als ein Widerspruch in sich. Und das soll dann ebenso
von den oben genannten Ableitungsbegriffen (den ebenso dialektischen Art-
begriffen) der Möglichkeit wie Kraft, Vermögen, Anlage gelten. Jeder, der damit
umgeht, stellt sich unter irgend einem Modell bzw. einem Gleichnis etwas dabei

76
Vgl. L. Geldsetzer, Logik, Aalen 1987, S. 94 und S. 98.
141

vor und beruhigt sich damit, im Modell (besser gesagt: in der jeweiligen
Privatmythologie) ließe sich dem Unanschaulichen gewissermaßen als Denkhilfe
etwas Bildhaftes beigesellen.
Was bei diesem widersprüchlichen Begriff gedacht bzw. vorgestellt werden soll
und kann, ist jedoch einerseits das, was als Seiendes oder Existierendes (d. h. als
etwas unter den Begriff „Sein“ Fallendes) wahrgenommen und nur durch die
Wahrnehmung in seiner faktischen Existenz überhaupt bestätigt werden kann.
Andererseits ist es zugleich auch das, was in der Erinnerung an das Wahr-
genommene nach dessen Verschwinden (ein Fall von Nichts!) vorgestellt wird.
Ohne Erinnerung an Vergangenes könnte man darüber nicht als von einem vor-
dem wahrgenommenen Sein oder Wirklichen reden.
Wahrnehmung und Erinnerung sind in aller Regel wohlunterschiedene geistige
Tätigkeiten. Während und solange man etwas wahrnimmt, bemerkt man nicht, daß
man zugleich dieses Wahrgenommene auch erinnert. Es muß aber begleitend
erinnert werden, wenn es als etwas mehr oder weniger Beständiges ausgezeichnet
werden kann. Aristoteles scheint dies mit seiner Substanzdefinition gemeint zu
haben. Sie lautet bekanntlich „to ti en einai“ bzw. „das, was war und (noch) ist“
(wir haben es mit „Ge-Wesen“ übersetzt). Wohl aber bemerkt man an den Erin-
nerungen, daß das, was ihnen als Wahrgenommenes zugunde lag, ins Nichts
abgeglitten ist. Es ist für keine sinnliche Wahrnehmung mehr verfügbar.
David Hume hat die Erinnerungen „schwache Bilder“ und „weniger lebhafte
Wahrnehmungen“ von Sinneseindrücken (faint images und less lively percep-
tions) genannt.77
Als solche schwachen Bilder werden die Erinnerungen gewiß nicht mit den
sinnlichen Wahrnehmungen verwechselt. Für den realistischen Empirismus, wie
ihn Hume vertrat, ist nur das Wahrgenommene in und während der Wahrnehmung
eigentliches Sein. Die „schwachen Bilder“ nach der Wahrnehmung repräsentieren
das ins Nichts Verschwundene. Die erinnerten Bilder sind das Sein dieses Nichts
im Bewußtsein.
Die realistischen Erkenntnistheorien erklären die sinnliche Wahrnehmung be-
kanntlich selbst schon als eine Abbildung eines (an sich unerkennbaren) Objektes,
des „Dinges an sich“ Kants. Sie verkennen den Unterschied zwischen nicht-abbil-
denden Wahrnehmungen und bild-bildenden Erinnerungen und übertragen das
letztere Verhältnis auf das erstere. Idealistische Erkenntnistheorien, wie diejenige
George Berkeleys, betonen jedoch gerade die Identität von sinnlicher Wahrneh-
mung und Gegenstand der Wahrnehmung. Abbildhaftigkeit von Erkenntnissen
ergibt sich für einen wohlverstandenen Idealismus, wie ihn Berkeley vertrat,
77
“By the term impression, then, I mean all our more lively perceptions, when we hear, or see, or feel, or love, or hate, or
desire, or will. And impressions are distinguished from ideas, which are the less lively perceptions, of which we are
conscious, when we reflect on any of those sensations or movements above mentioned”, D. Hume, An Inquiry Concerning
Human Understanding, ed. by. J. McCormack and M. Whiton Calkins, Leipzig 1913, S. 15 / „Unter der Bezeichnung
Eindruck verstehe ich also alle unsere lebhafteren Auffassungen, wenn wir hören, sehen, tasten, lieben, hassen, wünschen
oder wollen. Eindrücke sind von Vorstellungen unterschieden, welche die weniger lebhaften Auffassungen sind, deren wir
uns bewußt werden, wenn wir uns auf eine jener oben erwähnten Wahrnehmungen oder Regungen besinnen“, D. Hume,
Eine Untersuchung über den menschlichen Verstand, 9. Aufl. hgg. von R. Richter, Leipzig o. J. S. 18.
142

ausschließlich und nur durch das Verhältnis der Erinnerungen zu den Wahrneh-
mungen, die sie abbilden.
Die Verschmelzung von Sein und Nichts im Möglichkeitsbegriff hat nun ihre
weiteste Anwendung in den historischen Wissenschaften. Man sollte vorsichtiger-
weise sagen: eigentlich müßte es so sein. Denn der Gegenstand der historischen
Wissenschaften ist nichts anderes als ein ins ontologische Nichts verschwundenes
Sein, das teilweise in mehr oder weniger ausgearbeiteten und geordneten Erinne-
rungen präsent gehalten wird.
Das Vergangene und Gewesene gilt jedermann als etwas, das „nicht mehr“
existiert. Das heißt jedoch ontologisch konsequent: Es ist Nichts bzw. zunichte
geworden. Zugleich hat es ein Sein in der Erinnerung als historisches Geschichts-
bild. Das Objekt der Geschichtsschreibung war und ist diese Identifikation von
Nichts und Sein, die zuerst Heraklit auf den Begriff des „Logos“ zu bringen
versucht hat.
Heraklit hat seinen Logosbegriff (der gewöhnlich, aber fälschlich als Prototyp
eines regulären widerspruchslosen Begriffs interpretiert wird) präzise als die
„Einheit des Entgegengesetzten“ definiert. Seine „Dialektik“ richtete sich gegen
Parmenides, der in seinem berühmten Lehrgedicht den größten Gegensatz von
Sein und Nichts herausgearbeitet hatte. Das Sein hatte Parmenides als nur zu
denkendes ruhendes Eines, das Nichts als vielfältiges und bewegtes sinnlich
Wahrnehmbares erklärt. Und darauf gestützt sollte Wahrheit im Seinsdenken be-
stehen, Falschheit, Irrtum und Täuschung aber in jeder sinnlichen Wahrnehmung.
Heraklit aber zeigte, daß diese Gegensätze ihrerseits als Einheit begreifbar sein
mußten, nämlich als Werden. Und es ist das Werden, das alles Geschichtliche
auszeichnet. Daher sein bekanntes Dictum „Alles fließt“ (panta rhei). Heraklits
„Eines auch Alles“ (Hen kai Pan) sowie zahlreiche weitere Beispiele erweisen die
logische Natur seines „Logos“ als Einheit entsprechender extremer Gegensätze.
Über des Heraklit Logoslehre ist die Philosophie jedoch als zu „tief, dunkel und
unverständlich“ hinweggegangen. Schon die Zeitgenossen haben Heraklit als den
„Dunklen“ ausgegeben.
Es war Platon, der der Wiedererinnerung (Anamnesis) an die angeblich vorge-
burtlich geschauten Ideen einen so wichtigen Platz in der Ideenlehre zusprach. Er
hielt die erinnerten Ideen selber für das eigentliche Sein im Unterschied zu der
Nichtigkeit der wahrgenommenen Phänomene. Und so war es auch Platon, der
dem Vergangenen als erinnerten Ideen diesen besonderen Seinscharakter vindi-
zierte, den man ihm heute noch zuspricht. Denn wenn man das Vergangene noch
immer „historische Realität“ nennt, meint man, daß es wirkliches Sein sei. Aber
mit Heraklit ist daran zu erinnern, daß es sich dabei um eine „nicht-reale Realität“
handelt. Und das ist genau das, was man sich in Erinnerungen (seien sie auch
kollektiv in wissenschaftlicher Arbeit konstruiert) als „historische Möglichkeiten“
vorzustellen hat.
Man sollte freilich hinzufügen, daß die historischen Geschichtsbilder nicht allein
auf den aufgezeichneten Erinnerungen von Zeitzeugen oder späteren Historikern
143

beruhen. Deren Berichte über Fakten und Daten gelten zwar, je älter desto mehr,
als die eigentlichen Quellen des historischen Wissens. Jedoch sind die soge-
nannten Relikte bzw. Überbleibsel als gegenwärtige Quellen von Daten und Fak-
ten, die durch Interpretationen unter steter Bezugnahme auf die vorgenannten
Berichtsquellen gewonnen werden, wesentlich für die Konstruktion der Ge-
schichtsbilder. Für die Epochen der Geschichte vor der Erfindung der Schriften
sind sie als archäologische Funde ersichtlich alleinige Faktenquellen, aus denen
auf ein Sein des Nichtseienden geschlossen wird.
Betonen wir aber sogleich, daß so erarbeitetes historisches Wissen keine hypo-
thetische Spekulation darüber sein kann, „wie es eigentlich gewesen“ ist (Leopold
v. Ranke), sondern daß es direkt „das Historische selbst“ ausmacht. Denn es gibt
kein „reales historisches Sein“, mit dem historisches Wissen konfrontiert und ver-
glichen werden könnte. Man kann das in traditionellen Termini der Geschichts-
wissenschaft auch so ausdrücken: Die sogenannten „res gestae“ (historische Fak-
ten) sind nichts anderes als „historiae“ (aufgezeichnete Erinnerungen), und dies
zusammen mit den Schlußfolgerungen aus der jeweils gegenwärtigen Existenz
von Relikten. Das hatten wohl auch schon die antiken stoischen Juristen im Sinne
mit ihrer noch immer den Juristen geläufigen Maxime: Quod non est in actis non
est in mundo (Was nicht aufgezeichnet ist, das gibt es gar nicht in der Welt).
Bezüglich der vorgeblichen „historischen Realität“ hat sich seit langem die
Vorstellung verfestigt, sie sei das einzige ontologische Fundament gesetzlicher
Notwendigkeiten. Man stellt sich vor, was einmal geschehen ist, kann nicht mehr
verändert werden. Scholastische Philosophen gingen so weit zu behaupten, nicht
einmal der allmächtige Gott könne verändern, was er in der Zeit selbst erschaffen
habe. Dadurch erhielten die historischen Fakten den logischen Charakter von
Notwendigkeiten. Aber die Vorstellung von Notwendigkeiten in der Welt ver-
dankt sich nur dem stoischen Glauben an das Fatum und die Ananke, der sich im
Abendland als Kausaldeterminismus verfestigt hat.
Solange die „Historiographie“ ihren Status als pure Faktenbeschreibung behielt,
blieb sie – wie andere „Graphien“ – auf die Faktensicherung beschränkt. Diese
erschöpfte sich in den „Historien“, die auch in dem deutschen Begriff „die Ge-
schichte“ (oftmals bis ins 19. Jahrhundert) ein grammatischer Plural blieb. Aber
die aristotelische Wissenschaftstheorie verlangte für eigentliche Wissenschaft die
Erklärung der Fakten durch die vier Ursachen. So konnte man erwarten, daß auch
die Historiker immer wieder bestrebt waren, die historischen Fakten und Daten als
manifeste Wirkungen von Ursachen anzusehen und die „verborgenen“, d. h. nicht
als historische Fakten bekannten Ursachen, hypothetisch zu konstruieren. Dabei
waren es stets die aristotelischen (und zugleich stoischen) Wirk- und Zielur-
sachen, die so konstruiert wurden. Das führte einerseits zu spekulativen Hypo-
thesen über die Wirkursachen historischer Fakten, andererseit zu teleologischen
Spekulationen über den Sinn und Zweck der Daten und Fakten. Die Zweck-
ursachen verwiesen im Geschichtsgang jeweils auf jüngere Fakten und Daten,
144

also das, was man ebenfalls in historischen Erinnerungen deren Wirkungs-


geschichte nennt.
Wie in der Naturwissenschaft verfielen jedoch die Zweckursachen in der Neu-
zeit mehr und mehr dem Verdikt theologischer Vorurteile und der Verfälschung
der Tatsachen. So blieben – ebenfalls wie in der Naturwissenschaft – die Wirkur-
sachen allein zur Erklärung historischer Fakten übrig. Es war Leibniz, der dafür
mit seinem logischen Erklärungsprinzip der „rationes sufficientes“ das Leitmotiv
der historischen Erklärungen formulierte und es auf den Begriff der „Entwick-
lung“ bzw. „Evolution“ brachte.
Für die Betrachtung der Geschichte spielt seither der Entwicklungsgedanke eine
primordiale Rolle. Er geht zwar auf den neuplatonischen Emanationsgedanken
zurück, erhielt aber in der Neuzeit eine ganz neue Fassung. Vor allem verschmolz
er fast gänzlich mit dem Fortschrittsgedanken. Man kann sagen, er brachte das die
Neuzeit beherrschende Lebensgefühl geradezu auf den Begriff. Sein Gegenteil,
nämlich Niedergang, Degeneration, Rückschritt wurde auch schon von Leibniz
„Involution“ genannt. Aber weder der Begriff noch eine entsprechende Ge-
schichtsbetrachtung erlangte gleichen Rang und Ansehen wie die „Evolution“ als
Fortschritt. Eigentlich hätte man erwarten können, daß der Begriff „Revolution“
statt „Involution“ für Dekadenztheorien verwendet würde. Aber er war in der
Astronomie schon für die Bezeichnung der Planeten-Kreisläufe vergeben. In der
Renaissance geriet er selbst ins Bedeutungsfeld des Fortschritts- und Evolutions-
begriffs. Revolution wurde – ebenso wie „Reformation“ - mehr und mehr zum
Schlagwort einer bestimmten Art von Entwicklung durch Erneuerung.
Der Entwicklungsgedanke wurde durch Leibniz zu einer der fruchtbarsten dia-
lektischen Kategorien der Geschichtswissenschaft, und dies auf Grund der darauf
angewendeten mathematisch-dialektischen Denkweise. Der Entwicklungsbegriff
verschmilzt nämlich eine aktuelle Wirklichkeit mit dem Nichts der Vergangenheit
zur Einheit. Und dies ist gerade das, was als Möglichkeit verstanden wird. Was
sich entwickelt, hat zu jedem Zeitpunkt seinen aktuellen Zustand. Aber dieser
muß als Resultat bzw. Wirkung der näheren oder ferneren vorangegangenen
Zustände verstanden werden, die als in ihm „aufgehobene“ Ursachen erinnert
werden müssen. Diese schon vergangenen Zustände als Ursachen sind bzw.
existieren „nicht mehr“ und darum überhaupt nicht.
Der dialektische Charakter des Leibnizschen Entwicklungsbegriffs zeigt sich in
den sonderbaren Bestimmungen der „Enkapsis“ bzw. des „Enthaltenseins“ und in
der Verwendung des Möglichkeitsbegriffs bei Leibniz. Die jeweils gegenwärtige
wirkliche Welt ist für Leibniz bekanntlich „die beste aller möglichen Welten“. D.
h. wenn auch wegen der Güte des Schöpfers die „beste“, so doch „mögliche
Welt“. Und was so der geschaffenen „möglich besten“ Welt an Wirklichkeit ab-
geht, das kommt der göttlichen Zentralmonade als höchster Realität zu, die in
Akten der „creatio continua“ ständig die beste aller möglichen Welten „efful-
guriert“ (aus sich „herausblitzt“).
145

Verführt von der vermeintlichen Beobachtung des Leeuwenhoek, der in den


tierischen Samen schon en miniature ausgebildete Gestalten der nächsten Gene-
ration zu sehen glaubte78, schloß Leibniz, daß alle seitherigen und nicht minder
alle künftigen Generationen in dieser Weise schon in den erstgeschaffenen Mona-
den enthalten bzw. „präformiert“ sein müßten – er nannte es „Enkapsis“ (Ein-
geschlossenheit). 79 Und darum sei der Welt-Geschichtsprozeß insgesamt eine
Auswicklung dessen, was so schon von Anfang an in vorbestimmter, „determi-
nierter“ Weise als das große „Verhängnis“ (das stoische Fatum oder die Anangke)
vorgegeben, „präformiert“ und wirklich sei.80
Was so aber für die Geschichte gelten sollte, das verlängerte sich in die Zukunft.
Leibniz betont, daß alle Gegenwart „mit der Zukunft schwanger“ sei. 81 Das konn-
te nur heißen, daß alle künftigen Möglichkeiten in der Gegenwart schon vor-
bestimmt und dadurch – wie der Fötus im Mutterleib - zugleich auch wirklich
seien. Dies ist auch eine dialektische Verschmelzung der sonst gegensätzlichen
Begriffe von Determiniertheit und Freiheit bzw. von Kausalität und Teleologie.
Zugleich aber auch eine Grundlage für ein Verständnis von Entwicklung als
symmetrisches Verhältnis von Herkunft aus dem Nichts der Vergangenheit und
dem Nichts der Zukunft, das im Sein einer jeweils vorfindlichen Gegenwart
verankert ist.
Von den Späteren hat Hegel in seiner Entwicklungstheorie den dialektischen
Grundzug im Entwicklungsbegriff in den Vordergrund gebracht. Und zwar durch
die Verschmelzung der gegensätzlichen Bedeutungen des „Aufhebens“ (sowohl
des Beseitigens als auch des Konservierens) in jeder Entwicklung. Auch dies läßt
sich modal erläutern, wie Hegel es auch getan hat: „Die ungeheure Arbeit der
Weltgeschichte“, die die Späteren sich in der historiographischen Arbeit aneig-
nen, deren „Inhalt (ist) schon die zur Möglichkeit getilgte Wirklichkeit, die be-
zwungene Unmittelbarkeit, die Gestaltung bereits auf ihre Abbreviatur, auf die
einfache Gedankenbestimmung, herabgebracht.“ 82
Die Umgestaltung der vorher weitgehend klassifikatorischen bzw. taxonomi-
schen Botanik und Zoologie zur Entwicklungsbiologie durch Lamarck und Dar-
win hat bis heute den Eindruck hinterlassen, der Entwicklungsgedanke sei
überhaupt eine Errungenschaft der naturwissenschaftlichen Biologie gewesen und
habe sich von dort aus erst in der zweiten Hälfte des 19. Jahrhunderts ausgebreitet.
Tatsächlich setzt jedoch das biologische Evolutionskonzept den Möglichkeits-

78
Vgl. Em. Radl, Geschichte der biologischen Theorien in der Neuzeit, 1. Teil, Leipzig-Berlin 1913, S. 173.
79
„Denn gleichwie sich findet, daß die Blumen wie die Tiere selbst schon in den Samen eine Bildung haben, so sich zwar
durch andere Zufälle etwas verändern kann, so kann man sagen, daß die ganze künftige Welt in der gegenwärtigen stecke“.
G. W. Leibniz, Von dem Verhängnisse, in: Hauptschriften, hgg. von E. Cassirer, Band II; ähnlich in Nouveaux Essays,
Vorwort.
80
„Das Verhängnis besteht darin, daß alles an einander hänget wie eine Kette, und ebenso unfehlbar geschehen wird, ehe
es geschehen, als unfehlbar es geschehen ist, wenn es geschehen ... Und diese Kette besteht in dem Verfolg der Ursachen
und der Wirkungen“. Vom dem Verhängnis, in: Leibniz, Hauptschriften Band II, S. 129f.
81
„Ex rationibus metaphysicis constat praesens esse gravidum futuro“. G. W. Leibniz, Fragment über die apokatastasis
panton, Erstausgabe in: M. Ettlinger, Leibniz als Geschichtsphilosoph, München 1921, S. 30.
82
G. W. Hegel, Phänomenologie des Geistes, hgg. v. J. Hoffmeister, Hamburg 1952, S. 28.
146

begriff in Anwendung auf die Geschichte voraus und hebt einige speziellere
Aspekte seiner Dialektik heraus. Man sollte doch zumindest bemerken, daß die
biologisch-evolutionäre Rede von der „Vererbung“ aus dem Erbrecht und also
historisch-kulturellen Zusammenhängen übernommen wurde. Jedes Erbe ist ja ein
je gegenwärtiges Wirkliches, das Vergangenes und ins Nichts Verschwundene in
sich aufbewahrt. So ist auch nach der Entwicklungslehre jedes Lebewesen
Produkt und Resultat seiner Ahnen und insofern ein Erbe aller vorangegangenen
Generationen.
Im Unterschied zum Erbrecht aber wird in der Biologie die Art und Weise, wie
die Erbschaft von Familien (bzw. biologisch: der Gattungen) und des Individuums
in der Geschichte zustandegekommen und aufgehäuft wurde, mit in den Evo-
lutionsbegriff aufgenommen. Das Individuum wird als Wirklichkeit von Möglich-
keiten verstanden, sowohl seiner vergangenen wie auch seiner zukünftigen. Die
Möglichkeit des Vergangenen wird im Darwinismus zur kausal konstruierten
Genidentität. Die Gene aber sind dabei noch stets die Substanz des geschicht-
lichen Werdens geblieben, die Aristoteles als To ti en einai, als „Ge-Wesen“ defi-
niert hat. Die zukünftigen Möglichkeiten erweisen sich in der „Anpassungs-
fähigkeit“ an die jeweilige Umwelt im Überleben einer je existierenden Gene-
ration und ihrer Individuen (survival of the fittest). Im gegenwärtig wieder-
belebten Lamarckismus jedoch wird das Individuum teleologisch konstruiert: als
Träger erworbener Eigenschaften, Fähigkeiten und „Vermögen“, die sich in einer
hier konstruierten Memidentität (Meme, eigentlich „Mneme“, sind im Gedächtnis
niedergelegte Möglichkeiten) zeigen sollen.
Ersichtlich ist man sich heute beim so selbstverständlichen Gebrauch des Ent-
wicklungsgedankens in den Einzelwissenschaften von der Kosmologie über die
Biologie bis zu den Technik-, Kultur- und Geisteswissenschaften dieser Dialektik
nicht bewußt. Allenfalls sind Spuren in der Definition des Entwicklungsbegriffes
des Begründers der modernen Entwicklungsphilosophie Herbert Spencer auszu-
machen. Er hatte „Evolution“ und zugleich ihr Gegenteil, die „Dissolution“ fol-
gendermaßen definiert: „Evolution in ihrem einfachsten und allgemeinsten Aspekt
ist die Integration der Materie und die Zerstreuung der Bewegung; während
Auflösung Absorption der Bewegung und begleitende Differenzierung der Materie
ist“.83
Die Evolutionsmerkmale Integration und Dissolution (= Differenzierung) klin-
gen vertraut als mathematische Bestimmungen: Integrieren und Differenzieren
gehören zu den komplizierten höheren Rechnungsarten, und sie sind höchst
gegensätzlich. Sie waren dem studierten Ingenieur Spencer wohl vertraut. Indem
er versucht, diese gegensätzlichen Merkmale einerseits auf Materie, andererseits
auf Bewegung zu beziehen, will er ihren dialektischen Charakter verschleiern. Im

83
“Evolution under its simplest and most general aspect is the integration of matter and concomitant dissipation of motion;
while dissolution is the absorption of motion and concomitant desintegration of matter”. Herbert Spencer, First Principles §
97, zitiert nach R. Eisler: Wörterbuch der philosophischen Begriffe, 3. Aufl. Berlin 1910, Band 1 Art. Evolution, S. 356.
147

spencerschen Entwicklungsbegriff wird die „Integration des Differenzierten“ zum


dialektischen Merkmal der „bewegten Materie“.
Anders als bei der „Notwendigkeits-Möglichkeitskonstruktion von Vergangen-
heit verhält es sich mit den schon von Aristoteles zum Ausgangspunkt seiner
Modallogik gemachten „zukünftigen Möglichkeiten“. Ihr Anwendungsbereich
sind vor allem die Gegenstände und Ereignisse, von denen in naturwissenschaft-
lichen und wirtschaftswissenschaftlichen Prognosen und in manchen Hypothesen
die Rede ist. Man nennt das Zukünftige gewöhnlich „noch nicht Seiendes“, d. h.
aber konsequent ontologisch: Es ist ebenfalls Nichts. Und dies im Gegensatz zum
gegenwärtigen Sein der beobachteten und wahrgenommenen Wirklichkeit. Auch
alles Zukünftige wird so zur Möglichkeit, indem es als (noch) nicht Seiendes (=
Nichts) in einer erinnerungs- und beobachtungsgesteuerten realen Antizipation
gedacht, phantasiert, vorgestellt und evtl. prognostiziert, aber auch geplant,
gewünscht oder befohlen wird.
Wem diese ontologische „Vernichtung“ des Vergangenen und Zukünftigen zu-
gunsten einer „Verseinung“ der erinnernden und antizipierend-prognostischen
stets gegenwärtigen „seienden“ Bewußtseinsleistung zu idealistisch (der Patristi-
ker Aurelius Augustinus hat sie bekanntlich schon genauer ausgearbeitet) er-
scheint, der wird gleichwohl am Leitfaden des Möglichkeitsbegriffs denken und
argumentieren. Denn der Realist hält buchstäblich die „historische Realität“, und
ebenso die antizipierten zukünftigen Ereignisse für ontologisches Sein, und er
spricht darüber meist sehr emphatisch als „objektive“ Realitäten. Aber dafür hält
er das Bewußtsein mit seinen Erinnerungen und Antizipationen für etwas onto-
logisch Nichtiges, das er als „subjektiven Faktor“ möglichst aus seinen Überle-
gungen auszuschalten bemüht ist. Wie man sieht, hat er nur die Seins- und Nichts-
begriffe gegenüber dem Idealisten ausgetauscht.
Daß das Nichts als Gegenbegriff zum Sein in der abendländischen Philosophie
bisher nicht Gegenstand solcher logischen Analysen geworden ist, die für die
Klärung des Möglichkeitsbegriffs vorausgesetzt werden müssen, verdankt sich
offensichtlich den stets im Abendland dominierenden Seinstheorien des Parme-
nides, Platons und Aristoteles‟. In ihnen wird das Nichts als Inbegriff aller Falsch-
heiten - das logisch Falsche wird bis heute als „Bedeutung“ aller falschen Behaup-
tungen formalisiert - perhorresziert oder als „Mangel an Sein“ stets vom Sein her
thematisiert.
Als eigenständiges Thema hat der Nichtsbegriff allerdings in der indischen und
chinesischen Philosophie stets große Aufmerksamkeit auf sich gezogen. Von den
Ergebnissen dortiger Gedankenarbeit kann auch die abendländische Philosophie
und Wissenschaftstheorie noch fruchtbare Anregungen übernehmen.
148

§ 11 Die Paradoxien der Wahrscheinlichkeit

Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit
und die mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des
Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmel-
zung des stoischen Universaldeterminismus und des epikureischen Indeterminismus im Wahr-
scheinlichkeitsbegriff. Die Rolle der „docta ignorantia“ beim Umgang mit der Wahrscheinlich-
keit.

Von entsprechender Wichtigkeit wie beim Möglichkeitsbegriff dürfte in der Er-


kenntnistheorie, in der Logik und in der Mathematik eine Analyse des Wahr-
scheinlichkeitsbegriffs sein.
Auf der Verschmelzung von Wahrheit und Falschheit zum Begriff des Wahr-
Falschen beruht eine bestimmte Version des Lügner-Paradoxes (des „Eubulides“).
Man könnte die hier gemeinte Person den „wahrsagenden Lügner“ nennen, weil er
die Wahrheit mittels einer Lüge und zugleich eine Lüge mittels der Wahrheit
behaupten soll. Das hält man gemäß traditionellen Meinungen über die Zwei-
wertigkeit der Logik und die Natur des Widerspruchs für „unmöglich“, „falsch“
und jedenfalls für „wider alle Meinung“ (para doxan).
Ebenso steht es aber mit dem Wahrscheinlichkeitsbegriff. Er ist seiner logi-
schen Konstitution nach ein Beispiel für dieses Dritte Auch er zeigt deswegen
paradoxe Züge, denen wir im folgenden nachgehen wollen.
In einer dreiwertigen Logik, bei der neben Wahrheit und Falschheit ein „Drit-
tes“, nämlich eben die Wahrscheinlichkeit explizit zugelassen wird, kann das
Paradox kein Paradox bleiben. Man hat sich so sehr an die Wahrscheinlichkeit als
Drittes gewöhnt, daß man auch in der begrifflichen widersprüchlichen Verschmel-
zung von Wahrheit und Falschheit zur Wahrscheinlichkeit den Widerspruch nicht
mehr erkennt.
Der wahrsagende Lügner bzw. lügende Wahrsager (man könnte ihn auch einen
„ehrlichen Betrüger“ nennen) ist daher inzwischen eine in vielen Wissenschaften
notorische Person. Es handelt sich um denjenigen Wissenschaftler, der Wahr-
scheinlichkeitsbehauptungen aufstellt.
Das funktioniert jedoch nur in der Wissenschaft. Denn im Alltagsleben stellt
man nur über dasjenige Behauptungen auf, was man sicher weiß. Was man aber
nur glaubt oder gar nur ahnt, darüber spricht man im Alltagsleben im Konjunktiv,
und der ist zum Behaupten nicht geeignet, sondern zum Vermuten gemacht. Wer
statt des Konjunktivs oder in Verbindung damit etwas „wahrscheinlich“ nennt
(„es könnte wahrscheinlich so sein!“), der behauptet es damit nicht, sondern läßt
die Frage offen. Bei diesem Sprachgebrauch hat die „vermutende Wahrschein-
lichkeit“ nichts mehr mit urteilsmäßiger Wahrheit und Falschheit zu tun, auch
nicht mit einer urteilsmäßigen Wahr-Falschheit.
Der erste paradoxale Zug am Wahrscheinlichkeitsbegriff ist also der, daß er von
Aussagen bzw. Behauptungen gelten soll, die gar keine Aussagen bzw. Behaup-
149

tungen sein können. Sie sind Vermutungen im Gewande von Behauptungen. Als
Vermutungen besitzen sie überhaupt keinen Wahrheitswert, d. h. sie sind weder
wahr noch falsch. Als Behauptungen aber besitzen sie einen Wahrheitswert, und
der ist „wahr und falsch zugleich“, was dann als „wahrscheinlich“ bezeichnet
wird.
Ein weiterer paradoxaler Zug am Wahrscheinlichkeitsbegriff liegt in seiner
doppelten Beziehung auf das subjektive Wissen bzw. Glauben einerseits und auf
einen angeblich objektiven Wirklichkeitsbestand andererseits. Nur das erstere
konnte bei seiner Verwendung schon durch die antiken Skeptiker gemeint sein,
und es wird weiterhin in der sogenannten subjektiven Wahrscheinlichkeitstheo-
rie84 beibehalten.
Letzteres, die „objektive Wahrscheinlichkeit“, ist eine Erfindung der neuzeit-
lichen Mathematik, die ihren eigenen Begriffen ein ontologisches Korrelat zu
geben bemüht war. Die Kalkülisierung von „probabilités“ 85 beruhte auf der An-
nahme, daß diese mathematischen „Wahrscheinlichkeiten“ objektive Zustände
seien, die sich durch Messungen, d. h. Anwendung der Arithmetik auf empirische
und besonders physikalische Gegebenheiten, annäherungsweise erfassen ließen.
K. Popper hat solche objektiven Wahrscheinlichkeiten „propensities“ (etwa: Ten-
denzen) genannt.
Messungen sind in aller Regel ungenau und oszillieren um gewisse „Häufig-
keitspunkte“, die man als Grenzwerte „unendlicher“ (d. h. beliebig lange fortsetz-
barer aber nie zuende zu bringender) Meßreihen berechnet. Aus diesen Grenz-
werten ergeben sich dann „idealisierte“ Meßwerte, von denen man annimmt, sie
drückten die Wirklichkeit aus. Es waren und sind noch immer diese genuin
mathematischen Verfahren, die dazu geführt haben, daß so viele Naturwissen-
schaftler davon überzeugt sind, die Wirklichkeit ließe sich überhaupt und
grundsätzlich nur noch in Wahrscheinlichkeitsbegriffen erfassen. Und da Natur-
gesetze grundsätzlich durch quantitative Messungen gewonnen werden, gibt man
in diesem Sinne auch die Naturgesetze nunmehr als Wahrscheinlichkeitsgesetze
aus.
Dies fällt dem mathematischen Logiker und Physiker umso leichter, als er seit
Leibniz (und Nikolaus Cusanus) daran gewöhnt ist, wohlunterschiedene Begriffe
in Kontinua aufzulösen, die an ihren definitorischen Grenzen ineinander über-
gehen. Danach ist etwa der „nichtausgedehnte Punkt“ zugleich eine „minimal
ausgedehnte Fläche“ (in der dann unendlich viele infinitesimale Flächenelemente
enthalten sind). Genau so erscheint dann die Wahrheit zugleich auch als „maxi-
male (100 %ige) Wahrscheinlichkeit, und die „minimale“ (0%ige) Wahrschein-
lichkeit als Falschheit. Darin zeigt sich aber nur ein weiterer paradoxaler Zug am

84
Vertreter sind L. J. Savage, The Foundations of Statistics, New York 1954, 2. Aufl. 1972 sowie B. de Finetti,
Probability, Induction, and Statistics. The Art of Guessing, London-New York 1972.
85
Pioniere dieser Wahrscheinlichkeitstheorie waren Jakob Bernoulli, Ars coniectandi, Basel 1713, ND Brüssel 1968 und
P. S. de Laplace, Théorie analytique des probabilités, Paris 1812, ND Brüssel 1967; dazu auch: Jak. F. Fries, Versuch einer
Kritik der Principien der Wahrscheinlichkeitsrechnung, Braunschweig 1842, auch in Sämtl. Schriften, hgg. von L.
Geldsetzer und G. König, Band 14, Aalen 1974.
150

gängigen mathematischen Wahrscheinlichkeitsbegriff. Für den Logiker aber


bleiben Wahrheit und Falschheit streng von der Wahrscheinlichkeit unterschieden.
Denn er wird ganz logisch behaupten: Wahrscheinlichkeit koinzidiert nicht mit
Wahrheit oder Falschheit.
Die entscheidende Paradoxie im Wahrscheinlichkeitsbegriff ergibt sich aus der
Verschmelzung logischer und mathematischer Vorstellungen in ihm. Die logische
Wahrscheinlichkeit wird nur logisch quantifiziert, die mathematische aber nume-
risch.
So ergibt sich die paradoxale Erscheinung, daß das für wahrscheinlich Ge-
haltene logisch nur entweder vorliegt (ohne daß man es kennt) bzw. daß es in der
Zukunft eintreten soll (was man daher in der Gegenwart auch nicht feststellen
kann), oder daß es nicht vorliegt (oder eintritt). Das mathematisch Wahrschein-
liche aber wird in zahlenmäßiger Quantifizierung als Proportion „günstiger Fälle“
zu „allen möglichen Fälle“ ausgedrückt und dann als Quotient auch ausgerechnet.
Dadurch soll einem komparativen Mehr oder Weniger des Wahrscheinlichen hin-
sichtlich seiner Wahrheitsnähe Rechnung getragen werden.
Die Redeweise von „günstigen Fällen“ stammt aus dem Anwendungsbereich der
Glücks- und Wettspiele, wo der günstige Fall der erhoffte oder gewinnbringende
Ausgang eines Zufallsarrangements (Spiel) ist. Die „möglichen Fälle“ umfassen
den gesamten Risikobereich, der durch die nach den Spiel- oder Wettregeln
zugelassenen Spielzüge und Spielergebnisse beschrieben wird. Man geht also
davon aus, daß „alle möglichen Fälle“ neben den ungünstigen auch die günstigen
Fälle enthalten. Daher werden in der mathematischen Proportion die günstigen
Fälle doppelt angerechnet: einmal im ersten Glied der rein günstigen Fälle, zum
anderen nochmals im zweiten Glied aller Fälle. Das kann logisch gesehen keine
echte Proportion von günstigen zu ungünstigen Fällen darstellen.
Beispielsweise hält man nach mathematischen Vorstellungen die Wahrschein-
lichkeit eines bestimmten Zahlwurfes mit einem fairen Würfel für 1 / 6. In
Prozenten ausgedrückt: 1 / 6 von 100 = 16,666... %. Dies gibt den Wahrschein-
lichkeitswert für einen „günstigen“ Wurf. Wobei die 1 im Zähler des Quotienten
für den (erhofften) günstigen Fall, die 6 im Nenner für die sechs möglichen Fälle
einschließlich des einen günstigen Falles beim Würfelwurf steht.
Logisch aber gilt zugleich, daß jeder günstige Fall nur entweder eintritt oder
nicht eintritt, so oft man auch würfeln mag. Die mathematische Wahrscheinlich-
keit eines prognostizierten Wurfergebnisses kann gar nichts über den jeweils
erhofften günstigen Fall besagen.
Glücksspieler dürften sich daher nicht beklagen, wenn etwa eine erhoffte und für
sie günstige Würfelzahl (die doch nach den Regeln der Wahrscheinlichkeits-
rechnung „durchschnittlich“ einmal pro sechs Würfen erscheinen sollte) bei noch
so vielen Würfen (und „unendlich“ oft kann man nicht würfeln!) überhaupt nicht
erscheint. Sie freuen sich aber, wenn wider alle Erwartung der günstige Fall gleich
beim nächsten Wurf oder gar in Serie eintritt.
151

Der Münzwurf, bei dem es nur zwei gleichwertige Möglichkeiten (Bild und Zahl)
gibt, bietet das Beispiel der logischen Wahrscheinlichkeit. Was wir hier logische
Wahrscheinlichkeit nennen, wird gewöhnlich als „fify-fifty“ bzw. ´ oder 50 %ige
Wahrscheinlichkeit mathematisch quantifiziert. Die numerischen Formulierung
auch der logischen Wahrscheinlichkeit (50 %) erweckt den Anschein, als sei der
mathematische Wahrscheinlichkeitsbegriff der einzig angemessene und schließe
den logischen Wahrscheinlichkeitsbegriff ein. Das führt aber nur dazu, daß die
Paradoxie mathematisch so lautet: Jede nicht 50 %ige Wahrscheinlichkeit (von
0,999... bis 0,000...1) ist zugleich eine 50 %ige. Wie man ja leicht bei jedem
Glücksspiel feststellen kann.
Die Attraktivität, ja der Zauber der mathematischen Wahrscheinlichkeit beruht
auf zweierlei. Einerseits auf dem „statistischen“ Erhebungsverfahren staatlicher
Behörden, mit dem ursprünglich alle Fälle in einem Erfahrungsbereich erhoben
wurden (z. B. die Zahl der Einwohner, der Heiraten und der Geburts- und Sterbe-
fälle in einem bestimmten Zeitintervall in einer bestimmten Region). Das konnte
bei gehöriger Sorgfalt der Erhebung zu wahren Ergebnissen führen und versah
alles „Statistische“ mit dem Renommee der Zuverlässigkeit und der Wahrheit.
Diese Erwartung erhielt sich auch bei der Ausweitung der Anwendung statisti-
scher Verfahren auf repräsentative Stichproben, die mehr oder weniger mit Unge-
nauigkeiten behaftet sind. Diese werden dann ihrerseits mit statistischen Schät-
zungen über den Umfang der Abweichung von Erwartungswerten austariert. Da-
mit aber kam der mathematische Wahrscheinlichkeitsbegriff ins Spiel. Er ließ bei
allen Anwendungen der mathematischen Statistik eine zahlenmäßig abschätzbare
Wahrheitsnähe assoziieren, wie ja schon die Bezeichnung selber nahelegt. Sie ist
bei allen Anwendungen der statistischen Wahrscheinlichkeitsberechnungen bei
Prognosen, insbesondere ökonomischen und spieltheoretischen Risikoabwägun-
gen relevant geworden.
Logisch gesehen aber wird in der Tat mit dem Wahrscheinlichkeitsbegriff zu-
gleich eine jeweils entsprechende Falschheitsnähe angesagt, die man dabei grund-
sätzlich unterschlägt, die aber in dem hier vorgeschlagenen Begriff „Wahr-Falsch-
heit“ sehr deutlich zum Ausdruck kommt.
Im Falle der Glücksspiele sollte sich der würfelnde Glücksspieler klarmachen,
daß – gemäß dem herrschenden mathematischen Wahrscheinlichkeitsbegriff -
seine Hoffnung auf den mit 16,666... % Wahrscheinlichkeit für ihn günstigen Fall
immer zugleich mit einer Restquote von 83,333...% „Falschscheinlichkeit“ beglei-
tet wird. Zugleich kann er aber über das Ergebnis des nächsten Wurfs überhaupt
nichts wissen (sofern der Würfel gut geeicht, d. h. „fair“ und nicht gefälscht ist).
Stellt man aber die Berechnung von Wahrscheinlichkeiten nicht, wie in der
Mathematik üblich geworden, als Proportion von günstigen zu allen möglichen
Fällen (und „alle möglichen Fälle“ erinnern hier an die ursprüngliche statistische
Gesamterhebung „aller“ Daten) dar und rechnet sie zudem als Quotient aus,
sondern beachtet, wie es logisch allein angemessen ist, die Proportion der günsti-
gen zu den ungünstigen Fällen, so ergeben sich auch ganz andere numerische
152

Wahrscheinlichkeitsergebnisse. Beim Würfeln ist die Proportion dann 1 zu 5 und


nicht 1 zu 6. Oder in Prozenten: statt 16,666...% sogar 20 % für den günstigen Fall
und 80 % für den ungünstigen. Diese Formulierung des Wahrscheinlichkeitsquo-
tienten ist in der Mathematik längst vorgeschlagen worden, hat aber keinen
Anklang gefunden.
Bringt man auch noch die oben explizierte logische Wahrscheinlichkeit in
Anschlag, so lautet die Proportion von günstigen zu ungünstigen Fällen sowohl
beim Münzwurf wie beim Würfeln 1 zu 1, also 50 % zu 50%. Die mathema-
tischen Wahrscheinlichkeiten könnten also als 1 / 6, 1 / 5 und 1 / 2 (oder in ent-
sprechender Dezimalform) angegeben werden.
Man sollte meinen, auf Grund dieser Erwägung müßten nun alle Wahrschein-
lichkeitsaussagen und Prognosen korrigiert bzw. umgerechnet werden. Daß dies
aber weder nötig noch zielführend ist, ergibt sich schon daraus, daß die Wahr-
scheinlichkeiten ganz unerheblich für erwartete bzw. prognostizierte Daten sind.
Sie waren und sind eine mit großem mathematischem Apparat vorgeführte „Docta
ignorantia“, in der ein grundsätzliches Nichtwissen als verläßliches Wissen vorge-
täuscht wird.
In dem wissenschaftstheoretisch so prominenten Thema der Wahrscheinlichkeit
treffen noch immer die seit der Antike kontroversen Ansichten der Stoiker und
Epikureer über die Frage zusammen, ob die Gesamtwirklichkeit einer durchgän-
gigen Kausalität unterliege oder ob sie ganz und gar indeterminiert, d. h. „spon-
tan“ und alles in ihr „zufällig“ sei.
Der stoische (kausale) Universaldeterminismus dominierte bis zum Beginn des
20. Jahrhunderts in der Physik. Nämlich bis auf Grund unlösbar scheinender Prob-
leme der Mikrophysik der epikureische Indeterminismus wieder in den Vorder-
grund der Überlegungen trat. Seither sieht die Lage in der Physik, die man
gemeinhin für die entscheidende Einsichtsquelle in die kausal-determinierte oder
indeterminierte Struktur der Wirklichkeit hält, nach einem Waffenstillstand beider
Lager aus. Man sagt, in der Makrophysik herrsche der kausale Determinismus; in
der Mikro- bzw. Quantenphysik aber der Indeterminismus. Die Verbindung zwi-
schen beiden aber stelle die statistische Wahrscheinlichkeitsbetrachtung her.
Nun sind beide Standpunkte ersichtlich Totalisierungen beschränkter Einsichten.
Nämlich daß es viele zuverlässige Erkenntnisse über Kausalitäten in der Natur
gibt, und daß es andererseits viele (vielleicht nur vorläufig) kausal unerklärliche
Erscheinungen in der Natur gibt. Der kausale Determinismus erweist sich so als
eine Hypothese bzw. Vermutung, daß in irgend einer fernen Zukunft alles bisher
kausal Unerklärbare kausal erklärt werden könne. Ihm steht der Indeterminismus
gegenüber als eine Hypothese bzw. Vermutung, daß alles bisher schon kausal
Erklärte sich in irgend einer fernen Zukunft noch tiefergehend als spontane
(chaotische bzw. freie) Selbstorganisation der Natur erklären lasse. Beide Stra-
tegien treiben naturgemäß die Forschung voran und legen die Vorstellungen von
asymptotischen Annäherungsprozessen an die Wahrheit nahe, wie sie K. Popper
propagiert hat.
153

Beide Strategien aber unterschätzen die Bedeutung und die Natur des Nicht-
wissens in der Wissenschaft. Die alte „docta ignorantia“ des Sokrates, des Cusa-
ners und Pascals ist in neueren Zeiten gerade in die Wahrscheinlichkeitsprob-
lematik eingebaut worden. Sie berührt aber darüber hinaus höchste Interessen der
Menschheit, nämlich die Interessen an einer Begründung der Freiheit einerseits,
und der Kalkulierbarkeit der Welt andererseits. Soll Freiheit mehr sein als Abwe-
senheit von sozialen Zwängen, so fällt sie überall mit dem Bereich des Nichtwis-
sens zusammen. Und soll Notwendigkeit mehr sein als ein dringendes Bedürfnis,
so fällt sie mit dem Bereich der erkannten Kausalitäten zusammen.

§ 12 Die Rolle der Modelle und der Simulation in den Wissenschaften

Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und
Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unan-
schaulichem Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buch-
staben als Modelle der Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allge-
meine Charakteristik der Modelle. Geometrie als Veranschaulichung der arithmetischen Struktu-
ren von Zahl und Rechnung. Die Rolle der geometrisierenden Veranschaulichung der Natur-
objekte in der Physik. Der Modelltransfer und seine Rolle bei der Entwicklung der physikalischen
Disziplinen. Die Mathematisierung von Chemie, Biologie und einiger Kulturwissenschaften. Die
Parallele der Entwicklung von formalisierter Mathematik und formaler Logik und die Frage von
Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer Axiomatik und
Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen
Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von
Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die
Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen.
Die KI-Forschung („Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer
und Intelligenz. Weitere Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-
Simulation

In jeder Kultur greift der Mensch in die Dinge und Sachverhalte ein, verändert
ihre Konstellationen und erzeugt neue Gegenstände. Die Wörter als artikulierte
Lautkonstellationen in den Gemeinsprachen gehören selbst schon zu solchen
„künstlichen“ Gegenständen. Aber ein großer Teil der künstlichen Dinge ahmt die
natürlichen Dinge nach und stellt Abbilder von ihnen dar. Auch die Lautnach-
ahmungen vieler Wörter (wie das berühmte „Wau-wau“) verdanken sich dieser
primitiven Kulturtätigkeit. Erst recht aber auch die verkleinerten oder vergrößer-
ten Bildwerke, die schon in den ältesten archäologischen Funden zutage getreten
sind. Es muß schon ein gewaltiger Schritt in der Kulturgeschichte gewesen sein,
als diese Abbilder von räumlichen Gegenständen zu Bildern wurden, d. h. in
154

flächige Figuren überführt wurden, wie sie in den Fels- und Höhlenzeichnungen,
die vermutlich bis zu 40 000 Jahre alt sind, gefunden wurden.
Die Repräsentationen der natürlichen Dinge durch körperliche und flächige
Abbilder machte die Dinge verfügbar für den zivilisatorischen Umgang mit ihnen.
Spiel, Belehrung, Kult, Erinnerungskultur, Handel, Thesaurierung und vieles
mehr beruhte auf dieser Verfügbarkeit. In ihrem Gebrauch wurden sie zu Zeichen
für das, was sie abbilden. Am deutlichsten sieht man es noch in den chinesischen
(„ikonischen“) Schriftzeichen, die als stilisierte Abbildungen von Dingen und
Sachverhalten entwickelt wurden. Derjenige verstand die Zeichen, der sie mit
ihren Vor- oder Urbildern, den Gegenständen selbst, vergleichen konnte.
Aber mit zunehmender Komplexheit der Zivilisationen und Kulturen wurden die
Zeichen „abstrakt stilisiert“. Der Zusammenhang mit dem, was sie abbildeten,
wurde prekär und vieldeutig. Am deutlichsten zeigt sich das in der Verschie-
denheit der kulturgebundenen Laut-Sprachen. Durch die eigene (Mutter-) Sprache
hat noch jeder einen bestimmten konkreten Zugang zu seiner Umwelt. Wer eine
Fremdsprache lernt, muß die Spuren noch vorhandener Abbildlichkeit aus ihrer
Kultur lernen. Selbst der Hahnenschrei „lautet“ in den verwandten europäischen
Sprachen immer wieder anders als das deutsche „Kikeriki“.
Der Umgang mit den Abbildern ist die Grundlage von Kunst und Wissenschaft
geworden. Deren Entwicklungen gehen Hand in Hand. Frühe Wissenschaft be-
dient sich der Kunst, wenn sie deren Abbilder und Zeichen zu ihren besonderen
Gegenständen macht. Dadurch präsentiert sich das Große und Ferne als Kleines
und Nahes der unmittelbaren Inspektion und Manipulation der Wissenschaftler.
Lao Zi (ca. 571 – 480 v. Chr.) drückte es in China so aus:
„Ohne aus der Tür zu gehen, kennt man die Welt. Ohne aus dem Fenster zu spähen,
sieht man das Himmels-Dao (den Prototyp des Weltgesetzes). ... Darum kennt sich
der Heilige (d. h. der prototypische Wissenschaftler) ohne zu reisen aus. Er nennt
die Dinge beim Namen ohne herumzuspähen, und er bringt etwas zustande ohne
einzugreifen“.86

Auch der moderne Wissenschaftler befindet sich vor seinem Buch oder Computer
noch in der gleichen Situation, indem er die Welt über Verbildlichungen zu sich
kommen läßt. Frühe Kunst aber bedient sich solchen Wissens und der anfäng-
lichen Formen von Wissenschaft, wenn sie ihre Bilder und Zeichen verfeinert,
stilisiert, typisiert.
Mathematik in ihren beiden Zweigen Geometrie und Arithmetik dürften die
ältesten Wissenschaften sein. Geometrie arbeitet aus den Abbildungen der Dinge
und Sachverhalte deren einfachste Formen heraus und perpetuiert ihre ständige
Reproduzierbarkeit mit Zirkel und Lineal. Man setzt den Zirkel an einem „Punkt“

86
Lao Zi, Dao De Jing, neu übersetzt von L. Geldsetzer, II. Teil, 47, im Internet des Philosophischen Instituts der HHU
Düsseldorf, 2000; auch in: Asiatische Philosophie. Indien und China. CD-ROM, Digitale Bibliothek (Directmedia Pub-
lishing GmbH), Berlin 2005.
155

ein und zieht damit „Kurven“ und „Kreise“. Dem Lineal verdankt man den
geraden Strich, die „Linie“.
Arithmetik unterwirft alle Dinge der Abzählbarkeit, indem sie verfügbare Dinge
als Abbilder von Dingen gruppiert und ordnet. Ihre plastischen und schon abstrak-
ten Abbilder der Dinge dürften zuerst Psephoi (Kalksteinchen), alsbald Münzen
gewesen sein. In den verschiedenen Münzmetallen unterscheidet die Arithmetik
(axiein = wertschätzen) die Abbilder, die Einzelnes und Vielfaches repräsentieren.
Was wir so sagen können, ist eine hypothetische historische Spekulation über
Ursprünge, und dies im Sinne einer historischen Möglichkeit, wie sie vorne
definiert wurde. Sie soll am Einfachen und Schlichten auf etwas Wesentliches an
der Wissenschaft hinweisen.
Wissenschaft beruht auf der Anschauung und sinnlichen Erfahrung der Welt.
Noch immer erinnern ihre vornehmsten Begriffe daran: „Wissen“ hat die etymo-
logische Wurzel im „Sehen“ (indogermanisch Vid-; griech. idea, lat. videre),
„Theorie“ in der „Gesamtschau“ einer Gesandtschaft, die darüber berichtet
(griech. theorein), „Intuition“ in der „Betrachtung des Einzelnen“. Auch die ara-
bische Wissenschaft, die an die antike griechische Bildung anknüpfte, führt ihre
Theoriebegriffe auf das „Anschauen“ (arab.: nazar) zurück. Was darüber hinaus-
geht, heißt noch immer „Spekulation“, d. h. „Spiegelung“ der Bilder, das zu neuen
und vermittelten Bildern führt. Spekulation ist der Ausgang des philosophischen
Denkens aus der Anschauung in ein anderes Medium, über dessen Natur noch
immer heftig diskutiert und geforscht wird.
Die einen nennen dies Medium „überanschauliches Denken“, manche „unan-
schauliches Denken“. Auch die „Ahn(d)ung“ und die Intuition, von der wir ein-
gangs sprachen, weist in diese Richtung. Wird das Denken von der Sinnes-
anschauung unterschieden und getrennt, wie es für abendländische Wissenschaft
und Philosophie konstitutiv wird, so muß das Denken etwas anderes und Selb-
ständiges gegenüber der sinnlichen „bildhaften“ Wahrnehmung sein.
Parmenides (geb. um 540 v. Chr.) übersprang die sinnliche Anschauung als
täuschend und identifizierte das reine Denken (to noein) als Eines mit dem Sein
(to einai). Anaxagoras (ca. 499 – ca. 428 v. Chr.) nannte es „Nous“ (Vernunft
oder Denkkraft). Bei Platon, Aristoteles und bei den Stoikern wurde der Nous (lat.
ratio) zum eigentlichen Erkenntnisorgan. Descartes wiederholte in der Neuzeit die
parmenideischen und platonischen Argumente, indem er die sinnliche Anschau-
ung skeptisch in Frage stellte und das Vernunftdenken als einzig zuverlässige
Erkenntnisquelle herausstellte. In einer der wirkkräftigsten spekulativen Philoso-
phien der Moderne, in der Transzendentalphilosophie Kants, wurde reines Denken
zur „reinen Vernunft“. Alle Formen des philosophischen Rationalismus berufen
sich seither auf Descartes und Kant und beschwören die Selbständigkeit der
Vernunft gegenüber aller sinnlichen Anschauung.
Zu dieser Frage der Stellung und Rolle der Vernunft muß auch der Wissen-
schaftstheoretiker Stellung beziehen. Er muß metaphysisch Farbe bekennen, ob er
sich auf die eingefahrenen Bahnen des Rationalismus oder des Sensualismus
156

begeben will. Machen wir also keinen Hehl aus dem diesen Ausführungen zu-
grunde liegenden Sensualismus. Und verschweigen wir nicht die offensichtliche
Tatsache, daß der Rationalismus in der Moderne die Mehrheit der Wissenschaftler
hinter sich hat, der empiristische Sensualismus aber nur wenige Denker des 18.
Jahrhunderts wie George Berkeley (1685 -1753) und Etienne Bonnot de Condillac
(1714 – 1780).
Ein wesentlicher Prüfstein für die Leistungsfähigkeit des Rationalismus bzw.
des Sensualismus sind die in der Wissenschaft verwendeten Modelle. Ihre Rolle
ist ein Modethema der neueren Wissenschaftstheorie geworden.87 Aber die Mo-
delle haben unter den Bezeichnungen Gleichnis, Metapher, Symbol u. ä. eine
lange Geschichte.
Der erste Philosoph, der die Modelle zum Thema machte, war Demokrit (2.
Hälfte des 5. Jhs v. Chr.). Er suchte, wie alle Vorsokratiker, nach dem Grund und
Ursprung aller Dinge (arché) und fand ihn im Vollen der Atome und im Leeren
des Raumes. Von den Atomen aber sagte er, man könne die winzigsten von ihnen
nicht sehen bzw. sinnlich wahrnehmen, und ebenso wenig den leeren Raum. Gera-
de das, was der Grund und Ursprung aller Dinge in der Welt sein sollte, könne
nicht sinnlich wahrgenommen werden. Es mußte zur Erklärung der unsichtbaren
winzigen Atome (größere Atome könne man u. U. als Sonnenstäubchen sehen)
und des leeren Raumes „gedacht“ werden. Das wurde zur Matrix der physikali-
schen Theorien von den „unbeobachtbaren Parametern“, die eines der umstrit-
tensten Themen der modernen Physik geworden sind.
Aber „unanschauliches Denken“ konnte Demokrit sich nicht vorstellen. Und so
führte er die Modelle zur Veranschaulichung des Unanschaulichen ein. In seinem
Falle waren es die (erst kurz vor ihm in Griechenland eingeführten) Buchstaben
der Schrift. Ihre verschiedenen Gestalten vertraten die verschiedenen Atomsorten,
ihre Verbindungen zu Wörtern und Sätzen vertraten die Komplexionsformen der
Moleküle. Und man darf vermuten, daß er die Lücken zwischen Wörtern für
anschauliche Modelle des Leeren hielt (auch bei der alten scriptio continua
mußten sich die gelesenen Wörter von einander abgrenzen lassen, um verstanden
zu werden).
Der zweite wichtige Entwicklungsschritt zur Modelltheorie war Platons (427 –
347 v. Chr.) Ideenlehre. Von Demokrit hat er den Modellgebrauch für Veran-
schaulichungen übernommen. Seine Modelle für die „unanschaulichen“ und nur
„zu denkenden“ Ideen waren seine berühmten Gleichnisse (Höhlengleichnis, Son-
nengleichnis, Liniengleichnis im „Staat“), und viele andere. Daß er gleichwohl
von „Ideenschau“, und zwar mit einem „geistigen Auge“, sprach, darf man selbst
schon als Metaphorik, in welcher das sinnliche Auge als Modell für das „un-
sinnliche Denken“ steht, verstehen. Aber es wurde zu einer Wurzel des „dialek-
tischen Denkens“, in welchem das sichtbare Modell mit dem Unsichtbaren ver-

87
Für eine Übersicht der Modelltypen und Anwendungsgebiete vgl. H. Stachowiak in: Handlexikon zur Wissenschafts-
theorie, hgg. v. H. Seiffert und G. Radnitzky, München 1989, S. 219 – 222; ders., Allgemeine Modelltheorie, Wien 1977,
sowie ders., Modelle - Konstruktion und Simulation der Wirklichkeit, München 1983.
157

schmolz (wie modellhaft die immer sichtbare Vorderseite des Mondes mit seiner
unsichtbaren Rückseite).
Die Nachfolger der platonischen Ideen waren in der abendländischen Philo-
sophie und Wissenschaft der Gott, die Geister und die Kräfte. Sie sind immer da
und wirken, aber man nimmt sie nicht wahr. Wie man über sie „dialektisch“
redete und dachte, zeigt sich in der Erbfolge des Platonismus und Neuplatonis-
mus.
Für alle Geisteswissenschaften wurde die Lehre des Neuplatonikers Philon von
Alexandria (um 25 v. Chr. – um 50 n. Chr.) vom mehrfachen Schriftsinn eine
immer sprudelnde Quelle der geisteswissenschaftlichen Modelle, die hier die
Form der Metaphern und Allegorien annahmen. Auf dem Hintergrund der plato-
nischen Ideenlehre war für Philon der „geistige Sinn“ der heiligen Schriften und
insbesondere der jüdischen Thorah etwas nur zu Denkendes. Von diesem nur zu
Denkenden unterschied Philon seine Veranschaulichung in den Texten. Zentral
wurde sein hermeneutischer Kanon vom „allegorischen Sinn“, in dem Platons
Gleichnislehre perenniert wurde. Er liegt auch Cassians vierfachen Kanones vom
literalen, allegorischen, moralischen und anagogischen Sinn zugrunde, die vor
allem den Laien der religiösen Gemeinde die „geistige Botschaft“ durch die
wörtliche Einkleidung, die gleichnishaften und moralischen Beispiele und die
Hinweise bzw. Andeutungen prophetischer Art anschaulich vermitteln.
Der dritte wesentliche Entwicklungsschritt der Modelltheorie war die Theorie
der Stoiker über das Verhältnis von Mikrokosmos und Makrokosmos. Die stoi-
sche Neuerung bestand darin, daß sie nicht das Unanschauliche durch Modelle
repräsentierten, sondern etwas Anschauliches durch etwas anderes Anschauliches.
Das wurde zum Ausgang einer allgemeinen Metaphorologie, in welcher alle
Dinge Symbole für einander werden konnten. Da sie im allgemeinen einen kau-
salen Universaldeterminismus vertraten, hat sich bei den Stoikern das Mikro-
Makroverhältnis mit der Meinung vermischt, das Modell-Verhältnis sei ein Kau-
salverhältnis. Davon zeugt der römische Augurenkult und im weitesten Ausmaß
die Astrologie und Mantik. Sternkonstellationen, Handlinien, Physiognomien sind
bekanntlich auch heutzutage noch in weitesten Kreisen motivierende Kausalitäten
für praktisches Verhalten, Tun und Entscheidungen.
Kommen wir aber zu einer mehr systematischen Betrachtung der Modelle.
Modelle sind seit Demokrit ein „Quid pro quo“ geblieben. Etwas Anschauliches
steht für etwas anderes. Was dies andere aber sein kann ergibt sich aus metaphysi-
schen Begründungen sowie aus der Abgrenzung der Wissenschaftsgebiete und
deren Gegenständen.
1. Wichtig ist, daß ein Modell grundsätzlich etwas anderes ist als das mit ihm
„Veranschaulichte“. Das Modell für die „Sache selbst“ nehmen, ist daher ein
schwerer aber weitverbreiteter Fehler in den Anwendungen. Solchen Fehlern sind
wir schon in den bisherigen Ausführungen begegnet.
158

2. Modelle sind grundsätzlich Verkürzungen dessen, was sie darstellen sollen.


Was nicht in ihnen dargestellt wird, bleibt außer Betracht, obwohl es als existent
vorausgesetzt wird.
3. Nicht alles eignet sich dafür, als Modell für etwas gebraucht zu werden. Aber
die tatsächlich verwendeten Modelle werden oft in ihrer Modellfunktion verkannt.
4. Auch wird leicht übersehen, daß ganze Disziplinen und Wissenschaften mit
ihren Objekten Modell für andere Wissenschaften geworden sind.
Letzteres ist gerade bei der Geometrie zuerst und bis heute der Fall. Die geo-
metrischen Gebilde Punkt, Linie, Kurven, Fläche, Körper waren und sind durch
die Arbeit der Geometer stets verfeinerte und untereinander zu immer komple-
xeren Gebilden ausgestaltete Abbilder von Dingen und Sachverhalten der Erfah-
rungswelt geworden. Sie werden zuerst anschauliche Modelle für die Ausbildung
der Arithmetik, wie man am Lehrbuch des Euklid und in seiner Tradition in der
Mathematik sehen kann.
Aber auch die Naturphilosophen verwendeten die geometrischen Figuren als
Modellvorrat. Davon zeugt die antike Kosmoslehre in ihrer selbstverständlichen
Voraussetzung, daß die Himmelskörper auf Fix-Punkten („Firmament“) stehen
oder auf Kreisbahnen laufen sollten, ebenso mit der Voraussetzung, daß sich beim
Schattenwurf des Lichts zwischen Lichtquelle und Gegenstand gerade Linien
ergeben.
Nicht minder verbreitet war aber auch die Benutzung geometrischer Figuren in
der Landvermessung (daher die Bezeichnung „Geometrie“) und deren propor-
tionierte Verkleinerungen in der Kartographie und in Bau- und Konstruktions-
plänen der alten Architekten und Ingenieure. Man erinnere sich, daß die grie-
chischen Tempelbauer nur in Proportionen bauten, nicht aber mit geeichten
numerischen Maßen. Nicht zwei Tempel der antiken Welt weisen übereinstim-
mende „Maße“ auf, obwohl sie fast alle in ihren geometrischen Proportionen
übereinstimmen.
Die Entwicklung der Arithmetik als Wissenschaft des „unanschaulichen Den-
kens“ war ohne die Modelle der geometrischen Gebilde nicht möglich. Und die
Didaktik der numerischen Mathematik kann auch heute nicht auf die geometri-
schen Modelle verzichten. Erst die neuzeitliche Erfindung der „analytischen
Geometrie“ hat diesen Modellzusammenhang von Geometrie und Arithmetik
gelockert, aber sie hat den Zusammenhang nicht aufgehoben.
Die neuzeitliche analytische Geometrie des Descartes verstand sich selbst als
Autonomisierung der Arithmetik, die das ganze Gebiet der Geometrie als An-
wendungsbereich der Numerik vereinnahmte. Das führte bekanntlich zu enormen
Fortschritten der konstruierbaren Komplexität der geometrischen Gebilde, die
weit über deren ursprünglichen Abbildungscharakter hinausging. Aber auch für
die arithmetischen Strukturen und Gebilde werden noch immer „Graphen“ (d. h.
geometrische Modelle) gesucht und entwickelt. Die Grenzgebilde zwischen geo-
metrischer Anschaulichkeit und arithmetischer Unanschaulichkeit kann man
besonders in der Entwicklung der Infinitesimal- und Unendlichkeitsnumerik be-
159

sichtigen, die als „transzendent“, d. h. über geometrische Demonstrierbarkeit


hinausgehend, bezeichnet werden.
Der Verlust anschaulich-geometrischer Modelle in der sogenannten Analysis
eröffnete zwar neue Perspektiven für unanschauliches mathematisches Denken.
Aber dessen Vollzug und Nachvollzug ist weitgehend Sache der individuellen und
privaten Modelle ihrer Entwickler und ihrer Interpreten. Kommt es dabei zu neuen
Vorschlägen, so werden die mathematischen Denker für ihre Denkergebnisse
durch die „Fielding-Medaille“ (den „Nobelpreis“ der Mathematiker) und Prämien
von speziellen Stiftungen ausgezeichnet. Dem Laienpublikum sind sie in der
Regel schon lange nicht mehr verständlich zu machen, und dem Mathematiker
anderer Spezialisierung meist ebenso wenig. Es gibt wohl keine andere Wis-
senschaft, in der die Spezialisierung so weit getrieben worden ist, daß nur noch
zwei oder einige wenige Spezialisten sich darüber verständigen können, worüber
sie forschen und reden und was sie sich dabei „denken“.
Die Physik wurde sowohl in der platonischen Zuordnung zum Quadrivium wie
im Aristotelischen System der „theoretischen Wissenschaften“ aufs engste mit der
Mathematik zusammengestellt. Mathematik ist bei Aristoteles die zweite „theore-
tische Wissenschaft“ nach der Ontologie (die später „Metaphysik“ genannt wur-
de); die dritte theoretische Wissenschaft ist die Naturwissenschaft („Physik“).
Das gilt bis heute als selbstverständlich und alternativlos. Daß es nicht immer
selbstverständlich war, erkennt man daran, daß die aristotelische Physik bis in die
Renaissance fast ohne Arithmetik, wohl aber auf geometrischer Grundlage, ent-
wickelt wurde. Die Einbeziehung der Arithmetik in die Physik war immer eine
platonische und dann neuplatonische Erbschaft, wie man an der Licht-Geometrie
des Robert Grosseteste (ca. 1168 – 1253), Roger Bacons (ca. 1214 – ca. 1292) ,
bei den „Calculatores“ des Merton-Colleges an der Universität Cambridge, dann
vor allem bei Nikolaus von Kues (1401 – 1464) und danach bei Galileo Galilei
(1564 – 1642) sehen kann.
Die mathematische Physik bestand und beruht bis heute auf der Verwendung
der Geometrie als Modellreservoir für die Abbildung der physikalischen Welt.
Alles, was Gegenstand physikalischer Forschung und Erklärung sein kann, muß
zunächst „geometrisiert“ werden, um es dann auch numerisch-messender Betrach-
tung zu unterwerfen. Erst in dieser geometrisierten Gestalt können physikalische
Objekte auch Gegenstand der numerisch-messenden Physik werden. Man sieht
das an der kosmologischen Big-Bang-Theorie (Urknall), die den Anfang des
Kosmos als Punkt-Ereignis und die Ausdehnung des Kosmos als sphärisch-lineare
Ausbreitung geometrisiert. Die alternative Theorie einer kosmischen Oszillation
von Ausdehnung und Zusammenziehung („ohne Anfang“, nach dem „Systole-
Diastole“-Modell des Empedokles) bedient sich teilweise des geometrischen Wel-
lenmodells.
Daß man in der Physik solche Modelle „selbstverständlich“ verwendet, verdankt
sich einer langen Tradition des Modelltransfers und der Modellkonkurrenz zwi-
schen den einzelnen physikalischen Spezialdisziplinen.
160

Die „physikalische“ (eigentlich: physische) Natur bietet sich dem Betrachter dar
in Gestalt diskreter fester Körper und als kontinuierliches Fließen von Flüssig-
keiten und Wehen von Winden (Gasen). Ob und wie man das eine für den Grund
des anderen halten konnte, darüber haben sich Demokrit und die stoischen und
epikureischen Atomisten mit Heraklits (um 544 – 483 v. Chr.) Dictum „Alles
fließt“ (panta rhei) und neuplatonischen „Emanations-Philosophen“ (emanatio =
„Herausfließen“) auseinandergesetzt.
Die Physik hat zunächst beide Phänomene in getrennten Disziplinen erforscht.
Daraus entstanden einerseits die sogenannte korpuskulare Mechanik und ande-
rerseits die „Hydrodynamik“ der Flüssigkeiten. I. Newton (1643 – 1727), der Kor-
puskularphysiker, und Christian Huygens (1629 - 1695), der Hydrodynamiker,
wiederholten den antiken Streit zwischen den Atomisten und Emanatisten um den
Vorrang ihrer Modelle für die Erklärung des Lichts und seiner Eigenschaften auf
den Grundlagen der mathematischen Physik ihrer Zeit. Es ging um die Frage,
welches Modell – diskrete Körper oder kontinuierliche Flüssigkeiten – sich besser
dazu eigne, die Lichterscheinungen mathematisch elegant und vollständig zu er-
klären und zugleich anschaulich zu machen.
Wie man weiß, blieb der Streit unentschieden. Beide Modelle blieben in Kon-
kurrenz auch in neueren physikalischen Disziplinen. Die entsprechenden Theorien
sind die Korpuskel-Mechanik und die Wellenmechanik. Mathematisches dialek-
tisches Denken aber vereinigt mittlerweile beide zur „dualistischen“ Theorie der
Partikel-Wellen-Mechanik.
Daß es überhaupt zu einer Abgrenzung der „Mikrophysik“ (der Elementar-
teilchen oder Wellen) von der klassischen Makrophysik gekommen ist, verdankt
sich ebenfalls zum Teil einem Modelltransfer. Die alte Physik der Himmelskörper
und ihrer mechanischen Bewegungen wurde selbst zum Modell, sich die Atome
wie kleine Sonnen vorzustellen, um welche die Elektronen wie Planeten kreisen
(Bohrsches Atommodell). Aber die genauere Erforschung des Verhaltens der
Elektronen (deren Theorie ja in der „Hydro“-Dynamik des elektrischen “Stroms“
entwickelt worden war) zeigte das Ungenügen dieser Modellvorstellung. Statt um
„Flüsse“ und ihr „Strömen“ geht es nun um „Strahlungen“, in denen etwas bewegt
wird, was sich manchmal an Meßpunkten identifizieren läßt, manchmal aber auch
nicht (non-locality). Die anhaltende Verlegenheit um eine Modellvorstellung
dafür äußert sich in der „String-Theorie“ („Schleifen“).
Ebenso war die Entwicklung der Relativitätstheorie, die heute die makrokos-
mische Physik beherrscht, zunächst inspiriert von den Erkenntnissen der Akustik,
insbesondere des Dopplereffektes bewegter Schallquellen. Schallausbreitung wur-
de zum Modell der Lichtausbreitung, bis sich das Ungenügen der Modellana-
logien des Schalls angesichts der (von A. Einstein postulierten) Konstanz der
Lichtausbreitung herausstellte. Inzwischen steht auch die Astronomie im Zeichen
der Modellierung und Simulation, wie es im Titel der Jahrestagung der astrono-
mischen Gesellschaft in Deutschland 2011 zum Ausdruck kam: „Surveys and
Simulations / The Real and the Virtual Universe“.
161

Die Chemie war in ihrer Geschichte (als Alchemie) ziemlich weit entfernt von
Mathematisierung. Antoine Laurent Lavoisier (1743 – 1794) und John Dalton
(1766 – 1844) aber haben erste quantitative Gesetze der Elementenverbindungen
aufgestellt und damit ihre Mathematisierung eingeleitet. Atome wurden durch
Jens Jakob Berzelius (1779 – 1848) mit latinisierten Eigennamen bezeichnet (z. B.
„H“ für „Hydrogenium“ bzw. Wasserstoff). Moleküle als chemische Verbindun-
gen von Atomen bezeichnete er mit Wörtern bzw. „Formeln“, die ihren Aufbau
gemäß der Zahl ihrer Atome darstellten (z. B. „H2O“ für das Wassermolekül, be-
stehend aus 2 Wasserstoffatomen und einem Sauerstoffatom). Molekülvorstellun-
gen aber unterwarf man dann auch in der Chemie der Geometrisierung mittels
„Strukturformeln“, die die gegenseitige Lage der Atome im Molekül veran-
schaulichen sollten. Diese wurden dann auch durch dreidimensionale Modelle
dargestellt. Die Modelle erwiesen sich als fruchtbare heuristische Instrumente für
die Entdeckung vieler komplizierterer Molekülverbindungen. August Kekülé von
Stradonitz (1829 – 1896) berichtete 1865, wie er im „Halbtraum“ das Struktur-
modell des Benzolrings (C6H6) in Gestalt einer sich selbst in den Schwanz
beißenden Schlange fand. Francis Crick und James Watson entdeckten 1953 die
Doppelhelix als Strukturmodell der DNA und erhielten dafür den Medizin-
Nobelpreis.
Ein bedeutender Schritt in der chemischen Modellierung waren die sogenannten
chemischen Reaktionsgleichungen. Sie stellen Anfangs- und Ergebniskonstel-
lationen von chemischen Prozessen dar. Auch bei ihnen kann man den Effekt dia-
lektischer Mathematisierung feststellen. Denn sie drücken zugleich die Gleichheit
und die Unterschiedlichkeit der Anfangs- und Endkonstellationen von Prozessen
in Gleichungsform dar, wo man logisch behauptende kausale Implikationen er-
wartet hätte.
Auch die Biologie hat an dieser Geometrisierung ihrer Gegenstände teilgenom-
men. Goethes „Urform“ der Pflanze im Modell des Ginko-Blattes war ein Vor-
schlag dazu. Eine wichtige Vorstufe, die Biologie näher an die Physik heranzu-
bringen, war die geometrische Beschreibung der tierischen und pflanzlichen „Zel-
len“ durch Matthias Jakob Schleiden (1804 – 1881). Noch weitergehend versuchte
dies der „Energetismus“ der Monisten-Schule des Chemie-Nobelpreisträgers Will-
helm Ostwald (1853 – 1932) und Ernst Haeckels (1834 – 1919).
Der Physiker Felix Auerbach (1856 – 1933) ging von dem Ansatz der Monisten-
schule aus, daß die Organismen insgesamt „Energiewesen“ sind, die in ihren Kör-
pern Energie speichern und „verkörpern“, zugleich aber auch in ihren Lebens-
prozessen Energie umsetzen. Er erkannte dabei, daß der Bereich des organischen
Lebens sich vom Bereich der toten physikalischen Natur dadurch unterscheidet,
daß die Lebewesen nicht dem 2. Hauptsatz der Thermodynamik unterliegen.
Dieses sogenannte Machsche Gesetz besagt, daß in „geschlossenen Systemen“ der
Physik (ohne Energiezufuhr von außen) die Energiepegel eine „entropische Ten-
denz“ zum allgemeinen Niveauausgleich aufweisen (deshalb nennt man das
Machsche Gesetz auch Entropiegesetz), wodurch zugleich auch die physikalische
162

Zeitrichtung (von der Vergangenheit in die Zukunft) definiert bzw. simuliert wird.
Auerbach nannte den Energiehaushalt lebendiger Organismen im Gegensatz zur
Physik geschlossener Systeme „ektropische Systeme“, (in denen sich auch die
Zeitrichtung, die die Entwicklung der Lebewesen bestimmt, umkehrt. 88 Heute
spricht man diesbezüglich von „Negentropismus“ (= negativer Entropismus). Auf
dieser Grundlage hat dann Karl Ludwig v. Bertalanfy (1901 - 1972) sogenannte
Fließdiagramme der Lebewesen erarbeitet. Diese hat er in Modellen von „offenen
Systemen“ (GST, d. h. General System Theory) darzustellen versucht.89
Obwohl die Möglichkeit einer adäquaten Darstellung „offener Systeme“ und
erst recht deren Anwendung in anderen Wissenschaften wie Psychologie und
Soziologie umstritten ist, war dieser Ansatz doch ein wichtiger Beitrag zur Ein-
gliederung der biologischen Objekte in das physikalisch-geometrische Paradigma.
Aber erst die neuere Rückbindung der Biologie an die physikalische Chemie
(„Molekularbiologie“ und „Molekularmedizin“) hat diese Tendenz zur herrschen-
den gemacht.
Die moderne Tendenz zur Mathematisierung weiterer Einzelwissenschaften hat
auch das Modelldenken in diesen Wissenschaften zur dominierenden Methode
gemacht. Hier sind vor allem die Soziologie und die Ökonomie zu nennen. Für
beide Bereiche war einer der Ausgangspunkte die Max Webersche Theorie von
den „Idealtypen“, die schon als Modelle in nuce angesprochen werden können.90
Kern- und Ausgangspunkt für ökonomische Modelle ist etwa der „vollkommene
Markt“ (ohne Monopole und Kartelle bei vollständiger Information aller Markt-
teilnehmer über die Marktlage) oder der „Homo oeconomicus“, der sich stets
marktgerecht „rational“ verhält.91
Von den Geisteswissenschaften hat sich die Linguistik („Computerlinguistik“)
am meisten dieser Tendenz geöffnet.92
Die Psychologie hat sich seit dem 19. Jahrhundert in einen geisteswissenschaft-
lichen (W. Dilthey, H. Lipps u. a.) und einen medizinisch-klinisch-naturwissen-
schaftlichen Zweig (im Anschluß an J. F. Herbart) geteilt. Für den letzeren Zweig
dürften das Hauptmodell der Computer und seine Leistungskapazitäten geworden
sein.
In die Philosophiegeschichtsschreibung hat das Modellkonzept mit Rudolph
Euckens „Bilder und Gleichnisse in der Philosophie“ 93 Einzug gehalten. Aber es
88
Vgl. F. Auerbach, Ektropismus und die physikalische Theorie des Lebens, Leipzig 1910.
89
K. L. v. Bertalanfy, Biophysik des Fließgleichgewichts, Braunschweig 1953, 2. Aufl. Berlin 1977; ders., General
System Theory, Scientific-Philosophical Studies, New York 1968, 2. Aufl. 1976.
90
M. Weber, „Über einige Kategorien der verstehenden Soziologie“ sowie „Die drei reinen Typen der legitimen Herr-
schaft“, in: M. Weber, Soziologie, Weltgeschichtliche Analysen, Politik, hgg. v. J. Winckelmann, Stuttgart 1956, S. 97 –
166.
91
Vgl. R. Mayntz, Formalisierte Modelle in der Soziologie, Neuwied 1967; D. Maki und M. Thompson, Mathematical
models and applications. With emphasis on the social, life, and management sciences, Englewood Cliffs, N. J. 1973; K.
Troitzsch, Modellbildung und Simulation in den Sozialwissenschaften, Opladen 1990; H. Albert, Marktsoziologie und
Entscheidungslogik, Neuwied-Berlin 1967, neue Aufl. Tübingen 1998.
92
Vgl. N. Chomsky, Explanatory models in linguistics, in: Logic, Methodology and Philosophy of Science, hgg. von E.
Nagel, P. Suppes und A. Tarski, Stanford Univ. Press 1962, S. 528 – 550; H. P. Edmundson, Mathematical Models in
Linguistics and Language processing, in: Automated Language Processing, hgg. von H. Borko, New York 1968, S. 33 – 96.
163

dauerte bis in die zweite Hälfte des 20. Jahrhunderts, bis es von Hans Leisegang
unter dem Titel „Denkform“ 94 und Ernst Topitsch in Verbindung mit dem
Mythosbegriff wieder aufgenommen wurde. Topitsch arbeitete insbesondere tech-
nomorphe, biomorphe, soziomorphe und psychomorphe Modelle als anschauliche
Denkgrundlagen der großen historischen Philosophiesysteme heraus. Dies aller-
dings in der kritischen Absicht, sie als gänzlich unzulängliche Stützen überholter
Denksysteme der „wissenschaftlichen Philosophie“ des Wiener Kreises, d. h. der
Analytischen Philosophie gegenüber zu stellen.95
Eine positive forschungsleitende Bedeutung erhielt das Modelldenken bei Hans
Blumenberg (1920 - 1996) für diejenigen Philosophen, welche die Philosophie im
engen Anschluß an die Sprach- und Literaturwissenschaften betrieben. Er ging
von theologischen und literarischen Metaphern- und Mythenstudien aus, wo es
seit jeher gepflegt wurde, und hat es geradezu zur Leitmethode eines „trivial“-
philosophischen Denkens gemacht. Für ihn sind Metaphern und Mythen das genu-
ine Denkmittel einer philosophischen Sinnkonstruktion für die Welterklärung.
Dies in scharfem Gegensatz zum begrifflichen und abstrakten wissenschaftlichen
Denkstil der neuzeitlichen Naturwissenschaft. „Die Metaphorologie sucht an die
Substruktur des Denkens heranzukommen, an den Untergrund, die Nährlösung
der systematischen Kristallisationen, aber sie will auch faßbar machen, mit wel-
chem ‚Mut‟ sich der Geist in seinen Bildern selbst voraus ist und wie sich im Mut
zur Vermutung seine Geschichte entwirft“.96
So fruchtbar sich diese Version der Metaphern- und Mythenforschung in Blu-
menbergs eigenen Schriften und in denen seiner zahlreichen geisteswissenschaft-
lichen Schüler erwiesen hat, so betonte er in seinem letzten Werk „Die Lesbarkeit
der Welt“ 97 auch die Kehrseite überkommener Mythen und Modelle als Ver-
führung und Irreführung der wissenschaftlichen Forschung. Dies am Beispiel der
(augustinischen und galileischen) Metapher vom „Buch der Natur“ („das in geo-
metrischen und arithmetischen Zeichen geschrieben ist“). Erst die neuzeitliche
Naturwissenschaft habe sich von der darin implizierten Leitvorstellung eines gött-
lichen Buch-Autors verabschiedet und den Nachweis erbracht, daß es sich um das
Modell eines Buches mit gänzlich leeren Seiten gehandelt habe.
Zuletzt hat sich noch Kurt Hübner für die Unentbehrlichkeit des Modelldenkens
in den Wissenschaften stark gemacht. 98 Auch er ging von der theologischen
Mythenforschung aus und stellte die Mythen als empirisch nicht widerlegbare

93
R. Eucken, Bilder und Gleichnisse in der Philosophie, Leipzig 1880.
94
H. Leisegang, Denkformen, Berlin 1951.
95
E. Topitsch, Vom Ursprung und Ende der Metaphysik. Eine Studie zur Weltanschauungskritik, Wien 1958; ders., Mythi-
sche Modelle in der Erkenntnistheorie, in: E. Topisch, Mythos, Philosophie, Politik. Zur Naturgeschichte der Illusion,
Freiburg 1969, S. 79 - 120.
96
H. Blumenberg, Paradigmen zu einer Metaphorologie“, Bonn 1960, S. 11; ders., Arbeit am Mythos, Frankfurt a. M.
1979. - Vgl. dazu L. Geldsetzer, Die Philosophie der Philosophiegeschichte im 19. Jahrhundert, Meisenheim 1968, S. 172 -
173.
97
H. Blumenberg, Die Lesbarkeit der Welt, Frankfurt a. M. 1981.
98
K. Hübner, Die Wahrheit des Mythos, München 1985, 2. Aufl. Freiburg-München 2010; ders., Die nicht endende
Geschichte des Mythischen, in: Texte zur modernen Mythenforschung, Stuttgart 2003.
164

„ontologische“ Erfahrungssysteme mit eigenem Recht neben die naturwissen-


schaftliche Ontologie. Die mythischen Modelle, so meint er, besäßen im Unter-
schied zu den wissenschaftlichen Theorien den Vorzug der unmittelbaren sinn-
lichen Anschaulichkeit der in ihnen benutzten Begriffe.
Kommen wir aber auf die eigentlichen methodologischen Grundlagen des Mo-
delldenkens in der Logik und Mathematik und seine Relevanz für die Veranschau-
lichung des „unanschaulichen Denkens“ zurück.
Die mit der „quadrivialen“ Mathematik konkurrierende „triviale“ Logik galt
ebenso wie jene seit jeher als eine Praxis des unanschaulichen Denkens. Aber im
Gegensatz zur Mathematik wurde in der Logik das Denken gerade und nur durch
die Beziehung auf inhaltliche Objekte veranschaulicht. Insofern entwickelte sich
Logik auch zuerst als „inhaltliches, d. h. anschauliches Denken“ mittels der inhalt-
lichen Beispiele. Jedes inhaltliche Beispiel für einen Begriff oder ein Urteil galt
als Modell dessen, was mit einem Begriff oder Urteil als rein logischen Gebilden
gedacht werden sollte. In diesen Veranschaulichungen durch inhaltliche Beispiele
wurde die Logik vor allem von den Stoikern kultiviert.
An der Stelle, wo sich die Arithmetik der geometrischen Modelle zur Veran-
schaulichung von Zahlen und Zahlverhältnissen bedienen konnte, entwickelte
Aristoteles durchaus in Konkurrenz zur Mathematik seine Logik auf der Grund-
lage ausgewählter grammatischer Kategorien.
Man sollte die aristotelischen Buchstaben (bzw. Zahlzeichen) selbst als ein logi-
sches Pendant zur mathematischen Geometrisierung verstehen. Formale Buch-
staben als logische „Variable“ bildeten nicht Gegenstände ab, sondern veran-
schaulichten bei Aristoteles die sonst unanschaulichen Begriffe, und nur diese.
Vielleicht hat er das von Demokrit übernommen. Man sollte nicht verkennen, daß
die noch heute verbreitete Gewohnheit von Logikern (aber auch von Mathema-
tikern und Physikern), einen thematischen Gegenstand zuallererst mit einem
Buchstaben zu belegen („... nennen wir es X“), der dann in einer Rede oder
Schrift für das Gedachte bzw. Gemeinte stehen bleibt, daraus entstand.
Die aristotelischen „synkategorematischen“ Junktoren, die nach Aristoteles und
auch späterhin keinen eigenen „Sinn“ besitzen sollten, waren in den Anfängen
dieser Formalisierung keine Abbildungen von irgend etwas in der Welt, sondern
direkter Ausdruck von (vermeintlich) unanschaulichen Denkverknüpfungen bzw.
Relationen. Erst ihre Stellung zwischen den formalen Modellen (Variablen) von
Begriffen erhielt als „Mitbedeutung“ (connotatio) eine Abbildungsfunktion. So
stellten erst die formalisierten Urteile in dieser Junktoren-Verknüpfung mit Be-
griffen Modelle von Urteilen und Schlüssen dar.
Aber dieser Modellansatz in der aristotelischen formalen Logik war ziemlich
beschränkt und wurde bekanntlich in der logischen Arbeit von Jahrhunderten
nicht wesentlich erweitert. Und noch wesentlicher für die Entwicklung der Logik
war es, daß diese einfachen Formalisierungen nicht als Modelle für die Anschau-
lichkeit des logischen Denkens erkannt und durchschaut wurden. Daher der immer
wiederholte Rekurs auf die (anschaulich bleibende) Sprache in der Logikge-
165

schichte bis zur Wittgensteinschen Identifizierung von „Idealsprachen“ mit Ma-


thematik und Logik. In der Sprachverwendung sah man einen unmittelbaren und
gleichsam naturwüchsigen Denkvollzug von Zusammenhangsstiftungen zwischen
den Objekten des Denkens.
Die Interpretation der Einführung (Eisagoge) des Porphyrius (um 232 – um 304
n. Chr.) in das Aristotelische Organon brachte in der mittelalterlichen Scholastik
eine explizite Modell-Veranschaulichung der Begriffe und ihrer hierarchischen
Ordnung in Begriffspyramiden in den sogenannten Porphyrianischen Bäumen
hervor. Aber auch diese Veranschaulichungen beschränkten sich auf das Ver-
hältnis von Oberbegriff zu je zwei Artbegriffen, die in den „Begriffsbäumen“
übereinander abgebildet wurden. Damit konnten allenfalls Extensionen von Be-
griffen, nicht aber ihre Intensionen und deren Zusammenhang veranschaulicht
werden. Und damit auch nicht die durchlaufende Hierarchisierung aller Begriffe
einer Theorie von ihrem axiomatischen Grundbegriffen bis zum Eigennamen,
geschweige denn von der Satz- bzw. Urteils- zur Schlußbildung.
In Bezug auf solche Begriffshierarchien blieb die Logik bis heute auf die Phan-
tasie der Logiker angewiesen. Und dem verdankt sich die Tatsache, daß logisches
Denken sich ebenso wie die Arithmetik einen Nimbus der Unanschaulichkeit be-
wahrt hat. „Rationales Denken“ wird zwar in allen Wissenschaften und besonders
in der Wissenschaftsphilosophie beschworen und in Anspruch genommen, aber es
besteht keinerlei auch nur annähernd einheitliche Auffassung über das, was Ratio-
nalität eigentlich sei.
Die Aszendenz von Modelltheorien in der Wissenschaftsphilosophie verdankt
sich in erster Linie der Entwicklung der mathematischen Logik hin zu einem Ver-
ständnis des Rationalen als Idealsprache.
Gemäß linguistischem Sprachverständnis baute man eine besondere „Semantik“
als Lehre von den Objekten aus, über die und von denen in dieser Ideal-Sprache
geredet werden kann. Solche Objekte konnten für Mathematiker nur die mathe-
matischen Gebilde selbst sein, also die Zahlen und ihre Aufbaustrukturen sowie
die geometrischen Gebilde. Als Objektbereich der Mathematik werden sie – ana-
log der traditionellen Ontologie – auch in der Mathematik als deren „Ontologie“
bezeichnet. Aber auch diese „Ontologisierung“ abstrakter Gegenstände appelliert
an die Veranschaulichung des angeblich nur Denkbaren durch die inhaltliche Bei-
spiele, die in den Ontologien einzelner Wissenschaftsbereiche vorgeführt werden.
Die Modellauffassung der modernen mathematischen Logik erhebt jede inhalt-
liche Interpretation bzw. die Anwendung des logischen Formalismus auf einen
Sachverhalt zu einem Modell der dafür gesetzten oder geforderten unanschau-
lichen Denkobjekte ihrer Axiomatik. Und da man den (axiomatischen) Forma-
lismus für eine Wahrheitsgarantie der formalisierten Denkprozesse hält, wird von
dem interpretierenden Modell erwartet, daß es ebenfalls zu inhaltlich wahren
Aussagen führt. In diesem Sinne wird etwa die mathematische Zahlentheorie als
ein Modell der Peanoschen (1858 – 1932) Axiomatik aufgefaßt, die Euklidische
166

Geometrie als Modell der Hilbertschen (1862 – 1943) Axiomatik. Dies dürfte die
Standardauffassung in der Wissenschaftsphilosophie sein.
Umgekehrt findet man aber auch die Meinung, für jede „intuitive“ inhaltliche
Theorie eines Objektzusammenhangs sei der (axiomatische) Formalismus ein Mo-
dell. Aber wie man leicht bemerkt, ist das erstere – die Interpretation eines Forma-
lismus - nichts anderes als ein Anwendungsbeispiel. Aus solchen Beispielen aber
wird der Formalismus in aller Regel erst gewonnen (wie es die stoische Logik
vorführte). Formalismus und Interpretation müssen daher von vornherein „tautolo-
gisch“ übereinstimmen. Diese Modellvorstellung ist daher ein Fall einer petitio
principii.
Da für die Logik die logischen Formalismen die anschaulichen Modelle für das
sind, was man logisches Denken (oder oft auch Rationalität schlechthin) nennt,
kommt alles darauf an, wie die Formalismen gestaltet sind und was sie dabei „zu
denken“ erlauben.
Der übliche logische Formalismus mit Begriffsvariablen und Junktoren ist –
ebenso wie der mathematische mit Zahlvariablen und Rechenarten als Junktoren
(„Operatoren“) – an die Textgestalt von Schriftsprachen gebunden. Das Textmo-
dell modelliert die Abfolge von ganzen Begriffen in (behauptenden) Sätzen und
deren Abfolge zu weiteren Begriffen und Behauptungen als “Denkprozeß“ ent-
sprechend der Abfolge eines schriftlich notierten Lese- und Vorstellungsablaufes.
Dies ist die Grundlage für die sogleich zu behandelnde „Simulation“ von Abläu-
fen geworden.
Die Modelle in der Form von Graphen modellieren dagegen keinen sprachlichen
Gedankenlauf, sondern geben ein statisches Abbild von logischen Relationen. Als
Beispiele haben wir schon die porphyrianischen Bäume, die (umgekehrten) Be-
griffspyramiden, die Eulerschen Kreise sowie die Vennschen Diagramme er-
wähnt. Sie gelten zwar als didaktische Hilfsmittel, haben aber eine selbständige
und andersartige Funktion ihrer Abbildlichkeit als die textartigen Formalismen.
Wesentlich für sie ist, daß diese Graphen-Formalismen als das behandelt werden
können, was man Modelle nennt. Der von uns vorgeschlagene und in § 9 ausführ-
lich explizierte Formalismus stellt insofern einen Verbesserungsvorschlag des
Pyramidenmodells dar.
Hier ist jedoch darauf hinzuweisen, daß es sich bei der hier entwickelten For-
malisierung nicht um eine Veranschaulichung eines „unanschaulichen Denkens“ -
das es nicht gibt - handelt. Was in den logischen Pyramiden „modelliert“ wird ist
immer inhaltliches Vorstellen, sei es in direkter sinnlicher Betrachtung des Pyra-
midenformalismus selbst oder als Erinnerung an seine Gestaltung. Die Forma-
lisierung liefert nur ein normatives Beispiel dafür, wie man mit anschaulichen
Vorstellungen, Erinnerungen und Phantasien umzugehen hat, wenn sie in eine
logische Ordnung gestellt werden sollen. Der pyramidale Formalismus in seiner
Anschaulichkeit ist also selbst ein Exemplar des logischen Vorstellens im Unter-
schied zu rein sprachlichem Reden, zum Schreiben oder Spekulieren, das der
logischen Formalisierung vorauslaufen oder auch nachfolgen mag.
167

Echte Modelle sind stets ein Quid-pro-quo geblieben. D. h. sie „supponieren“


(„stehen für...“ wie man in der scholastischen Logik sagte) für etwas, das in
bestimmten Hinsichten anders ist als das Modell, das zugleich aber auch etwas
Identisches des Gegenstandes und des Modells zur Anschauung bringt und damit
definiert. Das zeigt sich am deutlichsten in den maßstäblichen Verkleinerungen
und Vergößerungen geometrischer Gebilde. Identisch bleiben zwischen Modell
und Dargestelltem die Gestalt, verschieden aber sind die Maßverhältnisse bzw. die
Proportionen. Das identisch-verschiedene Verhältnis wird logisch Analogie ge-
nannt.
Nun hat der Analogiebegriff bekanntlich durch Thomas v. Aquins (1225 – 1274)
„Seinsanalogie“ (analogia entis) weite kategoriale und ontologische Anwendun-
gen gefunden. Aber „Analogie“ ist als Begriff des Identisch-Verschiedenen ein
weiteres Beispiel für einen dialektischen, d. h. widersprüchlichen Begriff. Er hat
auch in der mathematisch-logischen Modelltheorie eine besondere Anwendung
gefunden. Daher ist hier besonders auf die „Analogie“ im Modellverständnis der
Mathematik und mathematischen Logik einzugehen.
Wie gezeigt wurde, gehört das dialektische Denken seit jeher zur Kultur der
Mathematik. Es kann daher nicht verwundern, daß es auch bei den mathema-
tischen Modellen durchschlägt. Und es verwundert auch nicht, daß die Modell-
theorien der Mathematik in einer eigenen mathematischen Disziplin entwickelt
worden sind, die ebenso wie die ganze Mathematik ihre dialektischen Voraus-
setzungen nicht sieht und geradezu verleugnet.
Das hauptsächliche methodische Mittel zur Dissimulierung des dialektischen
Charakters der Modellvorstellungen in der Mathematik ist die analytische Metho-
de (nicht mit der analytischen Geometrie zu verwechseln), die etwas Unbekanntes
als Bekanntes behandelt. Beispiel dafür ist die Supposition von Variablen für
unbekannte Zahlgrößen „als ob sie bekannt wären“. Ein weiteres Mittel ist die
(falsche) Verwendung der Gleichungsform für Behauptungssätze.
Gemäß diesen methodischen Mitteln wird nun auch das Verhältnis von Modell
zum Objekt der Modellierung als Gleichung und zugleich als Analogieverhältnis
zwischen beiden formuliert. Das Modell wird in der Mathematik als „ein-ein-
deutiges Abbild“ („Strukturidentität“) von Modell und Objekt und zugleich als
dessen Analogie (teilweise Übereinstimmung bei teilweiser Nicht-Übereinstim-
mung) dargestellt. Beides steht jedoch im Widerspruch zueinander.
Mit der Gleichung wird nur der identische Teil des Bezuges zwischen Modell
und Objekt beachtet und dargestellt. Die Analogie aber sollte gerade die Un-
gleichheiten herausstellen. Aber diese wird bei Modellen ausgeblendet. Es gilt
geradezu als Vorzug und Stärke der mathematischen Modelle, daß in ihnen von
den Ungleichheiten zwischen Modell und Modelliertem abgesehen bzw. abstra-
hiert wird, und somit die Abbild-Relation als gegebenes Identitätsverhältnis
postuliert wird.
Ein Lexikonartikel „Modell“ formuliert dies so:
168

„Modell (nach dem aus lat. modellus, Maßstab (Diminutiv von Modus, Maß)
gebildeten ital. (16. Jh.) modello), in Alltags- und Wissenschaftssprache vielfältig
verwendeter Begriff, dessen Bedeutung sich allgemein als konkrete, wegen ‚ideali-
sierender‟ Reduktion auf relevante Züge, faßlichere oder leichter realisierbare Dar-
stellung unübersichtlicher oder ‚abstrakter‟ Gegenstände oder Sachverhalte umschrei-
ben läßt. Dabei tritt die Darstellung der objekthaften Bestandteile hinter der Darstel-
lung ihrer relational-funktionalen Beziehungen (Struktur) zurück.“ 99

„Idealisierende Reduktion“, „faßlichere oder leichter realisierbare Darstellung“,


„relational-funktionale Beziehungen“ und „Struktur“ sollen hier dasjenige be-
zeichnen, was ins Modell eingeht. Aber die „objekthaften Bestandteile“, die im
Modell nur „zurücktreten“ sollen und als „unübersichtlich“ oder „abstrakt“ gelten,
widersprechen als analogischer Anteil ersichtlich der Prätension, es handele sich
um ein ein-eindeutiges Abbildungsverhältnis, das in einer Gleichung dargestellt
werden könnte.
Die mathematischen Modelltheorien setzen, wie vorn gesagt, voraus, daß jede
mathematische Theorie – in welcher Disziplin auch immer (einschließlich physi-
kalischer Theorien in mathematischer Form) eine ein-eindeutige Abbildung ihrer
Axiomatik sei. Die „wahre“ oder „bewährte“ Theorie sei dann zugleich auch das,
was man in der Mathematik ein Modell ihrer Axiomatik nennt. Man kann auch
sagen: eine mathematische Theorie veranschaulicht jeweils ihre unanschauliche
Axiomatik.
Diese Meinung wurde durch David Hilbert (1862 - 1943) begründet und durch
die französische Mathematikergruppe, die unter dem Namen „Bourbaki“ veröf-
fentlicht, weiter verfestigt. Alfred Tarski hat die mathematische Modelltheorie zu
einem disziplinären Teil der von ihm sogenannten Meta-Mathematik gemacht.100
Die mathematische Modell-Theorie spielt hier die Rolle einer „Semantik“ der
Theorie-Objekte, die die „Syntaktik“ der axiomatischen Idealsprache durch ein
Modell interpretiert. Unter der (wie wir meinen: falschen) Voraussetzung, daß die
mathematischen Objekttheorien widerspruchslos seien, überträgt sie diese Vor-
aussetzung auch auf die (Hilbertsche) Axiomatik zurück und versucht, die Erfül-
lung der Axiom-Kriterien der Unabhängigkeit, Vollständigkeit, Definierbarkeit,
Widerspruchsfreiheit usw. auch für die Axiomatik nachzuweisen.
Wir haben aber vorn in § 9 gezeigt, daß die sogenannten axiomatischen Grund-
begriffe, die nach Hilbert als „undefinierbare Begriffe“ verstanden werden, lo-
gisch keine Begriffe sind. Zur Verdeutlichung dessen, was damit gement sein soll
und was als ihr Anwendungsbereich in Frage kommt, bedarf es daher der Anwen-
dungsbeispiele, d. h. eben der ausgeführten Theorien.

99
G. Wolters, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-
Zürich 1984, S. 911.
100
Vgl. A. Tarski, Contributions to the Theory of Models, in: Indagationes Mathematicae 16, 1954, S. 572 - 588; nach G.
Wolters, Art. „Modelltheorie“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band,
Mannheim-Wien-Zürich 1984, S. 913 – 914; vgl. auch G. Hasenjäger, Art. „Modell, Modelltheorie“ in: Wörterbuch der
Philosophischen Begriffe, Band 6, hgg. von J. Ritter und C. Gründer, Basel-Stuttgart 1984, Coll. 50 – 52.
169

Ebenso wurde gezeigt, daß die mathematischen Gleichungen im logischen Re-


gelfall Definitionen sind. Das aber heißt, daß die vorgeblichen Modelle als „ein-
eindeutige“ Abbildungen der Axiomatik Definitionen der axiomatischen „Grund-
begriffe“ sein müssen, die deren intensional-extensionalen Status überhaupt erst
festlegen. Damit klären und erläutern sie aber nur Sinn und Bedeutung der
Axiomatik selber von den Modell-Beispielen ihrer Anwendungen her.
Wenn aber davon ausgegangen wird, daß mathematisches Denken überhaupt auf
der Voraussetzung seiner „Unanschaulichkeit“ beruht, so ist die Modellbildung in
interpretatorischen Anwendungen immer noch ein prekärer Versuch der Veran-
schaulichung des Unanschaulichen. Diese Veranschaulichung aber stützt sich auf
das Vorhandensein disziplinärer mathematischer Theorien und kann daher auch
nur den Mathematikern selbst als „Veranschaulichung“ dienen. Dem mathema-
tischen Laien dürften die mathematischen Theorien selbst als unanschaulich impo-
nieren. Um sie auch dem Nichtmathematiker verständlich zu machen, bedarf es
daher logischer Analysen des mathematischen Apparates, wie wir sie vorn schon
vorzuführen versucht haben.
Neben den Modellen haben in jüngeren Zeiten die Simulationen eine bedeutende
Funktion in den Wissenschaften und in der Technik übernommen. Auch die
Simulationen verdanken sich der zunehmenden Ausbreitung mathematischer
Methoden in den früher nicht-mathematischen Einzelwissenschaften. Insbeson-
dere spielten die gewaltigen Fortschritte in der Computertechnik und der dadurch
gegebenen Manipulierbarkeit großer Datenmassen eine Hauptrolle. Dadurch ist
das Thema der Simulation als „Computersimulation“ allbekannt geworden.
Das Wort Simulation (lat. simulare, dt. Nachahmen, aber auch Verstellen bzw.
Heucheln) insinuiert zunächst einmal, daß hierbei etwas mehr oder weniger Klares
bzw. mehr oder weniger Bekanntes der physikalischen Wirklichkeit durch ein
besonders scharfes und klares Bild wiedergegeben werde. Dasselbe Verhältnis
war ja auch in den Modellkonzeptionen prätendiert. Der Physiker Heinrich Hertz
(1857 – 1897) hat es in einem berühmt gewordenen Dictum über die Methode des
physikalischen Denkens so ausgedrückt:
„Wir machen uns Symbole oder Scheinbilder der äußeren Gegenstände, und zwar
derart, daß die denknotwendigen Folgen dieser Bilder stets wiederum die Bilder
seien von den naturnotwendigen Folgen der abgebildeten Gegenstände“.101

In diesem Dictum ist schon auf die „Folgen der Bilder“, also das prozessuale
Moment der Nachbildung, hingewiesen, welches im Simulationskonzept festge-
halten wird. Diese Bedeutung dürfte überhaupt der Grund für die Attraktivität des
Terminus „Simulation“ gewesen sein.
Daneben hat aber die Simulation schon seit der Antike noch die recht pejorative
Nebenbedeutung, die seine positive Bedeutung geradezu ins Gegenteil verkehrt.

101
H. Hertz, Prinzipien der Mechanik, in: Ges. Werke Band 3, Leipzig 1894, zit. nach F. Ueberweg, Grundriß der Ge-
schichte der Philosophie, Band 4, Berlin 1923, S. 422.
170

Man erinnere sich an seinen Gebrauch in der ärztlichen Diagnostik, wo der


„Simulant“ der gesunde „Patient“ ist, der eine Krankheit und ihre Symptome
„vortäuschen“ kann. Das „Vortäuschen“ dürfte auch jetzt noch nicht ganz aus dem
heutigen Sprachgebrauch verschwunden sein. Die Militär-Strategen (wie schon
Sun Bin in China, wie Cäsar, aber auch die modernen militärischen Stäbe), die
Juristen und Steuerbeamten und nicht zuletzt die Geschäftsleute haben gewiß bis
heute die römische Maxime beherzigt:

„Quae non sunt simulo, quae sunt ea dissimulantur”


(was es nicht gibt, das täusche ich vor; was wirklich der Fall ist, wird verborgen)

Angesichts dieser Geschichte der „Simulation“ sollte man also auch in der Wis-
senschaftstheorie eine gewisse Skepsis gegenüber der Konjunktur der Simulatio-
nen nicht ganz hintanstellen.
Ebenso wie die mathematischen Modelltheorien beruhen auch die (Computer-)
Simulationen auf mathematischen Theorien. Anders als die mathematischen Mo-
delltheorien bezieht sich dabei die mathematisierte Theorie der Computer nicht
auf eine Axiomatik, sondern direkt auf große Forschungsbereiche und die hierin
gesammelten Daten- und Faktenmassen nebst ihren Zusammenhängen.
Ein weiterer Unterschied zu den mathematischen Modellen besteht darin, daß
die Objekte der Simulation in der Regel Prozesse bzw. Abläufe sind, die dann
auch durch technische Prozesse bzw. ihre mathematischen Formalisierungen in
Algorithmen, die das Computerprogramm ausmachen, abgebildet werden. Günter
Küppers und Johannes Lenhard haben die Simulationen daher sehr griffig als
„Modellierungen 2. Ordnung“ bezeichnet.102 So bleibt das Quid pro quo der Mo-
delle auch in den Simulationen erhalten.
Die Attraktivität und Konjunktur der Simulation dürfte sich in erster Linie der
Tatsache verdanken, daß sie – ebenso wie die Modelltheorien überhaupt - so gut
in den Kontext der realistischen Erkenntnistheorie paßt.
Simulationen erscheinen als eine exakte und mathematisierte Form der traditio-
nellen Adaequatio rei et intellectus, der „Übereinstimmung von Sachverhalt und
Erkenntnis“. Durch die ein-eindeutige Abbildung eines prozessualen Sachverhal-
tes soll eine selber progredierende Erkenntnis simuliert werden. Das Paradigma
dafür ist das Computerprogramm (und dafür ist wiederum die sogenannte Turing-
Machine das konzeptionelle Modell), das die maschinellen Prozesse im Computer
steuert, die ihrerseits durch bild- und geräuscherzeugende Simulation etwas dar-
stellt, was als schon bekannt und wiedererkennbar erscheint.
Das kennt jedermann vom Theater her, in welchem ja historische oder typische
Lebensabläufe und Handlungszusammenhänge simuliert werden. Sie gelten in der
Ästhetik als umso „wahrer“, je mehr sie „dem vollen Leben entsprechen“. Aller-

102
Vgl. G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for General Philoso-
phy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 305 – 329. Eine Ausarbeitung dieses
Ansatzes mit zahlreichen Anwendungsbeispielen und kritischen Bemerkungen in Joh. Lenhard, Mit allem rechnen – zur
Philosophie der Computersimulation, Berlin 2015.
171

dings war sich die ästhetische Einschätzung der dramatischen Simulationen schon
seit dem Sophisten Gorgias (ca. 480 – 380 v. Chr.) bewußt, daß dabei immer auch
die „Täuschung“ und Verstellung“ durch die Illusionen der Bühne und die Ver-
stellungskunst der Schauspieler im Spiel war. Diese Bedenken sind jedoch in den
quadrivialen Naturwissenschaften und ihren Simulationen verloren gegangen.
Umso mehr besteht Bedarf, sie auch hier geltend zu machen.
Wie in § 5 gezeigt wurde, lebt die Forschung wesentlich von Vermutungen und
Hypothesen, die eigentlich im sprachlichen Konjunktiv zu formulieren wären. Da
es diesen Konjunktiv aber weder in der Logik noch in der Mathematik gibt,
formuliert man auch die Vermutungen in der behauptenden Urteilsform. Und das
erfüllt zunächst den Tatbestand der Vortäuschung von Tatsachen, wo über deren
Existenz oder Nichtexistenz, geschweige über deren bestimmten Charakter, nichts
behauptet werden kann. Wie sich die Wahrscheinlichkeitskonzeptionen über die-
sen logischen Sachverhalt selbst hinwegtäuschen, haben wir schon ausführlich
beschrieben. Es kann jedenfalls nicht verwundern, daß in den Simulationen aus-
gebreiteter Gebrauch von statistischer Wahrscheinlichkeit und Schlußfolgerungen
daraus gemacht wird.
Da diese in ihren mathematischen Formalisierungen als sicheres und wahrheits-
garantierendes Wissen gelten, ersetzen und vertreten sie alles das, was auf der
Faktenebene alles andere als sicher, gewiß und etablierte Wahrheit ist. Damit
erfüllt das Simulationsverfahren die erste römische Maxime: „Simulo quae non
sunt“. Die mathematischen Simulationen stehen als „wahre Theorien“ für nur
vermutete und unsichere Fakten. Und zugleich decken sie das Ungewisse, vom
dem man nur mit Sicherheit weiß, daß da „irgend etwas ist“, mit Wahrheits- und
Gewißheitsansprüchen zu. Damit erfüllen sie auch die zweite römische Maxime:
„Quae sunt ea dissimulantur“. Erst die post-festum Verifikationen und Falsi-
fikationen können allenfalls als Begründungen für gelungene oder mißlungene
Simulierung dienen. Aber post festum sind die Simulationen nicht mehr Simu-
lationen, sondern Tatsachenbehauptungen.
Ersichtlich sind es gerade die schwierigsten Grundprobleme, an denen sich
metaphysische Forschung jahrhundertelang abgearbeitet hat, die nun mit der
Simulationstechnik in Angriff genommen und mit der Hoffnung auf endgültige
Erledigung bewältigt werden sollen. Nämlich die Fragen: Was ist eigentlich Geist,
Subjekt, „Intelligenz“ und deren Leistungsfähigkeit; und was ist das „Ding an
sich“ als objektiver Kern aller Wirklichkeit.
Auf der metaphysischen Grundlage des herrschenden materialistischen Realis-
mus geht die KI-Forschung (Künstliche Intelligenz-Forschung) davon aus, das
Gehirn sei das materielle Substrat des Geistes bzw. des Subjekts. Die physiolo-
gischen Gehirnprozesse müßten daher durch maschinelle Prozesse simuliert
werden können.
Der Mathematiker Johann v. Neumann (1903 – 1957), neben Konrad Zuse
(1910 – 1995) der Pionier des Computerbaus, der für sein photographisch genaues
und zuverlässiges Gedächtnis berühmt war (er konnte schon als Kind eine Tele-
172

phonbuchseite mit allen Namen und Nummern zuverlässig erinnern) hat in seinem
Buch „The Computer and the Brain“ 103 die „Analogie“ des Computers zum
menschlichen Gehirn unterstrichen. Für die Wissenschaften relevant sind dabei
naturgemäß die sogenannten kognitiven Leistungen des Gehirns.
Aber wie man durch Maschinen seit jeher die menschlichen körperlichen
Leistungen verlängert und verstärkt hat, so natürlich auch die sogenannten intel-
lektuellen Leistungen. Teleskop und Mikroskop, Hörgeräte, Thermometer und
Waagen sind Verlängerungen der sinnlichen Organe. Leibnizens Rechenmaschine
war die erste Maschine, die auch eine solche – und zwar notorisch aufwendige
und umständliche – intellektuelle Leistung, nämlich das Rechnen in den Grund-
rechnungsarten verlängerte, beschleunigte und fehlerlos ersetzte.
Mit Recht sieht man darin die Matrix der Computer. Das Wort Computer ( =
„Rechner“) selbst hat diesen Ursprung festgehalten. Nur in Frankreich hat man
eine weitere Leistungsfähigkeit der Computer aus jüngeren Entwicklungen in den
Vordergrund gerückt. Man nennt sie dort „ordinateur“ und betont damit zugleich
mit ihrer Datenspeicherkapazität – die als maschinelles Gedächtnis eingeschätzt
wird - die zuverlässige Klassifizierung und Anordnung der Daten und ihre sichere
Abrufbarkeit.
Gewiß übertrifft der Computer inzwischen jede menschliche Erinnerungs- und
Ordnungskapazität. Daher überlassen wohl die meisten Zeitgenossen ihre Erin-
nerungen und die Registerhaltung ihrer Angelegenheiten ihrem Computer. Und
ersichtlich wird im gleichen Maße das individuelle Erinnern und die Ordnungs-
haltung vernachlässigt und ersetzt.
Computerprozesse werden durch Algorithmen gesteuert. Das sind in der Mathe-
matik Handlungs- bzw. Prozeßanweisungen für die Durchführung von Rechnun-
gen. Computerprogramme sind mehr oder weniger komplexe Algorithmen, die
das Funktionieren der Computer auf bestimmte Ergebnisse hin abrichten und
steuern. Längst setzt man sie daher auch für alle möglichen Berechnungen ein, die
ein Mensch wegen Umfang und Dauer nicht mehr durchführen kann. Daraus hat
sich auch in der Wissenschaft längst ein computergestütztes „Puzzle-Solving“,
also das mechanische Problemlösen, durchgesetzt. Insbesondere mechanisiert man
mathematische Beweisverfahren.104
Nun weiß man zwar genau, wie die Computer funktionieren, aber nicht, wie das
menschliche Gehirn funktioniert. Gemeinsam haben beide nur, daß man „von
außen“ nicht sieht, wie sie ihre Geschäfte erledigen. Beide sind das, was man
„black box“ (eine schwarze Kiste) nennt, in die etwas hineingetan wird („in-put“)
und etwas herauskommt („out-put“). Und so kommt wiederum das mathematische
Modelldenken, verstärkt durch das Simulieren unbekannter Vorgänge durch be-
kannte Prozesse, ins Spiel. Wenn der Computer so gut rechnen und Daten spei-

103
J. v. Neumann, The Computer and the Brain, 1958, neue Aufl. New Haven 2000, dt.: Die Rechenmaschine und das
Gehirn, 1958.
104
Vgl. dazu die Literatur bei Kl. Mainzer, Artikel „Intelligenz, künstliche“, in: Enzyklopädie Philosophie und Wissen-
schaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-Zürich 1984, S. 255 –256.
173

chern und wieder hervorrufen kann, und beides als ausgezeichnete und geradezu
paradigmatische Intelligenzleistung gilt, so läßt man sich gerne zu dem Schluß
verführen, geradezu alle Bewußtseinsakte ließen sich computermäßig simulieren.
Als Beweis für gelungenes Simulieren der rechnenden und datenspeichernden
Intelligenz gilt nicht von ungefähr das Schachspiel der Schachcomputer gegen die
Weltmeister des Schachspiels. Und da freies Entscheiden und sogenannte Krea-
tivität als wesentliches Anthropinon gilt, haben viele Tonkünstler und Maler ihre
Kreativität längst in die Programmierung von geräusch- und bilderzeugenden
Computern mit eingebauten Zufallsgeneratoren verlagert. Was man aber bisher so
noch nicht simulieren kann, ergibt dann regelmäßig ein willkommenes und stets
auszuweitendes Forschungsprogramm.
Neben dem Rechnen ist es das Sprechen, welches gemeinhin als „Out-put“ von
Denkprozessen gilt. Das sieht man schon daran, daß alles Schulwesen heute
Mathematikkenntnisse und Sprachverfügung als hauptsächliche Testfelder intel-
ligenter Leistungen festgeschrieben hat. Auch bei den sprachlichen Artikulationen
findet der Computer seit langem verstärkten Einsatz. Schriftliche und lautliche
out-puts gehören längst zum Standard der Computer bei Übersetzungen, bei
Robotern und Automaten bis hin zu den Richtungsanweisungen im GPS der Fahr-
zeuge.
Und so hält man es für eine Frage des Fortschritts, bis auch alle weiteren
Gehirnfunktionen computermäßig simuliert werden könnten. Puppen lachen und
weinen schon und simulieren Gefühle. Die inzwischen aufgelaufene Literatur zur
Künstlichen Intelligenz läßt schon ahnen, was man sich davon verspricht, nämlich
die Klonung menschlicher Gehirne in Gestalt von Computern und den Zusam-
menschluß von Computerelementen mit neuronalen Organen (Implantation von
Computerchips ins Gehirn). Auch die Tagespresse nimmt regen Anteil an der
Reklame.105 Alle diese schönen Hoffnungen und Aussichten, die inzwischen mit
Millionendotierungen an zahlreichen Forschungsinstituten genährt und unterhal-
ten werden, beruhen aber, wie schon vorn gesagt, auf naturwissenschaftlichen
Modell- und Simulationsmethoden. Der Computer ist Modell des Gehirns, und die
Computerprozesse sind die Simulationen des menschlichen Seelenlebens. Daß nur
eine Analogie vorliegt, die neben dem, was dabei identisch funktioniert, gerade
das Unterschiedliche kennzeichnen sollte, gerät dabei immer mehr aus dem Blick.
Man muß schon die Perspektive eines sensualistischen Idealismus einnehmen,
um zu erkennen, daß auch Gehirne und ihre Funktionen etwas sind, was erst
einmal gesehen, beobachtet und erforscht werden muß, und zwar keineswegs
durch Computer.
Die sogenannten bildgebenden Beobachtungsverfahren, die die Grundlage für
die hirnphysiologischen Erkenntnisse darstellen, haben einstweilen nur eine neue

105
Vgl. z. B. FAZ vom 6. 8. 2011, S. 31: Art. „Unsterblichkeit für alle“: „Unermüdlich arbeitet Ray Kurzweil daran, uns
den Weg ins ewige Leben zu weisen. Im Jahr 2029, so prophezeit es der amerikanische Autor und Erfinder, werden das
menschliche Gehirn und der Computer eine Einheit bilden“.
174

innersomatische Beobachtungsebene neben den äußeren Beobachtungsflächen


psychischer Phänomene (z. B. Verhalten oder Gesichtsausdruck) geschaffen. Sie
sind nur eine Fortentwicklung der schon lange üblichen Diagnoseinstrumente, mit
denen man „unter die Haut“ gehen kann. Dabei ist man noch weit davon entfernt,
die elektrischen, chemischen und physiologischen Funktionen des Gehirns zu
durchschauen. Für alle diese Funktionen aber hat sich mittlerweile der gutklin-
gende Terminus „Feuern der Neuronen“ (ein schönes Oxymoron als Modell)
eingebürgert.
Computer als Maschinen müssen konzipiert, konstruiert und ihre Programme
entwickelt werden, und auch dies nicht durch Computer, sondern mittels lebendi-
ger Gehirne. Das wird durch menschliche Intelligenz und psychisches Leben von
Subjekten (oder „Geistern“) geleistet, die sich keineswegs selbst konstruieren,
programmieren und nach Modell- und Simulationsmethoden erklären lassen.
Das andere Feld der Simulationen ist die „objektive Welt“ der Dinge, Sachver-
halte und Vorgänge „an sich“. Das erstreckt sich von den mikrophysikalischen
Vorgängen in den Atomen mittels des sogenannten Standard-Modells der Teil-
chen und ihrer Wechselwirkungen bis zur Evolution des Universums mitsamt der
Evolution der Lebewesen. Wie dies methodisch geschieht, haben wir vorn schon
verschiedentlich berührt. Was man einigermaßen kennt, wird als Modell und
Simulation auf das Unbekannte übertragen. Und was nicht zum Modell-Modell
paßt, wird aus der Beachtung und Betrachtung ausgeschlossen.
Am bekanntesten dürfte heute die Klima-Simulation geworden sein. Sie hat sich
aus der Wetterprognostik entwickelt. Daß diese früher stets in Konkurrenz mit
„Omas großer Zehe“ stand und dabei oftmals hinter Omas Treffern zurückblieb,
dürfte dem älteren Radiohörer noch in Erinnerung sein. Inzwischen ist das Klima
so etwas wie die geographische und historische Durchschnittslage aller Wetter-
verhältnisse über dem Erdplaneten geworden.
Die Faktenlage ergibt sich aus historischen Wetteraufzeichnungen, aus der Ge-
schichte der Vulkanausbrüche und vermuteter Meteoriteneinschläge auf der Erde,
aus Einlagerungen in Korallen, den Wachtumsringen langlebiger Bäume und der
Verteilung und Abholzung von Wäldern, den polaren Eislagern mit konservierten
Pollen, den Meeres- und Binnensee-Ablagerungen und den fossilen Funden;
darüber hinaus aus Schwankungen der Erdbahnparameter, den Variationen der
Sonneneinstrahlung und der Meeresströmungen und der Meerespegel. Die Luft-
strömungen über Weltmeeren waren übrigens die ersten Wetterphänomene, die
auf diese Weise simuliert wurden. Sie waren stets schon für die Schiffahrt
wichtig.106
Von Außenseitern wird immer wieder auf weitere Faktoren hingewiesen, die
wegen schwieriger Modellier- und Simulierbarkeit nicht in die Klimaprognosen
eingehen. So etwa der gesamte und stets ausgeweitete Funkverkehr, der erheb-
liche Energievolumina in die Wetterverhältnisse einbringt, und den z. B. Klaus-
106
Zur Entwicklung auch G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for
General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 316 – 324.
175

Peter Kolbatz schon seit 1994 für die Zunahme der regionalen Sturm- und
Regenkatastrophen verantwortlich macht.
Am meisten umstritten ist dabei der Eintrag zivilisationserzeugter sogenannten
Treibhaus-Gase, besonders des Kohlendioxyds. Sie waren zwar schon immer eine
natürliche Bedingung des Lebens auf der Erde. Jetzt werden sie jedoch wegen
vermuteter übermäßiger Freisetzung aus ihren natürlichen Speichern in Kohle,
Erdöl und Erdgas als ein Hauptfaktor der Klimaerwärmung angesehen.
Die Daten sind recht kontingent und weisen in allen geschichtlichen Epochen
eine erhebliche Streuung auf. Je mehr man mit derartigen Daten und den immer
dichter ausgebauten Meßstationen der Gegenwart nahe kommt, desto dichter wer-
den sie. Sicher ist vom Klima aber nur das eine: daß es immer und überall ein
Klima (als Integral der Wetterlagen) gegeben hat. Aber wie es früher war, ist
überwiegend unbekannt, und wie es jetzt ist, kann jedermann direkt beobachten.
Es ist schon eine erhebliche (hypothetische) Induktion, vom Wetter in verschie-
denen Erdregionen und in begrenzten Zeitperioden zum Klima überzugehen und
dabei das Klima als Wetterdurchschnitt bestimmter Zeitepochen oder geographi-
scher Zonen zu definieren.
Die Klimax der Simulation aber ist bei alledem die Tendenzformulierung gemäß
der Comteschen Devise des „Savoir pour prévoir“. Wie das Wetter (je nach
Wunsch und Nutzen) mal für besser, mal für schlechter gehalten wird, so auch die
Simulation. Die einen beklagen, die anderen wünschen eine bestimmte Klima-
tendenz. Und jede gewünschte Tendenz läßt sich auch simulieren.
Hier kommen jedoch die nationalen und erst recht die industriellen und kom-
merziellen Interessen ins Spiel. Wird es tendentiell kälter (in Richtung auf eine
neue Eiszeit), so erscheint das genau so gefährlich und lebensbedrohend wie eine
Tendenz zur Erwärmung. Beide Tendenzen lassen sich durch entsprechend aus-
gewählte fotographische Bestandsaufnahmen bestimmter Weltregionen illustrie-
ren. Die Kehrseite dieser Gefahren ist freilich der kaum öffentlich diskutierte
Nutzen und Vorteil solcher Tendenzen für die eine oder andere Weltgegend und
ihre Bewohner, seien es Menschen oder Tiere und Pflanzen.
Die überall privilegierte Ausrichtung der Klima-Simulation zwischen den ex-
tremen Tendenzen ist die Konstanthaltung des Klimas geworden, der Status quo,
wie er gegenwärtig empfunden wird. Die Simulation liefert ein mathematisches
Bild, in welchen die bekannten und die zahlreichen vermuteten unbekannten
Faktoren ein prekäres Gleichgewicht aller bekannten und unbekannten Faktoren
vortäuschen. Schon die Einteilung natürlicher und zivilisatorischer Faktoren, die
in diese Simulationen eingehen, bleibt willkürlich und interessengebunden. Daß
die Weltklimakonferenzen dazu auffordern können, das Klima so, wie es sich
heute darbietet, zu stabilisieren und dazu ungeheure Ressourcen aufzubieten, dürf-
te eine der merkwürdigsten Erscheinungen der bisherigen Weltgeschichte sein.
176

§ 13 Die Bestimmung des wissenschaftlichen Wissens.

Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches
und wahr-falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und
Erkenntnisse. Die Verkennung von Dokumentationen als Wissensbasen.

Wissenschaftliches Wissen wird gewöhnlich strikt vom Alltagswissen unterschie-


den und abgegrenzt. Doch geht es in der Regel von diesem aus und bleibt auch
immer darauf bezogen. Denn der größte Teil des Alltagswissens ist, jedenfalls im
Abendland, wissenschaftliches Wissen von ehedem. Wissenschaftliches Wissen
ist auch zu großen Teilen Bestätigung von Alltagswissen, wenn auch oftmals in
verfremdeter Terminologie und somit kaum wiedererkennbar. Zuweilen stellt es
sich aber gerade als dessen Widerlegung und Korrektur dar. Schließlich aber wird
das Wissen auch auf Erfahrungsbereiche ausgedehnt, das den Alltagserfahrungen
nicht zugänglich ist. Dieses wissenschaftlich erarbeitete Wissen wird oft mit
gehöriger zeitlicher Verzögerung allmählich in das Alltagswissen einspeist und
dieses dadurch bereichert.
Ganz verfehlt ist die Auffassung, wissenschaftliches Wissen sei - gerade im
Gegensatz zu Alltagswissen - durchweg wahres Wissen. Es teilt vielmehr mit
jenem die Eigenschaft, teils wahr und teils falsch zu sein. Während Alltagswissen
seiner Natur nach täglich auf dem Prüfstand hinsichtlich seiner Wahrheit und
Falschheit steht, hat wissenschaftliches Wissen vielerlei Formen und Gestalten
entwickelt, in denen es wahr und falsch zugleich ist. Die verbreitetste Gestalt
solcher „Wahr-Falschheit“ ist das, was in § 11 als „Wahrscheinlichkeitswissen“
behandelt wurde.
Wissenschaftliches Wissen besteht aus Kenntnissen und Erkenntnissen. Dies ist
eine Unterscheidung, die Aristoteles herausgearbeitet hat, und die seither festge-
halten worden ist.
Kenntnisse beziehen sich auf Fakten und Daten. Aristoteles bestimmte sie als
dasjenige Wissen, das durch Beschreibungen der „empirischen“ und „histori-
schen“ Erfahrungen gewonnen wird. Werden sie methodisch erhoben, so wird
dieses Faktenwissen in den „beschreibenden Wissenschaften“ („-Graphien“ und
„Historien“) konsolidiert. Diese Bezeichnung hat sich für einige Wissenschaften
bis ins 20. Jahrhundert erhalten, wie z. B. in „Historiographie“ und „Geographie“.
Faktenkenntnisse werden in der Regel mittels ihrer Eigennamen und/oder soge-
nannte Kennzeichnungen gewußt. Man „kennt“ die Namen bzw. Bezeichnungen
von Personen, Dingen, Ereignissen, Sachverhalten, Örtern und bedient sich ihrer,
um sich an sie zu erinnern und/oder sie sich vorzustellen. Oft braucht es einigen
Lernaufwand, um sie sich zu „merken“, wie bei den Eigennamen von Personen
und ihren „Daten“ oder bei bestimmten Ereignissen. Dieser Aufwand ist auch
beim Studium zu beachten, das grundsätzlich auf solchen Kenntnissen aufbaut.
177

Fachkenntnisse bestehen wesentlich aus Kenntnissen der Terminologie, der


Eigennamen von wichtigen Wissenschaftlern, insbesondere von Klassikern, den
Titeln ihrer Hauptwerke und ihren Publikationsdaten, von wichtigen historischen
Ereignissen und ihren „Daten“, von Formeln und inhaltlichen „Merksätzen“ (evtl.
Zitaten oder Argumenten). Jede Prüfung von Studienerfolgen fragt zuerst nach
solchen Daten. Erst im Anschluß an solche Kenntnisse kann man nach „Erkennt-
nissen aus und über“ diese Daten weiterfragen. Mancher Studierende bleibt bei
solchen Kenntnissen stehen. Als diplomierter Absolvent mag er sogar mit sol-
chem Faktenwissen glänzen, das er wie ein Papagei vortragen und ausbreiten
kann. Was man gelegentlich „falsche Kenntnisse“ nennt, bezeugt aber Unkennt-
nis. Sie sollte nicht mit falschen Erkenntnissen verwechselt werden.
Erkenntnisse beziehen sich auf Beziehungen und Verknüpfungen von Kennt-
nissen untereinander. Sie werden daher, im Unterschied zum „empirischen und
historischen Faktenwissen“, gewöhnlich auch „theoretisches Wissen“ genannt.
Aristoteles sah darin das eigentliche „szientifische“ (griech.: epistematische) Wis-
sen derjenigen Wissenschaften, die über die empirisch-historische Stufe hinaus-
gewachsen sind. Sie erklären die einzelnen Daten und Fakten aus Ursachen (vgl.
seine Lehre von den „vier Ursachen“). Im Unterschied zu den „graphischen Wis-
senschaften“ nannte er sie „-Logien“ oder auch „Techniken“.
Auch das ist – unter mancherlei Veränderungen der Ursachentheorien – im
allgemeinen erhalten geblieben. Noch jetzt benennt man einige Wissenschaften
mit der Endung „-logie“ (wie Ontologie, Theologie, Kosmologie, Biologie, Sozio-
logie, Psychologie), andere mit der Endung „-ik“ (wie Logik, Mathematik, Rhe-
torik, Ethik, Ökonomik, Politik, Pädagogik, usw.). Ursprünglich zeigte die En-
dung „-ik“ (von griech.: „-iké téchne“) an, daß ihr Gegenstand Handlungsbezüge
aufwies. Neuere Wissenschaftbezeichnungen benutzen diese Endungen jedoch
eher nach dem Wohlklang (wie z. B. Germanistik, Sinologie).
Einfachste Formen solcher Erkenntnisse sind schon die Definitionen wissen-
schaftlicher Begriffe, die die Termini mit anderen Termini in geregelte logische
Beziehungen setzen. Sie zeigen (wie in Prüfungen oft erfragt wird), daß die Daten
und Fakten nicht nur bekannt, sondern auch verstanden worden sind. In weiteren
Zusammenhängen werden diese Erkenntnisse zu „Argumenten“. Sie können in
mehr oder weniger schlichter und konziser Form niedergeschrieben, vorgetragen
und diskutiert werden, aber ebenso auch in hochformalisierter Gestalt. Fachliche
Kompetenz und ggf. Brillanz zeigt sich darin am meisten. Vor der sich ausbrei-
tenden Manie, Argumente nur als „Intuitionen“ vorzutragen, haben wir allerdings
schon eingangs gewarnt.
Die elaboriertesten Formen der Erkenntnisse sind die wissenschaftlichen Theo-
rien. Sie verknüpfen im Idealfall nur wohldefinierte Begriffe zu einem systema-
tischen Gesamt („hard core“ im „non-statement-view“). Gelingt dies, so ist ihr
pyramidaler Zusammenhang auch in Sätzen (logischen Urteilen), Argumenten und
Schlüssen formulier- und lesbar.
178

Es sei auch hier betont, daß neben den Argumenten auch und gerade Theorien,
und erst recht Teile von Theorien, wahr, falsch und auch wahr-falsch sein können.
Ebenso sei hier nochmals auf die merkwürdige Tatsache hingewiesen, daß in der
neueren Wissenschaftstheorie der Mathematik und Naturwissenschaften die Mei-
nung vertreten wird, daß insbesondere die Grundbegriffe bzw. „Prinzipien“ (axio-
matische Grundbegriffe) einschlägiger Theorien gerade „undefinierbar“ seien. Es
handelt sich dabei jedoch um die ersichtlich wahr-falsche These, daß solche
Grundbegriffe zugleich Begriffe und auch keine Begriffe seien.
Alles Wissen ist grundsätzlich Wissen lebendiger Menschen. Es besteht daher
wesentlich im Vollzug sogenannter geistiger Handlungen. Da diese privater Natur
und von anderen Menschen nicht unmittelbar erfaßbar sind, kann man ein Wissen
nur auf Grund seiner Verlautbarungen in sprachlichen und anderen symbolischen
Zeichen erschließen. Man nennt dies gewöhnlich „Objektivierung“ des Wissens.
Sprachliche Äußerungen auf Tonträgern, Texte, Bilder und Schemata gelten all-
gemein als solche Objektivierungen und sind die Grundlage für alle öffentlichen
Institutionen des Wissens.
Die Tatsache solcher Objektivierungen des Wissens führt allerdings zu der ver-
breiteten irrigen Auffassung, Wissen selbst bestünde in diesen Objektivierungen.
Daher spricht man heute allgemein von Texten, Dateien u. ä. als „Wissensbasen“.
Von da ist es nur ein kleiner Schritt, Dokumentationen, Bibliographien, Bücher,
Bibliotheken, Archive insgesamt als „objektives Wissen“ anzusehen und ihre Ord-
nungsapparaturen als „Expertensysteme“ zu bezeichnen. Besonders die Computer
mit ihrer ungeheuren Leistungsfähigkeit für die Speicherung und Zur-Verfügung-
stellung solcher Objektivationen haben diese Meinung verbreitet, so daß man
wegen der Verbreitung der Computer auch die sie benutzende Gesellschaft gerne
„Wissensgesellschaft“ nennt.
Hinter allen solchen Bezeichnungen verbergen sich aber nur Halbwahrheiten. Es
ist wahr, daß solche Apparate Wissen dokumentieren und den Zugang zu ihm
erleichtern und ordnen können. Aber es ist eine falsche Meinung, daß die Doku-
mentation von Wissen schon selber Wissen sei. Wie oben schon betont, kommt
Wissen nur (privat und individuell) zustande, wenn die Dokumentation zur Kennt-
nis genommen, gelesen, verstanden und „bedacht“ wird, und zwar eben durch
einen lebendigen Menschen in seinen (privaten) geistigen Kenntnis- und Erkennt-
nisakten.
Frühere Zeiten haben die platonische Einsicht kultiviert, daß Reden, Texte, Do-
kumentationen stumm und tot bleiben, wenn sie nicht in einem lebendigen Be-
wußtsein verarbeitet werden. Man war sich darüber im klaren, daß die (mate-
riellen) Formen sprachlicher Verlautbarungen von Texten, Bildern, Schematen ein
Mittel waren, geistige Akte zu evozieren und diesen selbst eine bestimmte Form
zu geben. Daher nannte man sie „Informationen“ (wörtlich: In-Form-Bringen).
Heute spricht man zwar noch in diesem alten Sinne davon, man „informiere sich“,
wenn man sich aus Dokumenten ein bestimmtes Wissen verschafft. Aber die
Information wird mehr und mehr mit dem Dokument als solchem, dem In-Form
179

Gebrachten, identifiert. Das erzeugt den Anschein, als ob das Dokument selber
schon ein Stück Wissen wäre. Man glaubt, Wissen ließe sich im Computer spei-
chern.
Abgespeicherte Information ist dann aber nicht mehr die gelesene, aufgenom-
mene, verstandene oder auch unverstandene, und gewußte Botschaft, sondern die
materielle Zeichenhülle selbst. Kein Wunder, daß Menschen, die sich auf solches
„dokumentiertes Wissen“ verlassen und die Information in Bits und Bytes quan-
tifizieren und sich dabei vom eigenen Erfassen und Denken entlasten, dabei in
Gefahr geraten, immer dümmer zu werden. Da dies jedoch eine sehr weit ver-
breitete Tendenz in den modernen Gesellschaften ist, muß es falsch und irre-
führend sein, die gegenwärtige Gesellschaftform eine „Wissensgesellschaft“ zu
nennen.

§ 14 Die Bestimmung von Wissenschaft


Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und
informationstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung.
Wissensbasen und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und
Zusammenhang von Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die
Aufgaben der Forschung

Nach dem bisher Gesagten müssen wir darauf bestehen, daß Wissenschaft wesent-
lich auf wissenschaftlichem Wissen beruht. Vieles andere kommt noch hinzu, aber
es ist nicht mit diesem Wesentlichen zu verwechseln, noch, wie es in der Wissen-
schaftstheorie häufig geschieht, an seine Stelle zu setzen.
Wissenschaft wesentlich auf das Wissen zu gründen, heißt keineswegs, es auf
ein anthropologisches oder psychologisches Wissen über das Wissen zu gründen
und damit einem reduktionistischen Anthropologismus oder Psychologismus zu
huldigen. Denn solches philosophisches Bereichswissen oder einzelwissenschaft-
liches Wissen, wie es auch das psychologische Wissen selbst ist, könnte allenfalls
ein Beispiel, ein Fall von wissenschaftlichem Wissen sein, das selber schon ge-
wußt werden muß.
Betonen wir beiläufig: Menschen haben auch vor der Entstehung oder Erfindung
von Wissenschaft mancherlei gewußt, und erst recht weiß jeder Mensch vieles,
ohne Anthropologe oder Psychologe zu sein und über spezielles Wissen aus
diesen Disziplinen zu verfügen. Wenn also die Wissenschaft darauf warten müßte,
bis eine besondere Wissenschaft geklärt hätte und „weiß“, was Wissen selber ist,
so gäbe es sicherlich noch keine Wissenschaften. Ebenso beiläufig sei gesagt:
Wenn Sokrates behauptete, daß er „wisse, daß er Nichts (genauer: nicht) wisse“
und Descartes, daß er „wisse, daß er wisse“, so verdanken diese Sprüche ihre
180

Notorietät offensichtlich gerade der Tatsache, daß sie auf ein Wissen hinweisen,
das sich in keiner Weise „objektivieren“ läßt.
Ein ebenso falscher Reduktionismus liegt der Denkfigur und der darauf beru-
henden Bestimmung des wissenschaftlichen Wissens als „Wissen von...“ zugrun-
de. Man setzt dabei voraus, dasjenige, von dem oder über das etwas gewußt wer-
de, sei die sogenannte objektive Wirklichkeit, also schlechthin der Gegenstand des
Wissens und der Wissenschaft. Diese wissenschaftlichen Objekte müßten unab-
hängig von allem Wissen erst einmal „gegeben“ und somit dem Wissen von ihnen
vorgegeben sein.
Diese Denkfigur ist in unseren Zeiten ein Grundgedanke des herrschenden
Realismus in den meisten Wissenschaften geworden. Es wird dabei aber nicht
bedacht, daß man das „Wovon“ und „Worüber“ des Wissens immer schon erkannt
haben und davon wissen muß, um überhaupt darüber reden zu können. Deshalb
verweist auch diese „realistische“ Denkfigur nur wiederum auf ein vorgängiges
Wissen, das dann weiteres „nachgängiges“ Wissen erzeugt, hinter das aber nicht
zurückgegangen werden kann.
Da nun Wissenschaft wesentlich auf Wissen beruht und dieses grundsätzlich ein
(privater) und bewußter Besitz lebendiger Menschen ist, sollte man sie am ehesten
bei den Wissenschaftlern selbst vermuten. In der Tat hat man diejenigen, bei
denen man Grund zu dieser Vermutung hatte, seit jeher als „Weise“ geehrt und
ausgezeichnet. Dieser Sitte verdanken sich noch immer alle Wissenschaftspreise
und Ehrungen.
Das alte Wissen darum, daß die Wissenschaft wesentlich vom Wissen der Wis-
senschaftler getragen wird, ist zwar heute sichtlich im Schwinden begriffen zu-
gunsten der Meinung und Erwartung, „objektiviertes“ Wissen stelle sich in den
wissenschaftlichen Institutionen mehr und mehr von selbst und gleichsam auto-
matisch in der oben genannten informationstechnischen Weise her. Aber man
wird auf das „lebendige“ Wissen zurückkommen müssen, wenn man Wissen-
schaft wirklich haben und erhalten will.
Wissen erwirbt man bekanntlich durch Lernen aus der Lebenserfahrung oder
durch Unterricht. Das gilt natürlich auch für wissenschaftliches Wissen. Ein guter
Wissenschaftler hat wie andere Menschen auch schulichen Unterricht genossen
und Lebenserfahrungen angesammelt. Wie gut die Schule und sein wissenschaft-
liches Studium war und wie tief und vielfältig seine Lebenserfahrungen sind, das
bestimmt auch nachhaltig die Qualität seines Wissens. Im übrigen lernt er im
besten Falle ständig hinzu und unterrichtet sich selbst weiter. „Life long learning“
war immer ein Spezifikum der Wissenschaftlerexistenz. Es nun jedermann zuzu-
muten kann nur bedeuten, alle Menschen zu Wissenschaftlern bilden zu wollen.
Dabei wäre es viel wichtiger, darauf zu achten und Sorge dafür zu tragen, daß und
wie schon einmal erlangte Wissensstandards in allen Bereichen des Lebens und
der Wissenschaft erhalten, vermittelt und womöglich verallgemeinert werden
könnten.
181

Obwohl wissenschaftliches Wissen an allgemeines Schul- und Alltagswissen


anknüpft, unterscheidet es sich doch auch von diesem in mancher Hinsicht. Die
Wissenschaften haben, so lange es sie gibt, Vermittlung und Erweiterung des wis-
senschaftlichen Wissens durch besondere Institutionen zu sichern versucht, näm-
lich durch Lehre und Forschung.
Hier ist zunächst zu betonen, daß Lehre und Forschung Hilfsmittel zur Ge-
winnung, Vermittlung und Erweiterung des wissenschaftlichen Wissens sind, kei-
neswegs aber das Wesentliche der Wissenschaft selber darstellen.
Sie sind nächst dem wissenschaftlichen Wissen zwar das Auffälligste und daher
am meisten Sichtbare an der Wissenschaft, gehören aber doch nur zum äußer-
lichen Apparat des wissenschaftlichen Betriebes. Und nur deshalb kann damit
herumexperimentiert werden, können Lehre und Forschung ständig verbessert
oder verschlechtert, revolutioniert, reformiert oder restituiert werden; kann Lehre
schulischem Unterricht angenähert oder auch davon abgehoben werden; können
sowohl Lehre als auch Forschung als handwerkliche Praxis, als Technik oder auch
als Kunst betrieben werden. Wichtig ist nur, ob sie ihrem Zweck genügen, näm-
lich wissenschaftliches Wissen aufrecht zu erhalten, zu perennieren, zu gewähr-
leisten, ständig zu kontrollieren und zu überprüfen und es gegebenenfalls zu er-
weitern.
Wissenschaftliche Lehre unterscheidet sich vom schulischen Unterricht nicht
nur durch die verschiedenen Lebensalter, in denen Schüler der gesetzlichen Schul-
pflicht unterliegen und Studierende sich mehr oder weniger zwanglos einem
Studium widmen.
Die wissenschaftliche Lehre tradiert ein wissenschaftliches Wissen, von dem
wir oben schon sagten, daß es wahres, aber auch falsches, und auf weite Strecken
wahr-falsches Wissen enthält. Was an diesem Wissen wahr, falsch oder beides
zugleich ist, festzustellen, ist gerade dasjenige, was die Lehre mit der Forschung
verknüpft, wie es Wilhelm von Humboldt mit seinem Diktum von der „Einheit
von Forschung und Lehre“ an Universitäten sehr richtig ausgesprochen, wenn
auch nicht erfunden hat. Kurz, die berühmte Wahrheitsfrage ist das ständige Prob-
lem der Wissenschaft, und ihre Lösung das Ideal, dem sie nacheifert.
Schulischer Unterricht hält sich im Unterschied zur wissenschaftlichen Lehre an
sogenannte ausgemachte Wahrheiten und im praktischen Bereich an effiziente und
erprobte Kulturtechniken, die dadurch vermittelt werden. Und diese werden daher
in den meisten Staaten von Bürokraten unter mehr oder weniger Beratung durch
Wissenschaftler in den Schulkurrikula festgeschrieben und kanonisiert.
Das ist im optimalen Fall derjenige Teil wissenschaftlichen Wissens, auf den
sich die Mehrheit der Fachwissenschaftler als wahr und sicher geeinigt hat. Inso-
fern handelt es sich oft um älteres und insofern etwas abgestandenes Wissen. In
anderen Fällen kann es sich aber auch um Wissen von wissenschaftlichen Min-
derheiten handeln, die ihre für wahr gehaltene Meinung über die Schulkurrikula
im Bewußtsein nachwachsender Generationen verankern möchten, ohne daß sie
dem Test längerer wissenschaftlicher Auseinandersetzung ausgesetzt gewesen
182

wäre. Dieses „avantgardistische“ Wissen kann sich zwar als wahr bewähren, es
kann sich aber auch als (falsche) „Ideologie“ erweisen.
Gegenwärtig kann man eine so eingeimpfte Gewißheitserwartung in weiten
Kreisen der Studierenden feststellen. Sie sind geschockt, enttäuscht und oft em-
pört, wenn sie an den Hochschulen einer forschungsnahen Lehre konfrontiert wer-
den, in der das meiste vorgetragene Wissen mehr oder weniger unsicher, disku-
tabel, problematisch erscheint. Gerade auf diese Unsicherheit des wissenschaft-
lichen Wissens hätte sich ein guter Schulunterricht immer auch propädeutisch im
Hinblick auf das wissenschaftliche Studium auszurichten und insofern mit aller
Vorsicht auf manche Ungesichertheit und Vorläufigkeit des wissenschaftlichen
Wissens vorzubereiten.
Begegnet man nun häufig bei den Studierenden und auch in weiten Kreisen der
Öffentlichkeit der Meinung, Wissenschaft sei als solche schon der Hort der
Wahrheit und eine „richtige“ Lehre vermittle daher lauter(e) Wahrheiten, so ist es
anderseits bei den Wissenschaftlern selbst geradezu eine Mode geworden, mit K.
R. Popper davon auszugehen daß alles in der Wissenschaft grundsätzlich unsicher
sei, daß alles Wissen der Wissenschaft nur vermutendes bzw. hypothetisches
„Wahrscheinlichkeitswissen“ sei, und daß sich Wissenschaft in und durch For-
schung nur allmählich und „asymptotisch“ der Wahrheit annähere, ohne sie je
erreichen zu können.
Dem Philosophen mag es zwar schmeicheln, darin eine alte Bescheidenheit wie-
derzuerkennen, die auf den Titel „Weiser“ (besser: Wissender) zugunsten der
„Liebe zur Weisheit“ (besser: zum Wissen) verzichtete - und damit auch auf das
Wahrheitsmonopol. Aber die Meinung, daß alles wissenschaftliche Wissen nur
wahrscheinlich sei, ist eine falsche Bescheidenheit und erst recht eine ganz falsche
Ansicht vom Wesen des wissenschaftlichen Wissens.
Das zeigt sich schon daran, daß man, um von einer „Annäherung an die Wahr-
heit“ (K. E. Popper) auch nur zu reden, schon wissen muß, was die Wahrheit ist.
Und wenn man das weiß, wie Popper natürlich voraussetzt, so hat man schon
wenigstens ein Stück wahren Wissens, von dem aus sich andere Stücke falschen
Wissens als falsch und als abständig von der Wahrheit einschätzen lassen.
Die wissenschaftliche Forschung stellten wir als Hilfsmittel zur Erweiterung
und Bereicherung des wissenschaftlichen Wissens heraus. Das Wort „Forschung“
(investigatio, auscultatio, scrutatio, skepsis, zetesis)107 verweist auf die Bedeutung
des Ausspähens, Herumblickens, Weitersehens, Suchens. So denkt man in erster
Linie daran, daß das wissenschaftliche Wissen durch Forschung neue Bereiche an
Kenntnissen und ihre erkennende Durchdringung erschließt.
Das ist in der Tat so. Die Erschließung ganz neuer Wissens- und Wissenschafts-
bereiche besonders in den Naturwissenschaften mit Hilfe neuer technischer
Experimentier- und Beobachtungsinstrumente hat diesen Forschungsbegriff ver-
festigt. Aber zur Forschung gehört neben der Erweiterung auch die Konsoli-
107
Vgl. L. Geldsetzer, Der Begriff der Forschung im 19. Jahrhundert. In: Jahrbuch der Universität Düsseldorf 1975/76,
Düsseldorf 1977, S. 135 – 146.
183

dierung und ständige Revision des wissenschaftlichen Wissens, also das, was wir
oben schon Prüfung der Wahrheit und Falschheit dieses Wissens genannt haben.
Man darf hier schon sagen: diese Art von Forschung steht heute weit hinter der
anderen, ständig auf Neues ausgerichteten - auch in der öffentlichen Wertschät-
zung - zurück. Der Zustand des kritischen Rezensionswesens in allen Wissen-
schaften zeigt es an. Es ist überall in vollem Verfall befindlich, und zwar zugun-
sten übersprudelnder „Informationen“ über neues Wissen, das nur noch darauf hin
geprüft wird, ob es nach „wissenschaftlichen Methoden“ erarbeitet, nicht aber ob
es wahres oder falsches Wissen ist.
Hinzu kommt ein in der Neuzeit sich immer mehr verbreitendes Fortschritts-
bewußtsein, das dazu neigt, alles schon vorhandene Wissen für überholt und daher
für „falsch geworden“ anzusehen. In gleichem Maße hält man es dann auch der
Mühe nicht mehr für wert, sich dieses Wissens überhaupt zu versichern, es zu
kennen und das vorgeblich Neue mit ihm zu vergleichen. Gerade dies aber ist die
einzig denkbare Probe für tatsächlich Neues. Man kann es auch so sagen: In
vielen Bereichen der Wissenschaft wird Amerika ständig neu entdeckt und das
Rad immer neu erfunden. Es wird nur anders benannt, und das erzeugt dann den
Anschein der Erschließung immer neuer „möglicher Welten“.
Forschung zur Erreichung und Verbesserung des Wissens gab und gibt es
natürlich auch außerhalb der Wissenschaft. Daher gilt von ihr ebenso wie von der
Lehre, daß sie vielfältige Gestalten annehmen kann. Sie kann sich auf handwerk-
liche Tricks und sogenanntes „know how“ stützen, sie kann als hohe Kunst
betrieben werden, und nicht zuletzt ist sie in neueren Zeiten immer mehr mit der
Technik verschmolzen worden. Das hat K. R. Poppers Schüler Paul Feyerabend
wohl mitgemeint und gesehen, als er für die Forschung die Parole ausgab:
„Anything goes“ (Alles geht) 108. Er hat mit dieser Parole aber viel zu weit ge-
griffen, indem er der Durchmischung aller Methoden und Tricks in der Wissen-
schaft ziemlich Vorschub geleistet hat. Wir haben aber schon genügend Gründe
aufgezählt, die es nahelegen sollten, zwischen wissenschaftlichen und außerwis-
senschaftlichen Forschungsmethoden zu unterscheiden.
Gerichtsprozessuale und „kriminalistische“ Verfahren zur Gewinnung (oder Her-
stellung) von wahrem Wissen und Entlarvung von Lüge, Täuschung und Betrug
sind wohl so alt wie die Kultur überhaupt. Sie haben in vielfältiger Weise Muster
und Modelle auch für die wissenschaftlichen Forschungsmethoden vorgegeben.
Gleichwohl ist die Forschung für die Wissenschaften derjenige Bereich geworden,
auf dem am meisten sichtbare und lehr- und lernbare Methoden entwickelt wur-
den, die daher im Mittelpunkt der Aufmerksamkeit der Wissenschaftstheoretiker
stehen. Angesichts der diesen Methoden gewidmeten Literatur könnte man den
Eindruck gewinnen, Wissenschaftstheorie sei fast nur Methodenlehre der For-
schung. Das ist bei der Wichtigkeit der Sache kein Wunder. Aber es besteht doch

108
P. K. Feyerabend, Against Method. Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the
Philosophy of Science IV, 1970, S. 117 – 130, 2. erw. Ausgabe: Against Method, London 1975; dt. erw. Übers.: Wider den
Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M. 1976.
184

Grund sich daran zu erinnern, daß auch Forschungsmethoden nur ein Mittel zum
Zweck der Wissensgewinnung und Wissenskonsolidierung sind, auf welche in der
Wissenschaft schlechthin alles ankommt.

II. Zur Geschichte der Disziplin Wissenschaftsphilosophie

§ 15 Aufkommen der Bezeichnung Wissenschaftphilosophie und die Tendenzen


zur Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschafts-
theorie

Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien,
der Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Archi-
tektoniken und Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der
Wissenschaften. Die Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften.
Die Philosophie als Verunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die
Vorbilder der klassischen Methodologien.

Die Disziplin wird - wie viele andere auch - durch eine gräzisierende Namen-
gebung in der deutschen Schulphilosophie des frühen 17. Jahrhunderts etabliert.
Dies geschieht in der kleinen Schrift von Clemens Timpler: „Wissenschaftswis-
senschaft oder allgemeine Abhandlung über das Wesen und die Unterschiede der
freien Künste bzw. der wissenschaftlichen Disziplinen“ von 1604 109, das auch als
Einleitung in sein „Systema metaphysicum“ öfter aufgelegt wurde.
Hier steht das griechische Wort „téchne” für das lateinische „artes” bzw. artes
liberales, d. h. die freien Künste oder wissenschaftlichen Disziplinen der „Arti-
stenfakultät”, d. h. der Philosophischen Fakultät. Die „Logie” der „technai” ver-
steht sich also als eine neue Wissenschaft von den Wissenschaften der Philoso-
phischen Fakultät, d. h. der „trivialen” (oder „sermocinalen“, auf Reden bezoge-
nen) „Geisteswissenschaften” (Logik, Rhetorik, Grammatik) und der „quadri-
vialen“ (oder „realen”, auf Sachverhalte bezogenen) „mathematischen“ Naturwis-
senschaften (Arithmetik, Geometrie, Astronomie bzw. Naturwissenschaft,, musi-
kalische Harmonielehre). Sie ist als Wissenschaft vom Wesen und den Unter-
schieden der Einzelwissenschaften konzipiert. Damit hat Timpler der Wissen-
schaftsphilosophie ihre früheste Programmschrift geliefert.
Freilich ist eine solche Programmschrift nur sichtbarer Ausdruck von Tenden-
zen, die zur Konstitution der Disziplin zusammenliefen. Und diese erstrecken sich
über längere Zeiträume, z. T. kommen sie erst in der Gegenwart zum Tragen.
Dafür seien vor allem die Bestandsaufnahmen des Wissens und der Wissen-
schaften hervorgehoben, die eine leichte Übersicht erlaubten und zur Reflexion

109
Clemens Timpler, Technologia, seu tractatus generalis de natura et differentiis artium liberalium, Hanau 1604.
185

über diese Materie herausforderten. Sie bringen sich zur Geltung in mehreren
Literaturgattungen.

Universalenzyklopädien der Wissenschaften.110 Unter diesen sind die bedeutend-


sten die folgenden:

Vincent von Beauvais, Speculum quadruplex (verf. um 1260), 4 Bände Douai 1624, ND Graz
1965
Gregorius Reisch, Margarita Philosophica, Freiburg 1503, 4. Aufl. 1517, ND in Instrumenta
philosophica Series Thesauri I, hgg. von L. Geldsetzer, Düsseldorf 1973
Joh. Heinr. Alsted, Scientiarum omnium Encyclopaedia septem tomis distincta, Herborn 1630, 2.
Aufl. Leyden 1649
J. Th. Jablonski, Allgemeines Lexikon der Künste und Wissenschaften, 2 Bde Königsberg-Leipzig
1721, 3. verm. Aufl. hgg. v. J. J. Schwaben, Königsberg u. Leipzig 1767
J. Harris, Lexikon technicum, or an Universal English Dictionary of Arts and Sciences, London
1704, 1708, 1710, 1736, Supplement 1744, ND New York 1967
Ephr. Chambers, Cyclopedia, or a Universal Dictionary of Arts and Scienes, 2 Bde London 1728,
6. Aufl. hgg. von A. Rees, 5 Bde London 1788 – 1791
J. H. Zedler (Hg. u. Verleger), Großes vollständiges Universal-Lexikon aller Wissenschaften und
Künste, 64 Bde und 4 Suppl.-Bde (A bis Cag), Halle u. Leipzig 1732 – 1754, ND Graz 1961- 1964
D. Diderot und J. LeRond d„Alembert (Hg.), Encyclopédie ou Dictionnaire raisonné des Sciences,
des Arts et des Métiers, 35 Bde Paris bzw. Neuchâtel-Amsterdam 1751 - 1780 (mehrere
Ausgaben), ND Stuttgart-Bad Cannstatt 1969 ff.- Umarbeitung und Erweiterung durch Ch. J.
Pankouke und H. Agasse zur Encyclopédie méthodique ou par ordre des matières, 166
Bände, Paris-Liège 1781 – 1832, Ausgabe in 184 Bänden, Padua 1791
J. G. Krünitz (Hg. u. Verleger), Ökonomisch-technologische Enzyklopädie der Wissenschaften
und Künste, 242 Bände Berlin 1773 - 1858
Deutsche Enzyklopädie oder allgemeines Real-Wörterbuch aller Künste und Wissenschaften, von
einer Gesellschaft von Gelehrten (sog. “Frankfurter Enzyklopädie”), 23 Bde Frankfurt 1778 –
1807
J. G. Gruber und J. S. Ersch (Hg.), Allgemeine Encyclopädie der Wissenschaften und Künste, 167
Bde (in 3 unvollständigen Serien), Leipzig 1818 – 1889, ND Graz 1969 ff.
A. Rees (Hg.), The Cyclopaedia or universal Dictionary of Arts, Sciences, and Literature, 45
Bände London 1819 ff.
M. N. Bouillet (Hg.), Dictionnaire universel des Sciences, des Lettres et des Arts, Paris 1854, 12.
Aufl. Paris 1877
La Grande Encyclopédie. Inventaire raisonné des sciences, des lettres et des arts, 31 Bände Paris
1885 – 1902.

2. Die Literar- und Wissenschaftsgeschichte im Sinne einer Faktenkunde des


Bereichs, wie z. B.

110
Vgl. G. Tonelli, A Short-Title List of Subject Dictionaries of the Sixteenth, Seventeenth and Eighteenth Centuries as
Aids to the History of Ideas (Warburg Institute Surveys IV), London 1971.- Vgl. zu den folgenden Materialien und weite-
ren Literaturgattungen L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissen-
schaftliche Institutionen, Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München 1971.
186

Dan. Georg Morhof, Polyhistor literarius, philosophicus et practicus, 1688, 4. Aufl. Lübeck 1747,
ND Aalen 1970 in 2 Bänden
Gottl. Stolle, Anleitung zur Historie der Gelahrtheit denen zum besten, so den freien Künsten und
der Philosophie obliegen, 1718, 4. Aufl. Jena 1736
V. Ph. Gumposch, Die philosophische Literatur der Deutschen von 1400 bis auf unsere Tage,
Regensburg 1851, ND in Instrumenta Philosophica Series Indices Librorum II, hgg. v. L.
Geldsetzer, Düsseldorf 1967
J. Andr. Fabricius, Abriß einer allgemeinen Historie der Gelehrsamkeit, 3 Bände, Leipzig 1752 –
1754
L. Wachler, Handbuch der allgemeinen Geschichte der literarischen Cultur, 2 Bände Marburg
1804, 2. Aufl.: Handbuch der Geschichte der Litteratur, 3 Teile in 2 Bänden Leipzig 1822 – 1824
W. T. Krug, Handbuch der Philosophie und der philosophischen Literatur, 2 Bände, Leipzig 1820
– 1821, 2. Aufl. 1822, 3. verm. Aufl. 1828, ND in Instrumenta Philosophica Series Thesauri III,
hgg. v. L. Geldsetzer, Düsseldorf 1969; schwedische Übers. von A. A. Bäckström, Stockholm
1831
W. T. Krug, Allgemeines Handwörterbuch der philosophischen Wissenschaften nebst ihrer
Literatur und Geschichte nach dem heutigen Standpunkt der Wissenschaften, 4 Bände nebst
Supplementband, Leipzig 1827 - 1829, 2. Aufl. in 6 Bänden 1832 – 1838
F. X. v. Wegele (Hg.), Geschichte der Wissenschaften in Deutschland, 22 Bde, München 1864 –
1913. Darunter Bd.VII Geschichte der Ästhetik von H. Lotze, 1886; XIII Geschichte der
Philosophie seit Leibniz von Ed. Zeller, 1873; XVIII (in 6 Teilbdn) Geschichte der deutschen
Rechtswissenschaft von R. Stintzing und E. Landsberg, 1880 – 1910; XIX (1-2) Geschichte der
klass. Philologie von C. Bursian, 1883; XX Geschichte der deutschen Historiographie von F. X.
von Wegele, 1885
F. Wagner und R. Brodführ (Hg.), Orbis Academicus, Problemgeschichte der Wissenschaften in
Dokumenten und Darstellungen, 3. Abteilungen in 59 Bänden, Freiburg i. Br. 1950 - 1987.
Darunter J. M. Bochenski, Formale Logik, 1956, 6. Aufl. 2002
L. Geymonat (Hg.), Storia del pensiero filosofico e scientifico, 9 Bände Mailand 1970, 2. Aufl.
1975

3. Bibliographie und Wissenschaftskunde:

C. Gesner, Bibliotheca universalis, sive catalogus omnium scriptorum, Tomus 1 - 3 nebst


Appendix, Zürich 1545 – 1555. ND Tom. 1 und Appendix mit der “Epitome” des Gesamtwerks
von J. Simler von 1555, Osnabrück 1966
M. Lipenius, Bibliotheca realis universalis omnium materiarum, rerum et titulorum in theologia,
iurisprudentia, medicina et philosophia occurrentium, Frankfurt 1679 - 1685, ND Hildesheim 1965
Burkh. Gotthelf Struwe, Bibliotheca Philosophica, Jena 1704, 5. stark erw. Aufl. hgg. v. L. M.
Kahle, Bibliothecae Philosophicae Struvvianae emendatae continuatae atque ultra dimidiam par-
tem auctae, 2 Bände Göttingen 1740, ND in Instrumenta Philosophica Series Indices Librorum,
hgg. v. L. Geldsetzer, Düsseldorf 1970
J. G. Sulzer, Kurzer Inbegriff der Wissenschaften und anderer Teile der Gelehrsamkeit, Leipzig
1745, 6. Aufl. 1786
J. M. Gessner, Primae lineae isagoges in eruditionem universam, Göttingen 1757 - 1760, 3. Aufl.
1786
J. S. Ersch, Handbuch der deutschen Literatur seit der Mitte des 18. Jhs. bis auf die neueste Zeit, 6
Bde Leipzig 1822 – 1840, ND Hildesheim 1969
J. S. Ersch und Christian A. Geissler, Bibliographisches Handbuch der philosophischen Literatur
der Deutschen von der Mitte des achtzehnten Jahrhunderts bis auf die neueste Zeit, 3. Aufl.
Leipzig 1850, ND in Instrumenta Philosophica Series Indices Librorum, hgg. mit Vorwort und
Registerbearbeitung von L. Geldsetzer, Düsseldorf 1965
187

J. Joach. Eschenburg, Lehrbuch der Wissenschaftskunde, Berlin 1792 - 1800, 2. Aufl. 1800, 3.
Aufl. 1809
K. Chr. Erh. Schmid, Allgemeine Enzyklopädie und Methodologie der Wissenschaften, Jena 1810
A. M. Moschetti und A. Padovani u. a. (Hg.), Grande Antologia Filosofica, 8 Abteilungen,
Mailand 1954 ff.
W. Schuder (Hg.), Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955

4. Die Architektoniken und Klassifikationen der Wissenschaften, welche den Blick


auf ihre Zusammenhangsprinzipien, ihre Voraussetzungsstruktur und ihre Unter-
schiede lenkt, die auch schon Timpler behandelte. In dieser Hinsicht sind be-
achtlich:

F. Bacon, Novum organum scientiarum (= Instauratio magna I), London 1620, dt. Übers. v. S.
Maimon, Neues Organon, Berlin 1793, dt. Übers. von A. T. Brück, Neues Organ der Wissen-
schaften, Leipzig 1830, ND Darmstadt 1974
J. LeRond d„Alembert, Vom Ursprung, Fortgang und Verbindung der Künste und Wissenschaften
(Discours préliminaire zur Encyclopédie, übers. v. J. Wegelin), Zürich 1761, franz. Ausg. Paris
1965
von Berg, Versuch über den Zusammenhang aller Teile der Gelehrsamkeit, Frankfurt a. M. 1794
W. T. Krug, Über den Zusammenhang der Wissenschaften unter sich und mit den höchsten
Zwecken der Vernunft, nebst einem Anhang über den Begriff der Enzyklopädie, Jena-Leipzig
1795
Töpfer, Encyklopädische Generalcharte aller Wissenschaften (gestochen von W. v. Schlieben),
nebst Kommentar, Leipzig 1806 – 1808
G. B. Jäsche, Grundlinien zu einer Architektonik der Wissenschaften nebst einer Skiagraphie und
allgemeinen Tafel des gesamten Systems menschlicher Wissenschaften nach architektonischem
Plane, Riga 1817
J. M. Ampère, Essai sur la philosophie des sciences, 2 Bände, Paris 1834 - 1843 (hier wird aus
seinem Klassifikationsversuch der Wissenschaften eine „Mathésiologie“)
J. Bentham, Essai sur la nomenclature et la classification des principales branches d‟ art et science,
1823 (in : J. Bentham, Engl. Works, Band 8, 1843)
H. Spencer, The classification of Sciences, 2. Aufl. New York 1870
W. Schuder, Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955
B. M. Kedrow, Klassifizierung der Wissenschaften, aus dem Russischen übersetzt von L. Keith
und L. Pudenkow, 2 Bände Köln 1975 – 1976

5. Die Reflexion auf Nutzen und Relevanz der Wissenschaften für Gesellschaft und
Staat. Diese ist immer zugleich eine Reflexion auf ihr Wesen. Sie ist freilich selte-
ner positiv als negativ (Zensur) betrieben worden. Hier sind zu nennen:

G. W. Leibniz, Grundriß eines Bedenkens von Aufrichtung einer Sozietät in Teutschland zu


Aufnehmen der Künste und Wissenschaften, 1671
Fontenelle, Préface sur l‟ utilité des Mathématiques et de la Physique et sur les travaux de l‟
Académie des Sciences, in: Œuvres, Band V, Paris 1758
Friedrich II., De l‟ utilité des sciences et des arts dans un état, in: Werke, Berlin 1878 ff.
I. Kant, Der Streit der Fakultäten, Königsberg 1798
Auguste Comte, Prospectus des travaux scientifiques nécessaires pour réorganiser la société, Paris
1822, dt. : Plan der wissenschaftlichen Arbeiten, die für eine Reform der Gesellschaft notwendig
sind, München 1973
188

6. Die Philosophie als Grundwissenschaft im Sinne der Fundamental- oder Be-


gründungswissenschaft für alle anderen Wissenschaften oder gar als “System der
Wissenschaften”:

Philosophie bzw. eine ihrer Disziplinen so aufzufassen, ist eine aus der Transzendentalphilosophie
des deutschen Idealismus erwachsende Tendenz, die auch in vielen Konzeptionen moderner
Wissenschaftstheorie eingeht. Unter anderem ist das auch eine Reaktion auf die Verselbständigung
der Disziplinen der „philosophischen” Fakultät zu Einzelwissenschaften in der Neuzeit, denen die
Philosophie dadurch ein gemeinsames Band und Zusammenhalt verschafft.

G. F. W. Hegel, System der Wissenschaft, Band 1: Die Phänomenlogie des Geistes, Bamberg 1807
J. A. Brüning, Anfangsgründe der Grundwissenschaft oder Philosophie, Münster 1809
F. L. Fülleborn, Materialien zu einer Grundwissenschaft (proté philosophia), Berlin 1845
W. T. Krug, Fundamentalphilosophie oder System des transzendentalen Synthetismus, Züllichau-
Freistadt 1803, 3. Aufl. 1827
G. W. Gerlach, Grundriß der Fundamentalphilosophie zum Gebrauch bei Vorlesungen, Halle 1816
J. Thürmer, Fundamentalphilosophie, Wien 1827
Fr. X. Biunde, Fundamentalphilosophie, Trier 1838
J. J. Tafel, Die Fundamentalphilosophie in genetischer Entwicklung, Tübingen 1848
In neueren Zeiten haben Joh. Rehmke, Philosophie als Grundwissenschaft, Leipzig - Frankfurt
1910, und sein Schüler Johs E. Heyde, Grundwissenschaftliche Philosophie, Leipzig - Berlin 1924,
diese Tendenz gepflegt. Nicht zuletzt kam sie auch in M. Heideggers Konzeption einer Fundamen-
talontologie zum Ausdruck.

7. Die Philosophie als Vernunftkritik und Wissenstheorie:

Sie hat seit Kant im deutschen Idealismus im Zentrum der philosophischen Forschung gestanden.
Hier sind wesentliche Klärungen erarbeitet worden, die auch heute noch die Vorverständnisse
bezüglich des Wissensbegriffs der Wissenschaften steuern. Sie werden jedoch z. Z. nicht mit der
wünschenswerten Intensität weiterbetrieben.
I. Kant, Kritik der reinen Vernunft, Riga 1781; ders., Kritik der praktischen Vernunft, Riga 1788;
ders., Kritik der Urteilskraft, Berlin und Libau 1790
J. F. Fries, Wissen, Glaube und Ahndung, Jena 1805; ders., Neue oder anthropologische Kritik der
Vernunft, 3 Bde Heidelberg 1807, 2. Aufl. 1828, in: Sämtl. Schriften hgg. v. G. König u. L.
Geldsetzer, Aalen 1968 ff, Bd. 3 und Bde 4 - 5
E. Stiedenroth, Theorie des Wissens, mit besonderer Rücksicht auf Skeptizismus und die Lehren
von einer unmittelbaren Gewißheit, Göttingen 1819
J. A. Voigtländer, Eine Untersuchung über die Natur des menschlichen Wissens, mit
Berücksichtigung des Verhältnisses der Philosophie zum Empirismus, Berlin 1845
W. Rosenkrantz, Wissenschaft des Wissens und Begründung der besonderen Wissenschaften
durch die allgemeine Wissenschaft. Eine Fortbildung der deutschen Philosophie mit bes. Rücksicht
auf Platon, Aristoteles und die Scholastik des Mittelalters, 1. Bd. München 1866, 1. u. 2. Bd.
Mainz 1868

Im vergangenen Jahrhundert hat Edmund Husserl die „Phänomenologie“ als eine neue Theorie des
Wissens konzipiert. So in: Ideen zu einer reinen Phänomenologie und phänomenologischen Philo-
sophie, Freiburg 1913, 3. Aufl. 1928. Neben ihm vgl. A. Nordenholz, Scientologie, Wissenschaft
von der Beschaffenheit und Tauglichkeit des Wissens, München 1934; dazu W. Schingnitz, Scien-
tologie, in: Minerva 7, S. 65 - 75 und 110 - 114. Derartige Studien gewinnen auch heute noch viel
durch sorgfältige Interpretation und Aneignung der „klassischen” Erkenntnistheorien Lockes,
189

Berkeleys, Humes, Leibniz„„ u. a. mit ihren „realistischen“ oder „idealistischen” Erkenntnis- und
Wissenskonzeptionen.

8. Die Philosophie als Wissenschaftslehre:

Philosophie so aufgefaßt, ist sowohl in terminologischer wie sachlicher Hinsicht die genuine Früh-
gestalt moderner Wissenschaftstheorie. In ihr laufen die erkenntnistheoretischen ontologischen,
praxeologischen und anthropologischen Errungenschaften der Aufklärung und des deutschen
Idealismus in der Weise zusammen, daß daraus das Konzept einer philosophischen Disziplin von
der Natur des Wissens als menschlicher „Tathandlung” und dem Entwurf ihrer Gegenstands-
bereiche entsteht. Auch hierin bringt sich eine Tendenz zur Geltung, der Philosophie in der Nach-
folge der „Logik” des Triviums der alten philosophischen Fakultät eine verbindende und begrün-
dende Funktion gegenüber den verselbständigten trivialen und quadrivialen Wissenschaften zu
verschaffen. Im 20. Jahrhundert wird diese Tendenz in der Gesamtdarstellung der philosophischen
Grund- und Bereichsdisziplinen in „philosophischen Enzyklopädien“ und Handbüchern weiterge-
führt

J. Chr. Gottsched, Erste Gründe der gesamten Weltweisheit, darinnen alle philosophische Wissen-
schaften in ihrer natürlichen Verknüpfung in zwei Teilen abgehandelt werden, 1734, 5. Aufl. 1748
- 1749
J. G. Fichte, Über den Begriff der Wissenschaftslehre oder der sog. Philosophie, Weimar 1794;
ders., Grundlage der gesamten Wissenschaftslehre, 1794, neu hgg. v. W. G. Jacobs, Hamburg
1970
B. Bolzano, Wissenschaftslehre. Versuch einer ausführlichen und größtenteils neuen Darstellung
der Logik, 4 Bände, Sulzbach 1837
H. M. Chalybäus, Entwurf eines Systems der Wissenschaftslehre, Kiel 1846
G. Biedermann, Die Wissenschaftslehre, 3 Bde Leipzig 1845 - 1860
R. Graßmann, Die Wissenschaftslehre in der Philosophie, 4 Teile 1884
W. Wundt, Logik, I. Bd.: Erkenntnislehre, II. Bd.: Methodenlehre, Stuttgart 1880 - 1883, 4. Aufl.
in 3 Bänden : I. Allgemeine Logik und Erkenntnistheorie, 1919, II. Logik der exakten
Wissenschaften, 1920, III. Logik der Geisteswissenschaften, 1921
A. Baeumler und M.Schröter (Hg.), Handbuch der Philosophie, 4 Bände, München-Berlin 1925 -
1934
F. Heinemann, Die Philosophie im XX.Jahrhundert. Eine enzyklopädische Darstellung ihrer
Geschichte, Disziplinen und Aufgaben, Stuttgart 1959, 2. Aufl. 1963
S. Daval und B.Guillemain (Hg.), Philosophie. 6 Bände in 3 Abteilungen, Paris 1962 u. ö.
A. Diemer, Grundriß der Philosophie. Ein Handbuch für Lesung, Übung und Unterricht. Band I:
Allgemeiner Teil, Band 2: Die philosophischen Sonderdisziplinen, 2 Bände, Meisenheim 1962 –
1964

9. Die klassischen Vorbilder der wissenschaftlichen Methodologie:

Gewisse Werke waren und bleiben prägende Vorbilder auch für moderne wissenschaftstheoreti-
sche Konzeptionen. Einige Theorien über das, was Wissenschaft sei, explizieren nichts anderes als
dasjenige, was sie als vorbildlich in dem einen oder anderen Werk eines der Klassiker ausgeführt
finden und empfehlen es als Exempel bzw. Paradigma für jede ernstzunehmende Wissenschaft.
Neben den immer bekannt gebliebenen und vielzitierten Klassikerwerken gibt es jedoch zahlreiche
„apokryphe“ wissenschaftliche Arbeitsinstrumente, die zu ihrer Zeit oder noch einige Zeit nach
ihrem Erscheinen Aufsehen erregt haben, die jedoch gerade wegen ihrer Verbreitung nicht mehr
190

genannt und zitiert wurden, dafür umso mehr ausgeschrieben und als selbstverständliches öffent-
liches Gedankengut behandelt wurden.111
Zu solchen Klassikerwerken gehören die folgenden:
Aristoteles, Organon (Kategorien, Hermeneutik, Analytiken, Topik, Sophistische Widerlegungen)
Euklid, Die Elemente, Buch 1 – 13, dt. Ausgabe Darmstadt 1971
Galenus, Einführung in die Logik, dt. v. J. Mau, Berlin 1960
Porphyrios, Isagoge (Einführung in das Organon des Aristoteles), dt. v. A. Busse, Berlin 1887
Petrus Hispanus, Summulae logicales, Venedig 1572, ND Hildesheim-New York 1982
R. Lullus, Ars generalis ultima, Palma de Mallorca 1645, ND Frankfurt 1970; Ars brevis, Palma
1669, Nachdr. Frankfurt 1970; Logica nova – logica parva – De quinque praedicabilibus et decem
praedicamentis, Palma 1744, ND hgg. v. C. Lohr, Frankfurt 1971; R. Lullus, Die neue Logik, lat.-
dt. übers. von W. Büchel und V. Hösle, Hamburg 1985
Nikolaus von Kues, De docta ignorantia – Die belehrte Unwissenheit (1440), lat.-dt. hgg. v. P.
Wilpert u. H. G. Senger, 3. Aufl. Hamburg 1977 – 1979.
J. Aconcio, De Methodo, hoc est de recta investigandarum tradendarumque artium ac scientiarum
ratione (1558), dt.-lat. Parallelausgabe nach der 2. Aufl. 1582 hgg. v. L. Geldsetzer in: Instrumenta
Philosophica Series Hermeneutica IV, Düsseldorf 1971
Fr. Bacon, Novum Organum Scientiarum, 1620; ders., De Dignitate et Augmentis Scientiarum,
1605, dt. Darmstadt 1966
G. Galilei, Discorsi e Dimostrazioni matematiche intorno a due nuove scienze, Leiden 1638, dt.
1891
R. Descartes, Discours de la méthode pour bien conduire la raison et chercher la vérité dans les
sciences, Leiden 1637, dt. Hamburg 1969
G. W. Leibniz, Dissertatio de arte combinatoria, in qua ex arithmeticae fundamentis
complicationum et transpositionum doctrina novis praeceptis exstruitur, Leipzig 1666
I. Newton, Philosophiae naturalis principia mathematica, 1687, (ND London 1960), 2. Aufl. 1713,
3. Aufl. 1726, dt. Übers. v. J. P. Wolfers, Berlin 1872, ND Darmstadt 1963
G. Vico, De nostri temporis studiorum ratione, Neapel 1708, dt. Übers., Vom Wesen und Weg der
geistigen Bildung, Godesberg 1947, ND Darmstadt 1974
G. F. Meier, Versuch einer allgemeinen Auslegungskunst, 1757, neu hg. v. L. Geldsetzer in: In-
strumenta Philosophica Series Hermeneutica I, Düsseldorf 1965; auch hgg. von A. Bühler und
Luigi Cataldo Madonna, Hamburg 1996
I. Kant, Metaphysische Anfangsgründe der Naturwissenschaft, 1786; ders., Prolegomena zu einer
jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können, 1783
C. Chr. E. Schmid, Erste Linien einer reinen Theorie der Wissenschaft, in: Phil. Journal für
Moralität, Religion und Menschenwohl 3, 1794 (neu in: Studien zur Wissenschafttheorie, hg. v. A.
Diemer, Meisenheim 1968)
G. F. W. Hegel, Die Wissenschaft der Logik, 2 Bde, Nürnberg 1812 – 1816, hgg. v. G. Lasson,
Leipzig 1951
Aug. Comte, Cours de philosophie positive, 6 Bde Paris 1830 – 1842
J. St. Mill, A System of Logic, rationative and inductive, 2 Bde London 1843, 9. Aufl. 1875
W. St. Jevons, The principles of science. A Treatise of Logic and scientific Method, 1874, 2. Aufl.
1877

111
Einige davon wurden in Nachdrucken wieder zugänglich gemacht in: L. Geldsetzer, Instrumenta Philosophica, 17
Bände in vier Serien, Series hermeneutica (G. F. Meier, A. F. J. Thibaut, M. Flacius Illyricus, Jac. Aconcio, J. M. Chlade-
nius); Series Lexica (J. Micraelius, St. Chauvin, H. A. Meissner); Series Indices Librorum (J. S. Ersch und Chr. A.
Geissler, Ph. V. Gumposch, B. C. Struve, J. H. M. Ernesti; Series Thessauri (Gr. Reisch, K. G. Hausius, W. Tr. Krug), Düs-
seldorf (Stern-Verlag) 1965 -1972.

.
191

A. Cournot, Essai sur les fondements de nos connaissances et sur les caractères de la critique
philosophique, 2 Bde, Paris 1851
R. H. Lotze, Mikrokosmus. Ideen zur Naturgeschichte und Geschichte der Menschheit, 3 Bände
Leipzig 1856 – 1864, 6. Aufl. 1923
H. v. Helmholtz, Über das Verhältnis der Naturwissenschaften zur Gesamtheit der Wissenschaften,
1862
G. Frege, Begriffsschrift. Eine der arithmetischen nachgebildete Formelsprache des reinen Den-
kens, Halle 1879, ND Darmstadt 1974
W. Dilthey, Einleitung in die Geisteswissenschaften. Versuch einer Grundlegung für das Studium
der Gesellschaft und der Geschichte, 1883
H. Poincaré, La science et l‟ hypothèse, Paris 1902; ders., Science et méthode, Paris 1909
P. Duhem, La Théorie Physique. Son Objet - Sa Structure, Paris 1906
B. Russell und A. N. Whitehead, Principia Mathematica, 3 Bände Cambridge 1910 – 1913
Edm. Husserl, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Frei-
burg 1913, 3. Aufl. 1928
L. Wittgenstein, Tractatus logico-philosophicus, 1921, engl. London 1922; ders., Philosophische
Untersuchungen / Philosophical Investigations, deutsch-engl. Ausg. Oxford 1953 u. ö.
M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre, 1922, u. a. über “Kategorien der
verstehenden Soziologie”, die “„Objektivität„ sozialwissenschaftlicher Erkenntnis” und den “Sinn
der ‚Wertfreiheit„ der Sozialwissenschaften”
E. Cassirer, Philosophie der symbolischen Formen (I. Die Sprache, II. Das mythische Denken, III.
Phänomenologie der Erkenntnis), 1923 - 1929, 6. Aufl. Darmstadt 1964
R. Carnap, Der logische Aufbau der Welt, Berlin 1928, 3. Aufl. Hamburg 1966
K. R. Popper, Logik der Forschung, Wien 1935, 10. Aufl. Tübingen 1994, engl., The Logic of
Scientific Discovery, London 1959, 10. Aufl. 1994
W. V. O. Quine, From a Logical Point of View, Cambridge, Mass. 1953; dt., Von einem logischen
Standpunkt, Frankfurt a. M. 1979
H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübin-
gen 1960 u. ö.
E. Betti, Die Hermeneutik als allgemeine Methodik der Geisteswissenschaften, Tübingen 1962, 2.
Aufl. 1972; ders., Teoria generale dell‟interpretazione, Mailand 1955
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie,
Berlin-Heidelberg-New York 1969 - 1984. Vol. I: Wissenschaftliche Erklärung und Begründung,
1969, 2. ed. 1974, 3. ed. 1983; Vol. II/1: Theorie und Erfahrung: Begriffsformen, Wissenschafts-
sprache, empirische Signifikanz und theoretische Begriffe, 1970, 2. ed. 1974; Vol. II/2: Theorie
und Erfahrung: Theoriestrukturen und Theoriendynamik, 1973, 2. ed. 1985 (Engl.: 1976); Vol. III
(mit M. Varga von Kibéd): Strukturtypen der Logik, 1984; Vol. IV/1: Personelle und Statistische
Wahrscheinlichkeit: Personelle Wahrscheinlichkeit und Rationale Entscheidung, 1973; Vol. IV/2:
Personelle und Statistische Wahrscheinlichkeit: Statistisches Schließen, Statistische Begründung,
Statistische Analyse, 1973.

Die Wissenschaftsphilosophie hat im 20. Jahrhundert und zumal in dessen zweiter


Hälfte einen erstaunlichen Aufschwung genommen. Sie hat sich hauptsächlich aus
der traditionellen Grunddisziplin „Erkenntnistheorie“ heraus entwickelt, und da-
her auch in Deutschland von dieser die Bezeichung „Theorie“ , nämlich „Wissen-
schaftstheorie“ übernommen, obwohl es sich naturgemäß nicht um eine einzige
Theorie, sondern um Lehre und Forschung mittels vieler und über viele Theorien
der Wissenschaft handelt.
Vielerorts in der Welt werden heute philosophische Lehrpositionen mit dem
Forschungs- und/oder Lehrschwerpunkt „Wissenschaftstheorie“ ausgeschrieben
192

und besetzt. Zunehmend verschwindet dabei auch jeder Hinweis auf die Philoso-
phie als Fach, zu dem die Wissenschaftsphilosophie gehört. Dadurch verbreitet
sich der Eindruck und die Meinung, es handele sich dabei schon um eine beson-
dere Einzelwissenschaft. Dies umso mehr, wenn sie als Abteilung philosophischer
Institute oder sogar als eigene Institute begründet oder ausgestaltet werden.
Diesen Ausgründungen kommen dann auch die Forschungen von Einzelwissen-
schaften entgegen, die sich irgend einem Aspekt der Wissenschaften widmen. Ein
enges Verhältnis besteht vor allem zur Wissenschaftsgeschichte, die früher teils
als Forschungs- und Lehrschwerpunkt einzelner Einzelwissenschaftler als Ge-
schichte ihres Faches, meist jedoch im Rahmen der Medizingeschichte und damit
im Rahmen der Medizinischen Fakultäten gepflegt wurde. Sie hat sich inzwischen
an mehreren Standorten als selbständige Wissenschaft etabliert und schließt dann
auch die Wissenschaftsphilosophie ein.
Die Psychologie, heute mehr und mehr in enger Verbindung zur Gehirnphy-
siologie, hat sich unter mehreren Aspekten – wie vor allem Intelligenz- und Krea-
tivitätsforschung – den Wissenschaften und ihren hervorragenden Repräsentanten
gewidmet und profitiert dabei naturgemäß vom politischen und populären Interes-
se am Wachstum der wissenschaftlichen Leistungen und Produkte, die sie zu
effektuieren verspricht.
Wissenschaftssoziologie, Wissenschaftsökonomie und Wissenschaftsstatistik
sind ebenfalls längst etablierte Spezialdisziplinen der entsprechenden Einzelwis-
senschaften, die auf breites Interesse der Öffentlichkeit und der politischen
Instanzen treffen. Besonders die ökonomische Betriebswirtschaftslehre ist dabei
so erfolgreich gewesen, daß im letzten Dezennium die wissenschaftlichen Ver-
waltungs- und Betriebsstrukturen auf dem Wege gesetzlicher Vorgaben gänzlich
nach den Mustern industrieller und dienstleistender Großbetriebe ausgerichtet
worden sind. Darüber wurde im Vorangehenden schon mehrfach gehandelt.
Zwei Tendenzen zeichnen sich hier ab. Einerseits die Ersetzung der Philosophie
als eigenständiges Lehrfach an Hochschulen durch die Wissenschaftsphilosophie.
Andererseits das Verschwinden der Philosophie aus dem Fächerkanon der Hoch-
schulen zugunsten der interdisziplinär vernetzten einzelwissenschaften Forschun-
gen über das Wissenschaftsphänomen.
193

III. Zur Geschichte der Wissenschaftsphilosophie

A. Die Antike

§ 16 Die Vorsokratiker

Die Erfindung der Arché als ursrpung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und
Subjekt und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen
zum SubjektDie Enttdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des
dialektischen (widersprüchlichen) Begriffs. Der pythagoreische Zahlbegriff als dialektische Ver-
mittlung von Denk- und Sinnesobjekt. Das Sein der Atome und das Nichts des leeren Raumes bei
Demokrit und seine Erfindung der Denkmodelle. Das Nichts des Gorgias.

Im Gedanken der „Arché” (ἀή) setzen die Vorsokratiker das Grundschema


abendländischer Erklärungsweise von Realität fest. Arché ist Grund, Ursache,
Erstes, Anfang, Ausgang, Bedingung, aber auch Wesen, Beherrschendes, Eigent-
liches, wahres Sein, ja Absolutes, lateinisch: principium. „Arché“ wird damit auch
das Denkmuster des „Begriffs“ in aller logischen Verwendung, insofern im Be-
griff das Wesen und die Einheit des vielfältig Erscheinenden gedacht werden soll.
Der Arché steht dadurch gegenüber Folge, Wirkung, Zweites, Abgeleitetes, Be-
dingtes, und entsprechend Erscheinung, Uneigentliches, scheinbare Natur, das
schlechthin Abhängige, das Nichtige, Nichtsein. Die Vorsokratiker teilen so alle
Realität in zwei wohlunterschiedene Sphären auf. Sie verleihen ihr eine Doppel-
bödigkeit, die für abendländisches Denken und seine Wissenschaft Leitthema
bleibt: Wesen und Erscheinung, Ursache und Wirkung, Grund und Folge, Sein
und Nichts.
Dieses Schema der Doppelbödigkeit der Objekte wird von den Vorsokratikern
tastend auf alle Bereiche der Forschung angesetzt: zunächst und vordringlich auf
die Natur (im heutigen engeren Sinne), dann auf den Menschen und die Kultur,
nicht zuletzt aber auch auf die Erkenntnis selber.
Von besonderer Bedeutung und für die einzelnen Denker spezifisch sind die
weiteren Bestimmungen, die sie für diese Sphären festsetzen. Die Arché als
eigentliches Sein ist notwendig, eines, ruhend (unbewegt), wahr, göttlich, nur im
Denken erfaßbar. Das Abgeleitete, Phänomenale, eigentlich Nichtige ist zufällig,
vielfältig, bewegt, „natürlich”, durch die Sinne erfahrbar, aber täuschend, behaup-
tet Parmenides.
Als Resultat dieser Forschungen ergibt sich für die anschließende klassische
Philosophie der Griechen folgendes ontologisch - anthropologische (Seins- und
Erkenntnis-) Schema:
194

Das erkenntnistheeoretische und ontologische Subjekt-Obejekt-Schema

Objekt Subjekt

Wesen <==> Denken,Vernunft


Phänomen, Erscheinung <==> Anschauung, Sinne

Aber ungeachtet der Dominanz dieses Subjekt-Objektschemas (bis in die gegen-


wärtige Philosophie) bleibt die Ausfüllung immer umstritten. Während die frühen
Jonier Thales, Anaximenes, z. T. noch Heraklit, dann Xenophanes ein phänomenal
Gegebenes: Wasser, Luft, Feuer, Erde, Empedokles dann sämtliche vier „Ele-
mente” Erde, Wasser, Luft und Feuer als Arché ausgeben und so ein Sinnliches
unter anderen als das eigentliche Sein auszeichnen, schlagen andere eine Richtung
der Erklärung ein, die man eine transzendente Dimension nennen könnte. Sie
präludiert dem, was die Aristoteliker später das „Metaphysische” („hinter der
sinnlichen Natur Liegende”) nannten.
Anaximander nennt seine Arché „Apeiron” (ἄ), d. h. das Grenzenlose,
Unbestimmte, Gestaltlose, lateinisch das Infinite (Aristoteles wird es reine
Materie und Nicht-Sein nennen), aus dem „nach der Ordnung der Zeit” und nach
notwendigem Gesetz Entstehen und Vergehen aller Dinge geschieht. Für Anaxa-
goras ist Arché der „Nous” (ῦς), das Geistige; für Heraklit der „Logos”, Welt-
gesetz und Geistiges zugleich; für Parmenides das Sein schlechthin, welches zu-
gleich Geist und Denkkraft ist. Demokrit aber faßt die Bestimmungen des Ana-
ximander und des Parmenides zusammen, indem er aus dem „Kenon”, dem
Leeren und Unbestimmten, und aus dem Seienden, das er als vielgestaltig Unteil-
bares (Atome) und gleichwohl sinnlich nicht Erfaßbares bestimmt, zusammen die
phänomenale Welt der Dinge erklärt. Empedokles „dynamisiert” das Erklärungs-
schema, indem er die vier Elemente durch Liebe und Haß (philia kai neikos
íìῖς), Anziehung und Abstoßung, Verbindung und Trennung zu
allem Erscheinenden gefügt sein läßt.
Heben wir das für die Wissenschaft Bedeutsame heraus: Schon bei diesen
Vorsokratikern geht es um die Rolle von Denken bzw. Vernunft und von
Anschauung und Beobachtung bzw. Sinnlichkeit in der Erkenntnis und um den
eventuellen Vorrang des einen vor dem anderen. Das liefert die erste Wei-
chenstellung für die beiden Wege, die später als Rationalismus und Empirismus in
der Philosophie und in wissenschaftlichen Forschungsstrategien eingeschagen
werden. Anaxagoras prägt mit dem „Nous“ (Vernunft, Geist, Pneuma, Ratio,
Spiritus) auch schon den Titelbegriff für alle späteren Rationalismen.
Indem Anaximander (um 610 – um 550 v. Chr) die Arché als Apeiron, ein
Unendliches und Grenzenloses faßte, bestimmte er aller Forschung ein unend-
liches, nie zu erreichendes Ziel und lenkte sie damit auf den Weg des end- und
grenzenlosen Fortschreitens in immer tiefere Tiefen und umfassendere Weiten.
195

Noch Poppers „asymptotische Annäherung an die Wahrheit“ (die nie erreichbar


sein soll), ist ein aktueller Nachhall dieser Programmatik.
Heraklit (um 544 – 483), der schon zu seiner Zeit als „dunkel“ (skoteinos
ός) galt und es geblieben ist, gibt aller späteren Logik den Begriff des
Begriffs, den Logos (ός), vor. „Dunkel“ war an seinem Logos, daß darin Wort,
Sprache, eigentlicher Begriff und „Verhältnis“ ungeschieden beieinander lagen
und erst später genauer unterschieden wurden. Aber klar war daran jedenfalls, daß
sein „Begriff“ als „Einheit des Gegensätzlichen“ zu denken war, wie er an vielen
Beispielen demonstrierte.
Sein „Logos“ wurde daher nicht, wie üblicherweise angenommen wird, zum
Prototyp des regulären logischen Begriffs, bei dem man die Einheit als Identität
des Gemeinsamen (der sog. generischen Merkmale) und keineswegs die Einheit
des gegensätzlich Verschiedenen (der sog. spezifischen Differenzen) zu denken
hat. Er wurde vielmehr zum Prototyp der logischen Figur der Contradictio in
adjectis bzw. in terminis, also des in sich widerprüchlichen Begriffs, bei dem man
sowohl die generischen Merkmale wie zugleich die spezifischen Differenzen von
dihäretisch unterschiedenen Artbegriffen als Einheit zu denken hat. Der eine Fluß,
in den man zum zweiten Mal zum Bade hineinsteigen möchte, ist zugleich der-
selbe, und er ist auch nicht derselbe wie beim ersten Male. Und das „alles ver-
nichtende Feuer“ ist zugleich die wohltätige Grundlage aller Zivilisation, wie es
der Mythos von Prometheus besagt. Hegel hat es spät, aber klar erkannt und
Heraklit deshalb den ersten Dialektiker genannt. Wie man mit solchen wider-
sprüchlichen Begriffen umgeht, zeigt eine große Geschichte des „dialektischen
Denkens“ bis zur Gegenwart. Aber für zünftige Logiker ist alles Dialektische
Anathema, und deshalb ist der Umgang mit solchen „dialektischen Begriffen“ und
überhaupt mit dem Widerspruch ein recht unterbelichtetes Kapitel der Logik
geblieben.
Demokrit (2. Hälfte des 5. Jhdts) behauptet schon dadurch eine ausgezeichnete
Stellung, daß sein „Atomismus“ - durch die Schulen der Stoa und des Epikur zu
materialistischen Denksystemen ausgebaut - bis heute die Grundlagenmetaphysik
des herrschenden Weltbildes der Moderne geblieben ist. Auf seine Lehre vom
Leeren (kenon κενόν) bzw. vom leeren Welt-Raum (als Behälter des Vollen der
Atome, pléres πλήρες) ist man erst im 20. Jahrhundert wieder zurückgekommen
(nach dem negativen Ausgang der Versuche von Michelson und Morley, einen
raumfüllenden „Äther“ und damit die Nichtexistenz des leeren Raumes nachzu-
weisen). Von großem Einfluß, nicht zuletzt bei Platon, wurde auch seine Lehre
von der symbolischen Erkenntnis mittels der Modelle.
Ausgehend von der genannten Unterscheidung von sinnlicher Anschauung und
unanschaulichem Denken in der Erkenntnis, hält er die Archai des Vollen und
Leeren (wegen der Kleinheit der Atome und der Ungreifbarkeit des Leeren) für
etwas, das nur im Denken zu erschließen sei. Da das Denken auf diese Weise
keinen Inhalt hat, muß es sich anschaulicher Bilder bedienen, die in der sinnlichen
Erfahrung gewonnen werden. Demokrit nennt sie geradezu „Bildchen“ (eidola
196

ἴ). Als Bilder für die Atome stellt er sich Buchstaben vor, die sich in ihren
verschiedenen Gestalten zu Komplexen der Wörter und Sätze „verhakeln“ - und
für das Leere mag er an einen Behälter oder an die Leerstellen zwischen den
einzelnen Wörtern gedacht haben, was er freilich nicht sagt. Anschauliche Buch-
staben werden somit zu anschaulichen „Symbolen“ für das unanschaulich zu Den-
kende. Ersichtlich sind seine Eidola die Muster aller „Modelle“ und „Symboli-
sierungen“ geworden, mit denen die Wissenschaft auch heute noch arbeitet.
Demokrit hat damit auch das Unanschauliche und nur Denkbare „auf den Begriff“
gebracht. Aber es ist ein - im herakliteischen Sinne – dialektischer Begriff. Wenn
die Atome (hier nach dem Modell von Buchstaben, in unseren Zeiten nach dem
Modell kleiner Sonnen, um welche die Elektronen wie kleine Planeten kreisen)
gedacht werden sollen, so weiß man doch zugleich, daß sie keine Buchstaben (und
keine kleinen Sonnen) sind: man stellt sie sich als Buchstaben vor und denkt sie
zugleich als Nicht-Buchstaben!
Die extremen, für die Wissenschaftsgeschichte folgenreichsten Positionen wer-
den allerdings in Unteritalien von den Pythagoräern und von Parmenides ent-
wickelt.
Parmenides (geb. um 540 v. Chr.) überwindet schon im Prinzip die Subjekt-
Objekt-Spaltung, die seine vorsokratischen Zeitgenossen aufgerissen hatten: Den-
ken und Sein ist ihm dasselbe (to gar auto noein estin te kai einai ò
γὰρὐòῖἐíεìἶ). Dies zu sagen und zu erforschen ist der eine
Weg der Wissenschaft (hier kommt das Thema der Methode, griech.: methodos
auf, hodos ὁός = Weg), der zur Wahrheit führt. Und ebenso ist ihm Nicht-Sein,
Erscheinung und sinnliche Erfahrung dasselbe. Dies zu sagen und zu erforschen
ist ihm der Weg des Irrtums und der Täuschung. Aber unterstreichen wir dies:
auch dieser Weg des Irrtums und der Täuschung ist ein Weg der Forschung, und
so gehört er auch zur Wissenschaft! So liefert Parmenides die erste Theorie des
Irrtums (wir besitzen bis heute keine unumstrittene) und das erste Beispiel einer
idealistischen Theorie der Wahrheit. Was hier zu denken ist (und dazu nicht auf
anschauliche Modelle zurückgreifen soll), ist die Identität von Sein, Einheit und
Unbewegtheit bzw. Ruhe und Wahrheit. Betonen wir das idealistische Moment an
dieser These: Es gibt hier nicht ein Denken auf der einen Seite, welches ein
einheitliches ruhendes Sein auf der anderen Seite sich gegenüber hätte - und daher
auch dann noch Denken bleibe, wenn es nicht (oder Nichts) denkt, vielmehr ist
Denken selbst Sein, und Sein ist Gedachtes. Spätere Gestalten des Idealismus sind
selten auf der Höhe dieses Gedankens geblieben, und alle Rationalismen haben
ihn verleugnet, indem sie die Vernunft und das Denken vom Sein unterschieden
und trennten. Von Parmenides haben sie - bis zum heutigen Tag - nur festge-
halten, daß mathematisches und logisches Denken nur ruhende Einheiten zu
denken vermag.
Die Pythagoräer (die Schule des Pythagoras, um 582 – 496 v. Chr.) versuchen
gegenüber diesem Ansatz auch die „Phänomene zu retten” (sozein ta phainomena
ῴὰό) ein dann beständiges Thema griechischer und abend-
197

ländischer Wissenschaft) um die Dignität der sinnlichen Erkenntnis zu wahren.


Für sie ist Grund und Wesen aller Realität die gerade auch sinnlich wahrnehmbare
Harmonie (von Tönen, Farben, Gestalten) als eine dialektische Einheit in der Viel-
heit, die denkend in den Zahlenverhältnissen erkannt wird. Die Zahlen selbst sind
daher die mustergültigen Denkformen, die Archai aller Dinge, in denen das Viel-
fältige dem jeweils Einen verbunden und damit „gerettet“ wird. Wie im musi-
kalischen C-G-C„ Quint-Oktav Akkord dem Ohre wohlklingend verschiedene
Töne einheitlich zusammenstimmen, so dem „geistigen“ Auge die Vielheit der
Dinge, Bewegungen und menschlichen Verhaltensweisen in den Gesetzen der
Mathematik.
So werden die Pythagoräer die Väter der abendländischen messenden und meß-
bar machenden Wissenschaft, die in der Mathematik ihre einzige Methode sucht.
Aber ihr Zahlbegriff (arithmos ἀό) ist ein Begriff des herakliteischen Typs,
also ein dialektischer Logos, indem er die Einheit zusammen mit der Vielheit und
umgekehrt die Vielheit in der Einheit zu denken lehrt. Gerade dies zeigt die
sinnliche Anschauung nicht, und das macht ihren Unterschied zum Denken aus:
Was gedacht wird, ist Zahl und Zahlenmäßiges, und dieses ist (nach herakli-
tischem Logos) zugleich und in gleicher Hinsicht Einheit und Vielheit. Man
beachte, wodurch sich nun bei den Pythagoräeren die Unanschaulichkeit des
mathematisch zu Denkenden vom Anschaulichen der sinnlichen Wahrnehmung
unterscheidet: es ist der Unterschied zwischen dem Widerspruch im unanschau-
lichen Begriff (der Zahl) und der widerspruchslosen anschaulichen Vorstellung.
Indem aber die sinnlich wahrnehmbaren Dinge jeweils entweder Einheiten oder
Vielheiten (Mengen) sind, werden sie Anwendungsfälle für die Anwendung der
Zahl auf sie, da diese beides, Einheit und Vielheit zugleich ist. Es wurde zur
Katastrophe für ihr Zahlendenkprogramm, als sie bei solchen Anwendungen auf
die Proportionen von Kreisumfang und Kreisdurchmesser oder von Seiten und
Diagonalen im Quadrat auf Verhältnisse stießen, bei denen das Verhältnis von
genau abzählbaren Vielheiten zur Einheit und umgekehrt nicht auf eine Zahl zu
bringen war. Sie entdeckten, daß das anaximandrische Apeiron, das Infinite, nicht
nur ein unendlich Großes oder ein unendlich Kleines sein konnte, das man eben
deswegen nicht mehr überschauend wahrnehmen oder bemessen konnte, sondern
daß es sich auch gleichsam mitten im (geometrisch) genau Überschaubaren und
Meßbaren zur Geltung brachte. Auch diese Proportionen nannten sie noch Zahlen,
aber da sie zugleich kein Verhältnis (logos, ratio) von Vielheit und Einheit auf-
wiesen, nannten sie sie „irrationale Zahlen“ (alogoi arithmoi ἄλογοι ἀοί).
Genau besehen handelt es sich aber um potenzierte Widersprüchlichkeit im
Zahlbegriff. Denn was sie damit denken wollten, mußte zugleich Zahl und Nicht-
Zahl sein. Wie man weiß, hat die Mathematik diese Wendung mitgemacht und
später noch oft wiederholt. Von den Pythagoräern lernten dann Platon und das
Abendland, daß alle dingliche Veranschaulichungen und alle zeichenhaften
Symbole niemals das zur Anschauung bringen können, was als Zahl und Zahl-
verhältnis nur zu denken ist.
198

Zenon von Eleia (1. Hälfte des 5. Jahrh. v. Chr., zu unterscheiden von den
beiden späteren Stoikern namens Zenon), der große Schüler des Parmenides,
kritisiert diese pythagoräischen Weiterungen, die das Denken mit der Anschauung
verknüpfen und anschauliches Denken lehren wollen. Alle seine berühmten para-
doxalen Argumente beziehen sich darauf, daß dabei dialektische Begriffe als
Denkmittel benutzt werden müssen, mittels derer sich bezüglich des tatsächlichen
Denkens der unbewegten Einheit Wahres, bezüglich des anschaulich Vielfältigen
und Bewegten aber Falsches aussagen lassen muß.
Auch den Zahlbegriff der Pythagoräer hat er dabei kritisiert, denn für ihn und
seinen Meister Parmenides konnte die Zahl nur als unbewegte Einheit gedacht
werden und nicht zugleich auch als Vielheit, da ja die Vielheit und Veränderung
nur der sinnliche Anwendungsbereich dieser Zahleneinheiten beim Zählen sein
konnte. Sein durch Zitat überliefertes Argument lautet: „Wenn Vieles ist (wäre),
müßte dies zugleich groß und klein sein, und zwar groß bis zur Grenzenlosigkeit
und klein bis zur Nichtigkeit“.112
Seine Paradoxien vom fliegenden Pfeil, der ruht; von Achill, der die Schildkröte
im Wettlauf nicht überholen kann etc. sind durchweg Scherze, die er über die
Erklärungsweise der Pythagoräer macht, wenn sie die Gegebenheiten der sinn-
lichen Beobachtung zu denken versuchen. Sie sind noch jetzt Herausforderungen
an die mathematische Theorie physikalischer Bewegung, der noch heute Abhand-
lungen und Widerlegungen gewidmet werden. Und gewöhnlich wird dabei der
Witz der Sache verfehlt. Denn man hält die zenonischen Paradoxien für schlicht-
weg falsch und sucht sie zu widerlegen. Tatsache aber ist, daß er damit das
faktische Denken der mathematischen Physiker auf den Punkt bringt, das noch
immer Wahrheit und Falschheit in widersprüchlichen Denkkonzepten verschmilzt.
Soll die Bewegung eines fliegenden Pfeiles mathematisch gedacht und kon-
struiert werden, so konstruiert ihn auch jetzt noch die Mathematik als einen Pfeil
an (jeweils) einem Punkt - und das ist nach Zenon und Parmenides das wahre
Denken dessen, was da ist: daß der eine Pfeil ruht! Zugleich aber summiert die
mathematische Konstruktion die Vielheit der Punkte zur ballistischen Linie, auf
denen viele Pfeile nacheinander sind und auch nicht sind. Genau das macht nach
Parmenides und Zenon die illusionäre Falschheit der Anschauung aus.
Aristoteles wird den gordischen Knoten zerhacken, indem er zwischen Sein und
Nichts eine mittlere ontologische Sphäre ansetzt, in der Bewegung, Vielheit und
Veränderung angesiedelt werden: das Werden bzw. die Veränderung. Dieser
Gedanke aber lag den Vorsokratikern gänzlich fern, und es ist noch eine offene
Frage, ob er zum Segen oder zum Schaden der abendländischen Wissenschaft
ausschlug.
Sicher waren Parmenides und Zenon zu rigoros und sparsam mit dem Denken,
wenn sie es nur auf einheitliche stabile Gegenständlichkeit bezogen und alles
andere auf täuschende Anschauung zurückführten. Aber dieser Sparsamkeit

112
O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl., Freiburg / München 1964, S. 42.
199

verdankt die Philosophie und Wissenschaft die Festlegung dessen, was ein
regulärer logischer Begriff ist - im Gegensatz zum dialektischen heraklitischen
Logos.
Dabei ist ja durch Zenon, wie wir dartun wollten, auch sehr deutlich festgestellt
worden, was ein dialektischer Logos, nämlich ein widersprüchlicher Begriff ist.
Daß Zenon dabei die heiligen Kühe der Pythagoräer und der griechischen Mathe-
matik, nämlich die Zahlen, als widersprüchliche Denkgebilde schlachtete, die man
doch schon damals allgemein als paradigmatische Archai und als widerspruchs-
lose Denkgebilde ansah, hat dazu geführt, daß man seine Paradoxien insgesamt als
falsch einschätzte. Und so hält man auch bis heute die Zahlen für wider-
spruchslose Denkgebilde und die Paradoxe und Widersprüche für begriffliche
Falschheiten. Und das kann nach allem, was darüber schon ausgeführt wurde, nur
selber falsch sein. Der Tatbestand ist selber ein Beispiel für Parmenides‟ These,
daß der Weg der Falschheit selbst zur Wissenschaft gehört.
Vergessen wir aber auch nicht den Sophisten Gorgias (ca. 480 - 380 v. Chr.)
den man gewöhnlich nur als den Erzvater des Nihilismus und der Leugnung aller
wissenschaftlichen Erkenntnis hinstellt. 113 Er hatte behauptet, es sei überhaupt
Nichts (Me on ὴὄnicht-sein, und wenn Etwas (Sein: on ὄ) sei, so könne
es nicht erkannt werden, und wenn es erkannt werden könne, so könne es nicht
ausgesprochen werden. Hinsichtlich des Arché-Problems ist seine Stellung eine
unabweisbare Konsequenz der Diskussionslinie Anaximander - Parmenides -
Zenon. Es ist die Einlösung der These des Sophisten Protagoras, daß es vom
Menschen abhängt, ob er das Sein oder das Nichts als „Arché“ behauptet.
Wenn die Arché aller vordergründigen Realität mit Anaximander als „unbe-
stimmt” gilt, so kann sie (wie es später Aristoteles von der absolut form- und
gestaltlosen Materie sagte) auch das Nichts genannt werden. Daß somit das Ziel
aller Forschung die Erkenntnis des Seins als eigentlich Nichts sein muß, das
haben später alle Mystiker behauptet, zu jener Zeit aber auch die Buddhisten in
Indien, von denen mancher auch damals schon als „Gymnosophist“ in Grie-
chenland aufgetreten sein und für die neue Lehre geworben haben mag. Jedenfalls
deuten auch die stammelnden Ausdrucksformen der Mystiker darauf hin, daß dies
Nichts schwerlich auszusprechen ist.
So sollte man auch Gorgias lesen: Es ist überhaupt das Nichts; wenn aber
Etwas wäre, so müßte es als Nichts erkannt werden; wenn aber Etwas als Nichts
erkennbar wäre, so müßte es als das Nichts ausgesprochen werden.
Nimmt man aber Georgias wörtlich und damit ernst, so kann auch seine
angeblich skeptische These nur ein Beitrag zur „Rettung der Phänomene“ sein, die
sich gegen die parmenideische Lehre vom falschen Weg der Forschung richtete
und dessen Lehre über das Nichts nicht mehr als falsche, sondern als wahre Lehre
propagierte. Wenn Parmenides im reinen Denken nur die Einheit und Unbe-

113
Vgl. W. Capelle, Die Vorsokratiker. Die Fragmente und Quellenbericht übers. und eingeleitet, Stuttgart 1968, S. 345 –
353.
200

wegtheit erfaßte, und wenn sein Schüler Zenon das, was da gedacht werden sollte,
schon an sinnlichen Phänomenen auswies: daß der eine Pfeil jeweils an einem Ort
ruht, so war es konsequent, die Einheit und Unbewegtheit auch einmal gänzlich
sinnlich zu demonstrieren.
Was aber wäre einheitlicher und unbewegter als die sinnliche Erfahrung der
absoluten Stille bei angestrengtestem Horchen, oder der absoluten Finsternis bei
angestrengstem Schauen und Spähen, oder gar der reinsten Luft bei ange-
strengtestem Schnüffeln und Riechen. Was man in diesen Fällen jederzeit sinnlich
wahrnimmt, das nennt man schlicht - Nichts.
Ersichtlich ist auch das, was man so das Nichs nennt, ein sinnlicher Erfahrungs-
gegenstand neben vielen anderen. Aber er erfüllt sehr genau die Kriterien, die
Parmenides als Wahrheitskriterien der Arché vorausgesetzt hatte, nämlich ein-
heitlich und unbewegt (unveränderlich) zu sein. Gorgias zeichnet es - eben wegen
der parmenideisch-zenonischen Wahrheitskriterien, als Arché aller sonstigen
vielfältigen und veränderlichen Sinnesgegebenheiten aus und begründet damit den
abendländischen Nihilismus. Er hat nicht nur die Phänomene, sondern das Nichts
selber als Phänomen „gerettet“.
Gewiß hätte ohne diese Rettung des Nichts als Phänomen durch Gorgias auch
die Lehre des Demokrit vom Leeren (oder leeren Raum) wohl kaum später solche
Fortüne bei den Naturwissenschaftlern machen können. Denn der leere Raum galt
nachmals bis auf Newton als ein einheitliches ruhendes Nichts, in dem alles
vielfältige und bewegliche Sein „erscheinen“ konnte. Und verhehlen wir uns
nicht, daß auch die gegenwärtige kosmische Physik mit ihrer Bilanzierung positi-
ver und negativer Weltmaterie zu einer großartigen kosmischen Null durchaus in
den Bahnen dieser Vorstellungen wandelt. So darf auch dieser „sophistische” An-
satz als ein wesentliches und propulsives Moment abendländischer Wissenschafts-
geschichte angesprochen werden.

§ 17 Platon (437 - 347)


Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die
Begriffe, Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken
als Noesis und Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw.
Modellen. Die Entdeckung des regulären Begriffs: Dihairesis und Negation. Das Wissenschafts-
konzept als Begründungszusammenhang und als Institution der „freien Künste“. Der Zeitbegriff
als „stehende Zahl“ und die Konstitution des Vergangenen in der Wiedererinnerung.

Platon hat die parmenideischen und pythagoräischen Tendenzen in seiner Ideen-


lehre vereinigt und dabei immer wieder mit dem Hilfsmittel des „dialektischen
Logos“ des Heraklit gearbeitet. Es ging ihm darum, die Einheit und Unbewegtheit
des Seins als „Idee“ zu gewährleisten und trotzdem die „Phänomene zu retten”, d.
201

h. auch der Welt der Sinne und ihren vielfältigen und bewegten Phänomenen
gerecht zu werden.
Ersteres versuchte er mit Hilfe der sokratischen Entdeckung des Abstraktions-
und Verallgemeinerungszusammenhanges der Begriffe, der Induktion (epagoge
ἐή: Wie der Allgemeinbegriff das Gemeinsame und Eine im Verschiede-
nen der Unterbegriffe zusammenfaßt und darstellt (er ist hier gleichsam die „Har-
monie” der Pythagoräer), so stellt auch die Idee des Guten (und zugleich Schönen
und Wahren) als oberster aller denkbaren Begriffe die Einheit in der Verschie-
denheit des ganzen Ideenreiches dar. Sie wird nur im reinen Denken erfaßt. Platon
bedient sich allerdings zur „Veranschaulichung“ der demokriteischen Modell-
Metaphorik, wenn er dies denkerische Erfassen eine „Schau mit dem geistigen
Auge“ nennt, dabei doch voraussetzend, daß der Geist kein Auge hat und deshalb
auch nicht „schaut“. Diesem Ideenreich sind auch die pythagoräischen Zahlen-
und Gestaltverhältnisse zugeordnet, gleichsam die Vorhalle zum Tempel des
Ideenreiches, in den man nur Zugang findet, wenn man sich durch das Studium
der Mathematik mit dem „abstrakten Denken” vertraut gemacht hat.
Anders als bei Parmenides wird die Sphäre der Phänomene, der sinnlich wahr-
nehmbaren Dinge gefaßt. Freilich gibt es über Sinnliches auch bei Platon nur
Meinung, Glaube (doxa ό und pistis í), aber diese sind nicht durchweg
Irrtum und Täuschung, sondern enthalten auch Wahrheit. Soviel ist allerdings
richtig: die Dinge sind nicht das, als was sie erscheinen. Sie „scheinen” etwas zu
sein, nämlich wahre Realität, was sie doch nicht sind. Ihre Seinsart ist eine
geborgte, nämlich von den Ideen und mathematischen Gebilden. Sie sind deren
Abbilder und haben an deren Sein teil (methexis é, participatio = Teilhabe).
Platon erläutert dieses Teilhabeverhältnis, indem er auf das analoge Teilhabe-
und Abhängigkeitsverhältnis von Spiegelbildern und gemalten Bildern von diesen
sinnlichen Dingen hinweist. So ergibt sich gemäß dem Teilhabeverhältnis zwi-
schen allen Seins- und Phänomenbereichen eine ontologische Hierarchie. Sie wird
durch die Neuplatoniker und die frühchristliche Philosophie fest im abendlän-
dischen Denken verankert. Dies hat das pythagoräische Motiv in der Wissen-
schaftskonzeption verfestigt und die Ideen und Begriffe mit einbezogen: For-
schung ist danach die Erkundung der Idee, des begrifflichen Wesens, das in allen
vordergründigen Phänomenen nur „zum Ausdruck” kommt.
Neben der ontologischen Hierarchie verdankt man Platon eine dieser entspre-
chende Hierarchie der (anthropologisch begründeten) Erkenntnisvermögen. Dem
Bereich der Ideen und mathematischen Gebilde ist die Vernunft zugeordnet. Im
reinen Denken „schaut” sie die Idee des Guten, von ihr absteigend über die allge-
meinen Begriffe, die Zahlen und Proportionen bis zu den geometrischen Formen
und wieder aufsteigend zur Einheit, erkennt und erkundet sie begrifflich-diskursiv
das Reich der Ideen und der Wahrheit. Dies erzeugt eigentliche Wissenschaft
(episteme ἐή).
Im Reich der sinnlichen Dinge und ihrer Spiegel- und Abbilder aber orientieren
uns die Sinne, vorzüglich das Auge. Leicht sind sie der Täuschung und dem
202

Irrtum zugänglich. Daher ist, was sie liefern, nur Glaube und Meinung, nicht mehr
eigentliche Wissenschaft. Auf den Weg der Wahrheit führen sie nur, wenn sie zur
„vernünftigen” Erfassung der Urbilder, Ideen und Begriffe Anlaß geben, wenn die
Seele sich anläßlich sinnlicher Anschauung der Phänomene der geistigen Schau
der Idee „erinnert” (anamnesis ἀά).
So steht bei Plato die Erinnerung (man übersetzt anamnesis gewöhnlich mit
„Wiedererinnerung“) zwar für die Ideenschau, die das Einheitliche und Stabil-
Ruhende in der Vielfältigkeit und bewegten Veränderlichkeit der Phänomene
erfaßt. Aber Platon entdeckt und thematisiert damit genau die Leistungsfähigkeit
des Gedächtnisses, das Vergangene, nicht mehr Seiende und damit zum Nichts
Gewordene in ein geistiges Sein, eine seiende Gegenwärtigkeit zu verwandeln, die
in aller empirisch sinnlichen Anschauung als Folie des Einheitlich-Ruhenden, auf
dem sich das Vielfältig-Bewegte abheben kann, miterfahren wird. Aristoteles wird
es in seine Bestimmung der Substanz als des „Ge-Wesens“ (to ti en einai
ìἦἶ), als desjenigen aufnehmen, das historisch und zugleich empirisch
als in der Zeit „Durchständiges“ aufweisbar ist.
So erweitert und verfestigt Platon das vorsokratische Subjekt-Objektschema der
Erkenntnis und Wirklichkeit und macht es zum festen Besitz abendländischer
Wissenschaft:
OBJEKT SUBJEKT

kosmos noetos, geistige Welt Denkvermögen, Vernunft


(mundus intelligibilis
Wahres, Idee des Guten <==> Noesis, Intuition
Sein, Begriffe <==> Dianoia, begriffliches Denken
Zahlen und Zahlverhältnis <==> Dialektik, mathemat. Denken
geometrische Gebilde <==> strukturelles Denken

kosmos aisthetos, sinnliche Welt Sinnesvermögen


(mundus sensibilis)
täuschender Schein, Phänomene <==> sinnliche Anschauung
Abbilder ==> sinnl. Ansch. u. Erinnerung
Schatten <==> sinnl. Ansch. u. Erinnerung

Kritisch ist darauf hinzuweisen, daß Platon trotz allem Bestreben, „vernünftige”
Erkenntnis als das ganz andere und höhere gegenüber der sinnlichen Anschauung
auszugeben, gleichwohl nicht umhin kann, dies nach demokriteischem Vorbild in
der Sprache der sinnlichen Anschauung zu verdeutlichen. Nicht nur sind die
„Ideen” und zumal die geometrischen Gestalten und Figuren als „Bilder” und
sinnliche Formen konzipiert, sondern auch ihre Erfassung gilt ihm als „Schau“,
Betrachtung, „Theorie” (griech.: í Schau). Man interpretiert diese Tatsache
als notwendige Metaphorik, als Akkomodation an beschränkte menschliche Vor-
stellungskraft. Und entsprechend interpretiert man die Tatsache, daß sich Platon
zur Darstellung der höchsten und wichtigsten Einsichten der Gleichnisse und
203

Mythen bedient 114, als Verbildlichung der „unanschaulichen“ Denkgebilde durch


Modelle der sinnlichen Anschauung. Wir können aber hier schon vorausgreifend
darauf hinweisen, daß diese platonische Metaphorologie der Erkenntnis im frühen
18. Jahrhundert durch den irischen Platoniker und Bischof George Berkeley
gründlich revidiert wurde. Berkeley leugnet die unanschauliche Denkerkenntnis
und begründet die Ideenschau direkt in der sinnlichen Wahrnehmung („Esse =
Percipi“; „Sein und Wahrgenommenwerden sind dasselbe). Das platonische Meta-
phernverhältnis wird ihm dadurch zu einem Verhältnis zwischen den Sinnes-
leistungen der einzelnen Sinne. Was man mittels des Auges sieht, wird nach Ber-
keley in einer metaphorischen „Natursprache“ gefaßt und auf die Sinneserfahrung
des Tastsinnes angewendet.
Von Platons Ideenlehre stammen eine Reihe von Grundkonzeptionen der ganzen
späteren Wissenschaftsentwicklung ab, die bei vielen Wissenschaftlern als pure
Selbstverständlichkeiten gelten. Als solche lassen sich nennen:

1. Die Grundunterscheidung zwischen „unanschaulichem (wahrem) Denken“


und fehlbarer (täuschungsanfälliger) empirisch-sinnlicher Wahrnehmung. Sie hat
als parmenideisches Erbe den Vorrang des rationalen Denkens gegenüber empi-
rischer Anschauung und Beobachtung für die Erkenntnis befestigt und zugleich
dieses angeblich unanschauliche Denken - da offensichtlich solches „Denken“
überhaupt keinen Inhalt haben kann – nachhaltig mystifiziert. Die Prätention,
unanschaulich denken zu können, ist seither eine Domäne besonders von Mathe-
matikern, Physikern und nicht zuletzt Theologen geblieben, die dadurch vorgeb-
lich „geniale Einsichten“ und mystische Partizipation am Göttlich-Geistigen jeder
nachvollziehenden Kontrolle entziehen.

2. Die Modell- bzw. Paradigmentheorie. Sie wurde als demokriteisches Erbe ein
unentbehrliches Komplement der rationalistischen These vom reinen unanschau-
lichen Denken. Modelle, Metaphern, Gleichnisse, Analogien, Symbolisierungen
sind bisher - nach Wittgensteins eigener Metapher - die „Leitern“ gewesen, auf
denen man zum nur noch rein zu Denkenden aufsteigen müsse, um sie nach
Erreichung solcher Denkziele „wegwerfen“ zu können.
Kritisch wird man bemerken, daß sich so erreichte schwindelnde Einsichtshöhe
regelmäßig als Schwindel entlarven läßt. Die vorgeführten Modelle sind stets
anschauliche „Sachen selbst“, über welche nicht hinausgegangen werden kann.
Gerade deswegen sind sie nicht das, was durch sie vermittelt bzw. symbolisiert
werden soll (vgl. dazu das in § 12 Gesagte).

114
Vgl. Platon, Politeia (Staat), 6. Buch, 508 a - 509 b: Sonnengleichnis; 6. Buch 509 d - 510 b: Liniengleichnis; 7. Buch,
514 a - 517 a: Höhlengleichnis. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band
6, Hamburg 1958, S. 220 - 222 und S. 224 - 226. – S. auch Platon, Phaidros 246 a - d: Wagenlenker-Modell des Menschen.
In: Platon, Sämtliche Werke Band 4, Hamburg 1952, S. 27f. Es dürfte aus dem indischen Kathaka-Upanishad des Yayur-
Veda 3, 7, Vers 3 - 9 übernommen worden sein, vgl. P. Deussen, Sechzig Upanishads des Veda, 4. Aufl. Darmstadt 1963,
S. 276f.
204

Die platonische Modelltheorie ist seither auch die Unterlage geblieben für alle
hermeneutischen Unterscheidungen zwischen vordergründigem Literal-Sinn und
Hintersinn in den interpretierenden Geisteswissenschaften. Aber auch davon gilt,
daß jeder metaphorische Hintersinn sich nur als anschaulicher Sachverhalt wirk-
lich verstehen läßt. Ebenso liegt diese Modelltheorie noch allem semantischen
Verständnis von logischen und mathematischen Formalismen zugrunde, insofern
die Formalismen als sinnlich-metaphorische Veranschaulichung eines nur zu
denkenden eigentlichen „Ideengehaltes“ aufgefaßt werden.
Hier ist die Lage jetzt dadurch verunklart worden, als man gewöhnlich den
Sachverhalt, auf den ein Formalismus „angewendet“ werden soll, als Modell
bezeichnet, welches den angeblich „unanschaulichen Formalismus“ veranschau-
liche bzw. „erfülle“ oder gar „verifiziere“. Abgesehen davon, daß auch Forma-
lismen keine leeren Denkformen sein können (da es dergleichen nicht geben
kann), die erst durch Anwendung auf Sachverhalte einen Inhalt gewinnen
könnten, sind sie gerade besonders hartnäckige Anschauungsevokationen von
Laut- und Bildgestalten, die sich bei Anwendungen mit deren Anschauungsgehalt
verknüpfen.

3. Die Definition des (regulären, d. h. widerspruchslosen) Begriffs. Platon ent-


deckt als Erbe der sokratischen Dialektik das Allgemeinheitsgefälle der Begriffe
und die dihäeretische (bzw. dichotomische, d. h. zweiteilende) Einteilungsfähig-
keit der Arten und Unterarten der Gattung. Jeder unter ein Allgemeines fallende
reguläre Begriff enthält dieses Allgemeine partizipierend als „generisches“ Merk-
mal in sich und verknüpft es mit einem durch das Wortzeichen besonders bezeich-
neten Merkmal (von Aristoteles dann „Idion“ ἴ, lat. proprium d. h Eigentüm-
liches genannt).
Am Beispiel der Definition des „Angelfischers“ im Dialog „Sophistes“ 115 zeigt
Platon, daß die Merkmale von dihäretisch unter eine gemeinsame Gattung fallen-
den Artbegriffen außer durch das (positive) spezifische Merkmal (Idion) auch
durch die Negation des spezifischen Merkmals der Nebenart bezeichnet werden
können. Z B. ist der „mit der Angel fischefangende Beutemacher“ zugleich ein
„nicht mit dem Netz fischefangender Beutemacher“, wobei der „mit dem Netz
fischefangende Beutemacher“ die Nebenart zum Artbegriff des Anglers darstellt.
Platons Begriffsdefinition besteht demnach in der (intensionalen) Angabe (soweit
möglich) aller über diesem Begriff stehenden Gattungen, an denen er „teilhat“,
und dem hinzutretenden Eigenmerkmal (aristotelisch: „Idion“, „Proprium“, „dif-
ferentia specifica“).
Die wesentliche logische Einsicht Platons liegt in der Entdeckung der Substitu-
ierbarkeit von eigentümlichen (spezifischen) Merkmalen einer Art durch negativ
bezeichnete spezifische Merkmale der dihäretischen Nebenart. Sie begründet den

115
Platon, Sophistes 219 d - 221 a. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a.,
Band 4, Hamburg 1958, S. 189 – 191.
205

Unterschied zum heraklitischen widersprüchlichen Logos, in welchem das jewei-


lige spezifische Merkmal eines Begriffes zugleich und in gleicher Hinsicht positiv
und negativ bezeichnet wird: Der heraklitische „Angelfischer“ wäre zugleich auch
ein „Nichtangelfischer“ (z. B. wenn er gerade schläft und deswegen nicht angelt).
Man bemerke, daß Aristoteles den heraklitischen „nichtangelnden Angelfischer“
zum „potentiellen Angelfischer“ erklären wird.

4. Das Wissenschaftskonzept Platons. Es bezieht sich einerseits auf den Begrün-


dungszusammenhang des Wissens überhaupt, andererseits auf die institutionelle
Seite der Wissensvermittlung.
a. Der Begründungszusammenhang des Wissens schließt an die Hierarchie der
Erkenntnisvermögen und der ihnen zugeordneten Wirklichkeitsbereiche an. Die
„intuitive“ Einsicht in das, was die oberste Idee (des Guten, Wahren und Schönen)
zu denken geben soll, wird Grundlage für jede spätere sogenannte Axiomatik. Sie
begründet insgesamt das Logische als entfalteten Begriffszusammenhang in der
Gestalt dihäretischer Begriffspyramiden. Dieser logische Begriffszusammenhang -
in logischen Urteilen und Schlüssen expliziert – begründet seinerseits die arithme-
tischen Ideen von Zahlen und Proportionen. Auf ihnen beruhen die geometrischen
Konstruktionen, die ihrerseits die unmittelbare ideelle Strukturerfassung der Er-
scheinungswirklichkeit begründen.
Man bemerke, daß dieser Begründungszusammenhang, der zugleich ein Rang-
gefälle der wissenschaftlichen Disziplinen ausdrückt, bis in die Gegenwart wirk-
sam ist. Moderne Platoniker halten es noch immer für selbstverständlich, daß alle
eigentlich wissenschaftliche Phänomenerkenntnis in mathematischen Formen
stattzufinden habe (wobei insbesondere seit Descartes geometrische Konstruk-
tionen grundsätzlich nur als „Veranschaulichungen“ der analytischen, d. h. arith-
metischen Proportionen aufgefaßt werden), die Mathematik insgesamt logisch zu
begründen sei, die Logik aber auf letzten selbstevidenten Axiomen beruhe.
b. Die institutionelle Seite der Wissensvermittlung hat Platon im „Staat“ als
Konzept der „Enzyklopädie der sieben freien Künste“, die jeder Gebildete zu
durchlaufen habe, ausgeführt. Das sogenannte „enzyklopädische Wissenschafts-
system“ (es handelt sich in der Tat allerdings um eine Klassifikation) etabliert
sieben Einzelwissenschaften. Platon trägt der sophistischen Entdeckung des
grundlegenden Unterschiedes zwischen Natur und Kultur Rechnung, indem er
drei dieser Wissenschaften auf die Kultur und das Wesensmerkmal der Sprache
des Menschen, das ihn zum Kulturschöpfer macht, bezieht, die vier übrigen aber
auf die Natur und (nach pythagoräischem Vorgang) auf die Grundmethode der
Naturerforschung, die Mathematik.
Die ersteren drei nannte man später in didaktischer Absicht „Trivium“ (d. h.
Dreiweg). Es handelt sich um Grammatik, Rhetorik und Dialektik (bzw. Logik),
durch die der freie Bürger den richtigen (wissenschaftlichen) Umgang mit der
Schriftsprache, mit der öffentlich gesprochenen Rede sowie mit dem logischen
Denken lernen sollte. Die letzteren vier hießen später „Quadrivium“ (Vierweg).
206

Dieses umfaßte Arithmetik, Geometrie, Astronomie (auch im weiteren Sinne Na-


turwissenschaft) und musikalische Harmonielehre, welche seit den Pythagoräern
ja als mathematische Proportionenlehre der „Sphärenklänge“ benutzt wurde. Der
„Dreiweg“ und der „Vierweg“ als Richtungsausweisung der Wissenschaften
haben nachmals die beiden pamenideischen Wege der Wahrheit und der Falsch-
heit abgelöst und aus der Erinnerung getilgt.
„Triviales“ Kulturwissen und „quadriviales“ Naturwissen der sieben freien
Künste bzw. Disziplinen wurden - angereichert durch die Ergebnisse aristote-
lischer und stoischer Forschungen - durch die Enzyklopädisten der Spätantike und
der beginnenden Scholastik zum Kurrikulum der abendländischen Bildung kon-
solidiert. In den islamischen Hochschulen (Medresen) und etwas später in den
mittelalterlichen Universitäten wurden sie zum Kurrikulum für das Grundstudium
(bzw. Propädeutikum) in der „Philosophischen Fakultät“, das man vor der Zulas-
sung zum „praktischen Berufsstudium“ der sogenannten Höheren Fakultäten
Theologie, Jurisprudenz und Medizin zu absolvieren hatte.
Ersichtlich wurden die sprachlich-historisch orientierten Fächer des Triviums
mit ihrer Nähe zum Problembestand der Theologie und Jurisprudenz zum Aus-
gangspunkt der dann sogenannten Geisteswissenschaften, während das Quadrium
mit seiner Nähe zum Problembestand der Körpermedizin zur Grundlage der
modernen Naturwissenschaften wurde. Die immer weiter forcierte Arbeitsteilung
führte dann im Laufe des 19. Jahrhunderts genau an der Nahtstelle zwischen
Trivium und Quadrivium zur Teilung der einstigen „Philosophischen Fakultät“ in
die neue rein geisteswissenschaftliche „Philosophische Fakultät“ und die neue
„Mathematisch-Naturwissenschaftliche Fakultät“.

5. Das Zeitverständnis Platons soll hier besonders hervorgehoben werden, da es


- meistens unterschätzt und „mythologisch“ verharmlost - abendländische Wissen-
schaft und Weltanschauung nachhaltig geprägt hat. Im „Timaios“ wird die Zeit in
allegorischer Weise als „ein bewegliches Bild der Unvergänglichkeit“ und ge-
nauer als ein „in Zahlen fortschreitendes unvergängliches Bild der in dem Einen
verharrenden Unendlichkeit“ eingeführt.116 Was hier „unanschaulich“ als Zeitbe-
griff zu denken ist, ist die stehende Einheit. Spätere nannten es ein „nunc stans“,
d. h. eine stehende Gegenwärtigkeit der unendlichen vom Demiurgen geschaf-
fenen Welt. Das Modell zur Veranschaulichung dieses Zeitbegriffs aber ist die
nach zenonischem Vorgang in Zahlenfolgen gemessene und „festgestellte“ Ab-
folge der Stadien der Veränderung und Bewegung aller Vielheiten und Teile die-
ser Welt, maßgeblich aber der Bewegungen der Himmelskörper auf fixierten
Ruhepunkten.
Dieses Modell bestimmt die Messung der Bewegung und Veränderung der
Phänomene durch Reduktion auf stehende „Zeitpunkte“, denen Zahlfolgen ent-
sprechen. Heute ist diese Darstellungsweise durch die Digitaluhren technisch
116
Platon, Timaios 37 d. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band 5,
Hamburg 1958, S. 160.
207

realisiert worden, insofern man auf ihnen nur stehende Zahlen (für Stunden,
Minuten und ggf. Sekunden) sieht. In diesen stehenden Zahlen aber sieht man
keinen Hinweis auf vergangene oder zukünftige Zu-Stände. Auf den klassischen
Analoguhren, die das aristotelische Prinzip der Anschaulichkeit der Zeit als Bewe-
gung des Früheren über das Jetzt zum Späteren hin zugrundelegen, sieht man auf
dem Ziffernblatt die Bewegung der Zeit selbst an den Zeigern. Und man sieht
jederzeit hinter den Zeigern eine Vergangenheitsfläche und vor den Zeigern eine
Zukunftsfläche auf dem Zifferblatt.
An Platons Zeitkonzept zeigt sich zweierlei: einerseits die „Nichtigkeit“ der je-
weiligen phänomenalen Gegenwärtigkeit - insofern sie sich auf einen unausge-
dehnten (Null-)Punkt einschränkt, und andererseits das wahre (ideelle) Sein alles
ins phänomenale Nichts hinabgeglittenen Vergangenen, insofern es durch die
zahlenmäßige (chronologische) Wiedererinnerung zu einer geistigen Präsenz ge-
bracht wird. Entsprechendes - bei Platon allerdings unthematisiert - muß für alles
phänomenal Nichtige der Zukunft gelten, das in der denkenden und planenden
Antizipation ebenfalls zu einer ideellen Präsenz gebracht wird.
Man wird bemerken, daß dieser platonische Zeitbegriff die logische Struktur
eines heraklitischen Logos besitzt. Er ist die Einheit der Gegensätze von Sein und
Nichts und damit der ruhende Begriff des Werdens und der Veränderung selbst.
Er liegt auch jetzt noch - undurchschaut in seiner logischen widersprüchlichen
Struktur - dem Verfahren der physikalischen Mechanik und überhaupt der Na-
turwissenschaft zugrunde, die mittels des Zeitbegriffs grundsätzlich unerfahrbare
Vergangenheiten und Zukünfte vergegenwärtigt (als ob sie vor Augen lägen) und
zugleich die jeweils beobachtbaren gegenwärtigen Naturphänomene in der zeit-
lichen Bestimmung selbst „vernichtet“, indem sie sie in „Zeit-Punkten“ zu berech-
nen versucht.
Über den Kult der Erinnerung in den historischen Geisteswissenschaften ist dies
Verfahren auch zur Grundlage der Geisteswissenschaften geworden, insofern hier
die chronologisch bestimmten Daten und Fakten, denen ja ontisch-phänomenal
Nichts entspricht, zur geistigen „Realität“ aller Sinngebilde gemacht wurden. Um
dies zu bemerken, muß man aber die abendländischen Denkgewohnheiten anhand
der in anderen Kulturen entwickelten Denkmuster zu relativieren gelernt haben.
208

§ 18 Aristoteles (384 – 322 v. Chr.)


1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien
als Fragen nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklä-
rende Wissenschaft: Das Vier-Ursachen-Schema der Erklärung. Die metaphysischen Letztbegrün-
dungen. Nachwirkungen des Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der
Wissenschaften, a. die Begrifflehre, b. die logischen Axiome, c. die Urteilslehre, d. die Schluß-
lehre oder Syllogistik. 3. Die Architektonik der Wissenschaften: theoretische und praktische Wis-
senschaften und ihre Ziele und Zwecke

Aristoteles ist der große Systematiker, der alle vorsokratischen Motive in sorg-
fältiger Sichtung und Kritik zusammenfaßt. Da er zwanzig Jahre lang Schüler
Platons war, wiegt dessen Einfluß bei weitem am meisten. Dies so sehr, daß man
bis ins hohe Mittelalter, ja noch in der Renaissance die Unterschiede zwischen
beiden Anschauungen kaum zu unterscheiden wußte und sich umso mehr ihrer
„concordantia“ widmete. Und gewiß sind auch die Ähnlichkeiten und Gemein-
samkeiten ihrer Philosophien größer, als man annehmen möchte, wenn man Pla-
ton zum Begründer des Idealismus, Aristoteles zum Begründer des Realismus
stilisiert.
Soviel ist freilich wahr und von ausschlaggebender Bedeutung: daß Aristoteles
das Auseinanderreißen von Vernunft und Sinnlichkeit, von Idee und Erscheinung
nicht billigt und somit die beiden Reiche wieder zusammenführt, ohne sie jedoch
zu verschmelzen. Er „rettet die Phänomene”, indem er dem Sinnlichen und den
Dingen ihr Recht einräumt, Etwas, Seiendes, Realität zu sein und nicht nur
bildhafter Abglanz höherer eigentlicher Wirklichkeit. Er nennt sie Substanzen,
genauer erste Substanzen. Was Platon die Idee genannt hatte, die Bilder und
Formen solcher substanziellen Dinge, die ihr Wesen ausmachen, nennt er zweite
Substanzen.
So wird die Zwei-Substanzen-Lehre des Aristoteles die Theorie, in welcher der
platonische Dualismus überwunden erscheint, während er doch zugleich peren-
niert ist. Nur gewinnen dabei die ersten Substanzen, die sinnlich erfahrbaren
Dinge, an ontologischem Rang, was die zweiten Substanzen, die „bloßen“ Ideen
und Begriffe vom „Wesen” der Dinge einbüßen. Auch die Sinnlichkeit als Er-
kenntniskraft gewinnt dabei an Schätzung. Sie wird Grundlage aller wissen-
schaftlichen Empirie, nicht mehr nur Medium des Meinens und der Vermutung
wie bei Platon.

1. Das Wissenschaftskonzept des Aristoteles

a. Die empirisch-historische Grundlage. Alle Wissenschaft beginnt mit der


sinnlichen Gewißheit der Erfahrung über das „Daß” von Substanzen (Hóti ὅ),
mit der Kenntnis vom Einzelnen, Besonderen, sinnlich Bestimmten. Dies ist Em-
pirie (Empeiria ἐμπειρία). Aber jede sinnliche Erfahrung von Gegenwärtigem
wandelt sich ständig um in gedächtnismäßigen Besitz von Vergangenem. Dies ist
209

Historia (Historie ἱζηορίη). Die Entfaltung von Empirie und Historie als Wis-
senschaft ist Faktenkunde und Geschichte. Ihre gemeinsame Methode ist die sorg-
fältige und genaue Beschreibung dessen, was sich sinnlich beobachten und ge-
dächtnismäßig behalten läßt.
Was sich so beschreiben läßt, sind die ersten Substanzen. Die Beschreibung
beruht, wie gesagt, auf sinnlicher Beobachtung und Erinnerung an Beobachtetes.
Aristoteles bringt das in die Definition der Substanz ein: Die Substanz (Ousia,
ủíeigentlich: „Seiendheit“) ist ein „To ti en einai“ (òíἦἶ), „etwas,
das war und (noch) seiend ist“. Wir können es mit „Ge-Wesen“ übersetzen. Es ist
ein in der Zeit von der erinnerten Vergangenheit her in die Gegenwart identisch
Durchständiges.
Zur vollständigen Beschreibung gehören aber auch die Eigenschaften und
Verhältnisse, die die Substanzen aufweisen und in denen sie stehen. Für die
vollständige Deskription hat Aristoteles eine ingeniöse Methode entwickelt. Sie
besteht darin, sich am Leitfaden aller möglichen Fragen über das vor Augen
Liegende zu orientieren und diese Fragen jeweils durch die Beschreibung zu be-
antworten.
Die Fragenliste liefert das, was man seither seine Kategorienlehre genannt hat.
Kategorien sind, wie Aristoteles in der Kategorienschrift des Organons ausführt,
allgemeinste Begriffe. Er macht in seiner Kategorienlehre allgemeinste Fragen
selbst zu solchen obersten Begriffen und behält die Fragewörter als Begriffs-
namen bei. Seine Liste variiert in den bezüglichen Texten, und er wird selbst
bemerkt haben, daß sich manche möglichen Fragen überschneiden. Als Haupt-
kategorien stehen jedoch folgende im Vordergrund, und sie wurden nachmals
auch die Grundlage aller weiteren Kategorienlehren, nicht zuletzt bei Kant. Wir
geben sie in doppelter Reihe als Fragen und (allgemeine) Antworten wieder:

Frage Antwort

1. Was? (Ti, í) „Et-Was“, Substanz


2. Wie beschaffen? (Poion, ό) Eigenschaft, Qualität
3. Wie bemessen? (Poson, ό) Maß, Quantität
4. In welcher Beziehung? (Pros ti, ό Verhältnis, Relation
5. Wo? (Pou, ῦ) Ort (Raum)
6. Wann? (Pote, é) Zeitbestimmung (Zeit)

Was als vor Augen liegend beschrieben werden soll, wird demnach zunächst
gemäß der ersten Frage als „Gegenstand“ (eine Substanz) benannt. Alle mög-
lichen Antworten können nur in der Angabe einer sprachlich verfügbaren Benen-
nung des Gegenstandes bestehen. Die anschließenden Fragemöglichkeiten faßt
Aristoteles als Fragen nach den „hinzukommenden“ (symbebekota, 
όlat.akzidentellen) Bestimmungen (daher der Ausdruck „zufällig“) zusam-
men. Sie werden durch Prädikationen in beschreibenden Urteilen mit dem Subjekt
verknüpft.
210

Es ist bemerkenswert, daß Aristoteles ausdrücklich davor warnt, die Was-Frage


nun ihrerseits auf die akzidentellen Bestimmungen anzuwenden, also etwa nach
der Substanz von Qualitäten, Maßen, Relationen, ja auch von Raum- und
Zeit(bestimmungen) zu fragen. Und das muß ja auch über das Verhältnis aller Ka-
tegorien untereinander gelten. Gerade das aber hat man in späteren Katego-
rienlehren immer wieder getan. Und das führte zu den Logomachien über die
„Substantialität“ von Raum, Zeit und Relationen, die „Zeitlichkeit“ von Substan-
zen, Räumen, Qualitäten und Quantitäten, die „Relationen“ von substanziali-
sierten Zeiten und Räumen und anderes mehr.
Kompliziert wird die Lage durch den offensichtlichen Fehler des Aristoteles,
die Überschneidung der Relationskategorie mit den übrigen Akzidenzkategorien
nicht durchschaut zu haben. Ersichtlich lassen sich ja ein Wann und Wo und alle
Maßangaben nur selbst als Relationsverhältnisse bestimmen. Ebenso muß auf-
fallen, daß Aristoteles eine wichtige Frage nicht in die Kategorienliste auf-
genommen hat, die er doch in seinem Werk immer wieder gestellt und beant-
wortet hat. Es ist die Frage nach der Wirklichkeit, Notwendigkeit, Möglichkeit
oder gar nach der „Nichtigkeit“.
Seine Antworten auf diese Frage, die er in der Logik als Modallehre ausführlich
behandelt, sind klar genug und maßgebend geworden: Alles, was vergangen ist
(und nur durch Erinnerung gegenständlich werden kann), wird als „notwendig“
(anankaion ἀí, das gegenwärtig vor Augen Liegende wird als „wirklich“
(energeia on ἐéὄ„aktuell“), alles als zukünftig Vorgestellte wird als
„möglich“ (dynamei on άὄ„potentiell“) beschrieben. Was es aber damit
auf sich hat, wurde schon bei ihm zu einer Grundfrage der Logik und ist es in der
Weiterentwicklung seiner „Modallogik“ und in der Anwendung derselben beson-
ders in den Naturwissenschaften, aber auch in der Alltagssprache geblieben.
Aristoteles wie seine Schule (besonders Theophrast von Eresos ca. 372 - 288 v.
Chr.) haben auf der Grundlage dieser Kategorienlehre dem Abendland auf Jahr-
hunderte hinaus durch ihre beschreibenden „Naturgeschichten” (von Aristoteles„
Verfassungsgeschichten ist nur wenig erhalten) Kenntnis von den Realien ver-
schafft, die als so genau und vollständig galten, daß auf lange Zeiten kaum jemand
sie zu überprüfen für nötig fand. Diese Revision wurde erst seit der Renaissance
in großem Stil in Angriff genommen und brachte die Blüte neuzeitlicher empi-
rischer und historischer Natur- und Kulturwissenschaft hervor, von der die neuere
Historiographie im engeren Sinne ein integrierender Bestandteil ist.

b. Die theoretisch-erklärende Wissenschaft. Auf der Basis empirisch-historischer


Kenntnisse, die dann zu deskriptiven „Historien“ (oder „-Kunden“) der einzelnen
Wirklichkeitsbereiche entfaltet wurden, erhebt sich der Bau der „theoretischen”,
erklärenden Wissenschaft, die aus (empirisch-historischen) Kenntnissen „episte-
mische“ bzw. szientifische Erkenntnis macht. Sie hat das platonische Renommee,
die eigentliche und jedenfalls höhere Wissenschaft zu sein, immer behalten. Und
211

doch führt sie nicht über den Bereich der Dinge, die ersten Substanzen hinaus,
sondern stiftet nur zwischen ihnen Zusammenhänge.
Auch zur Auffindung dessen, was als Erklärung gelten kann, verwendet Aristo-
teles die Fragemethode. Hier ist sein Leitfaden die Frage nach dem „Warum” (di„
hoti ҅ὅ Und auch diese Erklärungsfrage wird nach vier speziellen Frage-
möglichkeiten „kategorisiert“. Es sind die Fragen nach den berühmten „Vier Ur-
sachen“ (aitiai αỉí, causae): nach der (begrifflichen) Form (eidos ἶ causa
formalis), nach dem (materiellen) Stoff (hyle ὕ causa materialis), nach der
Wirkursache i. e. S. (causa efficiens) und nach dem Zweck bzw. Ziel (telos
écausa finalis). Wir können ins Deutsche übersetzen: es geht um das Wo-
durch (Formbestimmung), das Woraus (materielle Verkörperung), das Woher (das
Aristoteles sehr genau mit: „Woher der Ursprung der Bewegung bzw. Verände-
rung“ ὅἡἀὴῆήumschreibt und das Weshalb bzw. das Wo-
rumwillen (bei Aristoteles hou heneka ὗἕoder auch telos έge-
nannt).117
Durch jede der in diesen vier Fragerichtungen erstrebten Antworten wird eine
Ursache für das vorher beschriebene und dadurch gegebene Ding bzw. eine
Substanz angegeben. Jede dieser Ursachen aber muß vorher schon selber als
beschriebene Substanz festgestellt sein. Dies ist „Episteme“ (lat.: scientia), Wis-
senschaft im eigentlichen und engeren Sinne. In ihr findet die vorsokratische
„Archelogie” ihre fortwirkende Ausgestaltung, und sie gibt zugleich die vier Di-
mensionen weiterer Ursachenforschung bezüglich der Ursachen von Ursachen bis
auf erste (oder letzte) Ursachen vor.
Im Zentrum dieser Wissenschaftslehre steht somit das aristotelische Vier-Ursa-
chen-Erklärungsschema. In ihm werden die Richtungen der vorsokratischen und
platonischen Ursachenforschung wie in einem Fadenkreuz vereinigt. Ursachen-
(„Kausal-“) Forschung bleibt nicht eindimensional, sondern wird vierdimensional.
Erklärende und ableitende Forschung heißt: das durch historisch-empirische
Kenntnis gesicherte Faktum mit vier Arten ebenso und schon vorgängig ge-
sicherter Fakten in einen Zusammenhang zu bringen. Dieser Zusammenhang
„erklärt” das je Einzelne und Besondere aus anderem Einzelnen und Besonderen.
So ergibt sich folgendes Schema:

Formursache
Eidos

Wirkursache Herkunft Substanz Telos Zweckursache

Hyle
Materieursache

117
Aristoteles, Metaphysik 983 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 15.
212

Es ist gegenüber einer späteren und üblich gewordenen Neigung zur Mysti-
fizierung dieser Ursachen von größter Wichtigkeit zu bemerken, daß diese Erklä-
rung durch die vier Ursachen ihrerseits die Kenntnis und Gesichertheit derjenigen
Fakten und Substanzen, die als Ursache in Frage kommen, voraussetzt. Diese aber
bedürfen, wie gesagt, zu ihrer eigenen Erklärung selber der kausalen Ableitung
von wieder anderen Fakten. So ist in jeder Forschung weitere Forschung angelegt,
die das je Erkannte in weitere Netze der Erkenntnis einbettet.
Geben wir ein Beispiel, das Aristoteles selbst in seiner „Metaphysik“ vorführt:
Wir sehen (sinnlich gesichert) ein Etwas vor uns stehen. Seine Form erinnert uns
an ein Haus (wir wissen schon, was ein Haus ist, oder wir müssen es uns erklären
lassen). Dies ist seine Formbestimmung durch seine Bezeichnung bzw. durch
einen Begriff. Wir prüfen (sinnlich), woraus es besteht und sehen Steine und Holz.
Dies ist seine Materie (wir geben uns damit zufrieden oder lassen uns weiter
erklären, was Holz und Steine sind). Wir fragen weiter, woher es stammt, und
erfahren (durch Berichte von Augenzeugen, oder wir erinnern uns, gesehen zu
haben), daß es von Bauleuten errichtet worden ist. Dies ist sein „Woher der Ent-
stehung”, bzw. die causa efficiens. Und wir vollenden die kausale Erkenntnis
dieses Hauses, wenn wir auch seinen Zweck – es ist ein Wohnhaus, ein Stall, ein
Tempel, ein Universitätsgebäude – erkundet haben, und falls wir nicht wissen,
was das ist, müssen wir uns das ebenso weiter erklären lassen.
Die Beispiele, die Aristoteles für das Weitererklären der Ursachen aus deren
Ursachen gibt, entstammen den Vorschlägen anderer Philosophen. Daß „Fleisch
aus Erde, und Erde aus Wasser, und Wasser aus Feuer“ als Materieursachen, oder
„daß der Mensch von der Luft bewegt werde, diese von der Sonne, die Sonne vom
Streite“ als Wirkursachen; daß die Zweckursache des Gehens „um der Gesundheit
willen, diese um der Glückseligkeit, diese wieder um eines anderen willen“
geschehe, und entsprechend auch bei der Formursache des „Wesenswas“ (To ti en
einai òíἦἶ), 118 gibt ersichtlich nicht des Aristoteles„ eigene Meinung
wieder. Die Beispiele dienen ihm aber zur Begründung der These, daß die Vier-
Ursachen-Erklärungen nicht ins Unendliche fortgeführt werden können, sondern
jeweils zu einer letzten bzw. ersten Ursache führen. Dies ist sein Thema für das,
was man seither seine Metaphysik nennt, was Aristoteles selbst aber als eine gött-
liche Wissenschaft und als Ontologie (theologike episteme ὴἐή-
ὀíbezeichnet
Aber diese Leistungsfähigkeit des Erklärungsschemas nach den vier Ursachen
hätte sicher nicht genügt, ihm im Abendland auf Jahrhunderte kanonische Geltung
zu verschaffen, wenn Aristoteles ihm nicht durch weitere Ausgestaltung versucht
hätte, gerade das mitzuerklären, was seit Heraklit, Zenon von Eleia und besonders
Platon als Wesensmerkmal der Phänomene und sinnlichen Dinge galt: Verän-
derung, Wandelbarkeit, Bewegung. Wer die Phänomene retten wollte, mußte sich
mit Zenons Paradoxien der Bewegung („der fliegende Pfeil ruht!“), mit dem

118
Aristoteles, Metaphysik 994 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 41f.
213

Logos des Heraklit („Logos als Einheit des kontradiktorisch Entgegengesetzten“)


und Platons These, daß man hinsichtlich der Phänomene nur Glaube und Meinung
(pistis und doxa), aber kein begriffliches Wissen erlangen könne, auseinander-
setzen.
Wir wollen nicht behaupten, daß es bis heute befriedigend gelungen sei, phäno-
menale Bewegung und Veränderung auf den Begriff zu bringen. Aber die von
Aristoteles vorgeschlagenen Begriffe und seine Theorie zu diesem Problem be-
friedigte jedenfalls viele Jahrhunderte. Sie war zum Teil eine Grundlage der
klassischen Mechanik in der Physik und ist in die landläufigen Vorstellungen über
„Bedingungsgefüge“ von Sachverhalten auch der Gegenwart eingegangen.
Das obige einfache Vier-Ursachenschema stellt die uns geläufig gewordene
strikte Unterscheidung zwischen den jeweiligen Ursachen und Wirkungen als je-
weils ontologisch getrennte Dinge dar. Später hat man das als „extrinsisch“ be-
zeichnet. Wer gemäß den vier Ursachen etwas erklärt, muß die äußere (extrin-
sische) Umgebung des Interpretandums kennen. Er muß bei einem Gebäude schon
wissen, was ein Haus, was das Bauzeug, was Bauleute und was die Verwen-
dungszwecke von Gebäuden sind. Aber nicht diese sollen erklärt werden – da man
sie als schon erklärt und bekannt voraussetzt – sondern was und wie sie in dem
Interpretandum „wirken“.
Dieses „intrinsische“ Wirken wird durch eine der Bedeutungen von „Arché“,
nämlich „Herrschaft“ ausdrückt. Die Herrschaft durchwest und bestimmt das Be-
herrschte ganz und gar. Diese Bedeutung hat Aristoteles ebenfalls berücksichtigt
und durch besondere Begriffe gemäß den vier Dimensionen ausgedrückt.
Daß die „Form“ in der Substanz als ihr „Wesen“ enthalten ist, dürfte auch nach
heutigem Verständnis von Wesensbegriffen noch nachvollziehbar sein. Die Form
als „Begriff der Sache“ muß schon „extrinsisch“ bekannt sein, um ihn auch als
„Wesen“ der zu erklärenden Sache wiederzuerkennen. Wer die Form als Begriff
der Sache kennt, erklärt dadurch das, was Aristoteles die „Energie“ (ἐέ, lat.
actus, „wörtl.: beim Werke sein“, dt. „aktuell“, „Wirklichkeit“) der Sache genannt
hat.
Ebenso ist leicht verständlich, daß die Materieursache voll und ganz zur „Ver-
körperung“ der Form in und für die Sache dient und somit in der Sache „intrin-
sisch“ aufgeht. Man muß jedoch das Baumaterial auch extrinsisch schon kennen
um zu erklären, zu welcher Gestaltung in einem Gebäude es geeignet ist. Die in
der Sache verkörperte Materie wird von Aristoteles definiert als das zur Auf-
nahme und Verkörperung von Formen Fähige. Und das wird speziell „Kraft“ (Dy-
namis ύ, lat. potentia, dt.: Anlage, Fähigkeit, Vermögen, Disposition zu...,
Möglichkeit) genannt.
Wer also die Materie einer Sache kennt, der erklärt durch sie, welche Mög-
lichkeiten zur Verwirklichung (Formaufnahme) in ihr liegen. Das „seiner Mög-
lichkeit nach Seiende“ (to dynámei on  ά ὄ) ist jedoch ein hera-
klitischer Logos, nämlich der Begriff von etwas, was zugleich ist und nicht ist.
Die Sache existiert jeweils als bestimmt geformte Materie, zugleich existiert sie
214

nicht in derjenigen Form und Gestalt, die sie aufnehmen kann aber noch nicht auf-
genommen hat.
Damit erweist sich die intrinsische Kraft oder Potenz als eine Ursache, die nur
als heraklitischer Logos, also als widersprüchlich vorgestellt werden kann, wie
das auch schon vorn in § 5 gezeigt wurde.
Dasselbe Enthaltensein im zu erklärenden Gegenstand muß nun aber auch für
die Wirk- und Zweck-Ursachen gelten, die man später nur als getrennte („extrin-
sische“) ansah.
Die intrinsische Zweckursache wird, wie es Aristoteles mit dem von ihm ge-
prägten Terminus klar ausdrückt, als „Entelechie“ (ἐέentelechia, Ten-
denz zu …, „das Ziel bzw. den Zweck in sich habend“) bezeichnet. Um mittels
der Entelechie etwas zu erklären, muß man die Zwecke und Ziele schon kennen,
z. B. beim Hausbau, welchem Zweck es dienen soll. Vermutlich hat Aristoteles
diesen technischen Begriff nach dem Beispiel des „Strebens“ (ὁή, hormé, Nei-
gung zu…, Bestreben bei beseelten Lebewesen, deutsch noch in „Sehnsucht“
erhaltengebildet. Bei den beseelten Körpern, die sich „von selbst“ bewegen
können, wird die Hormé selbst als „Anfang der Bewegung“ (arché tes kineseos
ἀὴῆήdefiniert.
Daß die Wirkursache außen vor (extrinsisch) bleibt, dürfte auf der Hand liegen
und ist in allen späteren Kausaltheorien festgehalten worden. Aristoteles nennt
ihre Wirkung „Schlag“ bzw. „Stoß“ (plegé ήDer Schlag oder Stoß ist eine
äußere Berührung durch einen bewegten Körper, die man sinnlich wahrnimmt. Er
bewirktdie Bewegung (kinesis íals Ortsbewegung oder als innere Ver-
änderung der Sache. Erst diese Bewegung oder Veränderung ist die intrinsische
Wirkung, z. B. daß ein Steinblock durch Behauen die Form und einer Statue an-
nimmt. Dazu muß man die Arbeiter und ihre Handwerke (technai, artes) kennen,
um zu erklären, was sie durch ihre Arbeit intrinsisch bewirken. Im Hinblick auf
die erwünschte Form und Gestalt beschlagen und behauen sie Steine und bewegen
sie zu ihren vorgesehenen Örtern. Der Schlag oder Stoß einer Waffe mag eine
Verwundung verursachen, die den lebendigen Organismus gänzlich verändert.
Alle Substanzen stehen nach Aristoteles in steter Berührung untereinander, denn
es gibt keinen „leeren Raum“ zwischen ihnen, wie sein Argument vom „horror
vacui“ gegen die demokritische Lehre vom „Leeren“ (kenón ó) der ganzen
Natur zeigt. Ein Schlag ändert deshalb alle vorher bestehenden Kontakte der
Substanz mit ihrer Umwelt. Das zeigt Aristoteles bei seinem Paradebeispiel des
Steinwurfs, bei dem nicht nur der Stein, sondern auch die ihn umgebende Luft in
Bewegung versetzt wird.
Bei den Bewegungen der vier materiellen Elemente Erde, Wasser, Luft und
Feuer unterscheidet Aristoteles grundsätzlich die „natürlichen“ und die „erzwun-
genen“ Bewegungen. Die natürlichen Bewegungen sind jederzeit am Fallen von
Erdhaftem und von Flüssigkeiten in gerader Richtung auf den Erdmittelpunkt hin
zu beobachten. Ebenso bewegen sich Luft und Feuer in gerader Richtung nach
oben. Das hatte schon Empedokles gesehen und die vier Elemente durch „Liebe“
215

und „Haß“ sich gegenseitig anziehen und abstoßen lassen. Es war eine Verall-
gemeinerung der Erfahrungen mit Magneten. Von ihm hat Aristoteles sowohl die
Theorie der vier Elemente wie auch die Theorie, daß Gleiches zu gleichem strebt,
übernommen.
Aristoteles hat wohl deswegen Leichtigkeit und Schwere (koupha oῦ und
baria ί) als „natürlich“ angesehen. Schwere und Leichtigkeit sind bei ihm
Bezeichnungen für ihre spezifischen „Entelechien“, die sie auf geradem Wege zu
ihrem „heimatlichen Ort“ (oikeios topos ἰĩó) hinführen. Z. B. Erd-
haftes und Flüssiges zum Erdmittelpunkt hin, Luft und Feuer in entgegengesetzter
Richtung nach oben. Ebenso wächst ein Lebewesen durch seine Entelechie zur
vollendeten Gestalt etwa der ausgereiften Pflanze oder des erwachsenen Tieres
und des Menschen.
Erzwungene Bewegung zeigen sich in allen Bewegungsrichtungen, die von den
natürlichen abweichen. Das bedeutet in erster Linie, daß sie die vier Elemente
daran hindern, ihren natürlichen Bewegungsrichtungen zu folgen. Der Stein auf
dem Tisch und das Wasser im Krug fällt nicht nach unten (und natürlich auch
nicht nach oben!), sondern es wird zum Liegenbleiben bzw. zur Ruhe gezwungen.
Aufsteigender Luft und dem Feuer wird an der Zimmerdecke eine Ausweich-
richtung aufgezwungen. Und nur diese Abweichungen sind es, die durch die
Wirkursache (causa efficiens) erklärt werden sollen. Es wird also nicht eine Be-
wegung oder Veränderung selbst erklärt, sondern die von den natürlichen abwei-
chenden Richtungen dieser erzwungenen Bewegungen.
Aristoteles diskutiert das beispielhaft an der Wurfbewegung.
Der Wurf eines Steines durch eine werfende Hand bewegt nicht nur den Stein,
sondern auch das umgebende Medium der Luft in die aufgezwungene Richtung.
Wie die Erfahrung lehrt, verwirbelt sich die mitgeführte Luft alsbald in alle an-
deren Richtungen. Wäre das nicht der Fall, würde sie den Stein weiter mit sich
nach oben führen. Die Erfahrung zeigt, daß der geworfene Stein die ihm „aufge-
zwungene“ Richtung nicht beibehält, sondern allmählich in einer ballistischen
Kurve (die der damaligen Geometrie als Parabel-Kegelschnitt längst bekannt
war), zur natürlichen Richtung auf den Erdmittelpunkt zurückkehrt. Hätte es
Aristoteles schon mit befeuerten Ballonen zu tun gehabt, hätte er wohl erklärt, daß
das Feuer den luftgefüllten Ballon durch und über die Luft zu den Sternen ent-
führen würde.
Wie wird nun dieses komplexere Vier-Ursachen-Schema zur Erklärung von
Bewegungen und Veränderung der beobachtbaren Dinge in der Welt eingesetzt?
Aus dem Schematismus der vier Ursachen ergibt sich, daß Potenz und aktuelle
Wirklichkeit (dynamis und energeia) in umgekehrt proportionalem Verhältnis zu-
einander stehen müssen. Je mehr Potenz, Dynamis, Möglichkeit, Kraft, Macht,
Anlage (zu Beginn einer Bewegung oder Entwicklung), desto weniger Akt, Ener-
gie, Wirklichkeit. Und umgekehrt: je mehr Wirklichkeit, Energie, „Reife” (gegen
Ende einer Entwicklung), desto weniger Potenz, Möglichkeit, Kraft. Aristoteles
hat auch einen Begriff für den „Abstand”, die „Beraubung” (steresis έ,
216

privatio), der die jeweilig erreichte Form und Gestalt vom vollendeten Zustand
oder Ziel trennt. Dieser „Abstand” muß gemäß der Proportionalität eine negative
Größe für die Energie (deshalb der negative Ausdruck „Beraubung”) und eine
positive Größe für die Potenz sein. Denn bei großem Abstand von Ziel ist die
Dynamis bzw. Potenz, dahin zu gelangen, noch größer als bei jeder weiteren
Annäherung.
Aristoteles hat es vermieden, bei seinen Erklärungen mittels der vier Ursachen
die auch von seinen Vorgängern, erst recht aber von den Nachfolgern ins Spiel
gebrachten Begriffe von Raum und Zeit und von quantifizierten Strecken und
Längen oder zeitlichen Dauern zu verwenden. Und so stellten sich in seiner Be-
wegungslehre auch keine zenonischen Paradoxien ein, die sich erst in der Be-
ziehung von Bewegungen auf quantifizierte Strecken und Punkte und ihre zeit-
liche Bemessung ergeben, wie sie für die neuzeitliche mathematische Physik kon-
stitutiv geworden sind.
Fügen wir hinzu, daß für den Bereich mechanischer Ortsbewegungen diese Ter-
minologie trotz aller antiaristotelischen Purgatorien der neuzeitlichen Physik
speziell in der Mechanik und „Dynamik” erhalten geblieben ist. Man kann es noch
an den physikalischen Begriffen „Impuls“ (als Wirkursache) und „Entropie“ (als
richtungsgebende Finalursache von physikalischen Prozessen in abgeschlossenen
Systemen, Vorgängerbegriff war der von Joh. Buridan eingeführte Begriff im-
petus, d. h. „inneres Streben“) erkennen. Für den Bereich der Organismen und für
das Wachstums hat sich die Rede von den „entelechialen” Kräften und Tendenzen
und aristotelischer Teleologismus fast bis zur Gegenwart erhalten. Um die Jahr-
hundertwende erhielt die entelechiale Theorie durch die evolutionsgenetischen
Befunde großen Auftrieb (wie z. B. bei Hans Driesch).
Fassen wir auch diese Modifikationen des Vier-Ursachen-Schemas zur Erklä-
rung bewegter und sich verändernder Dinge zu einem Schema zusammen, so
ergibt sich folgende Figur:
Form
eidos

informatio Wesens-Begriff
Wirkursache plegé Bewegung Veränderung Substanz hormé u. entelechia Tendenz Telos
Dynamis, Potentia, Anlage

hyle
Materie

Es ist hervorzuheben, daß diese Theorie der Bewegung und Veränderung ihrem
teleologischen Charakter gemäß jeweils die reife Gestalt bzw. die Ruhe als Ziel
einer Bewegung privilegiert. Jede Bewegung kommt zur Ruhe, wenn sich ihre
Entelechie erschöpft hat, wenn also ihr Ziel erreicht ist. Die Relativität von
Bewegung und Ruhe ist in diesem Schema undenkbar. Erst recht ist es der
217

neuzeitliche Gedanke einer unendlichen ungestörten geradlinigen Bewegung (seit


Newton). Ebenso enthält die Theorie keine Aussage über Verfall und Auflösung
bei Veränderungen, die doch auch natürliche Prozesse sind. Nicht Verfall und
Tod, sondern Vollendung und reife Gestalt sind die ideellen und konzeptuellen
Muster, unter denen Aristoteles die lebendige Natur betrachtet hat: eine schwere
Hypothek bis in unsere Tage, wo man weithin noch immer fassungs- und gedan-
kenlos vor diesen Phänomenen des Verfalls steht.
Einzig und allein die Kreisbewegungen des Firmaments und aller Himmels-
körper, die aus reinem Feuer bestehen und deshalb leuchten, sind bei Aristoteles
ohne Anfang und Ende. Die Kreisbewegungen sind daher für Aristoteles vollkom-
mene Bewegungen mit stets gleichbleibender „Energie“. Auf den Kreisen und
Epizyklen der aristotelisch-ptolemäischen Astronomie läßt sich kein Anfangs-
oder Endpunkt ausmachen. Vielmehr sind diese Kreisbewegungen selbst die erste
Ursache aller Bewegungen im „sublunarischen“ meteorologischen Bereich der
Wettererscheinungen und auf der Erdoberfläche, wie z. B. von Flut und Ebbe. Die
Kreisbewegung des Mondes um die Erde zieht die Wassermassen der Meere mit
sich, bis sie an den erdhaften Küsten zurückprallen und zu ihren heimatlichen
Örtern zurückkehren. So entstehen Flut und Ebbe an den Küsten.

c. Die metaphysische Letztbegründung. Es dürfte klar sein, daß die Frage nach
den letzten Ursachen nicht mehr im Bereich erklärender Forschung liegen kann,
die von solchen Ursachen zur Erklärung des Einzelnen Gebrauch macht. Letzte
Ursachen haben definitionsgemäß keine Ursachen, wenn es überhaupt letzte
Ursachen gibt. Ihre Behandlung ist das Thema der Metaphysik bzw. Theologie)
oder einer „ersten Philosophie”. Sie stellt die Frage, ob es in den vier Kausaldi-
mensionen letzte Ursachen geben könnte, die für die von ihnen verursachten Sub-
stanzen „erste Gründe“ sein müßten, für den forschenden Wissenschaftler und die
Wissenschaft insgesamt aber nur als „letzte Ursachen“ erkennbar sein könnten.
Die aristotelische Metaphysik postuliert bekanntlich gemäß den vier Kausaldi-
mensionen vier letzte Ursachen. Es muß einen „ersten Beweger” geben, der selbst
unbewegt ist und bleibt, ebenso ein letztes Ziel, einen Endzweck der Welt, was
Aristoteles (mit Platon) das höchste Gute nennt. Die Reihe der Formen als
allgemeiner Begriffe kann nur durch einen allgemeinsten und höchsten Begriff
abgeschlossen werden, den Aristoteles Sein (On ὄ) nennt. „Sein“ bezeichnet die
allgemeinste Form ohne jede Beimischung von Materie und wird deshalb auch
reine Energie (ἐέlat.actus purus) genannt.
Diese drei ersten Ursachen sind das, was alle den „Gott“ nennen.
Ebenso muß jedoch die Stufung der Materien mit einer letzten gänzlich form-
losen Materie enden. Aristoteles nennt sie „prima materia“ (óὕoder
auch „Nichts“ (bzw. Nicht-Sein ὴὄ)..

d. Schließlich ist ein Blick auf die Wirkungsgeschichte des aristotelischen Vier-
Ursachen-Schemas zu werfen. Die ersten drei Letztursachen haben der aristote-
218

lischen Theologie der Hochscholastik als metaphysische Argumente für den trini-
tarischen Gottesbegriff gedient. Die vierte Letztursache der reinen (formlosen)
Materie (als Nichts) erlangte in der sogenannten negativen Theologie, dann aber
auch bei allen Satans- und Teufelsvorstellungen eine bedeutende Nachwirkung.
Die moderne Naturwissenschaft seit Galilei bleibt auch dann noch im Rahmen
des aristotelischen Vier-Ursachen-Schemas, wenn sie Erklärungen aus Ziel- und
Form-Ursachen ablehnt und die Natur ausschließlich aus Wirkursachen (causae
efficientes) als Kräften im modernen Sinne und Materie (Masse) erklärt. Damit
überließ sie die Form- und Ziel-Ursachen dem nicht-natürlichen Bereich der
Wirklichkeit, der Kultur- und Geisteswelt, als Erklärungsprinzipien, dessen sich
die modernen Geisteswissenschaften angenommen haben.
Diese, konservativer als die Naturwissenschaften, verzichten zwar nicht darauf,
ihre Gegenstände auch aus Materie und Wirkursachen zu erklären und sich so der
naturwissenschaftlichen Erklärungsmuster zu bedienen, ihr Schwerpunkt liegt
jedoch in der Erklärung aus Formen („Sinn“, Ideen, Begriffen, Gestalten) und
Zielen bzw. Zwecken („Bedeutung“). Und dies grenzen sie methodologisch als
„Verstehen” gegen das „kausale” Erklären der Naturwissenschaften ab. Will man
also verstehen, was hier geschieht, so ist der Rückgriff auf das aristotelische Vier-
Ursachen-Schema noch immer von großer Bedeutung. Es ist selbst eine Form, in
welcher wissenschaftliche Tätigkeit, Forschung als Erklären und Verstehen, Ge-
stalt gewonnen hat. Darauf ist später nochmals genauer einzugehen.

2. Die formale Logik als Instrument (Organon) der Wissenschaften

Zu den bemerkenswertesten Leistungen des Aristoteles gehört die Begründung der


formalen Logik als Lehre von Begriff, Urteil und Schluß und ihren Gesetzen bzw.
Axiomen. Sie ist in den „ersten und zweiten Analytiken”, den „Kategorien”, der
„Topik”, den „sophistischen Widerlegungen” und in der „Hermeneutik” niederge-
legt, welche Schriftengruppe die Späteren zum „Organon” (= „Werkzeug”, Hilfs-
mittel der Wissenschaften, nicht selber Wissenschaft) zusammengestellt haben. In
ihr gewinnt eine der Hauptmethodologien abendländischer Wissenschaft - neben
der Mathematik - ihre erste, frühreife und bis heute verbindliche Gestalt.
Da Aristoteles keine eigene Sprachphilosophie vorgelegt hat, wohl aber Platon
schon (im Dialog „Kratylos“) viele einschlägige und nachwirkende Gedanken
über die Sprache entwickelt hatte, kann man davon ausgehen, daß die aristo-
telische Logik zu einem gewissen Teil seine Sprachphilosophie enthält. In der Tat
ist sie ein Unternehmen, dasjenige in der (griechischen) Sprache genauer zu unter-
suchen und aufzubereiten, was sich für die oben geschilderten beschreibenden und
theoretisch-forschenden und erklärendenVerfahren der Wissenschaft eignet.
Logisch relevant aus dem umfassenderen Sprachmaterial sind zunächst die der
Beschreibung dienenden Wörter für Substanzen (Subjekte der Aussage) und für
die akzidentellen näheren Bestimmungen (Satzaussagen, Prädikationen), wie es
219

die Kategorienlehre vorordnet. Sie werden zu logischen „Begriffen“ stilisiert und


zugleich durch Buchstaben „formalisiert“. Dabei wird ausdrücklich vor sprach-
lichen Homonymien (dasselbe Wort für verschiedene Dinge) und Synonymien
(verschiedene Wörter für dasselbe Ding) wie auch vor Paronymien (als Bedeu-
tungsübertragungen von einem Ding auf ein anderes) gewarnt.
Das sogenannte Identitätsprinzip der aristotelischen Logik fordert das Festhalten
eines und desselben Begriffes in thematischen Argumentationen. Und zwar eben
deswegen, weil wegen der sprachlichen Synonymien, Homonymien und Parony-
mien oft schwer festzustellen ist, um welchen Begriff hinter der sprachlichen
Bezeichnung es sich handelt. Die beschreibenden „Begriffe“ sind, wie Aristoteles
in der Hermeneutikschrift betont, psychische Abbilder von sinnlich beobachtbaren
Gegenständen, die von allen Menschen in gleicher Weise vorgestellt bzw. erinnert
werden. Nur ihre Laut- und Schriftdarstellung in den verschiedenen Sprachen sind
verschieden.119 Offensichtlich entspringt aus dieser sprachlichen Verschiedenheit
der Benennungen das Bemühen um die „Formalisierung“ dieser „begrifflichen“
Elemente, die insofern der Versuch einer Neutralisierung der Sprachverschieden-
heiten ist.
Während die logischen Begriffe etwas zu denken und vorzustellen geben,
drücken sprachliche Sätze Verknüpfungen der „kategorialen“ Bestimmungen mit-
tels sprachlicher Verknüpfungswörter aus. Auch hier wählt die Logik einen Teil
von Sätzen aus den grammatisch unterscheidbaren Satzformen aus, nämlich sol-
che, die einen Behauptungssinn enthalten und dadurch Wahrheit und/oder Falsch-
heit zum Ausdruck bringen. Der logisch relevante Satz ist für Aristoteles der ent-
weder wahre oder falsche Behauptungssatz. Befehle, Wünsche, Fragen, Vermu-
tungen u. a. sind insofern nicht „wahrheits- bzw. falschheitsfähige“ grammatische
Satzformen.
Als logisch relevante Verknüpfungswörter in Behauptungssätzen benutzt Aristo-
teles „zukommen“ (tygchanein ά „ist“ (esti ἐísog. Kopula“nicht“
(ouk ὔegation in Verbindung mit dem „Zukommen“ oder der Kopula),
„wenn ... dann“ (ei ... ἶ, in Verbindung mit den vorigen oder auch ohne diese
Verbindung).
„Und“ (kai í), „oder“ (eite ἶ) und gelegentlich das einfache „nicht“ (me
μή) verknüpfen innerhalb eines Behauptungssatzes mehrere Subjekt- oder Prädi-
katbegriffe zu komplexen begrifflichen Ausdrücken, die als solche (wie auch die
selbständigen Begriffe) keinen Wahrheits- bzw. Falschheitswert besitzen. Aristo-
teles hat diese Funktion der Ausdrucksbildung von „und“, „oder“ und der ein-
fachen Verneinung nicht beachtet, was sich bis heute als Lücke in der Logik
bemerkbar macht. Deswegen ist die Natur solcher Ausdrücke, zu denen etwa die
negativen Begriffe und die durch mathematische Rechenarten verknüpften Aus-

119
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 16 a. in: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 86.
220

drücke (Summe, Produkt, Differenz, Quotient) gehören, bisher unterbelichtet ge-


blieben (vgl. dazu, was darüber in § 9, 4 gesagt wurde).
Die später sogenannten Quantifikatoren „alle“ (tauta ύAllquantor, oder
auch katholou óvom Ganzen gesagt), „einige“ (tines íPartikulari-
sator, oder auch en merei ἐέauf einen Teil bezogen) und „ein“ (tis í
Individualisator) werden von Aristoteles als Bedeutungsmodifikationen aus-
schließlich von Substanzbegriffen behandelt (erst die neuere Logik hat versucht,
auch die „Prädikate“ zu quantifizieren). Daneben spricht er auch von „unbestimm-
ten“ (ahoristoi ἀὁíBegriffen bzw. Ausdrücken, die also keine Quantifi-
kation aufweisen. Auch hierbei hat Aristoteles übersehen, daß die Quantifika-
tionen ihrer logischen Funktion nach komplexe Ausdrücke bilden, indem sie einen
Begriff mit einem oder mehreren anderen Begriffen im Rahmen eines Begriffs-
umfanges verknüpfen. Diese Verkennung hatte gravierende Folgen für seine
Schlußlehre, die sogenannte Syllogistik, die bei ihm in wesentlichen Teilen auf
der Struktur dieser quantifizierten Ausdrucksverknüpfung beruht.
Von allen diesen Verknüpfungswörtern, später Junktoren (in der mathemati-
schen Logik auch Funktoren oder Operatoren) genannt, meint Aristoteles, daß sie
erst in der Satzverbindung selbst und in Abhängigkeit von den kategorialen Be-
griffen eine eigene - logische - Bedeutung erhielten. Daher nennt er sie „Synkate-
goremata“ (ήlatconnotationes, „Mitbedeuter“). In der Tat
hat er aber ihren gemeinsprachlichen Sinn in die Logik mitübernommen, ohne daß
dies von ihm und späteren Logikern durchschaut wurde. Eine eigene Junkto-
renlehre hat Aristoteles nicht aufgestellt, und er hat die Junktoren auch nicht
„formalisiert“ d. h. durch eigene logische Zeichen dargestellt.
Aus den sprachlichen Satzverbindungen, den „Reden“, läßt Aristoteles als
logisch relevant nur die behauptenden Aussagen zu, durch die sich Wahres oder
Falsches darstellen läßt. Daneben behandelt er jedoch als Kernstück seiner Logik
auch die aus mehreren behauptenden Sätzen bestehenden Argumente. In diesen
stehen die einzelnen Urteile in einem solchen Verhältnis zueinander, daß aus
einigen von ihnen („Prämissen“) ein einzelner Behauptungssatz hinsichtlich seiner
Wahrheit oder Falschheit abgeleitet bzw. „bewiesen“ wird. Wichtig ist hier die
thematische Einheit des Sinnzusammenhangs dieser Satzverbindung (die später
von einigen Stoikern und von der modernen Logik aufgegeben wurde). Die argu-
mentative und beweisende Rede wird in der Syllogistik auf gewisse Standard-
formen der Schlüsse gebracht. Es liegt auf der Hand, daß bei den Behaup-
tungssätzen besonders die Wenn ... dann-Verknüpfungen und darüber hinaus alle
Syllogismen das logische Instrumentarium für die Artikulation der theoretischen
Erklärungen und der Ursachenforschungen darstellen sollen. Die Syllogismen
gelten Aristoteles grundsätzlich als Beweisformen.
Die aristotelische Logik greift aus dem Sprachmaterial diejenigen Elemente
heraus, die sich für die Darstellung von Wahrheit und Falschheit eignen. Was
diese sind, ist offensichtlich auch bei Aristoteles vom parmenideischen Denkan-
221

satz her vorgegeben. Wahrheit wird mit dem Denken des Seins und Falschheit mit
dem Denken des Nichts identifiziert.
Für Aristoteles ergibt sich Wahrheit, wenn über Seiendes behauptet wird, daß es
ist, und über Nichtseiendes, daß es nicht ist. Und umgekehrt ergibt sich Falsch-
heit, wenn über Seiendes behauptet wird, daß es nicht ist, und über Nichtseiendes,
daß es ist. Diese etwas schlichte Bestimmung (aus der Hermeneutikschrift) wurde
zur Grundlage des seither berühmten „aristotelisch-realistischen Wahrheitskon-
zeptes der Korrespondenz“ oder kurz zum „Korrespondenzprinzip der Wahrheit“.
In der Scholastik wurde es als „Adäquationstheorie der Wahrheit“ formuliert.
Man versteht dies so, daß im wahren Denken die Realität (der seienden Dinge und
ihrer Verhältnisse) abgebildet werde. Das wahre Denkbild „entspreche bzw. kor-
respondiere“ dem Sein schlechthin („adaequatio rei et intellectus“ bei Thomas von
Aquin). Dann muß das falsche Denken dem Nichts entsprechen, und falsche
Behauptungen sind grundsätzlich Reden über Nichts, die das Nichts als ein Seien-
des „erscheinen“ lassen.
Das setzt nun allerdings voraus, daß man vor und unabhängig vom Behaupten
jeweils schon weiß, was Sache ist und wie die Realität beschaffen ist, um das
wahre Denkbild mit dem realen Vorbild vergleichen zu können. Wie derartiges
möglich sein könnte, hat weder Aristoteles erörtert, noch ist es von den „rea-
listischen“ Vertretern dieser Wahrheitskonzeption jemals befriedigend gezeigt
worden.
Eine Reaktion auf diese Lage war die Weiterentwicklung des „idealistischen“
platonischen Ansatzes zur sogenannten Kohärenztheorie der Wahrheit, in der alle
Wahrheit auf den inneren Zusammenhang (Kohärenz) des Denkens selbst und alle
Falschheit auf Inkohärenzen, gleichsam Brüche, im Denken zurückgeführt wer-
den. Inkohärent war und bleibt es, die sogenannte objektive Realität bzw. Kants
„Dinge an sich“ (in der 2. Auflage der Kritik der reinen Vernunft) realistisch als
etwas ganz anderes (aber „wie anders“ konnte nie erklärt werden!) zu behandeln
denn als sinnlich wahrgenommene und gedanklich verarbeitete Erfahrung. Und
kohärent war und bleibt es, diese sinnlich erfaßte Erfahrungswelt und ihre gedank-
liche Vereinheitlichung im Idealismus auszuarbeiten (so in Berkeleys Esse =
Percipi-Prinzip und in Kants Lehre vom „Ding an sich als Noumenon“ in der
ersten Auflage der Kritik der reinen Vernunft).
Als Schüler Platons hat auch Aristoteles diesen kohärentistischen Ansatz für die
Ausgestaltung seiner Logik weiterverfolgt. Das zeigt sich darin, daß er sich
bemühte, rein logisch-formale Kriterien für die Auszeichnung von Wahrheit und
Falschheit aufzustellen - gewissermaßen ohne Hinblick auf die Realität. Er fand
sie in dem, was man seither als die drei Grundprinzipien - „Axiome“ - der forma-
len Logik herausstellt: Identität, Widerspruch und Drittes.
Auch auf sie stieß er sicherlich durch genaue Beobachtung der Sprachgebräuche
und ihrer Folgen für wahre und falsche Überzeugungen: Man denkt nicht dasselbe
(Identische), wenn man sich durch gleichlautende (homonyme) Wörter verführen
läßt, Unterschiedliches als dasselbe zu denken. Und man soll sich auch nicht
222

durch verschiedene Benennungen desselben Sachverhaltes (Synonyme) verführen


lassen, Identisches als Unterschiedliches zu denken. Man kann und soll auch nicht
zugleich und in gleicher Hinsicht etwas bejahen und verneinen, denn eines von
beidem muß wahr und deshalb das andere falsch sein, auch wenn man nicht weiß,
welches von beidem jeweils wahr oder falsch ist. Bejaht und verneint man
dennoch etwas bezüglich einer Substanz zugleich, so ergibt sich ein „Wider-
spruch“, und dieser ist die auffälligste Gestalt einer logischen Inkohärenz. Und
wenn man von Beliebigem nur entweder etwas behaupten oder dasselbe verneinen
kann, dann kann es daneben kein „Drittes“ (oder wie Spätere es auch nannten: ein
Mittleres) mehr geben, jedenfalls nicht in demjenigen, was für Wahrheiten und
Falschheiten in Frage kommt. Was es damit auf sich hat, wurde schon vorn in den
Paragraphen 3 und 9 erörtert und bleibt auch im folgenden genauer zu betrachten.

a. Die Begriffslehre. Begriffe sind - abgesehen von dem, was durch sie und mit
ihnen gedacht und vorgestellt wird (nämlich erste Substanzen und ihre Eigen-
schaften, auf die die „formale“ Logik anzuwenden ist) – mehr oder weniger
komplexe Denkformen, die wir schon als „zweite Substanzen“ kennengelernt
haben. Aristoteles hat die Begriffe grundsätzlich als Einheiten behandelt und sie
deshalb in seiner Formalisierung durch einfache Zeichen (griechische Buchstaben,
die zugleich auch Zahlzeichen sind) dargestellt.
Es liegt auf der Hand, daß er dadurch eine wesentliche Einsicht Platons für die
Formalisierung ungenutzt läßt, nämlich gerade die Einsicht in die Zusammen-
setzung der Begriffe aus Merkmalen und Umfängen. Man kann hier schon darauf
hinweisen, daß der große Aufwand, den er mit der formalen Syllogistik treibt, nur
eine Kompensation dieses Defizits an Durchschaubarkeit der Komplexionsver-
hältnisse der in den Urteilen und Schlüssen verwendeten Begriffe ist. Diese wird
durch eine formale Notation dieser „internen“ Begriffsstrukturen in Begriffspyra-
miden überflüssig. Wohl aber hat er von Platon gelernt und vorausgesetzt, daß die
Merkmale von allgemeinen Begriffen voll und ganz (d. h. identisch) auch zu
sogenannten generischen Merkmalen aller unter sie fallenden Art- und Unter-
artbegriffen werden, wobei bei den Art- und Unterartbegriffen zusätzliche Merk-
male, die sogenannten spezifischen Differenzen, hinzutreten. Aber auch diese Ein-
sicht hat er nicht für die Formalisierung genutzt, wohl aber für sein Definitions-
schema der Begriffe.
Durch die von den Allgemeinbegriffen zu den „spezielleren“ Begriffen zuneh-
mende Komplexheit der Merkmale ergibt sich nun auch das, was man das
Allgemeinheitsgefälle der Begriffe nennen kann. Je allgemeiner ein Begriff, desto
weniger Merkmale weist er auf. Umgekehrt vergrößert sich sein Anwendungsbe-
reich, der sogenannte Umfang. Diese umgekehrte Proportionalität von Merkmalen
(Begriffsgehalt, Intensionen) und Umfängen (Anwendungsbereiche, Extensionen)
der Begriffe wurde erst im 17. Jahrhundert (in der Logik von Port-Royal) klar
herausgestellt. Aristoteles hat sie nicht durchschaut. Wohl aber hat er es für
selbstverständlich gehalten, daß von einem Begriff nur die Rede sein kann, wenn
223

er überhaupt Merkmale, und mindestens ein Merkmal aufweist. Es blieb dagegen


der modernen Logik vorbehalten, auch dann noch von Begriffen zu reden, wenn
gar kein Merkmal vorhanden ist, was dann zur Entwicklung der sogenannten rein
extensionalen Logik (Typ: „Klassenlogik“ und Mengenlehre) führte.
Das Allgemeinheitsgefälle der Begriffe nach Gattung, Arten und Unterarten, das
man sich nach dem Vorbild der platonischen Begriffspyramide im Dialog
„Sophistes“ vorstellen kann, bestimmt nun auch, was man obere und untere
Begriffe oder auch abstrakte und konkrete Begriffe nennt. Obere oder abstrakte
Begriffe mit größtem Umfang (Kategorien genannt) werden durch das Hinzutreten
weiterer Merkmale näher bestimmt, „konkretisiert” (von lat. congresci, zusam-
menwachsen, nämlich von Merkmalen). Damit werden untere Artbegriffe ge-
bildet, deren Umfang gegenüber dem oberen Gattungsbegriff eingeschränkt ist.
Die Hinzufügung von Merkmalen kann im Prinzip beliebig weit fortgesetzt wer-
den, so daß die „konkretesten“ Begriffe „unendlich“ viele Merkmale besitzen
können. Deren Umfang bezieht sich dann nur noch auf einen einzigen Anwen-
dungsfall, und sie sind daher Begriffe für einzelne Dinge und werden durch deren
Eigennamen bezeichnet.
Die Scholastik brachte den Sachverhalt auf die Formel: „individuum est inef-
fabile” („Die einzelnen Dinge können nicht ausgesprochen werden“). Gemeint ist,
daß sie nicht logisch analysiert werden könnten, weil sie „unendlich“ viele
Merkmale besitzen. In der Tat werden sie ja gerade durch ihre Namen „ausge-
sprochen“). Wie es nun nach aristotelischer Begriffslehre keine merkmalslosen
obersten Begriffe gibt, so auch keine umfangslosen untersten, die sich auf gar
keinen Gegenstand beziehen würden. Derartige „leere Begriffe“ nimmt erst die
moderne extensionale Logik in Betracht, um mathematischen Vorstellungen von
der Null bzw. der „leeren Menge“ eine logische Grundlage zu geben.
Bestehen nun die Begriffe in der geschilderten Weise aus der Vereinigung von
Merkmalen und Umfängen, so lassen sich auch Methoden angeben, wie sie daraus
gebildet werden. Aristoteles hat sich sehr darum bemüht, solche Methoden aus-
zuarbeiten. Sie sind als „Analyse“ (Analysis ἀάdihairesis αἵ, lat.:
resolutio) und „Synthese“ (Synthesis ύoder Epagogé ἐφ, lat.: in-
ductio und constructio) bzw. als Induktion und Deduktion bekannt.
Jedoch sind die später in der logischen Methodologie der Begriffsbildung so
grundlegenden Verfahren der Analysis und der Synthesis bei der Begriffsbildung
doppeldeutig, je nachdem, ob man damit Begriffe aus Merkmalen (Intensionen)
oder aus Umfängen (Extensionen) bildet. Entsprechend werden auch die Verfah-
ren der Induktion und Deduktion doppeldeutig.
Synthetisiert man Umfänge spezieller Begriffe, so bildet man ihren gemeinsa-
men Oberbegriff (die Gattung). Dies nennt man üblicherweise Induktion des
Allgemeinen aus dem Besonderen. Analysiert man den Umfang einer Gattung, so
kommt man auf ihre Art- und Unterartbegriffe zurück, und das nennt man ge-
wöhnlich Deduktion. Gerade umgekehrt verhält es sich aber bei der Merkmals-
synthese und -analyse. Synthetisiert man die wenigen Merkmale allgemeiner
224

Begriffe zu merkmalsreichen „konkreten“ Begriffen, so bildet man „deduktiv“


spezielle Begriffe. Und analysiert man die Merkmale merkmalsreicher spezieller
Begriffe, so kommt man „induktiv“ auf allgemeinere (merkmalsärmere) Begriffe.
In dieser Doppeldeutigkeit von Synthesis und Analysis bzw. von Induktion und
Deduktion scheint jedenfalls der Grund für die später notorische Dunkelheit und
Problematizität dieser Verfahren zu liegen.
Es wurde schon gesagt, daß Aristoteles die Begriffe durch Buchstaben (bzw.
Zahlzeichen) „formalisierte“. Dadurch ergab sich zwangsläufig das Bedürfnis, bei
der Verwendung solcher formaler Platzhalter bzw. „Variablen“ vorzuschlagen
oder auch gelegentlich daran zu erinnern, für welche inhaltlichen Begriffe sie in
einem bestimmten Kontext stehen sollen. Auch daraus machte er ein logisches
Lehrstück, nämlich die Definitionslehre.
Eine Definition (Horismos ὁólat. definitio, Abgrenzung oder Begren-
zung) definierte Aristoteles als eine „erläuternde Rede über den Sinn einzelner
Begriffe oder auch ganzer Reden“. Er vermied es offensichtlich mit Sorgfalt, von
solchen Reden oder Definitionen anzugeben, ob er sie für behauptende Urteile
(die wahr oder falsch sein müßten) oder für eine nicht wahrheits- bzw. falsch-
heitsfähige Satzart hielt. Und diese Frage ist auch bis heute ein dunkler Punkt der
ganzen Logik geblieben. Daß wir die Definitionen grundsätzlich für nicht-
behauptend und somit nicht für wahrheitswertfähig halten, wurde schon in den
Eingangsparagraphen, bes. § 9, dargetan.
Ersichtlich ist der erste Zweck einer Definition die Einführung der formalen
Variablen für inhaltliche Begriffe selber; z. B. für „Mensch“ stehe das Zeichen
„A“, und daher auch umgekehrt die Erläuterung: „A“ steht für „Mensch“, so oft es
in einem bestimmten logischen Zusammenhang vorkommt. Aber dieser grundle-
gende Zweck der Definition wurde und wird in der Logik bis heute wohl seiner
Trivialität wegen übersehen.
Der nächste Zweck, auf den auch Aristoteles insistiert, ist dann die Erläuterung,
aus welchen sinnvollen Merkmalen (Intensionen) sich ein Begriff zusammensetzt.
Und da er von Platon gelernt hatte, daß die Merkmale einer Gattung sämtlich
zugleich auch als generische Merkmale in allen zur Gattung gehörenden Art- und
Unterartbegriffen enthalten sind, und daß darüber hinaus jeder Begriff besondere
zusätzliche „spezifische Merkmale“ aufweist, die ihn von sogenannten Neben-
arten und auch von der Gattung unterscheiden, verwendete er diese Begriffsei-
gentümlichkeit zu dem, was seither die Standard-Definition überhaupt geworden
ist.
Eine zünftige Begriffsdefinition besteht nach Aristoteles in der Angabe der
nächsthöheren Gattung eines Begriffs nebst der Angabe der „spezifischen Dif-
ferenz“. Hierzu sei nochmals betont, daß Aristoteles die interne Vernetzung der
Merkmale und Umfänge in den Begriffen nicht durchschaute und deshalb in
dieser Definitionenlehre davon ausging, ein Begriff werde durch die Angabe
anderer (ganzer) Begriffe definiert. Er übersah, daß dabei nicht ganze Begriffe,
sondern nur Merkmale (gelegentlich auch nur Umfänge) angeführt werden. Die
225

Logik ist ihm darin bis heute gefolgt, wenn sie etwa die „spezifischen Diffe-
renzen“ (oder das sog. „Proprium“, d. h. eine individuelle Eigentümlichkeit) als
ganze Begriffe zu fassen sucht.
Verdeutlichen wir dies durch einige Hinweise auf Voraussetzungen, die auch
von erfahrenen Logikern leicht übersehen und vernachlässigt werden.
1. Die Angabe der „nächsthöheren Gattung“ besteht im Hinweis auf einen
allgemeineren Begriff, unter den der zu definierende Begriff fällt. Das ist aber
zugleich das Mittel, alle Merkmale sämtlicher über einem zu definierenden
Begriff stehenden Allgemeinbegriffe mitanzugeben, da sie alle als „generische
Merkmale“ in die Merkmale auch aller Unterbegriffe eingehen. Ließe man die
„nächsthöhere“ Gattung aus und würde die über-nächsthöhere Gattung angeben,
so würde man nur einen Teil der generischen Merkmale benennen können. Wer z.
B. erläutern wollte: „Hunde, d. h. lebendige Geschöpfe“, der hätte nicht deutlich
gemacht, daß Hunde zunächst Tiere - und nicht etwa Pflanzen - sind, wobei
„Tiere“ ihrerseits als bestimmte lebendige Geschöpfe zu definieren wären.
2. Da man die generischen Merkmale in der Definition durch den zugehörigen
Gattungsbegriff erläutert, hat man fast immer angenommen, auch die spezifischen
Differenzen seien als eigenständige Begriffe anzuführen, und Begriffe seien
insgesamt daher so etwas wie „Durchschnitte“ oder gemeinsame Knotenpunkte
verschiedener sonst eigenständiger anderer Begriffe. In der Tat hätte Aristoteles
auch schon von Platons Umgang mit Ideen lernen können, daß sich Merkmale
bzw. spezifische Differenzen ganz ohne Umfänge handhaben lassen, wie er es in
der Tat auch praktizierte, ohne sich davon Rechenschaft zu geben. Dies läßt die
Frage nach den Umfängen solcher vermeintlicher „Begriffe“ von spezifischen
Differenzen gar nicht erst aufkommen. Wichtig ist allerdings die Bemerkung, daß
die Wortbezeichnungen der Begriffe in der Regel nur diese spezifische Differenz
benennen bzw. von daher gebildet sind, während sie auf den nächsthöheren Gat-
tungsbegriff keinen Bezug nehmen. Aus dem Wort „Tier“ selbst kann man nicht
entnehmen, daß in dem dadurch Bezeichneten das Merkmal des Lebewesenhaften
mitzudenken ist. Hat man allerdings einen Begriff vom „Tier“, so denkt man es
immer schon mit.
3. Da nun Aristoteles die formgerechte Definition auf diesen Typ der Angabe
der nächsthöheren Gattung nebst der spezifischen Differenz beschränkte, mußte er
grundsätzlich die Definierbarkeit der Begriffe auf einen Begriffsbereich zwischen
den höchsten Gattungen (Kategorien) und den untersten Arten (Eigennamen)
beschränken. Oberste Gattungen haben naturgemäß keine Gattungen über sich,
aus denen ihre Merkmale erläutert werden könnten. Und unterste Arten, die durch
Eigennamen bezeichnet werden, haben unüberschaubar viele (wie der scholasti-
sche Satz behauptet: unendlich viele) Merkmale, die nicht alle erläuternd an-
geführt werden können. Dieser Sachverhalt wurde in der späteren Logik kano-
nisiert mit der Folge, daß man Kategorien und „Individuen“ grundsätzlich für
undefinierbar hielt und ihre Behandlung aus der Logik weitgehend ausschloß.
226

4. Gleichwohl ist dies falsch, wie schon vorn in § 9 gezeigt wurde. Denn
ersichtlich lassen sich die in einem Begriff implizierten Merkmale auch auf andere
Weise angeben. Und erst recht kann man die Begriffe auch durch extensionale
Erläuterungen sehr klar definieren. So lassen sich höchste Gattungen (Kategorien)
sehr wohl durch Aufweis des gemeinsamen generischen Merkmals ihrer Arten
(und zusätzlich durch die extensionale Festlegung ihres Umfangs) definieren.
Ebenso kann man sich bei der Definition von untersten Artbegriffen (die für
Individuen stehen sollen), auf die Angabe der „wesentlichen“ spezifischen Diffe-
renzen beschränken, wie es in der Praxis (und auch in Beispielen des Aristoteles)
immer wieder geschieht.
5. Nicht definiert und auch nicht durchschaut hat Aristoteles diejenige Begriffs-
art, die wir vorn als heraklitischen Logos bzw. als kontradiktorischen Begriff
(contradictio in adiecto bzw. contradictio in terminis) erwähnt haben, und die
Aristoteles in seiner Modallogik faktisch verwendet.
Es handelt sich hierbei um einen Begriff, der zusätzlich zu einer spezifischen
Differenz auch deren Negation als Merkmal enthält, welches seinerseits als „posi-
tive“ spezifische Differenz eine dihäretische Nebenart unter derselben Gattung
defniert.
Was z. B. mit „Raucher“ und mit „Nicht-Raucher“ gemeint ist, dürfte bekannt
und verständlich sein. Der „nichtrauchende Raucher“ ist dann ein widersprüch-
licher Begriff. Damit meint man Personen, die man jetzt häufig in öffentlichen
Räumen antrifft, wo den Rauchern das Rauchen verboten ist. Er besagt aber (we-
gen der Symmetrie der Negationen) nichts anderes als „rauchender Nichtraucher“.
Und erst in dieser Formulierung „spürt“ man die Widersprüchlichkeit dieses Be-
griffs. Gleichwohl ergab sich aus diesem widersprüchlichen Begriff die Haupt-
begründung für die neue Anti-Rauchergesetzgebung. Gemeint war nämlich der-
jenige Nichtraucher, der in verrauchten Kneipen zum Mitrauchen gezwungen
wurde. Wir erwähnen das Beispiel, um darauf aufmerksam zu machen, daß wider-
sprüchliche Begriffe keineswegs „unsinnig“, „sinn- und bedeutungslos“ und Aus-
druck des „Absurden“ sein können, wie man gewöhnlich voraussetzt.
Ersichtlich ist Aristoteles„ Begriff der „Möglichkeit“ auf diese Weise aus den
spezifischen Differenzen „seiend“ und „nichtseiend“ und einem von ihm für nicht
angebbar gehaltenen generischen Gattungsmerkmal einer gemeinsamen Gattung
über dem Seienden und dem Nichtseienden konstruiert. Da er dies selbst nicht
durchschaute, hat er den Begriff der „Möglichkeit“ (als Prototyp aller späteren
Begriffe von Kraft, Anlage, Disposition, Vermögen) als dritte höchste Gattung
neben „Sein“ und „Nichtsein“ behandelt, worin ihm die meisten Logiker bis heute
gefolgt sind (vgl. dazu § 10 über den Möglichkeitsbegriff).

b. Die logischen Grundsätze (Axiome). Wie bei den später anzuführenden


Wissenschaften i. e. S. hat sich Aristoteles bemüht, auch für die Logik Grundsätze
zu entwickeln, die beim Argumentieren zu beachten sind. Er nennt sie Axiome,
was man seither mit „Grundsätzen“ übersetzt. Zu seiner Zeit war „Axioma“
227

(ἀíWertvolles, Wichtiges) aber auch gleichbedeutend mit „Arché“, wonach


in aller Forschung als „Grund“, „Ursache“ oder „Prinzip“ gesucht wurde. Solche
Gründe oder Bedingungen wurden aber in der Regel nicht als Sätze formuliert,
sondern als Begriffe. Und so ist es auch bis heute eine offene Frage, ob seine
logischen Grundsätze nur logische Kategorien, also Grundbegriffe der Logik, oder
allgemeinste Sätze der Logik sind. Im letzteren Falle ist umstritten, ob es sich um
behauptende Grundurteile, um Definitionen oder um nichtbehauptende Sätze, z.
B. Imperative, Normen oder Regeln für Handlungsvollzüge handelt.
Je nach dem, was man hier annahm, ergaben sich später recht verschiedene
Logikkonzepte. Die übliche Darstellung als 1. Satz (oder Prinzip) der Identität, 2.
Satz (Prinzip) vom zu vermeidenden Widerspruch, und 3. Satz (Prinzip) vom aus-
geschlossenen Dritten läßt nicht erkennen, ob es sich um Urteile über die Begriffe
Identität, Widerspruch und Drittes (wobei Identität ein Erstes, Widerspruch ein
Zweites wäre) handelt oder um Definitionen derselben. Das „zu vermeiden“ bzw.
„ausgeschlossen“ beim Widerspruch und beim Dritten klingt eher nach norma-
tiven Festsetzungen. Aristoteles äußert sich an verschiedenen Stellen im Organon
und in der Metaphysik über diese Axiome - allerdings ohne sie zu numerieren. Er
läßt dabei erkennen, daß er das Axiom über den Widerspruch für das „stärkste“
und wichtigste im argumentativen Gebrauch hielt. Er nennt es geradezu die
„Arché auch der anderen Axiome“.
Die logischen Axiome haben sämtlich einen Bezug zur Frage der Wahrheit und
Falschheit, wie aus dem Kontext der Formulierungen bei Aristoteles hervorgeht.
Und daß er mittels der Axiome über Wahrheit und Falschheit redet, läßt wiederum
erkennen, daß er die Logik insgesamt für ein Instrument der Prüfung von Wahr-
heit und Falschheit, ihrer argumentativen Herstellung und zugleich auch ihrer
Dissimulierung hielt.
Die herrschende Meinung in der Logik geht seither davon aus: Hielte man sich
strikt an die Beachtung der Identität, vermeide Widersprüche und lasse ein Drittes
(was als etwas, das nicht auf Wahrheit oder Falschheit festzulegen sei, inter-
pretiert wird) nicht zu, so könne man nicht irren noch täuschen und befinde sich
auf dem sicheren Weg der Wahrheit. Dissimuliere man aber die Identität, führe
Widersprüche offen oder versteckt ein und lasse das Dritte zu, so irre man sich,
täusche sich und andere und gehe den Weg der Falschheit oder des „sophisti-
schen“ Betrugs. Kurzum, diese drei Axiome begründen nach allgemeiner Auffas-
sung die sog. zweiwertige Logik von Wahrheit und Falschheit und ihrer genauen
Unterscheidung. Und da Aristoteles das Axiom vom (zu vermeidenden) Wider-
spruch erklärtermaßen für das stärkste Prinzip hielt, geht man sehr allgemein auch
davon aus, daß jede Argumentation, in der sich ein Widerspruch aufdecken läßt,
allein dadurch insgesamt falsch sein müßte. Aristoteles ging auch davon aus, daß
Wahrheit und Falschheit sich ausschließlich in behauptenden Urteilen zur Geltung
brächten, weshalb man diese Axiome in der Hauptsache nur auf seine Urteilslehre
bezog.
228

Dazu ist nun kritisch einiges zu sagen. Hierbei sei auf das schon vorn im § 9
Ausgeführte hingewiesen.
Nimmt man die drei Axiome als oberste Grundsätze im Sinne behauptender Ur-
teile über Wahrheit und Falschheit, so müßten sie formuliert werden: a. Alles
Identische ist wahr; b. alles Widersprüchliche ist falsch; c. alles Dritte ist weder
wahr noch falsch (und gehört daher nicht zur Logik).
1. Das ist Grundlage für eine herrschende Tendenz der ganzen Logikgeschichte
geworden Auf a gründet sich die Meinung, es gäbe überhaupt nur eine Wahrheit
(vgl. z. B. bei G. Frege), und alles genuin Logische sei tautologisch (vgl. z. B. L.
Wittgensteins „Tractatus logico-philosophicus“). Auf b beruft sich die entspre-
chende Meinung von der Falschheit. Daß es nämlich nur eine einzige und einheit-
liche logische Falschheit gebe, die sich ausschließlich im Widerspruch mani-
festiere. Dies begründet wiederum die Unterscheidung von formaler Logik im
Gegensatz zu inhaltlicher Argumentation, da man inhaltliche (und nicht-wider-
sprüchliche) Falschheiten (Lügen, Irrtümer, falsche Sätze) überhaupt nicht logisch
kennzeichnen könne. Auf c wird einerseits der Ausschluß der fiktiven Literatur
(Dichtung, oft auch der „metaphysischen Erörterungen“) aus der logischen Be-
handlung begründet. Andererseits aber auch die Erweiterung der klassisch-aristo-
telischen Logik um eine „dreiwertige“ Logik, in welcher nun das Dritte gerade
zugelassen wird. Dreiwertige Logiken sind - wozu freilich Aristoteles schon
Ansätze geliefert hat - spezielle Modallogiken, insbesondere die sog. Wahrschein-
lichkeitslogik.
Nun ist es allerdings die Frage, wie solche Axiome das leisten könnten, was
man von ihnen verlangt: Wenn jede Wahrheit mit sich selbst identisch sein soll,
(mit Leibniz und Frege wird auch behauptet, alle logischen Wahrheiten seien
untereinander identisch), so müßte das auch von der Falschheit gelten. Daß der
Widerspruch als solcher falsch wäre, hat nicht einmal Aristoteles behauptet. Er
behauptete nur, die in einem widersprüchlichen Satz verknüpften gegenteiligen
Behauptungen könnten weder zugleich und in gleicher Hinsicht wahr noch auch
zugleich und in gleicher Hinsicht falsch sein! Er sagt an einer Stelle sogar aus-
drücklich: „Notwendig muß das eine Glied des Widerspruches wahr sein. Ferner:
wenn man notwendig jedes bejahen oder verneinen muß, so kann unmöglich
beides falsch sein; denn nur das eine Glied des Widerspruchs ist falsch“.120
Was das sog. Dritte betrifft, so kann man darunter - wie oben erwähnt - das-
jenige verstehen, was weder wahr noch falsch ist. Man kann und sollte aber
darunter gerade auch dasjenige verstehen, was zugleich wahr und falsch ist. Dann
aber ist das Dritte selbst der Widerspruch. So gesehen, ist das Dritte eigentlich das
Zweite und es gibt daneben kein besonderes Drittes. Nimmt man das ernst, so
müssen sich die sog. dreiwertigen Logiken sämtlich als Logikkonzepte mit Zulas-
sung des Widerspruchs (als vermeintlichem Dritten) erweisen lassen. Und das

120
Aristoteles, Metaphysik IV. Buch 8, 1012b 10-13. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966,
S. 90. Vgl. dazu auch J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg i. Br.-München 1956, S. 73.
229

bedeutet nichts anderes, als daß solche dreiwertigen Logiken ausgearbeitete


Dialektiken sein müssen (vgl. dazu das schon in § 9 Gesagte).
2. Nimmt man die Axiome als Grundbegriffe, so sind sie für die Logik höchste
Gattungen (Kategorien). Man versteht dann zwar, daß sie nach Aristoteles‟
eigener Begriffslehre nicht definiert werden können, aber dies haben wir schon als
falsch bezeichnet. In der Tat hat er sich auch nicht um solche Definitionen
bemüht, und die Logiker sind ihm im allgemeinen darin gefolgt. Was er selber
darüber sagt, läßt sich gleichwohl zu klaren Definitionen benutzen, aber man wird
dabei über seine Andeutungen konstruktiv hinausgehen müssen.
Die Identität (Toiautes ύSelbigkeit) bezog er nur auf die Begriffe: sie
sollten in aller Kontextverwendung dieselben bleiben und nicht unter der Hand
(etwa als Homonyme) unter demselben Wort oder Zeichen verschiedene Bedeu-
tungen besitzen. Da er aber die Begriffe als Einheiten ansah, bemerkte er nicht,
daß sich im Gattungs-Art-Unterart-Gefälle die Merkmale der jeweils oberen
Gattungbegriffe in den zugehörigen Arten und Unterarten in der Tat identisch in
allen unteren Begriffen gerade unter und hinter den verschiedenen Begriffsbe-
zeichnungen durchhalten. Bemerkt hat er aber, wie sich in seiner Standard-
definition zeigt, daß alle Merkmale einer Gattung als „generische“ Merkmale in
den Merkmalsbestand eines definierten Artbegriffs eingehen. Die Identität läßt
sich in der Logik also gerade nicht auf ganze Begriffe beziehen, sondern nur auf
dieselben Merkmale in verschiedenen Begriffen. Und dies ist eine wesentliche
Bedingung dafür, daß das Spiel der Logik funktioniert. Wir können also definie-
ren: logische Identität, d. h. der gemeinsame Merkmalsbestand von Ober- und Un-
terbegriffen im Allgemeinheitsgefälle der Begriffe.
Was den Widerspruch (Antiphasis ἀí) betrifft, so sollte man sich daran
erinnern, daß er zunächst einmal eine „Einrede“ oder Bestreitung eines Arguments
bedeutet, also dessen Negierung (oder wenn das Argument selbst ein negatives
war, so dessen positive Behauptung, wie schon im griechischen und auch noch
heutigen Gerichtsgebrauch). Ist das Bestrittene falsch, so kann das nur durch die
Wahrheit der Einrede bewiesen werden. Aber es kann auch umgekehrt ausfallen
(was das Gericht zu entscheiden hat). Auf keinen Fall wird man davon ausgehen,
daß der „Widerspruch“ im Sinne einer „Einrede“ von vornherein falsch ist, wohl
aber davon, daß eines von beidem, entweder das Bestrittene oder die Einrede,
wahr und dann das andere falsch sein muß.
Von dieser Sachlage ist auch Aristoteles ausgegangen, wie seine Beispiele
zeigen, die fast wie Mahnungen an die Richter klingen, niemals Anklage und
(bestreitende) Verteidigung gleichzeitig für wahr oder gleichzeitig für falsch zu
halten. Was diesen - auch heute noch vorhandenen - juristischen Widerspruchsbe-
griff vom logischen unterscheidet, ist nun dies, daß Aristoteles beide wohlunter-
scheidbaren und selbständigen Argumente einer Rede und einer Gegenrede in ein
einheitliches Satzgebilde zusammenfaßte und dieses als ganzes „Widerspruch“
nannte. Als einheitliches Satzgebilde ordnete er ein solches - komplexes - Urteil
aber in die Klasse der „adjunktiven“ (durch „und“ verbundenen) Urteile ein, von
230

denen er annahm (s. u.), daß sie falsch seien, sofern mindestens ein Bestandteil
falsch sei. Der Widerspruch im Urteil ist daher im aristotelischen Sinne ein
Spezialfall eines falschen konjunktiven Urteils, und so wurde er seither in der
Logik auch behandelt und immer als formale Gestalt eines falschen Behauptungs-
satzes eingeschätzt. Diese Einschätzung ist aber selbst - als eine offensichtliche
Petitio principii - die Folge der aristotelischen Voraussetzung, daß Behauptungs-
sätze nur entweder wahr oder falsch sein könnten, und daß ein „Drittes“ in der
Logik nicht zugelassen sei.
Ohne diese Voraussetzung würde man derartige Behauptungen mit dem Volks-
mund schlicht „Halbwahrheiten“ oder auch „Halbfalschheiten“ nennen. Man hat
sicher auch ein entsprechendes Bewußtsein davon, daß es eine „logische Zumu-
tung“ darstellt, gemäß dieser Zweiwertigkeitsvoraussetzung den offensichtlichen
wahren Teilgehalt solcher Und-Sätze und Widersprüche einfach zu unterdrücken,
wegzuleugnen und das Ganze für falsch zu erklären.
Die Sache wird auch nicht besser durch den Hinweis auf (neuere) Meta-Theo-
rien der Semantik, die zwischen einer „objektiven Bedeutung“ (1. Semantische
Stufe) eines Prädikats und einer „Meta-Bedeutung“ (2. semantische Stufe) eines
aus zwei „objektiven Bedeutungen“ mittels Junktoren zusammengesetzten Prädi-
kates unterscheiden und den eigentlichen Sinn eines solchen komplexen Urteils
dann nur an der Behauptung der Meta-Bedeutung festmacht. Denn offensichtlich
ist auch diese Meta-Bedeutung nur zu verstehen und zu denken, wenn die
„objektive Bedeutung“ ihrer Bestandteile (der 1. semantischen Stufe) ebenfalls
verstanden und gedacht wird. Und das erfüllt genau den Tatbestand, daß man
sowohl die Wahrheit wie auch die Falschheit zugleich und in gleicher Hinsicht
denken muß, also genau das von Aristoteles ausgeschlossene „Dritte“ vorstellt.
Natürlich gilt das alles - spiegelbildlich - auch von einer Oder-Verbindung von
Prädikatsbestandteilen mit einem Subjekt, die unter denselben Voraussetzungen
immer für wahr gehalten werden, wenn einer der Bestandteile wahr, und der
andere falsch ist. Darauf wurde schon in § 9 bei der Urteilslehre kritisch einge-
gangen. Definieren wir nun den Widerspruch im Sinne des Aristoteles, so müssen
wir formulieren: Widerspruch, d. h. ein Urteil mit einem Prädikatsausdruck, der
aus einem Prädikatsbegriff und seiner Negation in Und-Verknüpfung besteht, und
das zugleich wahr und falsch ist.
Da dieser Sachverhalt eindeutig ist, aber selber nur in widersprüchlicher Weise
definiert werden kann, versteht man, warum so viele Logiker dem ausweichen
möchten und den Widerspruch lieber als konventionelle logische Norm formu-
lieren: Man soll ein (wie beschrieben komponiertes) Urteil, das zugleich wahr und
falsch ist, als falsches Urteil behandeln!
Wir entgehen allen diesen Schwierigkeiten, wenn wir uns erinnern, daß der
Widerspruch keineswegs nur an Urteilen mit Wahrheits- oder Falschheitsanspruch
auftritt, sondern auch an Begriffen. Aristoteles selbst hat dies wegen seiner
Annahme, Begriffe seien Einheiten, nicht bemerkt, wohl aber widersprüchliche
231

Begriffe verwendet und sogar formuliert. Aber heute gehören die „contradictiones
in adiecto bzw. in terminis“ zum festen Bestand logischer Elemente.
Niemand wird Begriffe als solche für wahr oder falsch halten, also auch nicht
widersprüchliche. Will man aber die Widersprüchlichkeit so allgemein definieren,
daß sie auch für Begriffe paßt, so muß man die Wahrheits- bzw. Falschheits-
relevanz dabei ganz aus dem Spiel lassen und zusehen, was sich daraus für die
Urteile ergibt. Wir können allgemein definieren: Widerspruch. d. h. logisches
Element, in welchem im bestimmten Negationsverhältnis zueinander stehende Be-
griffsmerkmale zu einem Begriff oder entsprechende Prädikationsbestandteile mit
einem Subjektsbegriff zu einem Urteil verknüpft werden.
Über das Dritte bräuchte eigentlich nichts mehr gesagt zu werden, wenn es mit
dem Widerspruch identifiziert bzw. gleichgesetzt wird. Identität und Widerspruch
beschreiben gewissermaßen binnenlogische Verhältnisse. Das Dritte könnte dann
allenfalls auf die ausdrückliche Abgrenzung der Logik von allem, was nicht der
logischen Betrachtung zugänglich ist, bezogen werden.
Der Spielraum dafür ist weiter, als man gewöhnlich denkt. Wenn die Logik sich
auf die Analyse von Wahrheit und Falschheit bezieht, so würde ersichtlich das,
was immer und nur wahr wäre und niemals falsch sein kann, nicht zur Logik
gehören. Und unterdrücken wir nicht die Feststellung, daß die meisten Logiker es
so mit den logischen Axiomen selbst gehalten haben, von denen sie seither
annehmen, sie seien immer wahr (und nach Kant „apriori“, was dasselbe bedeuten
soll), so daß sie weder logisch analysiert noch auch nur logisch diskutiert werden
könnten.
Ebenso würde das Immer-Falsche aus der Logik auszuscheiden haben. Und das
würde erklären, warum man „lauter Lügen“ und einem Lügengeflecht nicht allein
auf logische Weise beikommen kann. Auch ein so scharfsinniger Denker wie
Descartes hielt den „allmächtigen Lügengeist“ für ein Argument, das logisch nicht
zu hinterfragen sei. Im platonischen Sinne würden auch alle Dichtung und fiktive
Literatur (als Lügengeflecht) aus der Logik herausfallen, wenn sie nicht - wie
Aristoteles gelegentlich von der Dichtung sagte - als „höhere“ (und exempla-
rische) Wahrheit schon herausgefallen wäre. Aber dies Verdikt träfe die Dichtung
natürlich auch, wenn sie weder wahr noch falsch sein wollte oder sollte. Der
interessante Fall ist daher nur derjenige, der wiederum „wahr und falsch zugleich“
ist, der ja in widersprüchlichen Urteilen realisiert ist, wie gezeigt wurde.
Nun behauptet Aristoteles an einer Stelle in der Hermeneutikschrift (9, 19 a 39
- b 4), es sei klar, „daß es keineswegs notwendig ist, daß von den Gliedern eines
Widerspruchs gerade das eine wahr, das andere falsch sein müsse. Denn es verhält
sich bei dem, was schon ist, nicht ebenso, wie bei dem, was noch nicht ist“.121
Aristoteles begründet das damit, daß sonst alles „kausal“ determiniert sein
müsse. Z. B. müsse jetzt und heute schon feststehen, ob morgen eine Seeschlacht
bei Salamis stattfinden werde oder nicht. Diese „prognostische“ Determiniertheit
121
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 19 b. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 99.
232

lehnt Aristoteles ab, während die Stoiker im Anschluß an die Logikerschule von
Megara und insbesondere Diodoros Kronos - und in gewissen Grenzen auch
heutige Wissenschaft - sie behaupten. Es handelt sich in diesen Fällen um „Mög-
lichkeiten“, und insbesondere in der Zukunft liegende (scholastisch „possibilia
futura“ benannt).
Man hat in dieser Behauptung des Aristoteles eine beschränkte Zulassung des
sonst ausgeschlossenen Dritten gesehen und darauf seine Begründung einer über
die grundsätzlich von ihm vertretene zweiwertige Logik hinausgehende drei-
wertige Logik gestützt. Genau besehen handelt es sich aber um ein weiteres Argu-
ment des Aristoteles dafür, alle Aussagen über Möglichkeiten und insbesondere
die Prognosen über Zukünftiges aus der logischen Behandlung auszuschließen, da
sie nicht auf Wahrheit oder Falschheit hin entschieden werden könnten. Solche
Aussagen, das hat er sicher klar gesehen, sind zwar strukturell logische Wider-
sprüche, aber in ihnen, so meinte er gleichwohl, könnten beide Teilaussagen
zugleich wahr oder auch zugleich falsch sein (eine These, die Kant für die Be-
handlung der „Antinomien der reinen Vernunft“ übernommen hat, und die in der
modernen „Paralogik“ wieder aufgenommen wurde).
Betonen wir, daß Aristoteles offenbar genau gesehen hat, daß dieses „Dritte“
auch die Struktur des Widerspruches hat. Nur meint er, daß es nicht dessen Wahr-
heits- und Falschheitsbedingungen unterliege. Das ist nachmals nicht festgehalten
worden. Vielmehr bildeten sich gegenläufige logische Traditionen des Umgang
mit diesem „Dritten“ aus. Die einen hielten sich daran, daß das „Dritte“ immer
falsch sei, nannten eine es verwendende Logik „Dialektik“ und verstärkten da-
durch auch die Überzeugung derjenigen, die den Widerspruch überhaupt für
„immer falsch“ hielten. Sie versuchten seither, die Dialektik aus der Logik als
eine „Un-Logik“ auszuscheiden. Andere hielten sich daran, daß das Reden über
„Möglichkeiten“ und insbesondere eine Prognose „immer wahr“ sei (falsch nur
dann, wenn sie nicht logisch zünftig aus den wahren Prämissen abgeleitet wäre
und somit gar keine echte Prognose sei). Noch Kants Konzeption von den
„Möglichkeiten a priori“ zeugt von dieser Einstellung, und alle Transzen-
dentalphilosophie setzt seither noch deren „apriorische Wahrheit“ voraus.
Daß es sich bei den Möglichkeitsbegriffen und den „modalen“ Möglichkeitsur-
teilen (Wahrscheinlichkeitsurteilen, statistischen Prognosen) um echte Wider-
sprüche handelt, das wurde im Lauf der Zeit vergessen und verdient es heute
umso mehr, wieder in Erinnerung gebracht zu werden, um so manche Ungereim-
theit in den logischen Grundlagentheorien, insbesondere den Wahrscheinlich-
keitstheorien, aufzudecken (vgl. dazu das in § 10 und § 11 Gesagte).

c. Die Urteilslehre. Ein Urteil (behauptender Satz, Aussage, Protasis ó


Logos apophantikosóἀó) ist nach Aristoteles die Verbindung
von Begriffen mittels bestimmter Verbindungswörter (in der neueren Logik Junk-
toren bzw. Funktoren genannt).
233

Die Hauptverbindung stellen die Kopula „ist” (oder die Negation „ist nicht” im
Verhältnis eines Subjekts- zum Prädikatsbegriff) und das von Aristoteles bevor-
zugt verwendete „kommt zu“ (tygchanei ά, nämlich ein Prädikatsbegriff
kommt einem Subjektsbegriff zu) oder „kommt nicht zu“, her. Diese Art der
Begriffsverbindung macht diese im Unterschied und Gegensatz zu den Merk-
malsverknüpfungen in Begriffen selber „wahrheits- bzw. falschheitsfähig”.
Da alle Wissenschaft darin besteht, wahre Urteile zu fällen und falsche Urteile
auszuscheiden, ist die Urteilslehre gleichsam das Zentrum wissenschaftlicher
Methodologie. Wahrheit von Urteilen besteht für Aristoteles darin, daß in ihnen
bejaht wird, was ist (der Fall ist, Sein hat) oder verneint wird, was nicht ist.
Ersichtlich folgt er gerade in der Urteilslehre dem parmenideischen Forschungs-
programm: den Weg der Wahrheit und des Seins zu bahnen, und den Weg der
Täuschung und des Nichts kenntlich zu machen und zu vermeiden.
Um wahre oder falsche Behauptungen aufstellen zu können, muß man nach
Aristoteles wissen, was in der Wirklichkeit der Fall ist. Die Wirklichkeit wird, wie
oben schon gesagt, durch wahre Sätze „abgebildet“. Falsche Sätze aber stellen
Nichtwirkliches im Bilde des Wirklichen (täuschend, d. h. Abbilder vertauschend)
dar. Die Begriffe bilden selbst schon Substanzen und ihre Eigenschaften und
Verhältnisse ab, ohne daß damit eine Wahrheits- oder Falschheitsbehauptung
verbunden wäre. Diese kommt erst durch die verknüpfenden (satzbildenden)
Junktoren zustande. Wie dies geschieht, ist sowohl für Aristoteles wie für die
meisten Logiker seither rätselhaft oder gar ein mystisch zu nennendes Geschehen
geblieben. Denn die Junktoren sollen, wie Aristoteles ja meint, selber keine eigene
Bedeutung haben, vielmehr eine solche erst im Behauptungssatz erhalten.
Es dürfte dieses Mysterium der Junktoren gewesen sein, das moderne Logiker
wie Frege und Wittgenstein dazu geführt hat, sogar auch den Begriffen selbst jede
Bedeutung abzusprechen und zu behaupten, sie erhielten auch ihrerseits erst eine
Bedeutung durch den Satz, in dem sie vorkommen. Daß das blanker Unsinn ist
und die Logik mit schwersten Irrtumshypotheken belastet hat, dürfte auf der Hand
liegen. Wir sagten schon, Sinn und Bedeutung der Junktoren hat Aristoteles aus
dem sprachlichen Sinn dieser Sprachpartikel mit in die Logik übernommen. Nur
hat er nicht erkannt, worauf sie sich in den logischen Verhältnissen tatsächlich
beziehen. Und dies hängt wiederum mit seiner Behandlung der Begriffe als Ein-
heiten und der Verkennung ihres regulären Aufbaus aus Merkmalen und Um-
fängen zusammen.
Die Junktoren bedeuten in der Logik nichts anderes als die Verhältnisse, die
zwischen Merkmalen und Umfängen der Begriffe in Behauptungssätzen bestehen,
so wie sie mutatis mutandis auch die Verhältnisse zwischen sonstigen sprachlich
ausgedrückten Verhältnissen bedeuten. Aber diese Verhältnisse lassen sich in der
von Aristoteles erfundenen Formalisierung der logischen Verhältnisse nicht dar-
stellen (wohl aber in der eingangs vorgestellten pyramidalen logischen Notation,
in der sich zeigt, daß auch unter den Junktoren einige Synonymien und Homony-
mien bestehen).
234

Nicht einmal der Hauptunterschied zwischen einfachen wahren und falschen


Urteilen läßt sich in der von Aristoteles eingeführten und seither grundsätzlich in
Geltung gebliebenen formalen Notation darstellen: „A ist B“ (oder aussagen-
logisch: „p“ für ein positives Urteil) stellt nicht dar, ob damit ein wahrer oder fal-
scher Satz gemeint ist, ebenso wenig wie „A ist nicht B“ (oder: „ - p“ für ein
negatives Urteil). Gleichwohl ist es das Bemühen und später der Wunschtraum
aller Logiker gewesen, durch die formale Notation selber mitauszudrücken, ob
damit dargestellte Urteile wahr oder falsch sind (auch dies leistet erst die
pyramidale Notation). Man muß es in einfachen bejahenden und verneinenden Ur-
teilen zum Formalismus hinzusagen, ob mit solchen Formeln ein wahrer oder ein
falscher Behauptungssatz gemeint sei.
Dem Bemühen um die formale Notation wahrer bzw. falscher Sätze verdankt
sich aber offenbar der große Aufwand, den Aristoteles darauf verwendet hat,
wenigstens einige solcher logischen Figuren zu entdecken, die ohne Hinsicht auf
die Wirklichkeit und ein Wissen um diese aus „formalen logischen Gründen“
Wahrheit und Falschheit des notierten Urteils darstellen können. Im Zentrum steht
bei ihm und blieb seither die Figur des widersprüchlichen Urteils, das die ganze
spätere Logik für die formale Gestalt des falschen Urteils ausgab.
Wir haben eingangs schon über die Problematik dieser Festlegung gehandelt.
Sie besteht darin, daß der Urteilswiderspruch durch positive und negative Formu-
lierung eines allgemeinen Urteils immer Wahrheit und Falschheit der Teilsätze
zugleich notiert. Man kann jedoch dieser Formalisierung nicht entnehmen, wel-
cher Teilsatz der wahre und welcher der falsche ist, es sei denn, man wisse schon
vor der Formalisierung eines inhaltlichen Urteils um die wirklichen Verhältnisse,
die logisch formal dargestellt werden sollen. Nicht zuletzt ist auch in Betracht zu
nehmen, daß Aristoteles für die modalen Möglichkeitsurteile diese Funktion der
Wahrheits-Falschheitsdarstellung des Widerspruchs außer Kraft gesetzt hat, da
das Zukünftige eben nicht wirklich ist.
Daß das widersprüchliche Urteil in der ganzen Logikgeschichte als formale
Gestalt eines falschen Urteils behandelt wird, also die These von der „Falschheit
des Widerspruchs“, kann man bei dieser Sachlage nur als ein logisches Dogma be-
zeichnen. Es hat als nächste und verheerende Folge, daß bei logischer Kritik auf
Widersprüchlichkeit von Argumentationen in der Regel auch der wahre Teilbe-
stand solcher Argumentationen als „falsch“ angesehen wird.
Die eigentliche Bedeutung der aristotelischen Urteilslehre, wie sie vor allem in
der Hermeneutikschrift des Organons entwickelt wird, liegt nun keineswegs darin,
überhaupt die logischen Urteilsformen formalisierend darzustellen und zu klassifi-
zieren, wie es später zum Hauptgegenstand der Urteilslehre wurde. Vielmehr be-
steht sie darin, in einer sprachphilosophisch zu nennenden Weise sprachliche
Satzformen auf ihren Behauptungscharakter, der sie ja erst wahrheits- und
falschheitsfähig machen kann, zu überprüfen und sie von den nichtbehauptenden
Satzformen abzugrenzen.
235

Die Methode besteht darin, an inhaltlich-sprachlichen Beispielsätzen, die man


leicht als wahr oder als falsch anerkennen konnte, herauszuarbeiten, mit welchen
Junktoren sie gebildet wurden. Die interessanten Fälle waren natürlich diejenigen,
bei denen sich der „Wahrheitswert“ änderte, d. h. die Wahrheit in Falschheit und
umgekehrt vertauschte, wenn man dieselben Subjekt- und Prädikatsbegriffe durch
jeweils verschiedene Junktoren verknüpfte.
1. Die erste Einsicht war hier die Herausarbeitung der Rolle der Verneinung
bzw. Negation, die jedes allgemeine wahre Urteil in ein falsches verwandelt und
umgekehrt. Sie gab später Anlaß, die logischen Urteile unter der „Qualitäts-
kategorie“ in bejahende und verneinende (positive und negative) einzuteilen.
2. Die Entdeckung der Quantifikation der Urteile (alle..., einige..., ein..., kein...,
jeweils auf Subjektbegriffe bezogen) war eine zweite folgenreiche Leistung. Sie
führte dazu, eine zweite Einteilung der Urteile nach der „Quantitätskategorie“
vorzunehmen, nämlich allgemeine, partikuläre und individuelle Urteile zu un-
terscheiden. Die Urteilsform: „Kein...“ behandelte Aristoteles als bedeutungsiden-
tisch mit der Negation eines positiven allgemeinen Urteils.
Er bemerkte auch, daß sich bei den partikulären (und individuellen) Urteilen der
Wahrheitswert durch Negation nicht umkehren ließ. („Einige Lebewesen sind
Tiere“ erscheint als wahr, aber ebenso: „Einige Lebewesen sind nicht Tiere“,
nämlich auf Pflanzen bezogen, die ebenfalls „einige Lebewesen“ sind). Nach
seinen eigenen Voraussetzungen wären die partikulären Urteile wegen ihrer Un-
entscheidbarkeit eigentlich aus der Logik auszuscheiden gewesen. Das haben erst
die Stoiker bemerkt und sie deshalb auch konsequent aus der Logik heraus-
gehalten. Weil Aristoteles sie aber in seinen Syllogismen häufig benutzt, wurden
die partikulären und individuellen „Urteile“ überhaupt als Urteile behandelt. Sie
trugen wesentlich zur Komplexität seiner Schlußlehre bei.
Da Aristoteles die Quantifikation für eine Bedeutungsmodifikation des Sub-
jektsbegriffs hielt, durchschaute er nicht, daß man durch die Partikularierung (und
Individualisierung) tatsächlich den Subjektsbegriff durch einen unbestimmt blei-
benden Art- oder Unterartbegriff innerhalb seines Umfangs ersetzt und zugleich
dessen generische Merkmale angibt. Das Prädikat liefert dann die spezifische
Differenz hinzu und definiert so den quantifizierten Begriff. Und dies kann wie-
derum nur bedeuten, daß die partikulären und individuellen Urteile überhaupt
keine behauptenden Urteile, sondern Definitionen sind, die nicht mit der Kopula
„ist“, sondern mit einem Äquivalenzjunktor zu formulieren sind: „Einige Lebewe-
sen, d. h. Tiere / Einige Lebewesen, d. h. Nicht-Tiere“. Bei Definitionen aber
spielt der Wahrheitswert logisch deshalb keine Rolle, weil man bei ihrer Fest-
setzung frei ist.
Man kann hier schon anmerken, daß die Verwechslung der Kopula „ist“ mit der
logischen Äquivalenz (bzw. dem mathematischen Gleichheitszeichen, sprachlich
etwa durch „das heißt...“ wiederzugeben) seit Aristoteles in der Logik endemisch
geblieben ist und viele unnütze Logomachien nach sich gezogen hat.
236

3. Drei weitere von Aristoteles unterschiedene und erörterte Urteilsformen hat


man später unter der „Relationskategorie“ zusammengefaßt. Es sind die soge-
nannten konjunktiven (mit „und“-Verknüpfung zwischen den Subjekts- oder
Prädikatsbegriffen, auch Adjunktion genannt), die distributiven bzw. disjunktiven
(mit „oder“-Verknüpfung zwischen denselben) und hypothetischen bzw. implika-
tiven (mit „wenn ... dann …-Verknüpfung zwischen Subjekts- und Prädikatsbe-
griff) Urteile.
α. Die konjunktiven Urteile beziehen mittels der Kopula oder mittels des „Zu-
kommen“ mehrere Prädikatsbegriffe auf einen Subjektbegriff oder umgekehrt.
Subjekt oder Prädikat bestehen dann aus einem komplexen Ausdruck. Da Aristo-
teles komplexe begriffliche Ausdrücke als logische Elemente nicht eigens zum
Thema gemacht hat, berücksichtigt er dabei nicht, ob und inwiefern die im Prä-
dikats- oder Subjektausdruck vereinigten Begriffe ihrerseits in einem logischen
Gattungs-, Art- oder Nebenart-Verhältnis zueinander stehen. Hätte er neben den
eigentlichen Begriffen auch die (komplexen begrifflichen) Ausdrücke berück-
sichtigt, so hätte dies ihm und der späteren Logik viele Mühen und Aufwand
erspart. Wohl aber berücksichtigt er, ob es sich um positive oder negierte Begriffe
handelt, die in diese Ausdrücke eingehen. Dabei stellt er fest bzw. er dekretiert,
daß ein konjunktives Urteil insgesamt falsch sei, wenn mindestens einer der durch
„und“ verknüpften Begriffe in ihnen, würde er alleine stehen, zu einem falschen
Urteil führen würde.
Wir haben uns hier vorsichtig ausgedrückt. Es sei aber bemerkt, daß man
anhand eines inhaltlichen Beispiels wissen muß, daß die Urteilsbehauptung auf
eines der Und-Glieder nicht zutrifft. Dann weiß man natürlich auch, daß alle
anderen im komplexen Ausdruck stehenden Begriffe „zutreffen“, d. h. zu einem
wahren Urteil führen. Man weiß also, daß ein konjunktives Urteil mit (min-
destens) einem falschen (unzutreffenden) Gliede bezüglich der anderen Glieder
wahr ist. Und weiß man das (bei einem empirischen Beispiel), so weiß man
natürlich auch, in welchem Bestandteil solche konjunktiven Urteile wahr und/oder
falsch sind. Im üblichen inhaltlichen Sprachgebrauch würde man diese Be-
standteile sofort unterscheiden, und eine dieses nicht unterscheidende Rede als
Halbwahrheit oder halbe Lüge bezeichnen. Dieses wird aber durch das aristo-
telische Dekret, daß konjunktive Sätze insgesamt als falsch zu gelten haben, wenn
mindestens ein Glied „falsch“ sei, in der Logik verhindert. Offensichtlich war es
eine Vorsichtsmaßnahme, die dann auch als Maxime: „Wer einmal lügt, dem
glaubt man nicht, und wenn er auch die Wahrheit spricht“ populär wurde. Durch
die Formalisierung aber wird gerade unsichtbar gemacht, welches gegebenenfalls
das falsche Glied ist. Und so wird auch dadurch vieles Wahre zum Falschen
erklärt.
Die Logik enthält jedoch keine Regeln, sich auch gegen halbe Lügen und halbe
Wahrheiten zu wappnen. An deren Stelle setzte Aristoteles das stärkere Prinzip
der Vorsicht, lieber die Wahrheit zu opfern, wenn sie mit noch so wenig
Falschheit gleichsam befleckt ist. Der Fall hat, wie man sieht, Ähnlichkeit mit
237

dem Widerspruch. Formal kann man die konjunktiven Urteile auch leicht als
Widersprüche konstruieren, wenn man ein Ausdrucksglied mit seiner Negation
verbindet. In diesem Falle wird zwar rein formal darstellbar, daß der falsche
Bestandteil des Urteils entweder im positiven oder negativen Glied (aber auch hier
ist logisch nicht entscheidbar, in welchem) liegt, gleichwohl gilt es insgesamt als
falsch.
Alles Gesagte aber setzt wiederum voraus, daß ein konjunktives Urteil sicher
dann wahr ist, wenn alle Glieder in gleichem Sinne als „wahr gelten“, und das
wiederum muß empirisch gewußt werden, so daß auch sein formales Notat als
wahres Urteil gilt. Und ebenso wird allgemein vorausgesetzt, daß ein konjunktives
Urteil falsch ist, wenn alle seine Glieder in gleichem Sinne als „falsch gelten“.
β. Die distributiven bzw. disjunktiven Urteile verbinden zwei oder mehrere
Glieder im Subjekt oder Prädikat mittels des „oder“ zu komplexen Ausdrücken.
Wie in der üblichen Sprache hat das „oder“ in vielen Fällen dieselbe Bedeutung
wie das „und“ und ist insofern mit ihm synonym. Deshalb kann man sehr oft
Sätze mit der Verbindungsfloskel „und/oder“ bilden. Die Sinnidentität bezieht
sich auf die Fälle, wo alle Glieder gemeinsam zutreffen und dann Wahres
ausdrücken, und wo alle Glieder gemeinsam nicht zutreffen und dann Falsches
ausdrücken. Spitzt man nun aber das einfache „oder“ (später lateinisch als „vel“
bezeichnet) zum „entweder ... oder“ (lateinisch „aut“) zu, so ergibt sich eine Sinn-
differenz zum „und“.
Diese Art der Disjunktion nannte man später vollständige Disjunktion oder
Alternative. Alternativen sind Ausdrücke, die nur aus zwei gegensätzlichen (in
„vollständiger Disjunktion“ bzw. im Negationsverhältnis zu einander stehenden)
Gliedern zusammengesetzt sind, die ihrerseits einen Widerspruch bilden. Von die-
ser Art des „alternativen Widerspruchs“ dekretierte Aristoteles nun gerade das
Gegenteil des durch „und“ gebildeten Widerspruchs, und dies möglicherweise der
schönen Symmetrie wegen.
Ein alternatives Urteil sei demgemäß insgesamt wahr, wenn das eine Glied als
wahr und das andere als falsch gelte. Auch dieses aristotelische Dekret von der
Wahrheit der Alternative wurde in der Logik zu einem Dogma. Und ersichtlich
sind die Folgen ebenso verheerend wie diejenigen der dekretierten Falschheit des
Widerspruches. Denn wenn eine Alternative mit einem falschem Glied wahr ist,
werden die falschen Satzbestandteile, wenn man nicht weiß, welches Glied der
Alternative wahr und welches falsch ist, leicht unbesehen ebenfalls zu Wahrheiten
erklärt.
Auch die Alternative hat unter den logischen Urteilsformen eine seither bevor-
zugte Stellung gefunden, weil sie nach aristotelischer Festsetzung eine Notation
aus rein logischen Gründen immer wahrer Urteile erlaubt, die man ohne Hinblick
auf und ohne Kenntnis der Wirklichkeit behaupten könne, ebenso wie der
Widerspruch aus rein logischen Gründen als immer falsch gilt.
Dazu muß allerdings bemerkt werden, daß die Stoiker später auch für die Alter-
nativen falsche Wahrheitswerte feststellten: sie seien dann falsche Urteile, wenn
238

beide Glieder zusammen wahr und auch wenn beide zusammen falsch seien (und
diese Festlegung ist in der neueren Logik kanonisch geworden). Abgesehen
davon, daß man dies wiederum empirisch am Beispiel wissen muß und die Alter-
native dadurch wieder ihren rein logischen Wahrheitsstatus verliert, wird man sich
fragen, ob das, was man hier für eine falsche Alternative hält, nicht vielmehr
keine Alternative ist.
Aristoteles hätte allenfalls den ersten Fall, daß beide Glieder zugleich wahr sind,
als möglichen Grenzfall zugelassen (man kann die oben zitierte Passage aus der
Hermeneutikschrift darauf beziehen), z. B. wiederum im Falle einer partikulären
Alternative: „Einige Lebewesen sind entweder Tiere oder nicht Tiere“, was offen-
sichtlich beides wahr ist. Aber in diesem Falle würde es sich nach unserem Vor-
schlag wiederum nicht um ein behauptendes Urteil, sondern um eine Definition
handeln: „Einige Lebewesen, d. h. entweder die Tiere oder die Nicht-Tiere (Pflan-
zen)“.
γ. Die sogenannten hypothetischen Urteile verbinden Subjekt und Prädikat
durch „wenn ... dann...“. Dies kann auch zusammen mit der Kopula (oder mit „es
gibt“, welches Aristoteles als Kopula ohne Prädikat behandelte: „A ist“) oder mit
dem „Zukommen“ geschehen und stellt eigentlich dann erst klar heraus, daß es
sich um behauptende Urteile handeln soll. Man bemerke aber, daß in diesem Falle
nicht ein Urteil gebildet wird, sondern zwei Urteile miteinander verbunden wer-
den, was dann schon zur Schlußlehre überleitet. Aristoteles hat reichlich davon
Gebrauch gemacht und wohl am meisten in dieser Urteils- bzw. Schlußform
argumentiert.
Werden nur Subjekts- und Prädikatsbegriff so verknüpft, so kann man sehr in
Zweifel sein, ob es sich um ein gemeintes Urteil oder um einen Ausdruck handelt,
der keinen Wahrheitswert hat. Wir sagten schon, daß Aristoteles selber logische
Ausdrücke als Begriffsverknüpfungen nicht thematisiert hat, und zwar, weil er das
Ineinandergreifen der Intensionen und Extensionen im Gattungs-Art-Unterart-
gefälle der Begriffe nicht durchschaut hat. In pyramidaler Notation wird dieses
sichtbar und erklärt unmittelbar anschaulich die Bedeutung der so gebildeten
Ausdrücke: „Wenn Gattung dann Art“ (Subsumption eines Artbegriffs unter seine
Gattung, formale Implikation), „Wenn Art, dann Gattung“ (Implikation des ge-
nerischen Gattungsmerkmals im Artbegriff, materiale Implikation) und „Wenn
Art dann Nebenart“ (Korrelation von Artbegriffen unter gemeinsamer Gattung
oder auch unter verschiedenen Gattungen). Man sieht hier, daß das „wenn ...
dann...“ dreierlei Bedeutung annehmen kann, die jeweils die Verbindung von Gat-
tung zur Art, von der Art zur Gattung und von einer Art zu einer Nebenart, d. h
die überhaupt möglichen Verhältnisse zwischen Begriffen, bezeichnen. Da
Aristoteles durch seine Formalisierung ganzer Begriffe (Wenn A dann B) diese
Strukturen geradezu verdeckt, erkannte er den logischen Grund dieser verschie-
denen Bedeutungen des „wenn ... dann“ nicht.
Ein weiteres kommt hinzu. Da er das „wenn ... dann“ als Urteilsverknüpfung be-
handelte, bemerkte er auch nicht den Unterschied zwischen grammatisch behaup-
239

tender Form des „(immer) wenn ... dann“ und grammatisch nichtbehauptender
Konjunktivform „falls ... so wäre...“. Diese Nichtunterscheidung hat ihren Grund
in seiner Modallehre von den „Möglichkeiten“. Denn hier redete er ja selber stän-
dig in hypothetischen Sätzen des „irrealen“ Typs: „Gesetzt den Fall daß..., so
wäre...“.
Erinnern wir uns nun daran, daß Aristoteles‟ Urteilslehre darauf abgestellt war,
durch wahre behauptende Urteile die Wirklichkeit abzubilden und falsche Urteile
als Abbildung von Scheinwirklichkeit (d. h. eigentlichem Nichts) kenntlich zu
machen und von den wahren Urteilen zu unterscheiden. Und das hätte dazu führen
müssen, die konjunktivischen Sätze, mit denen man Vermutungen formuliert, aus
der Logik auszuscheiden. Nur die (echten, behauptenden) Wenn ... dann-Urteile
(in Verbindung mit Kopula, Existenzjunktor „es gibt“ und „Zukommen“) kann
man auf ihre Wahrheit und Falschheit hin prüfen und unterscheiden.
Es ist klar, daß jede der oben unterschiedenen drei Implikationsformen jede für
sich in der geschilderten Anwendung wahre Urteile liefert, in jeder anderen aber
falsche. Aber diese Unterscheidung konnte Aristoteles nicht machen. Die unech-
ten (eigentlich im grammatischen Konjunktiv zu formulierenden) „hypothetischen
Urteile“ (mit: „falls ... so wäre ...“) sind aber in allen Gestalten als falsche Urteile
einzuordnen. Denn man weiß ja, wenn man sie als Sätze formuliert und gebraucht,
daß die Wirklichkeit sich gerade nicht so verhält, wie sie es darstellen. („Falls
Sokrates Flügel hätte, dann würde er fliegen“ lautet ein in der Antike verbreitetes
Beispiel). Es wird jedoch in logischen Lehrbücher meist in der Behauptungsform:
„Wenn Sokrates Flügel hat, denn fliegt er“ kolportiert. Aristoteles ließ die Ver-
mutungsform auch, ohne diesen grammatischen Unterschied zu beachten, als
falsche Urteile zu und übernahm von Philon von Megara (nicht mit dem späteren
Neuplatoniker Philon von Alexandria zu verwechseln) die Festlegung, „hypo-
thetische Urteile“ mit zwei falschen Teilsätzen seien wahr.
Das kann man einen der erstaunlichsten Vorschläge nennen, die in der Logik je
gemacht wurden. Er ist umso erstaunlicher, als er nachmals undiskutiert als
Dogma festgehalten wurde. Er erlaubte es seither, in der Logik über alles und
jedes als „logische Möglichkeiten“ zu spekulieren und sich zugleich bewußt zu
bleiben, daß man sich dabei über alle Wirklichkeit in luftige „mögliche Welten“
begab, die aus lauter „kontrafaktischen“ Falschheiten gesponnen waren. Die Ak-
zeptanz fiel den Logikern offenbar deshalb so leicht, als sie ja mit Aristoteles auch
den Widerspruch als falsch, wenn ein Teilsatz wahr, und die Alternative als wahr,
wenn ein Teilsatz falsch sei, angenommen haben. Warum also nicht auch die
implikative Urteilsform, in der beide Teilsätze falsch sind?
Da Aristoteles nun sowohl die aus wahren wie die aus falschen Teilsätzen zu-
sammengesetzten hypothetischen Urteile für wahr hielt, blieb die Suche nach der
Form falscher hypothetischer Urteile bei ihm auf die Kombinationsform von
wahren und falschen Teilsätzen beschränkt. Man kann nur feststellen: er entschied
sich dafür, die Form mit falschem Vordersatz und wahrem Hintersatz ebenfalls für
wahr zu halten. Aus Falschem läßt sich in der Logik seither auf beliebige Wahr-
240

heiten schließen! Einzig die Form mit wahrem Vordersatz und falschem Hinter-
satz erklärte er – wiederum mit den Megarikern - für falsch. Auf Falsches kann
man seither aus beliebigen Wahrheiten schließen! Daß es sich auch dabei um
Dogmen der Logik handelt, die von Aristoteles und auch von Späteren in keiner
Weise begründet wurden, dürfte auf der Hand liegen. Sie erlauben es seither den
Logikern, ganze Bücher voller „hypothetischer“ Lügen für pure logische Wahr-
heiten zu erklären, gleichgültig, ob nun auch der einzige Endsatz (als Resultat
bzw. Konklusion) falsch oder zufällig wahr ist (Vgl. dazu die Interpretation des
„ex falso sequitur quodlibet“ und „verum sequitur ex quolibet“ in § 9).
In den Überlegungen zu den Urteilen finden sich auch die Ausgangspunkte für
das, was später als Modallehre ausgestaltet wurde und in der modernen Logik
geradezu als selbständige Disziplin auftritt. In der Hermeneutikschrift bemerkt
Aristoteles – vorangegangene Überlegungen zusammenfassend – „Bei gegenwär-
tigen und vergangenen Dingen muß also Bejahung oder Verneinung immer ent-
weder wahr oder falsch sein ... Bei Einzelfällen ist es aber auch dann nicht mehr
ebenso, wenn sie in der Zukunft liegen. Denn wenn hier jede Bejahung oder
Verneinung entweder wahr oder falsch sein müßte, dann müßte auch alles mit
Notwendigkeit entweder eintreten oder nicht eintreten“.122
Man kann daraus entnehmen, daß Aristoteles die prognostischen Aussagen über
Zukünftiges (die possibilia futura) hinsichtlich ihrer Wahrheit oder Falschheit für
unentscheidbar gehalten hat. Das wäre eigentlich ein Grund gewesen, Prognosen
ebenso wie die konjunktivischen Vermutungen (was Prognosen in der Regel sind)
nicht für behauptende Aussagen zu halten und sie deswegen aus der Urteilslehre
auszuscheiden. Erst die Stoiker haben aber auf Grund ihres Universaldetermi-
nismus auch Prognosen für echte Urteile mit Notwendigkeitscharakter gehalten
und in den Chrysippischen „Indemonstrablen“, den Schlußformeln (besonders der
ersten als „modus ponens“ und in der zweiten als „modus tollens“) dargestellt.
Und so dürften sie es gewesen sein, die die Unterscheidung von Notwendigkeits-
und Möglichkeitsurteilen (sowie die Wirklichkeitsurteile als Beispielsfälle) zu
einer besonderen Modallogik ausgearbeitet haben.
Halten wir noch einmal fest, worauf es Aristoteles in der logischen Urteilslehre
ankam und womit er auch einige falsche Weichenstellungen in der Logikge-
schichte initiierte.
1. wollte er diejenigen sprachlichen Satzformen feststellen, die durch ihren Be-
hauptungscharakter Wahrheit und Falschheit - und nur diese - darzustellen er-
lauben. Das ist ihm nur teilweise gelungen. Zum einen blieb der Unterschied zwi-
schen nichtbehauptender Definition (später als Äquivalenz meistens als behaup-
tendes Urteil behandelt, so vor allem in der Mathematik der Gleichungen) und
eigentlichem Behauptungsurteil ungeklärt. Zum andern hat er unter der Form der
hypothetischen bzw. implikativen Urteile auch nichtbehauptende (im gramma-

122
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 18 a. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 94f.
241

tischen Konjunktiv auszudrückende) Satzformen in die Logik aufgenommen, wie


Vermutungen und kontrafaktische Hypothesen. Diese wurden seither auf seine
Autorität hin in der Logik als behauptende Urteile mit Wahrheits- bzw. Falsch-
heitscharakter behandelt.
2. wollte er durch seine „Formalisierung“ mittels der Vertretung sprachlicher
Begriffe durch Variablen in den Urteilen von der faktischen Wirklichkeit ab-
strahieren und so die logische Urteilslehre als „allgemeine“ Theorie wahrer und
falscher Behauptungen begründen. Diese sollte nicht mehr an inhaltlich-sprach-
liche Behauptungsbeispiele gebunden bleiben, wenn sie diese auch jederzeit zur
Begründung und Erläuterung der formalisierten Urteile und ihres Wahrheitswertes
heranziehen konnte und auch tatsächlich so verfuhr. Dabei übernahm er aus der
konventionellen Sprachpraxis auch die Voraussetzung, behauptende Urteile zu-
nächst und grundsätzlich als wahr zu behandeln, also ihnen einen Vertrauens-
vorschuß einzuräumen, es sei denn, daß ihre Falschheit (sprachlich: Lügenhaftig-
keit, Irrtum) nachgewiesen oder logisch formal festgesetzt wird.
3. war er bemüht, die rein logischen Funktionen der logischen Junktoren heraus-
zufinden, die es - ohne Rücksicht auf die Wirklichkeit und ihre Beispiele – erlau-
ben, wahre Urteile in andere wahre, wahre in falsche, falsche in andere falsche,
und falsche wiederum in wahre umzuwandeln bzw. vom einen zum anderen
überzugehen. Dabei erkannte er nicht den Unterschied zwischen den ausdrucks-
und den satzbildenden Junktoren.
4. Seine Hauptentdeckung bezüglich der Junktoren dürfte die Rolle der satz-
bildenden Negation gewesen sein, die allgemeine wahre in allgemeine falsche
Urteile und umgekehrt umwandelt.
5. Sodann sah er eine wichtige Rolle der Quantifikation (von Subjektbegriffen)
darin, von allgemeinen wahren auf partikuläre (und individuelle) wahre Urteile
überzugehen (sogenannte Subalternation). Dies war ein verhängnisvoller und in
der Logikgeschichte folgenreicher Irrtum. Er bemerkte nicht, daß die Partikula-
risierung und Individualisierung keine Form behauptender Urteile, sondern eine
Definitionsform darstellt (vgl. dazu § 9).
6. Insbesondere wendete er die Implikation („wenn ... dann ...“) neben ihrer
Behauptungsfunktion (in Korrelationen und Kausalurteilen) auch auf hypothe-
tische Urteile an. Sein Fehler dabei war es, die sprachlich-grammatische Vermu-
tung in eine Behauptung umzumünzen. Seither gab und gibt es in der Logik kei-
nen „Konjunktiv“. Und das bedeutet, daß in der Logik auch alle Hpothesen als
Behauptungen formuliert und mit Wahrheitswerten ausgestattet werden.
7. Um die Logik auch noch von jeder Rücksichtnahme auf empirische Beispiele
und deren Wahrheitswertvoraussetzung unabhängig zu machen, suchte Aristoteles
nach logischen Urteilsformen, die allein durch ihre Form einen bestimmten Wahr-
heitswert der Urteile darzustellen erlaubten. Er glaubte sie im Widerspruch als
Form reiner logischer Falschheit und in der Alternative als logische Form reiner
logischer Wahrheit gefunden zu haben. Manche seiner Ausführungen legen auch
die Vermutung nahe, daß er auch die sogenannten Äquivalenzurteile (und damit
242

die Definitionen bzw. die mathematischen Gleichungen) als Gestalten rein logi-
scher Wahrheit angesehen hat, denn sie kommen als Prämissen oder Schlußsätze
in seinen Syllogismen vor.
Offensichtlich verstand er selbst den Übergang von der Empirie der Beispiele zu
den rein logischen Urteilsformen als genügende Begründung dafür, die logische
Falschheit des Widerspruchs und die logische Wahrheit der Alternative grund-
sätzlich von der (durch Negation gebildeten) inhaltlichen Wahr-Falschheit der
Teilsätze zu unterscheiden und abzugrenzen.
Die Logiker sind ihm mit den Stoikern darin auch durchweg gefolgt, und in der
neueren Logik wurde die semantische Meta-Theorie der Sinnebenen geradezu da-
zu erfunden, diesen Unterschied herauszustellen. Sie erlaubt seither den Logikern
zu argumentieren, daß so manches inhaltliche Satzbeispiel sachlich falsch, aber
seine formale Gestalt rein logisch wahr und umgekehrt sein könne. Wir haben
unsere Bedenken gegen diese Sicht der Dinge (und somit gegen die Homonymität
der Wahrheitswertbegriffe) schon in § 9 deutlich gemacht.

d. Die Schlußlehre. In der Lehre vom Schluß gipfelt die aristotelische Logik.
Sie ist zugleich Beweistheorie für die Wahrheit von Urteilen (oder für ihre Falsch-
heit). So ist sie auch die Hauptmethodologie für die kritische Überprüfung sprach-
licher Kontexte und für die Gewinnung neuer Urteile aus dem Kontext schon
vorhandener.
Ein Schluß (syllogismos ó, lat.: ratiocinatio, ratiocinium, discursus)
ist eine Verbindung von Urteilen derart, daß daraus ein neues Urteil gebildet wer-
den kann.
Im einfachsten Fall gewinnt man nach Aristoteles aus allgemeinen Urteilen
durch Subalternation spezielle „partikuläre“ Urteile. Das hat man bis heutzutage
als „logisches Theorem der partikulären Urteile“ festgehalte. Es lautet: „Aus
einem allgemeinen Satz läßt sich ein partikulärer Satz ableiten, der dieselbe Quali-
tät sowie dasselbe Subjekt und Prädikat hat.“ 123 Ein Beispiel dafür wäre: “alle
Menschen sind sterblich”, daraus folge: “einige Menschen sind sterblich” (und
„Sokrates ist sterblich”).
Wenn die Partikularisierungen jedoch tatsächlich wahre Urteile wären, müßte
man (als Gegenprobe) ebenso „wahr“ schließen können: „einige Menschen sind
unsterblich bzw. nicht sterblich“ (und auch: „alle Menschen außer Sokrates sind
unsterblich“). Aber abgesehen davon, daß die „Sterblichkeit“ in Logiklehrbüchern
noch nie als „dialektisches Prädikat“ erkannt worden ist (die Tote und Lebendige
zugleich umfaßt), zeigt sich an der „Gegenprobe“, die bei einer Partikularisierung
ebenfalls gefolgert werden kann, daß es sich nicht um Urteile, sondern um Defini-
tionen dessen handelt, was als „einige“ und „ein“ nur unbestimmt ausgedrückt
wird und deshalb genauerer Bestimmung bedarf.

123
K. Ajdukiewicz, Abriß der Logik, Berlin 1958,S. 117. – „Qualität des Urteils“ bedeutet bejahend oder verneinend.
243

Eine einfache Schlußform ist auch schon das hypothetische wenn … dann …-
Urteil. Wie oben dargelegt, erlaubt es einen einfachen Schluß von einem wahren
Satz auf einen anderen wahren Satz, und (die kontrafaktischen Vermutungen
einschließend) auch von einem falschen Satz auf einen falschen Satz, ja sogar von
einem falschen Satz auf einen wahren Satz. Nur der Übergang vom Wahren zum
Falschen wird dadurch als „unwahr“ bzw. unzulässig ausgeschieden.
Auch dazu ist zu bemerken, daß solche einfachen Schlüsse für praktische
Anwendungen gänzlich abwegig sind, wohl aber zu allen Zeiten einer phantasti-
schen Spekulation Tür und Tor geöffnet haben, weil durch Aristoteles dazu eben
eine logische Schlußform als „wahrheitsverbürgend“ zur Verfügung stand. Was
davon zu halten ist, wurde schon in § 9 bei Gelegenheit der Kritik der „Aussagen-
logik“ behandelt.
Interessanter und exemplarisch sind die syllogistischen Regelfälle, in denen aus
je zwei Urteilen ein neues drittes gebildet wird. Diese hat Aristoteles zum Gegen-
stand seiner Analysen gemacht und die Regel aufgestellt, nach de