Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
PHILOSOPHIE
In systematischer und historischer
Perspektive
Lutz Geldsetzer
von
Lutz Geldsetzer
Die vorliegende Schrift enthält die Erträgnisse der Studien des Verfas-
sers über die Wissenschaften von etwa drei Jahrzehnten. Gelegenhei-
ten zu Erfahrungen im Wissenschaftsbetrieb ergaben sich schon früher
während seiner nun mehr als fünfzigjährigen Lehr- und Forschungs-
tätigkeit an der Düsseldorfer Universität und bei Gastprofessuren an
Universitäten in Frankreich, Italien, in den USA und in der VR.
China.
Das Material hat sich in wiederholten Vorlesungen zum Thema
„Wissenschaftstheorie“ so angereichert, daß es einigermaßen umfang-
reich geworden ist und den Charakter eines Lehrbuches der Disziplin
angenommen hat. Es ist in vier Teile gegliedert:
Der erste Teil hat vorwiegend systematischen Charakter. Die Diszi-
plin „Wissenschaftsphilosophie“ wird in einer hier vorgeschlagenen
Architektonik des Wissenschaftssystems verortet. Dadurch werden
ihre Voraussetzungen, die sie von philosophischen Grunddisziplinen
übernimmt, und ihre Bezüge zu Bereichsdisziplinen bis hin zu den
Einzelwissenschaften sichtbar gemacht.
Anhand dieses Leitfadens wird als Zweck und Ziel aller Wissen-
schaften die Gewinnung, Bewahrung und Begründung von Wahrheit
herausgearbeitet. Die Definition der Wahrheit als kohärentes und
komprehensives Wissen erlaubt es, ein genuin wissenschaftliches
Wahrheits-Ideal von anderen kulturellen Idealen zu unterscheiden, die
sich immer wieder und heute verstärkt an seine Stelle drängen oder
damit verwechselt werden. Diese Vermischungen führen zu verschie-
denen Formen und Gestalten von falschem Wissen und zu dem, was
hier „wahr-falsches Wissen“ genannt wird.
Die Erarbeitung wahren Wissens in den Wissenschaften hängt in
erster Linie von den dazu eingesetzten Methoden ab. Es geht dabei um
die Definition der wissenschaftlichen Begriffe, deren Verknüpfung zu
wahren Urteilen und der Urteile zu schlüssigen Argumenten, die in
der Gestalt von Theorien eine Gesamtdarstellung der einzelnen Wis-
sensressourcen über die jeweiligen Forschungsgebiete erlauben.
In allen diesen methodischen Verfahren muß es, wie man sagt, lo-
gisch zugehen. Logik ist seit alters die dafür relevante philosophische
Methodendisziplin.
Von I. Kant stammt die These, die Logik habe „seit dem Aristoteles
keinen Schritt rückwärts“ getan, und „daß sie auch bis jetzt keinen
Schritt vorwärts hat tun können“. Das wird bis heute gerne wiederholt.
Geisteswissenschaftler haben die These meist so verstanden, daß die
II
Die pyramidale Erklärung der Induktion zeigt dagegen, daß die Be-
griffsbildung durch logische Induktion immer vollständig und sicher
ist. Sie ist kein Schluß von einem Artbegriff auf die zugehörige Gat-
tung, sondern sie expliziert nur, daß die Merkmale (Intensionen) eines
induzierten Artbegriffs allen seinen Instanzen in seiner Extension zu-
kommen. Das haben schon Wilhelm von Ockham und Francis Bacon
bewiesen. Und sie zeigt überdies, daß gerade die Mathematik die un-
vollständige Induktion als Schluß „von einigen auf alle Fälle“ verwen-
det, ohne jemals „alle“ Fälle zu kennen oder jemals prüfen zu können.
6. Mathematische Logiker haben aus der klassischen Logik die Mei-
nung übernommen, daß die logischen Junktoren und mathematischen
Operatoren sinnfreie Elemente und jedenfalls keine Begriffe seien. Sie
dienten nur dazu, nicht-wahrheitswertfähige Begriffe zu wahrheits-
wertfähigen Urteilen und diese zu Schlüssen zu verknüpfen, deren
Sinn gerade in Wahrheiten, Falschheiten und Wahrscheinlichkeiten
bestünden.
Es ist jedoch die gemeinsprachliche Bedeutung der logischen Junk-
toren wie der mathematischen Operatoren für die Grundrechenarten,
deren Verständnis erst die Definition von nicht wahrheitswertfähigen
Begriffen und Ausdrücken sowie die Komposition von wahrheits-
wertfähigen Urteilen und Schlüssen erlaubt. Die gemeinsprachliche
Bedeutung der jeweiligen ausdrucks- und satzbildenden Junktoren ist
aber selbst „auf Begriffe zu bringen“. Dann zeigt sich, daß zwischen
den satzbildenden Junktoren (die den Wahrheitswert von Behaup-
tungen bestimmen) und den begriffs- und ausdrucksbildenden Junkto-
ren (ohne Wahrheitswerte) strikt unterschieden werden muß. Die ge-
meinsprachliche Bedeutung der Junktoren und Operatoren vermittelt
auch den Bezug der logischen Formalismen auf sprachliche Inhalte.
7. Mathematiker sind seit Euklids Zeiten davon überzeugt, daß Glei-
chungen eine genuin mathematische Form behauptender Urteile mit
Wahrheitswerten sei. I. Kant hat diese Meinung auch in der Logik und
bei Philosophen verbreitet, indem er eine mathematische Gleichung
als Beispiel eines „synthetischen Urteils a priori“ ausgab.
Die Gleichung stellt jedoch eine logische Äquivalenz dar. Deren
Hauptfunktion ist die Definition von Begriffen und Ausdrücken. Sie
gehört zu den ausdrucksbildenden Junktoren und kann daher keines-
wegs wahrheitswertfähige Behauptungen bzw. Urteile ausdrücken.
Die Gleichungsäquivalenz definiert identischen Sinn mittels verschie-
dener Zeichenausdrücke. Dies entspricht der gemeinsprachlichen
Funktion der Synonyme. Die Gleichung ist weder voll- noch teiliden-
tisch mit der logischen Kopula oder mit einer Implikation, die logi-
sche Behauptungen auszeichnen.
VII
gewählt und interpretiert, was auf die heutige Fachlage Bezug hat und
dazu geeignet ist, diese selber durchsichtiger zu machen.
Die entsprechende Interpretationsmethodologie wird im letzten Pa-
ragraphen über die Hermeneutik in den Geisteswissenschaften beson-
ders herausgestellt. Die „dogmatische Hermeneutik“ erklärt, wie insti-
tutionell gestützte Sinngehalte durch regelgeleitete Interpretationen für
ihre Anwendung auf Glaubens-, Entscheidungs- und Lehrprobleme
aufbereitet werden. Die „zetetische Hermeneutik“ erklärt dagegen,
welche Wissensressourcen für wahre Interpretationen von Artefakten
in der geisteswissenschaftlichen Forschung aufgeboten werden müs-
sen.
Der zweite Teil der vorliegenden Schrift behandelt zunächst die neu-
zeitlichen Motive zur Ausbildung einer besonderen philosophischen
Disziplin von den Wissenschaften unter dem gräzisierenden Titel
„Technologia“, die sich bei dem Schulphilosophen Clemens Timpler
1604 ankündigt. Zu seiner Zeit fließen eine Reihe von Interessenah-
men und Beschäftigungsweisen mit Wissenschaften zusammen, näm-
lich bibliographische Bestandsaufnahmen, lexikalische Erörterungen,
politische Nutzenkalküle. Hinsichtlich der Wissenschaften ergibt sich
daraus eine Neuorientierung der Philosophie, die auf diesen Grund-
lagen Fundierungsversuche für die Einzelwissenschaften entwickelt.
Darin kündigt sich an, was erst im 20. Jahrhundert in der besonderen
Disziplin Wissenschaftsphilosophie zusammenläuft.
Der dritte Teil enthält in vier Abschnitten die für den Gegenstand
wichtigen Ideen und Beiträge der Antike, des Mittelalters, der Neuzeit
und der heute florierenden Schulen und Richtungen der Wissen-
schaftsphilosophie.
Vorweg sollte darauf hingewiesen werden, daß hier die Langzeit-
wirkung historischer Ideen in allen späteren wissenschaftlichen Ver-
lautbarungen von Autoren vermutet und gegebenenfalls zum Ver-
ständnis herangezogen wird. Das unterscheidet die hier herausgestell-
ten historischen Zusammenhänge von der sonst fachüblichen Metho-
de, Einflüsse und Übernahmen nur in den Fällen anzunehmen, wo
Autoren selbst durch Zitat und andere Hinweise auf solche Inspi-
rationen hingewiesen haben. Man unterschätzt jedoch dabei gewöhn-
lich den Anteil von Wissenstraditionen, die nicht in dokumentierter
Weise ihren Niederschlag gefunden haben, sondern als “tacid know-
ledge“ (M. Polanyi) im Lehrbetrieb und den dazu verwendeten Quel-
len lebendig waren, so daß sie selten überhaupt erwähnt werden
Der leitende Gedanke ist im übrigen, daß es für die abendländische
Wissenschaft von ihren Anfängen an auch in aller von den Philoso-
phen angestrebten „Weisheit“ stets um wissenschaftliches Wissen ge-
XI
gangen ist. Dies könnte allerdings nur auf dem hier ausgesparten
Hintergrund des Vergleichs mit anderen Kulturen deutlicher sichtbar
werden, wo das wissenschaftliche Wissen allenfalls eines neben ande-
ren, besonders soteriologischen Weisheitsformen war und teils noch
ist. Und selbst da, wo religiöse und zu Theologien ausgebaute Wis-
senskomplexe in den Vordergrund traten, sind diese stets wissen-
schaftlich unterfüttert und durch wissenschaftliche Kritik gezwungen
worden, sich in den Formen der Wissenschaften zu artikulieren.
Wo es viel Wissen gibt, das Anspruch auf Wahrheit macht, gibt es
auch viel falsches Wissen. Die übliche Einschätzung und die Erwar-
tungen gegenüber den Wissenschaften laufen jedoch darauf hinaus,
daß der Anteil des wahren Wissens in allen Wissenschaften letztlich
nur zunimmt und der falsche Anteil eliminiert oder im Problemati-
schen gehalten wird. Das ist, wie im ersten Teil deutlich gemacht
wird, selber falsch. Und wenn das so ist, ergibt sich die Aufgabe, auch
im gegenwärtigen Wissen die falschen Anteile kenntlich zu machen.
Damit halten wir für die Durchdringung des historischen Materials
einen der ältesten Gedanken der abendländischen Philosophie fest,
den Parmenides in seinem Lehrgedicht klar formuliert hat: Es gibt
„zwei Wege der Forschung“, nämlich den „Weg der Wahrheit“ und
den „Weg der Falschheit“.
Parmenides hielt das auf Einheit abzielende Seins-Denken für den
Weg der Wahrheit und die sinnliche Wahrnehmung des Vielfältigen
und Bewegten für den Weg der Falschheit. Er hat damit den Rationa-
lismus in den Wissenschaften befördert und den Empirismus nachhal-
tig beeinträchtigt. Jedoch hat er damit Recht behalten, daß es diese
beiden Wege der Forschung gibt.
Unter modernen Bedingungen sind die Ausgangspunkte für die
Wege, die zur Wahrheit und zur Falschheit führen, in den metaphy-
sischen Begründungen der wissenschaftlichen Theorien zu suchen. Sie
gehen letztlich von den zwei antagonistischen metaphysischen Grund-
einstellungen, nämlich vom Realismus und vom Idealismus aus.
Ihr Gegensatz in der abendländischen Philosophie und Wissenschaft
ging stets um den Wahrheitsanspruch, den jede von ihnen für sich
behauptete, und den er seiner Alternative absprach. Beide begründeten
ihre Falschheitskritiken an der Gegenposition mit den bei den Geg-
nern ausgespähten Widersprüchen. Die Widersprüche in ihren eigenen
Grundeinstellung übersahen sie entweder geflissentlich, oder sie stell-
ten sie als noch künftig „zu lösende“ Probleme dar.
Die Grundwidersprüche der realistischen und idealistischen Meta-
physiken, von denen jeweils weitere abhängen, werden im § 40
herausgestellt. Wenn jedoch Widersprüche keineswegs nur falsch
sind, sondern auch einen Anteil von Wahrheit enthalten, so stellt sich
XII
sein sich selber bespiegeln könne und obendrein auch noch die Be-
leuchtung dazu liefere.
Eliminiert man die These über das ansichhafte Bewußtsein, so bleibt
die wahre Komponente der realistische These übrig, daß es Bewußt-
seins-Erscheinungen gibt. Es entfallen alle Thesen über die solche Be-
wußtseins-Erscheinungen angeblich bewirkenden sogenannten Seelen-
vermögen.
Das Resultat der sich dadurch ergebenden Überlappung von realisti-
scher und idealistischer Erkenntnistheorie ist eine phänomenalistische
Erkenntnistheorie, wie sie erst in neuerer Zeit skizziert worden ist. Sie
enthält die gemeinsame Wahrheit des Realismus und des Idealismus
und schließt deren falsche Sätze aus.
Phänomenalismus ist jedoch nur eine Erkenntnistheorie. Damit ist
die Frage nach einer wahren metaphysischen Theorie, die neben der
Erkenntnistheorie auch die übrigen Grunddisziplinen begründet, noch
nicht beantwortet.
Hierzu ist induktiv von den Merkmalen der Axiome der Grund-
disziplinen auszugehen. Es wird danach gesucht, was in deren axio-
matischen Grundbegriffen als Gemeinsames und Identisches, mithin
als „generisches Merkmal“ neben ihren spezifischen Differenzen aus-
weisbar ist. Mit G. Berkeley definieren wir das (ontologische) Sein als
erkanntes Sein, d. h. als Idee. Und mit Fichte definieren wir Er-
kenntnis als Handlung, und umgekehrt. Darüber hinaus gilt es jedoch,
auch das Gemeinsame bzw. Identische von erkanntem Sein und getä-
tigter Erkenntnis auf den Begriff zu bringen. Der Begriff ergibt sich
aus der Einsicht, daß getätigte Erkenntnis gar nichts anderes ist als
Seinserkenntnis; und umgekehrt, daß Seinserkenntnis nichts anderes
als Bewußtseinserscheinung ist.
Um dies Gemeinsame zu bezeichnen, haben wir die traditionelle
Bezeichnung „Idee“ oder „das Ideelle“ für das idealistische Prinzip
übernommen. Es bestimmt den Idealismus als wahre Metaphysik.
Um deutlich zu machen, um was es sich dabei handelt, wurde die
Entstehung und Entwicklung des abendländischen Idealismus in den
drei philosophiegeschichtlichen „Wendungen zum Subjekt“ herausge-
stellt. „Wendungen“ deshalb, weil der Idealismus sich gegen den Rea-
lismus durchzusetzen hatte, und weil sich in der Kritik am Realismus
erst allmählich zeigte, was Idealismus überhaupt ist.
Die erste Wendung war die sophistische und sokratische Wende
zum Subjekt, die Protagoras der klassischen griechischen Philosophie
vorgab („Der Mensch ist das Maß aller Dinge: der Seienden, daß sie
sind, und der Nichtseienden, daß sie nicht sind.“). Die zweite war die
Augustinische Wende („noli foras ire, in interiori homine habitat
veritas“ / „Gehe nicht nach außen, im inneren Menschen wohnt die
XIV
Wahrheit“). Die dritte war die neuzeitliche Wende zum Subjekt des
Nikolaus von Kues („Der Mensch als kleiner, schaffender Gott“). Sie
blieben die Grundlage der Cartesischen Cogito-Philosopie, der Leib-
nizschen Monadenlehre, des Kantischen transzendentalen Idealismus,
der Systeme des deutschen und europäischen Idealismus bis hin zu
einer wohlverstandenen Phänomenologie. Deren Spuren sind bis in
die verfremdenden Gestalten des Existentialismus, Konstruktivismus
und Dekonstruktivismus sowie zahlreicher Neo-Klassiker-Ismen in
den Geisteswissenschaften bemerkbar.
Die exponentiale Zunahme des wissenschaftlichen Personals in aller
Welt, die forcierte Spezialisierung aller Ausbildungszweige und die
damit verbundene Absenkung der wissenschaftlichen Standards läßt
das Phänomen Wissenschaft heute in etwas fahlem Licht erscheinen.
Insbesondere sind Probleme der Abgrenzung von Wissenschaft gegen-
über allen anderen zivilisatorischen und kulturellen Institutionen ange-
sichts der Verwissenschaftlichung aller Lebensverhältnisse immer
schwieriger und auch dringlicher geworden.
Die Übersicht über die gegenwärtig prominenten wissenschafts-
theoretischen Richtungen bzw. Schulen, mit der die vorliegende
Schrift beschlossen wird, setzt bei deren Begründern und Meisterden-
kern an und läßt allenfalls einige Perspektiven auf die gegenwärtige
Lage zu. Die meisten Schulen gehen dabei von den Naturwissen-
schaften aus und konzentrieren sich auf diese. Die Lage der Geistes-
wissenschaften ist dem gegenüber geradezu chaotisch. Deshalb ist die
Darstellung ihrer Probleme und Methodenansätze ausführlicher gera-
ten. Hier galt es gewissermaßen noch Schneisen in unübersichtliches
Gelände zu schlagen.
Die metaphysische Grundlage der herrschenden Theorien der Gei-
steswissenschaften ist die Lebensphilosophie. Sie verdankt ihren Auf-
stieg im 19. Jahrhundert den großen Erfolgen der entwickelnden Bio-
logie, aber zum Teil auch den weiterwirkenden Anstößen der roman-
tischen Naturphilosophie, besonders der Philosophie Schellings.
Wilhelm Dilthey hat auf dieser lebensphilosophischen Grundlage
die Geisteswissenschaften auf den hermeneutischen Weg gewiesen.
Seine Maxime „die Natur erklären wir, das Seelenleben verstehen
wir“ hat hier überall gewirkt. Sein Verstehensbegriff als „Nacherleben
fremden Lebens“ steht überall noch in voller Geltung. Und doch
wurde dadurch ein Irrweg, ein zweiter Weg der Forschung im Sinne
des Parmenides, eingeschlagen.
Um diesen Irrweg zu markieren, wurden anhand der geisteswissen-
schaftlichen Leitwissenschaften, nämlich der Geschichtswissenschaft
und der Sprachwissenschaft, die lebensphilosophisch-metaphysischen
und die ontologischen und erkenntnistheoretischen Voraussetzungen
XV
INHALTSVERZEICHNIS
Vorwort S. I - XVII
§ 12 Die Rolle der Modelle und der Simulationen in den Wissenschaften S. 152
Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und Wissen-
schaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem
Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der
Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle.
Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der
geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle
bei der Entwicklung der physikalischen Disziplinen. Die Mathematisierung von Chemie, Biologie und
einiger Kulturwissenschaften. Die Parallele der Entwicklung von formalisierter Mathematik und formaler
Logik und die Frage von Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer
Axiomatik und Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in forma-
len Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von Ab-
bildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die Computer-
simulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen. Die KI-Forschung
(„Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer und Intelligenz. Weitere
Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-Simulation.
A . Die Antike
§ 19 Euklid (um 300 v. Chr.), seine „Elemente“ und das Vorbild der Mathematik S. 250
Der platonische Charakter der Elemente als „dialektische Logik“. Vermeintliche geometrische Anschau-
lichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der arithmetischen Gebilde. Die
geometrischen und arithmetischen „Definitionen“. Die Gleichung als Ausdrucksmittel der mathematischen
Argumentation. Bekanntheit und Unbekanntheit der Zahlen und die Rolle der Buchstabenzahlen (Variab-
len). Die „Axiome“ als Definitionen. Die Theoreme als Behauptungssätze. Die Probleme als praktische
Konstruktionsaufgaben und als Methodenarsenale. Die Elemente und der philosophische „Mos geometri-
cus“.
§ 30 Glauben und Wissen. Die Begründung des Glaubens durch Wissen und des Wissens
durch Glauben S. 344
Glaubenswahrheit und wissenschaftliche Wahrheit: Die Philosophie als Dienstmagd der Theologie vs. die
Autorität der Vernunft. Die Begründung des Glaubens durch logisches Wissen. Die Definition des metaphy-
sischen Prinzips bei Anselm und die Dialektik der Dogmen bei Abälard. Wissen und Glauben bei Thomas
von Aquin und Wilhelm von Ockham. Der Auftrieb des quadrivial-mathematischen Studiums des „Buches
der Natur“ als Glaubens- und Wissensquelle. Die Rationalisierung der Dogmen durch die Mathematik bei
Roger Bacon und Nikolaus von Kues. Die Synthese des Nikolaus von Kues: die Docta ignorantia als
höchste mathematische „Vernunfteinsicht“. Die Lösung des Begründungsproblems: Jede Wissenschaft hat
Glaubensvoraussetzungen. Die skeptische und stoische Begründungen des wissenschaftlichen Wissens
durch (wahrscheinliche) Meinung. Dogmatisierung der Wissenschaft und Verwissenschaftlichung der
Theologie. Logik und Mathematik als Reservate der Wissens-Gewißheit.
§ 31 Der Ausbau der formalen Methoden der Wissenschaft: die „Triviallogik“ und die neue
„Quadriviallogik“ der Mathematik S. 368
Die Präsenz der aristotelisch-stoischen Logik und der euklidischen Mathematik im scholastischen Lehr-
programm der Philosophischen Fakultät. Univozität bei Johannes Duns Scotus und Analogie bei Thomas
von Aquin als Paradigmen regulärer und widersprüchlicher Begriffsbildung. Die euklidisch-mathematische
Logik bei Raimundus Lullus. Veranschaulichung der arithmetischen Begriffe durch geometrische Dar-
stellungen und ihre Formalisierungen. Die Null und das Infinitesimal-Infinite als „Zahl und zugleich Nicht-
Zahl“. Euklidisch-mathematische Logik als „höchste dialektische Vernunfteinsicht“ bei Nikolaus von Kues
und Kant. Das Auseinandertreten der trivialen Logik und der euklidisch-quadrivialen Logik.
§ 38 Die Verselbständigung der Einzelwissenschaften und ihre Folgen für die Ausbildung
der modernen Metaphysiken S. 427
Prekäre Verdeutlichung der Systemprinzipien durch Kritik und Polemik der Systeme untereinander.
Plausibilität der Axiombedeutung durch Deduktion in jeweils anderen Systemen. Das Friessche („Münch-
hausen-“) Trilemma. Woher die „Dogmen“ für dogmatische Begründungen herstammen. Die moderne
Verabsolutierung der einzelwissenschaftlichen Potentiale. Moderne realistische Metaphysiken als
Physikalismus, Biologismus und Psychologismus. Moderne idealistische Metaphysiken als Pragma-
tismus, Empirismus-Historismus und Rationalismus.
§ 43 Die „kritische Theorie“ der Frankfurter Schule und der dialektische Materialismus
S. 493
Zur Geschichte: das Frankfurter Institut für Sozialforschung unter Horkheimer und Adorno und seine
Entwicklung. Staats- und Parteimarxismus in der ehemaligen DDR und der Marxismus in der BRD.
Politische Maximen. Metaphysische Grundlagen: der dialektische Materialismus von Marx und Engels
und der naturwissenschaftliche Materialismus und Monismus. Die Ausgestaltung der Hegelschen Dia-
lektik. Der Wissenschaftsbegriff. Zur Methode: der Universalzusammenhang des Wissens. Die kriti-
sche Hinterfragung. Die Vermittlung der Gegensätze. Zentrale Probleme. Die Einheit und Klassifi-
kation der Wissenschaften. Die Gesetzlichkeit der Wissenschaftsentwicklung und ihre Planung. Das
Wahrheitsproblem. Die Parteilichkeit und der Wahrheitsdiskurs.
Zur Geschichte: Schellings Lebensphilosophie und ihre Entfaltung im 19. Und 20 Jahrhundert. Nietz-
sche, Dilthey, Spencer, Bergson. Metaphysische Grundlagen 514. Der Wissenschaftsbegriff 519. Die
Sprachwissenschaft von de Saussure bis Derrida 530. Die Geschichtswissenschaft 531. Methodenlehre
535. Zentrale Probleme und Themen: Einheit und Klassifikation der Wissenschaften 546. Die Ent-
wicklung der Wissenschaften 547. Erkenntnistheoretische und ontologische Grundlagen 550. Herme-
neutik als allgemeine Methodenlehre des Verstehens 555. Dogmatische Hermeneutik und ihre Kanons
in den Geisteswissenschaften, insbesondere in der Theologie 561, Jurisprudenz 562, Ökonomik 564,
hinsichtlich der klassischen Literatur 565 und in der Mathematik 565. Zetetische Hermeneutik und ihre
Kanons vor allem in den geschichtlichen Geisteswissenschaften 575. Das Verstehen 579. Wahrheit in
der Sprache 583. Die Verkunstung der Geisteswissenschaften und die Verwahrheitung der Kunst 588.
Heidegger u. a. als denkende Dichter 597. Die Kunst als wissenschaftliche Forschung 607 - 612.
I. Einleitung: Die Grundideen
Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten
Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des
„trivialen“ vom „quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue
„geisteswissenschaftliche“ Philosophische Fakultät. Philosophie als Fach im Verband mit den
historischen und philologischen Studien der neuen Philosophischen Fakultät. Historisierung und
Philologisierung der geisteswissenschaftlichen Philosophie. Die neue Mathematisch-Naturwissen-
schaftliche Fakultät ohne Philosophie. Die Entwicklung der Wissenschaftsphilosophie als Propä-
deutik der mathematischen Naturwissenschaften. Über die Notwendigkeit der Konsolidierung des
Ideenpotientials der Philosophie für Serviceleistungen und Interdisziplinarität in den Wissen-
schaften.
Zu den Gestalten, in denen heute die Philosophie auftritt, gehört als bekannteste
das Fach Philosophie im Rahmen der anderen Fachwissenschaften, vor allem der
manchmal noch so genannten Philosophischen Fakultät. Ihre einstmals propädeu-
tische Funktion für das Studium anderer Fachwissenschaften ist seit etwa zwei-
hundert Jahren institutionell der Oberstufe der Gymnasien anvertraut worden, wo
sie sich noch als didaktische Befassung mit den philosophischen Klassikern und
gelegentlich auch mit modernen philosophischen Strömungen nützlich macht.
Gleichwohl ist Philosophie in ihrer propädeutischen Funktion nicht gänzlich
aus den Kurrikula der Fachwissenschaften verschwunden. Deren Lehrbücher und
einführende Lehre können auch heute nicht auf Hinweise auf philosophische
Klassiker und auf deren grundlegende Ideen und maßgebliche Methoden verzich-
ten. Zumal der Appell, daß es in jedem Fach „logisch“ zugehen müsse - neben den
Bereichen, wo es „mathematisch“ zugeht - ruft Erinnerungen an die Philosophie
hervor, zu deren Bereichsdisziplinen die Logik noch immer als Methodenlehre
gehört.
Im allgemeinen aber haben sich alle Fachwissenschaften ihre eigenen Propä-
deutika geschaffen, in denen das philosophische Element kaum noch erkennbar
ist. Und ebenso unerkennbar wird es gewöhnlich auch bei manchen Forschungs-
erträgen der Einzelwissenschaften, wo es gewöhnlich in spezifische Fachtermino-
logien eingekleidet ist.
Philosophie ist also auch in den Fachwissenschaften schon immer präsent, ob
erkannt oder unerkannt. Es bedeutet daher keine Einmischung der Philosophie in
die Bereiche und Belange der Einzelwissenschaften, wenn sie daran anknüpft und
das Ihre dazu beiträgt, diese Bestände bewußt zu machen und auf ihre Weise zu
deren Klärung und Konsolidierung beizutragen.
Doch ist Philosophie bekanntlich ein weites Feld, das selber im Zuge der „Ver-
wissenschaftlichung“ in vielerlei Bereiche ausgeweitet und in Spezialdisziplinen
2
gegliedert worden ist. Einer dieser Bereiche betrifft das Verhältnis der Philosophie
zu den Einzelwissenschaften, von denen sich die meisten erst seit dem 19.
Jahrhundert von der Philosophie getrennt haben. Am weitesten haben sich die
ehemals „quadrivialen“ Anteile der Philosophie, also dasjenige, was sich seit Be-
ginn des 19. Jahrhunderts als „Mathematisch-Naturwissenschaftliche Fakultät“
verselbständigte, von der Philosophie getrennt. Und so ist es auch kein Wunder,
daß die Mathematiker und die Naturwissenschaftler, die in der Regel keine Philo-
sophen unter sich duldeten und ihnen keine propädeutische Stellung in den neuen
Mathematisch-Naturwissenschaftlichen Fakultäten einräumten, am meisten das
Bedürfnis spürten, sich ihre eigene fachnahe Philosophie zu entwickeln. Diese
Philosophie bildete sich seit Beginn des 20. Jahrhunderts als „Wissenschaftsphilo-
sophie“ der mathematischen Naturwissenschaften aus und ist seither ein Schwer-
punkt der Bemühungen der neuen philosophischen Disziplin „Wissenschafts-
theorie“ bzw. „Wissenschaftsphilosophie“ geblieben.
Das Verhältnis der Philosophie zum ehemals „trivialen“ Teil ihrer Disziplinen,
die sich seit Beginn des 19. Jahrhundert in den neuen „Philosophischen Fakul-
täten“ (einschließlich des Faches „Philosophie“) und darüber hinaus in den alten
„höheren Fakultäten“ Theologie und Jurisprudenz als „Geisteswissenschaften“
etablierten, ist demgegenüber immer vergleichweise eng geblieben. Zeitweise war
es so intim, daß die Philosophie des 19. Jahrhunderts geradezu nur noch als Philo-
logie und Geschichte der philosophischen Klassiker, also gleichsam als Teil-
bereich der Philologien und Historiographien Bestand hatte. Und diese Tendenz
ist auch heute noch stark genug, um der Gestalt der Philosophie an so manchen
philosophischen Fakultäten und Fachbereichen den Anschein zu verleihen, sie sei
gerade nichts anderes mehr als Philosophiegeschichte und Klassiker-Philologie.
Gerade diese Nähe zu den Geisteswissenschaften oder vielmehr die Integration
der Philosophie in die Geisteswissenschaften hat lange verhindert, daß die
Philosophie ein entsprechend distanziertes Verhältnis zu den Philologien und
Historiographien entwickelte und eine „Wissenschaftsphilosophie der Geistes-
wissenschaften“ als Bereichsdisziplin entwickelte. Erst seit einigen Jahrzehnten
wird dies unter dem Titel der „Hermeneutikdebatte“ nachgeholt.
Es liegt aber auf der Hand, daß eine „Philosophie der Wissenschaften“ zugleich
und gleichmäßig sowohl eine „Wissenschaftstheorie“ der mathematischen und
nicht-mathematischen Naturwissenschaften wie auch der logischen (und manch-
mal unlogischen) Geisteswissenschaften sein muß. „Wissenschaftstheorie“ wird
diese Disziplin in Analogie zur älteren „Erkenntnistheorie“ genannt, obwohl es
sich in beiden Fällen keineswegs um eine Theorie, sondern um viele Theorien
handelt, die in der Disziplin der „Wissenschaftsphilosophie“ (engl.: Philosophy of
Science) verwaltet, diskutiert und auch neu entwickelt werden.
Eine solche Spezialphilosophie mit Blick auf die Wissenschaften ist also noch
relativ neu und weit davon entfernt, in wünschenswerter Weise konsolidiert zu
sein. Man kann heute allenfalls davon sprechen, daß gewisse Theorienbestände
über die exakten Naturwissenschaften weiter entwickelt sind und daher eher als
3
konsolidiert gelten als derjenige Teil, der auf die Reflexion der Geisteswissen-
schaften ausgerichtet ist.
Die Wissenschaftsphilosophie arbeitet mit dem Ideenpotential, das das Fach
Philosophie insgesamt in seinen geschichtlichen und systematischen Dimensionen
bereitstellt, und bündelt es gleichsam in Hinsicht auf die Einzelwissenschaften mit
ihren je eigenen Problem- und Erkenntnisbeständen.
Auf diese Weise wächst der Wissenschaftsphilosophie bei der üblichen Stu-
dienorganisation im Hochschulbetrieb eine hervorgehobene interdisziplinäre Stel-
lung zu. Man studiert - als Erbschaft des alten Studienstils in den Fakultäten, in
denen man wie jetzt noch in der Jurisprudenz, Medizin und Theologie alle
beteiligten Fakultätsdisziplinen zu studieren hatte -, mindestens eine, gewöhnlich
zwei, oftmals (und besonders im Ausland) auch mehrere Fakultätswissenschaften
neben dem Fach Philosophie und bringt somit immer schon eine gewisse Ver-
trautheit mit dem Wissensstand wenigstens der einen oder anderen Fachwis-
senschaft mit. Die Wissenschaftsphilosophie ist dann die sich anbietende Schwer-
punktdisziplin, die anstehenden methodischen und enzyklopädischen Voraus-
setzungen dieser Fachwissenschaften im Lichte allgemeiner philosophischer Ge-
sichtspunkte zu erörtern und zu vertiefen. Aus der Architektonik der philosophi-
schen Disziplinen läßt sich auch vorgängig schon erkennen, auf welche Gesichts-
punkte es dabei wesentlich ankommt.
Jede Einzelwissenschaft macht grundsätzlich metaphysische Voraussetzungen,
die als „Letztbegründungen“ gewöhnlich im Fach selbst kaum mehr erkannt und
demnach auch nicht diskutiert werden. Weiterhin setzt sie sich ontologische
Rahmungen für die Abgrenzung ihres Gegenstandsgebietes von den Gegen-
ständen der übrigen Einzelwissenschaften. Nicht minder gehen erkenntnistheo-
retische, praxeologische und anthropologische Vorgaben in die Konstitution jeder
Einzelwissenschaft ein, die gewöhnlich als so selbstverständlich und natürlich gel-
ten, daß man höchstens in Krisenlagen eines Faches auf sie aufmerksam wird.
In der Tat jedoch schreiben die verschiedenen Einzelwissenschaften in der Regel
ziemlich altüberkommene philosophische Grundlagentheorien aus der Geschichte
der Metaphysik, Ontologie, Erkenntnistheorie, praktischen Philosophie und
philosophischen Anthropologie fort. Und um darauf aufmerksam zu werden und
dementsprechend auch Neuerungen in diesen Feldern benutzen und anwenden zu
können, muß und kann man bei diesen Erwägungen immer wieder die ganze
Philosophiegeschichte zurate ziehen.
So können wir zusammenfassend feststellen: Als Bereichsphilosophie gehört
die Wissenschaftsphilosophie zu denjenigen Disziplinen der Philosophie, die das
Studium der philosophischen Grunddisziplinen Ontologie, Erkenntnistheorie ein-
schließlich der Logik, philosophische Anthropologie und Praxeologie sowie der
Metaphysik voraussetzen und deren Ideenpotentiale für die Reflexion auf die
Einzelwissenschaften bündeln. Sie faßt affine Probleme, Thematiken und Vor-
aussetzungen dieser Grunddisziplinen für die philosophische Grundlegung der
Einzelwissenschaften und die spekulative Durchdringung der ihnen zugeordneten
4
Wirklichkeitsbereiche zusammen. Sie ist darum auch für die Selbstreflexion der
Einzelwissenschaften und die philosophische Vertiefung ihres Studiums eine we-
sentliche Voraussetzung.
Kerndisziplin: METAPHYSIK
Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissen-
schaftlichen Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissen-
schaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die
Vermischung der Kulturbereichs-Ideale untereinander und mit dem Wahrheitsideal der Wissen-
schaften. Die Wahrheitskonzeptionen der philosophischen Grunddisziplinen und ihre metaphysi-
sche Grundlegung. Ontologische Wahrheit als Echtheit; anthropologische Wahrheit als Wahr-
haftigkeit; praxeologische bzw. pragmatistische Wahrheit als Nützlichkeit; erkenntnistheoretische
Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Die realistische Korres-
pondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile
und Stärken und ihre Problematik
Die traditionellen Ideale der Kulturbereiche treten jetzt als religiöser Fundamenta-
lismus, quärulatorische Übersensiblität in den Rechtsverhältnissen, politischer
Dezisionismus aus partikulären Machtinteressen, als primitive Sammler-, Jäger-
und Tauschmentalitäten sowie als vorindustrielle Produktion und Landwirtschaft,
alternative Gesundheitsmagie, sportliches „body-building“ und als „Jedermann ist
Künstler“-Einstellungen auf und erleben eine gewisse Konjunktur als Gegenwehr
und Alternativen zu den wissenschaftlich vorgegebenen Zielen.
Aber auch für die Wissenschaft ist das folgenreich. An die Stelle ihres epocha-
len Ideals, der Wahrheit zu dienen, treten diese traditionellen Ideale der einzelnen
Kulturbereiche, oder diese Kulturideale gehen mannigfaltige Verschmelzungen
mit dem Wahrheitsideal ein.
Von der Wissenschaft erwartet man dann gläubig das Heil der Welt. Man
unterstellt ihre Organisation dem Gerechtigkeitsideal und verlangt von ihr die
politische Förderung des Bonum Commune. Man bewertet sie ökonomisch als
Dienstleistungs- und Produktionsstätte von Wissen und ausgebildetem Human-
kapital. Man empfielt sie als Diagnostik, Anamnese und Therapeutik für alle Ge-
brechen der modernen Welt. Man hält sie weitgehend nur noch nach dem Maßstab
des Einsatzes avanciertester Technik für seriös. Und man feiert nicht zuletzt (wie
früher in der Kunst) die Auffälligkeit, den Glanz, die Schönheit und Eleganz
sowie die Genialität ihrer Spitzenleistungen.
Die hybriden Ideale dienen jetzt überall als Kriterien für die Beurteilung
wissenschaftlicher Leistungen. Von Wahrheit ist dabei am wenigsten oder über-
haupt nicht mehr die Rede, wie jeder Gutachter in wissenschaftlichen Angelegen-
heiten weiß. Wissenschaftliche Leistungen werden kaum noch danach beurteilt,
inwieweit sie wahres Wissen fördern, sondern wie weit und kräftig sie einem der
genannten Hybridideale entsprechen.
Jedoch hat die Amalgamierung des Wahrheitsideals der Wissenschaft mit
Idealen anderer Kulturbereiche eine lange Geschichte. Nennen wir nur einige
jedem Wissenschaftler bekannte Beispiele.
In der mittelalterlichen Scholastik sollte nach einigen (aber keineswegs allen)
Theologen „die Philosophie die Dienerin der Theologie sein“ (philosophia ancilla
theologiae), wobei Philosophie für alle Wissenschaften des Triviums und Quadri-
viums stand. Das wurde meist so verstanden und auch praktiziert, daß Wissen-
schaft von der Kirche, und mittels ihres Einflusses auch durch weltliche Macht-
haber, überhaupt nur soweit zugelassen und gefördert wurde, als sie theologischen
Interessen, d. h. dem Heile der christlichen Gesellschaft diente. Diese Einstellung
setzte sich von Seiten der katholischen Kirche über den „Modernistenstreit“ des
19. bis zum berühmten Werturteilsstreit zu Beginn des 20. Jahrhunderts fort.
Seither haben sich jedoch im christlichen Abendland alle Kirchen und die meisten
ihrer Theologen dem Kantischen Votum angeschlossen, daß dieser Dienst der
Philosophie nicht darin bestehe, hinter der Theologie – „ihr die Schleppe tragend“
- herzulaufen, sondern – „ihr das Licht der Vernunft vorantragend“ (I. Kant) –
10
voranzugehen. Aber das gilt ersichtlich nicht von allen Religionen, die heute in
der Welt ihre „Wahrheiten“ verkünden.
Im 20. Jahrhundert wurden große Teile der Wissenschaft in den ideologischen
Dienst des Faschismus und Kommunismus genommen. Statt der Wahrheit hatte
Wissenschaft politischen Idealen der „Parteilichkeit“ und der nationalen Gewin-
nung des „Weltmachtstatus“ zu dienen. Was in den beteiligten Staaten und für die
Welt dabei herauskam, ist bekannt, ebenso das, was an Nachwehen bis heute
wirksam blieb.
Mit der 68er-Revolution trat das Ideal der Emanzipation in den Mittelpunkt der
politischen Diskussion. Den Juristen erinnerte „Emanzipation“ noch an die rö-
mischrechtliche Entlassung von Kindern aus der Obhut und Gewalt des „pater
familias“. Für linke Ideologen war Emanzipation das Ziel aller historischen
Klassenkämpfe zur Befreiung des Individuums aus gesellschaftlichen Zwängen.
Für Pädagogen war es das Erziehungsziel der „Mündigmachung“ junger Men-
schen, wie es in der „mittleren Reife“ und im „Reifezeugnis des Abiturs“ verbrieft
wurde. In den neueren Studienreformen aber wurde die Emanzipation zum Recht
auf Teilhabe am zwanglosen permanenten Diskurs, und die wissenschaftliche
Wahrheit dadurch zum Ergebnis solcher „emanzipatorischen“ Diskurse.
Wie man weiß, war die Umsetzung des Emanzipations-Ideals in den modernen
westlichen Gesellschaften überall im Sinne der Propagandisten erfolgreich. Die
Väter und Mütter büßten die rechtliche Verantwortung für ihre Kinder ein oder
gaben sie auf. Die Erreichung des „Reifezeugnisses“ und die Zulassung zum
wissenschaftlichen Hochschulstudium wurde fast zum Menschenrecht, und die
Standards aller Ausbildungsgänge wurden entsprechend angepaßt.
Während die emanzipatorische Revolution noch weiterläuft, scheint inzwischen
das Ideal der ökonomischen Daseinsvorsorge das gesamte westliche Wissen-
schaftssystem zu steuern. Wissenschaft wird gemäß herrschender „Shareholder-
value-Mentalität“ ständig nach ökonomischem Nutzen evaluiert, industriell orga-
nisiert und nach maximalem Output an wirtschaftlich und technisch umsetzbaren
Ideen und beruflich verwendbaren Absolventen finanziert. Die Organisation der
Hochschulen wurde im „Bolognaprozeß“ durch neue Hochschulgesetze gänzlich
nach BWL-Gesichtspunkten, d. h. als wirtschaftliche Unternehmung gestaltet. Der
Staat schließt „Zielvereinbarungen“ und „Pakte“ mit seinen Hochschulen ab, die
auf Lieferung des gewünschten Outputs an Forschungs- und Ausbildungsresulta-
ten abgestellt sind.
So wurde die einstige Gelehrtenrepublik in viele Präsidialdiktaturen umge-
wandelt. Die Universitäten und Hochschulen haben statt Rektoren nun allmäch-
tige Vorstandsvorsitzende, die von niemandem verantwortlichen Hochschulräten
(deren Mehrheit aus Vorstands- und Aufsichtsräten von Großbetrieben und von
gesellschaftlichen Gruppen stammt) gewählt und beraten werden. Die ehemaligen
akademischen Selbstverwaltungsgremien führen hinsichtlich ihrer übriggelas-
senen Kompetenzen ein Schattendasein, wenn auch voller Betriebsamkeit. Sie
dürfen ständig neue Richtlinien umsetzen und Vollzugsmeldungen abgeben und
11
denen sich entweder etwas anderes als das Echte verbirgt oder überhaupt „Nichts“
steht.
Der ontologische Wahrheitsbegriff hat in den Geistes- und Literaturwissen-
schaften immer schon eine bedeutende Rolle gespielt. Die in den Philologien und
in den historischen Disziplinen gepflegte „Quellenkritik“ richtete sich stets auf die
Unterscheidung des Echten vom Falschen bzw. Gefälschten. Und zur sogenannten
Kunstkritik gehörte immer die Bemühung um Unterscheidung der „echten“
Kunstwerke von den gefälschten. Dies blieb eine ständige Aufgabe. Auch in den
Naturwissenschaften hat diese Unterscheidung von Echtheit und Fälschung oder
Verfälschung eine oft unterschätzte, aber neuerdings in der Gestalt fraudulösen
Schwindels wieder viel beachtete Bedeutung. Hierzu gehört der Unterschied
zwischen den tatsächlichen Naturphänomenen, die man gerne wahre oder echte
nennt, von den künstlich in die Faktenfixierung (etwa durch Beobachtung) hinein-
getragene Verfälschungen. Diese „künstlichen Effekte“ nennt man „Artefakte“.
Dieser naturwissenschaftliche Artefaktbegriff ist von dem kultur- und geistes-
wissenschaftlichen Artefaktbegriff zu unterscheiden. Von manchen naturwis-
senschaftlichen Artefakten ist bis heute umstritten, ob es um echte Phänomene
oder Artefakte (oft auch „Dreckphänomene“ genannt) handelt.
Der anthropologische Wahrheitsbegriff ist eine Ausweitung des ontologischen
Echtheitsbegriffs auf den Menschen bzw. auf ein Subjekt, das einem ontolo-
gischen Objekt gegenübergestellt wird. Hier spricht man von Wahrhaftigkeit bzw.
Ehrlichkeit eines Menschen oder Charakters und stellt sie wiederum der Falsch-
heit, evtl. der Verlogenheit, Verschlagenheit oder Verstellungskunst eines Charak-
ters gegenüber. Diese menschliche Wahrhaftigkeit und Ehrlichkeit ist naturgemäß
integrativer Bestandteil des wissenschaftlichen Wahrheitsideals. Ohne sie hätte
der wissenschaftliche Forscher und Lehrer im Abendland nicht das Ansehen ge-
winnen können, von dem seine gesellschaftliche Stellung noch immer zehrt.
Der praxeologische bzw. pragmatistische Wahrheitsbegriff, der heute eine
besondere Konjunktur hat, verknüpft Wahrheit mit dem Nutzen bzw. dem Erfolg
von Handlungen. Das klingt schon deshalb recht plausibel, weil man seit jeher
Mißerfolg und Schaden gerne auf „falsche“ Handlungen oder Handlungsstrategien
zurückführt. Beim Wahrheitsideal der Nützlichkeit handelt es sich ersichtlich um
die Umschreibung von Zweckmäßigkeit und um Richtigkeit (die sachangemes-
sene und zweckmäßige Ausrichtung) von einfachen oder produktiven Handlungen
auf einen definierten Nutzen hin.
Der wichtigste und am meisten verwendete ist jedoch der erkenntnistheore-
tische Wahrheitsbegriff. Er wurde schon von Aristoteles definiert. Ausgehend von
der Unterscheidung zwischen objektiver Realität (res) und subjektivem Er-
kenntnisvermögen der Vernunft (intellectus) wird Wahrheit aristotelisch als ein
Ähnlichkeitsverhältnis zwischen beiden definiert. Die scholastische Definitions-
formel dafür lautet nach Thomas von Aquin: Adaequatio rei et intellectus. Die
neuere Erkenntnistheorie nennt das den Korrespondenzbegriff der Wahrheit. Hier
wird das Ähnlichkeitsverhältnis zwischen den Polen des Objektiven und Subjek-
13
Wenn jemand Dinge oder Sachverhalte sieht, so sieht er sie als solche, keineswegs
aber Abbilder von ihnen. Sieht er sie aber nicht mehr, sondern erinnert sich nur,
daß er sie gesehen hat, so sieht er sie gerade nicht. Und erst dann nennt er das, an
was er sich erinnert oder was er sich phantasierend vorstellt, mit einem gewissen
Recht „Abbilder“ der Wirklichkeit. Was also als „korrepondierend“ verglichen
werden kann, ist allenfalls das unmittelbar Gesehene und das mittelbar Erinnerte
oder Phantasierte. Die Unterscheidung von unmittelbarer sinnlicher Wahrneh-
mung und Erinnerung an Wahrgenommenes ist die eigentliche Grundlage für die
Unterscheidung von Ding und „korrespondierender“ Abbildung und damit der
Korrespondenzdefinition der Wahrheit. Das verweist auf den Vorrang der idea-
listischen Erklärung auch für die realistische Wahrheitstheorie.
Das Ausweichen auf andere Sinnesleistungen wie das Betasten, Beriechen,
Schmecken oder Hören von Sachverhalten, die zugleich gesehen werden, führt
nicht zu einer solideren Begründung des realistischen Korrespondenzbegriffs der
Wahrheit. Denn das durch verschiedene Sinne erfahrene Ding oder der Sach-
verhalt ist dann immer noch unmittelbar und keinesfalls als Abbild gegeben. In
diesem Falle „korrespondieren“ nur die verschiedenen sinnlichen Erfahrungs-
inhalte untereinander in gesetzmäßiger Weise, jedoch ersichtlich nicht als bildhaf-
te Entsprechungen.
Hält man schließlich ein Ding für die Ursache eines sogenannten Sinnes-
eindrucks, und letzteren also für dessen Wirkung, so hat man – wie Kant (in der 1.
Auflage seiner „Kritik der reinen Vernunft“) sehr richtig feststellte – nur das
Erinnerte als Ursache und das aktuell Wahrgenommene als Wirkung, beides
zusammen als „korrespondierende“ kausale Verbindung gedeutet, aber keines-
wegs ein bewußtseinsunabhängiges Wirkliches (Kants „Ding an sich“) mit einer
Bewußtseinsgegebenheit kausal verknüpft.
Daß man von einem in der realistischen Wahrheitskonzeption vorausgesetzten
bewußtseinstranszendenten „Ding an sich“ in keiner Weise etwas wissen kann,
das wissen auch die Realisten. Kant nennt es in der 2. Auflage seiner „Kritik der
reinen Vernunft“, in der er sich zum metaphysischen Realismus bekennt, ganz
richtig ein „unbekanntes Ding“. Von dem Unbekannten jedoch zu behaupten, daß
es existiere (oder nicht existiere) belastet die realistische Erkenntnistheorie mit
einer contradictio in principiis.
Anstatt das Ding an sich schlicht zu streichen, wie vor Kant schon George
Berkeley und nach ihm alle deutschen Idealisten von Fichte bis Schopenhauer
vorgeschlagen haben, macht man es in der neueren realistischen Erkenntnis- und
Wissenschaftstheorie zum Gegenstand eines unendlichen Arbeits- und For-
schungsprogramms. Gegen den Idealismus aber argumentiert man mit der Unfaß-
barkeit und Subjektivität des Bewußtseins, das noch schwerer zu erfassen sei als
das nur einfach schwierige „Ding an sich“.
Nun ist es selber schon falsch zu meinen, wenn es kein Ding an sich bzw. keine
„Außenwelt“ gäbe, bliebe eben das Bewußtsein alleine übrig. Und dies sei über-
15
haupt die Grundthese des Idealismus. Das mag zwar für einige ältere Versionen
des Idealismus gelten, aber es ist nicht das letzte Wort in der Sache.
Schon George Berkeley, dem wir hier folgen können, betonte im 18. Jahr-
hundert, daß es in einem wohlverstandenen Idealismus nicht darum gehen könne,
„die Dinge zu Ideen (im Bewußtsein) zu machen, sondern umgekehrt die Ideen zu
Dingen“1. Das heißt, daß von Bewußtsein überhaupt nur die Rede sein kann, wenn
es sachhaltig ist. Das heißt aber zugleich, daß von Bewußtsein nicht die Rede sein
kann, wenn es nicht sachhaltig ist. Aber gerade über solches nicht-sachhaltige
Bewußtsein wird ständig geredet. Sei es, daß man es als „Vermögen“ auffaßt, das
auch dann existiert, wenn es gerade nicht wahrnimmt, empfindet, denkt oder
sonstwie tätig ist; sei es, daß man eine gespensterhafte Fiktion von einem „leeren
Bewußtein“ aufstellt oder vom „Unbewußten im Bewußtsein“ redet.
Hinter das Bewußte kann in der Tat nicht zurückgegangen werden. Das ist die
metaphysische Grundthese des Idealismus. Sie schlägt auf die erkenntnistheo-
retische Problematik in der Weise durch, daß sich ausnahmslos alles, was man
Wirklichkeit, Realität, Sein – aber auch Nichts – nennt, als bewußtes Phänomen
(wir vermeiden das Wort „Inhalt eines Bewußtseins“) erweisen muß. Und das
heißt umgekehrt, daß alles dies – auch das Nichts – nur als „Bewußtes“ sinnvoller
Gegenstand der Wissenschaft sein kann.
George Berkeleys nicht hoch genug zu veranschlagende metaphysische Ein-
sicht war es zu zeigen, daß die Wirklichkeit, das Sein, nur und ausschließlich als
sinnliche Erfahrung gegeben sein kann. Das ist der Sinn seines Prinzips „Esse =
Percipi“ (Sein bedeutet dasselbe wie Wahrgenommenwerden).
Was Berkeley freilich dabei nicht bemerkte, war, daß ebenso auch das Nichts
ein ganz normaler Gegenstand der sinnlichen Erfahrung ist. Man sieht, fühlt, hört,
riecht, schmeckt eben „Nichts“ – wie die Sprache ganz richtig ausdrückt – wenn
man bei aufmerksamem Schauen, Tasten, Lauschen, Schnüffeln oder Er-
schmecken eben „nicht Etwas“ wahrnimmt, das sich in der Sprache der positiven
Erfahrungen als „Etwas“ und „Seiendes“ benennen ließe. Und das erlebt jeder-
mann gewöhnlich in vollkommener Dunkelheit und Stille, die darum immer
wieder als „Metaphern“ des Nichts dienen müssen, während sie in der Tat doch
empirische Beispiele, nämlich Arten des Nichts sind. Man sollte sich dies-
bezüglich dem Sprachgebrauch anvertrauen (der zuweilen, wie L. Wittgenstein
richtig bemerkte, „ganz in Ordnung ist“), und dabei ontologisch und logisch vom
Nichts nicht mehr fordern als von jedem Etwas, nämlich daß es sich in der
Sinneserfahrung ausweise.
Die ontologische Grenze, die die Realisten (und Materialisten) zwischen den
„Dingen an sich“ und dem Bewußtsein zu ziehen pflegen, erweist sich so als eine
1
“I am not for changing things into ideas, but rather ideas into things; since those immediate objects of perception, which,
according to you, are only appearences of things, I take to be the real things themselves”. George Berkeley, Three
Dialogues between Hylas and Philonous, in opposition to sceptics and atheists, in: G. Berkeley, A new theory of vision and
other select philosophical writings (Everyman‟s Library ed. by E. Rhys), London-New York o. J., S. 282.
16
wirkt, den Kohärenzbegriff der Wahrheit selbst in Verruf zu bringen und einen
Wahrheitsskeptizismus in der Wissenschaft zu befördern.
Dem läßt sich aber dadurch entgehen, daß man den Kohärenzbegriff der
Wahrheit – wie es ja selbstverständlich sein sollte – nicht auf einzelne Detail- und
Ressorttheorien bezieht, sondern innerhalb der Grenzen einer Einzelwissenschaft
auf das „Ganze“ des hier etablierten Wissens, und über diese Grenzen hinaus auf
das „Ganze“ des interdisziplinären Begründungszusammenhanges der Einzelwis-
senschaften und der philosophischen Disziplinen bis hin zur metaphysischen
Letztbegründung. Kohärenzwahrheit kann sich so überhaupt nur in einem kohä-
renten Gesamtwissen zeigen, das seinerseits einzelwissenschaftliches Wissen in
einem „systematischen Ganzen der Erkenntnis“ (Kant) integriert. Das Kohärenz-
kriterium der Wahrheit muß, um dem Wahrheitsproblem gerecht zu werden, durch
das „Komprehensibilitätskriterium“ (bzw. Umfassendheitskriterium) ergänzt wer-
den.
Dies hat Hegel mit seinem Dictum vorgeschlagen: „Das Wahre ist das Ganze“ 2.
Und wenn auch sein philosophisches System heute nur als Vorschlag und Muster
gelten kann, wie ein solches Ganzes des Wissen zu gewinnen sei, so war es doch
zugleich eine gültige Formulierung des „Ideals der Wahrheit“, dem alle Wissen-
schaften sich anzunähern bestrebt sein sollten.
Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen
Formen: knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falsch-
heit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Prob-
leme des überanschaulichen Wissens und der Veranschaulichung durch Modelle. Wissensprä-
tensionen und ihre floskelhaften Verkleidungen
Jakob Friedrich Fries (1773 – 1843), der „Forscherphilosoph“ (wie ihn Alexander
von Humboldt genannt hat), einer der frühesten expliziten Wissenschaftsphiloso-
phen und dabei entschieden realistischer Kantianer, hat mit seinem Frühwerk
„Wissen, Glaube und Ahndung“ von 1805 3 drei Stichwörter geliefert, denen man
auch jetzt noch einen guten Sinn beilegen kann.
2
G. W. F. Hegel, Phänomenologie des Geistes, hgg. von J. Hoffmeister, Hamburg 1952, S. 21.
3
Jetzt in: J. F. Fries, Sämtliche Schriften, hgg. von G. König und L. Geldsetzer, Band 3, Aalen 1968.
18
Fries meinte, daß es „Wissen“ nur über das psychische Innenleben bzw. die Be-
wußtseinsgehalte des Subjekts geben könne. Dagegen könne ein subjektunab-
hängiges Objekt als natürliche „Außenwelt“ (Kants „Ding an sich“) nur Gegen-
stand des „Glaubens“ (nicht des Wissens!) sein. Dies hatte in England auch
Thomas Reid (1710 – 1796) behauptet. Weiter zeigte Fries, daß sich aus den For-
schungsergebnissen des Wissens und Glaubens eine „Ahndung“ davon ergebe,
was das metaphysische Prinzip sei, das er das Göttliche nannte, und das alles
Psychische und Physische hervorbringe und trage. Für alle drei Einstellungen
bzw. Haltungen des Wissenschaftlers postulierte er im Sinne Kants „apriorische
Voraussetzungen“, die die grundsätzliche Wahrheit des Wissens, des Glaubens
und der Ahndung verbürgen sollten.
Man wird leicht bemerken, daß Fries hierbei das Wissen und seine Wahrheit
ganz idealistisch bzw. kohärentistisch interpretierte, den Glauben und seinen
„außenweltlichen“ Gegenstand realistisch, d. h. daß er die Glaubenswahrheit ent-
sprechend korrespondenzmäßig auffaßte, und daß er unter Ahndung eine meta-
physische Letztbegründung eines wahren metaphysischen Systems verstand.
Daran ist auch heute noch richtig, daß die Wissenschaft wesentlich auf Wissen,
Glauben und Ahndungen beruht. Man nennt es jetzt nur meist auf Englisch know-
ledge, belief und intuition. Geändert hat sich freilich die Einstellung gegenüber
einer kantisch-apriorischen Wahrheitsgarantie dieser Einstellungen.
Zwar gibt es noch immer Kantianer und Transzendentalphilosophen, die dem
Apriori eine wahrheitsverbürgende Funktion zuweisen. Und auch der logische
Positivismus bzw. die sogenannte Analytische Philosophie beruft sich gelegent-
lich auf die apriorische Begründetheit der logischen und mathematischen Metho-
dologie, um damit immer noch im Sinne Kants der Wissenschaft ein Fundament
„allgemeiner Gültigkeit“ und „unbezweifelbarer Notwendigkeit“ zu vindizieren.
Aber die meisten Wissenschaftler dürften jeden Apriorismus längst verabschiedet
haben. Sie begnügen sich mit K. R. Poppers „vorläufiger Bewährung“, “ständiger
Verbesserungsfähigkeit“, stets zu gewärtigender „Fallibilität“ und daher mit
bloßer „Wahrscheinlichkeit“ ihrer wissenschaftlichen Einsichten und Erkenntnis-
se.4
Das hat Folgen für das Verhältnis dieser Einstellungen zueinander und zur
Wahrheit. Insbesondere wird dadurch die Rolle der Falschheit und der Wahr-
Falschheit in der Wissenschaft mehr in den Mittelpunkt des Interesses gerückt.
Daß es wahres Wissen gibt, beweist jede „ent-täuschte“ Sinnestäuschung und
jeder aufgedeckte Irrtum und Betrug. Daß es auch falsches Wissen gibt, das
zeigen die Sinnestäuschungen, Täuschungen, Selbsttäuschungen, die Irrtümer und
der Betrug. Man kann sie freilich erst nach der Aufdeckung als falsches Wissen
durchschauen und hält sie bis dahin gewöhnlich für wahres Wissen. Und selbst-
redend kommt es vor, daß die Wahrheit, die als Korrektur einer Falschheit
4
Vgl. Gr. Schiemann,Wahrheitsgewißheitsverlust.. Hermann von Helmholtz‟ Mechanismus im Anbruch der Moderne.
Eine Studie zum Übergang von klassischer zu moderner Naturphilosophie, Darmstadt 1997, S. 3: „Modern heißt eine
Erkenntnis nur dann, wenn sie durch die Relativität ihres Geltungsanspruchs ausgezeichnet ist“.
19
gewonnen wurde, ihrerseits wiederum als Irrtum entlarvt wird. Das zeigt aber nur,
daß die Wahrheitsfindung in der und durch die Wissenschaft ein schwieriges und
dauerndes Geschäft ist. Wahres und falsches Wissen unterscheiden sich durch-
und gegeneinander, was auch immer für das eine oder andere gehalten wird.
Wahrheit und Falschheit werden aber nicht nur bezüglich einzelner Wissens-
gegenstände einander gegenübergestellt, sondern auch auf umfassende Wissens-
komplexe bezogen. Die einfachste Konfrontation ist diejenige, die jeden histori-
schen Stand der Wissenschaften für überholt und damit für falsch, und somit den
letzten aktuellen Stand der Wissenschaften für wahr hält.
Man wird dies in der Literatur kaum so schlicht ausgedrückt finden. Jedoch hat
man mit solcher Einstellung bei den sogenannten aktualistischen Wissenschaften
zu rechnen, die ihre historischen Entwicklungsstufen des Wissens strickt vom
aktuellen Stand des Wissens unterscheiden. In solchen aktualistischen Wissen-
schaften gilt die historische Reflexion als eine luxurierende Spezialdisziplin, mit
der sich der Wissenschaftler an der Front der Forschung nicht zu befassen braucht.
Verbreitet ist jetzt auch die Einschätzung, alles vorhandene Wissen sei falsch,
und wahres Wissen sei nur von der zukünftigen Wissenschaft zu erwarten. Man
kann das (von F. Nietzsche bis K. R. Popper) für eine kokette Einstellung halten,
aber sie eignet sich gut für den Ruf nach immer mehr Wissenschaftsförderung.
Nur noch apart dagegen erscheint die Sicht, daß wahres Wissen nur in den
mythischen Ursprüngen der Wissenschaft oder allenfalls bei den Klassikern zu
finden sei, so daß, was nachher kam und daraus entstand, nur „seins- und wahr-
heitsvergessene Verdeckung“ (frei nach M. Heidegger) und also falsches Wissen
sei.
Angesichts der Schwierigkeiten, Wahrheit und Falschheit im wissenschaft-
lichen Wissen zu unterscheiden und als solche zu kennzeichnen, verlagert sich die
wissenschaftliche Gewißheitserwartung auf den wissenschaftlichen Glauben.
Viele Wissenschaftler und Wissenschaftstheoretiker nennen das, was sie für
wahres, weil (korrespondenzmäßig oder kohärent) begründetes Wissen halten,
jetzt Glauben („belief“). Dazu hat der Mathematiker und Logiker Charles Sanders
Peirce (1839 – 1914) wesentlich beigetragen, der mit seiner Version des Prag-
matismus die Hauptaufgabe der Wissenschaft in der „Festlegung des Glaubens“
sah (in seinem Aufsatz „The Fixation of Belief“ von 1877). Das wird so erläutert:
„Das Wesen des Glaubens besteht in der Ausbildung einer Gewohnheit, und
verschiedene Glauben unterscheiden sich durch die verschiedenen Handlungs-
weisen, die sie hervorrufen“.5
Mit dem „theologischen“ Glauben der Scholastiker hat der wissenschaftliche
Glaube von heute gemeinsam, daß er keine Falschheit zuläßt. Die verbreitetste
Gestalt dürfte jetzt der von Thomas S. Kuhn beschriebene Glaube an eine paradig-
matische Theorie sein, zu der man sich schulmäßig bekennt.
5
Ch. S . Peirce: „The whole essence of belief is the establishment of habit, and different beliefs are distinguished by the
different modes of action to which they give rise“. Zit. nach: Pragmatic Philosophy, hgg. v. Amely Rorty, New York 1966,
S. 30.
20
Weniger verbreitet als früher ist der Glaube als metaphysische Überzeugung. Dies
aber nur, weil metaphysische Bildung unter Wissenschaftlern selten geworden ist.
Anstelle eines metaphysisch versierten Glaubens (wie noch bei Fries) machen sich
solche Überzeugungen eher als „blinder Glauben“ geltend.
Von unserem idealistischen Standpunkt aus handelt es sich dabei z. B. um den
realistischen Glauben an die „Realität der Außenwelt“ bzw. an ein „Ding an sich
hinter den Erscheinungen“, der bisher durch keinen Grund zu begründen und
durch kein Argument zu erschüttern ist. Gelegentlich zeigt sich freilich der wis-
senschaftliche Glaube auch in purer Gesinnung. Diese Gestalt des Glaubens ver-
trägt sich mit jeder Ideologie und meist auch mit jedem Dilettantismus in der Wis-
senschaft.
Was Fries (mit einem schon seinerzeit altbackenen Wort) als „Ahndung“ be-
zeichnete, dürfte gut abdecken, was man heute Intuition nennt. Intuition (latei-
nisch: „direkte Anschauung“) wurde in der Tradition platonischen Denkens als
eine „Schau mit dem geistigen Auge“ verstanden und auf den Umgang mit
axiomatischen Grundbegriffen bzw. axiomatischen Grundsätzen und mit ihren
Bedeutungen bezogen. Von diesen nimmt man gewöhnlich an, daß sie keinen
anschaulichen Bedeutungsgehalt hätten, daß sie also „unanschaulich“ und unde-
finierbar seien. Man braucht daher, um sich überhaupt etwas bei ihnen zu denken,
„überanschauliche Vorstellungen“, die ihnen einen Inhalt verschaffen.
Da es aber weder „geistige Augen“ noch „überanschauliche Vorstellungen“ gibt
(beide Ausdrücke sind der Verlegenheit verdankte dialektische Metaphern), so
treten an deren Stelle zwangsläufig konkrete sinnliche Anschauungen (oder Er-
innerungen an solche), die sich der Wissenschaftler ad hoc zurechtlegt. Man nennt
sie auch „Modelle“, die als anschauliches Quid-pro-quo des vorgeblich Unan-
schaulichen dienen sollen (vgl. dazu § 12).
Das Denken in solchen Modellen geht schon auf den Vorsokratiker Demokrit
zurück, der sich bekanntlich die von ihm postulierten „unanschaulichen“ Atome,
die wegen ihrer Winzigkeit der sinnlichen Anschaung nicht zugänglich sein
sollten, wie Buchstaben vorstellte. Was als Modellvorstellung dienen kann, muß
natürlich bestens bekannt sein. Aber wer ein solches Modell benutzt, weiß
zugleich, daß das, was es anschaulich vor Augen stellt, gerade nicht das ist, was
gemeint ist. Es kann nur irgendwie „ähnlich“ sein, und man hat gemäß dem
modellhaften Beispiel allenfalls eine „Ahn(d)ung“, wie sich die gemeinte Sache
vielleicht verhalten könnte.
In der Tat spielen die Intuitionen und somit das Modelldenken in allen Wissen-
schaften „an der Front der Forschung“ eine eminent wichtige Rolle. Die in den
Naturwissenschaften und mittels ihrer mathematischen Methodologie standar-
disierten Modelle für die kleinsten Wirklichkeitselemente (Teilchen, Welle, string
o. ä.) und die in den Geisteswissenschaften verbreiteten „Metaphern“ sind die
heuristischen Werkzeuge schlechthin, Erkenntnisschneisen ins Unbekannte zu
schlagen.
21
6
L. Wittgenstein, Tractatus logico-philosophicus, 6.54, Ausgabe Frankfurt a. M. 1963, S. 115.
23
showed that ... Wir hoffen, daß ... / Several lines of evidence demonstrate that ... Es
würde uns sehr gut in in den Kram passen / A definite trend is evident ... Diese Daten
sind praktisch bedeutungslos / While it has not been possible to provide definite
answers to the questions … Ein nicht erfolgreiches Experiment, aber ich hoffe immer
noch, daß es veröffentlicht wird / Three of the samples were chosen for detailed
study ... Die anderen Ergebnisse machten überhaupt keinen Sinn / Typical results are
shown in Fig. 1 ... Das ist die schönste Grafik, die ich habe / Correct within an order
of magnitude ... Falsch / A statistically-oriented projection of the significance of
these findings … Eine wilde Spekulation / A careful analysis of obtainable data …
Drei Seiten voller Notizen wurden vernichtet, als ich versehentlich ein Glas Bier
darüber kippte / It is clear that much additional work will be required before a
complete understanding of this phenomenon occurs … Ich verstehe es nicht / After
additional study by my colleagues … Sie verstehen es auch nicht / Thanks are due to
Joe Blotz for assistance with the experiment and to Cindy Adams for valuable
discussions … Herr Blotz hat die Arbeit gemacht, und Frau Adams erklärte mir, was
das alles bedeutet / The pupose of this study was ... Es hat sich hinterher heraus-
gestellt, daß ... / Our results conform and extend previous conclusions that ... Wir
fanden nichts Neues / It is hoped that this study will stimulate further investigation in
this field … Ich geb‟s auf!“
Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Früher wurden sie aus griechischen und latei-
nischen Wörtern zusammengesetzt, aus deren Kenntnis man meist schon ihre Be-
deutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter importiert. Daneben gibt es freilich einen neueren Brauch,
künstliche „Termini“ (Acronyme) aus Anfangsbuchstaben von Wörtern zu bilden,
aus denen man die Bedeutung nicht mehr erraten kann. Z. B. DNS = „Desoxy-
24
Jetzt und des Dort und Damals seiner sinnlichen Erfahrung und seiner Erinne-
rungen bestimmt. Die „Welten“ seiner Erinnerungen und seiner Träume, seiner
Wünsche und Hoffnungen unterscheidet er sehr genau von seiner im wachen
Zustand erlebten Welt. Und dies erst recht dann, wenn er bemerkt, daß seine Erin-
nerungen immer wieder mit dem übereinstimmen, was er jeweils auch gegen-
wärtig noch wahrnimmt. Damit bestätigen sie eine gewisse Konstanz seiner
Lebenswelt. Er bemerkt auch, daß seine Träume aus Erinnerungsbeständen ver-
flochten sind, über die er daher auch nur in der grammatischen Vergangen-
heitsform berichten kann. Auch seine Wünsche, Hoffnungen und Phantasien
bedienen sich dieser Erinnerungsmaterie, so daß er sie nicht für eigene „reale
Welten“ hält. Tut er es doch, so hält man dies für einen bedenklichen Krankheits-
zustand.
In der Wissenschaft verhält sich alles dies ganz anders. Hier kann man Behaup-
tungen über Sachverhalte aufstellen, die grundsätzlich niemand kennt oder wissen
kann, geschweige denn, ob sie wahr oder falsch sind. Vermutungen bzw. Hypo-
thesen muß man logisch oder mathematisch in Behauptungsformen ausdrücken,
denn es gibt keinen logischen oder mathematischen Konjunktiv. Besonders K. R.
Popper scheint nachhaltig bewirkt zu haben, daß man im wissenschaftlichen
Sprachgebrauch Vermutungen (Hypothesen), die nicht wahrheitswertfähig sind,
und Theorien, die wahrheitswertfähig sein müssen, gleichsetzt. Und das zieht die
Gewohnheiten nach sich, Vermutungen auch in wissenschaftlichen Prosatexten als
Behauptungen vorzutragen.
Weil dieser Unterschied zwischen wahrheits- bzw. falschheitsfähigen Behaup-
tungen und nicht-wahrheits- bzw. falschheitsfähigen Vermutungen in der Wissen-
schaft kaum noch gemacht wird, werden auch die allerbewährtesten Naturgesetze,
die früher als exemplarische Wahrheiten galten, häufig nur noch als statistische
Wahrscheinlichkeiten, d. h. als Vermutungen und Hypothesen dargestellt. Nicht-
wissen einzugestehen, etwa ein hermeneutisches „non liquet“ (es geht nicht, d. h.
ein Verständnis ist unmöglich!) bei Interpretationen zuzugeben, ist bei gestande-
nen Wissenschaftlern geradezu verpönt.
Der Wissenschaftler lebt nicht, wie der Laie, in einer Welt, sondern in vielen
möglichen Welten, von denen diejenige, die er mit dem Laien gemeinsam be-
wohnt, nur eine ist. Logiker und Mathematiker nennen diese gemeinsame Welt die
„notwendige Welt“, von der sie alle „möglichen“ und sogar „unmögliche“ Welten
unterscheiden. I. C. Lewis und C. H. Langford haben diese möglichen Welten in
mathematischer Logik formalisiert und sie als Systeme S 1 bis S 5 (und weitere
dürften noch zu erwarten sein) differenziert.7 S. A. Kripke hat dann große Auf-
merksamkeit und Anerkennung dafür gefunden, daß er umgekehrt mit seinen
„starren Deskriptoren“ ein logisches Mittel gefunden haben wollte, gewisse Be-
standteile der „notwendigen Welt“ auch in den möglichen Welten aufzuweisen.
7
I. C. Lewis und C. H. Langford, Symbolic Logic, New York-London 1932, 2. Aufl. New York 1959.
27
Wie sollte man sich auch in den möglichen Welten zurechtfinden wenn nicht
durch das, was in allen Welten identisch ist? 8
Diese „notwendige Welt“ ist jedoch auch nur ein Teil der wirklichen Welt. Und
zwar derjenige Teil, der durch Kausalgesetze bestimmt sein soll. Der Laie nennt
sie gerne den wissenschaftlichen Elfenbeinturm, also ein Gefängnis, von dem aus
die Sicht auf die eine ganze Welt sehr beschränkt erscheint. Dafür erstrecken sich
die möglichen Welten der Wissenschaft ins Unabsehbare.
Zu den möglichen Welten gehört auch die sogenannte „geschichtliche Welt“.
Merkwürdigerweise galt sie in der Scholastik und z. T. auch jetzt noch als
paradigmatisch „notwendige“ Welt, da alles Geschichtliche vorgeblich nicht mehr
verändert werden könne. Zumindest jedoch hält man sie für einen integralen Teil
der wirklichen Welt.
Sammelt und ordnet der Historiker seine und anderer Gewährsleute Erinne-
rungen und bringt sie in einen theoretischen Zusammenhang, so bewegt er sich
nach herrschendem Selbstverständnis der Historiker in der „geschichtlichen
Welt“, die er emphatisch als „historische Realität“ beschreibt. Archäologen, Evo-
lutionsbiologen, Geologen und physikalische Kosmologen bauen diese Welt weit
über alle Erinnerungen hinaus zu einem Kosmos aus, in welchem sie gar den
Ursprung aller Dinge (etwa als kosmischen Big Bang) so schildern, als seien sie
gerade dabei anwesend und könnten ihn direkt beobachten. Und doch wissen sie
genau, daß diese „historische Realität“ vergangen und vorbei ist und somit nicht
mehr, d. h. überhaupt nicht, existiert.
Was dabei für den jeweiligen Historiker und den Kosmologen wirklich existiert
und zur Gegenwartswelt gehört, sind die materiellen Relikte alter Kulturen und
Texte, Schriftgut und Zeugnisse neuerer Epochen, Fossile und geologische Pro-
ben, die gegenwärtig ans Licht gebracht werden, kosmische Strahlungen, die jetzt
auf der Erde ankommen. Wirklich ist nur das, was gerade jetzt auf der Erde aus-
gegraben, vielleicht entdeckt, mit empfindlichsten Geräten empfangen und gemes-
sen wird. Alles dies dient aber dem Historiker und Kosmologen nur als Dokument
und gleichsam als Sprungbrett zum Sprung in die mögliche Welt „historischer
Realitäten“.
Je dichter und umfassender die geschichtliche Welt ausgebaut ist, um so
geeigneter wird sie zu einem weiteren Sprung in die mögliche Welt der Zukunft.
Da werden geordnete Erinnerungen an das Vergangene als Konstanten in die
Zukunft „extrapoliert“, zwischen denen die kreative Phantasie neue Verknüp-
fungen herstellt und variable Versatzstücke ansiedelt. Früher war dies ein Be-
tätigungsgebiet der Dichter von Zukunftsromanen. Heute wird es als „Science
fiction“ gepflegt. Von da ist es nur ein kleiner Übergang zur „Zukunftsforschung“,
deren phantastische Prognosen schon längst in die Politikberatung einfließen.
8
S. A. Kripke, Identity and Necessity, in: Identity and Individuation, hgg. v. M. K. Munitz, New York 1971, dt. Übers.
„Identität und Notwendigkeit“, in: Moderne Sprachphilosophie, hgg. von M. Sukale, Hamburg 1976, S. 190 – 215; erw.
Aufl. u. d . T. Name und Notwendigkeit, Frankfurt a. M. 1981.
28
10
L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen,
Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München (Alber) 1971; ders., Traditio-
nelle Institutionen philosophischer Lehre und Forschung, in: Philosophie, Gesellschaft, Planung. Kolloquium H. Krings
zum 60. Geburtstag, hgg. v. H. M. Baumgartner u. a. (Bayerische Hochschulforschung I), München 1974, S. 28 – 48).
31
eine umfassende Kompetenz des Arztes, Juristen und Geistlichen verpricht. Seit
Beginn des 19. Jahrhunderts ist den Absolventen der einstigen höheren Fakultäten
noch der Nationalökonom beigetreten. Vordem studierten die Ökonomen in der
juristischen Fakultät die Staatswissenschaften und „Kameralistik“, was an man-
chen Standorten auch „Politische Ökonomie“ genannt wurde.
Aber auch diese alten Titel „Dr. med.“ „Dr. theol.“ (früher auch „D.“), „Dr.
juris“ (ggf. „Dr. juris utriusque“, d. h. des staatlichen und des Kirchenrechts) und
des „Dr. rer. pol.“ (Doktor der politischen Angelegenheiten) garantieren längst
nicht mehr, was sie einst bedeuteten. Auch in diesen Fakultäten, soweit es sie
noch gibt (es gibt sie meist nur noch in Gestalt der sogenanten „Fakultätentage“,
zu denen sich die früher zugehörigen Disziplinen regional zusammenschließen)
und soweit sie nicht in mehr oder weniger zufällige Fachbereichskombinationen
verteilt worden sind, ist die Spezialisierung weit fortgeschritten.
Auch in der „Philosophischen Fakultät“ studierte man bis ins 19. Jahrhundert
hinein alle Fächer des „geisteswissenschaftlichen“ Triviums und des „mathema-
tisch-naturwissenschaftlichen“ Quadriviums, die dazu gehörten. Bis dahin behielt
sie auch ihren Status als „propädeutische“ (vorbereitende) Fakultät, die man vor
der Zulassung zum Berufsstudium der vorgenannten „höheren Fakultäten“ durch-
laufen mußte. Aber nach der humboldtschen Reform zu Beginn des 19. Jahrhun-
derts erhielt diese Fakultät neben ihrer weiterbestehenden propädeutischen Auf-
gabe für alle höheren Studien zusätzlich die Aufgabe der regulären Berufsaus-
bildung der Gymnasiallehrer.
Diese praktische Zielvorgabe der Philosophischen Fakultät ist jetzt etwa zwei-
hundert Jahre alt. Wer sich aber als Studierender an dieser Fakultät immatrikuliert
hat, mußte meist feststellen, daß der Lehrbetrieb auf die Lehrerausbildung wenig
und gelegentlich gar keine Rücksicht nahm. Das dürfte auch ein wesentlicher
Grund dafür geworden sein, daß die Lehrerausbildung in einigen Bundesländern
den meisten ihrer Universitäten wieder weggenommen und an wenigen Hoch-
schulen konzentriert worden ist. Die in der Philosophischen Fakultät Lehrenden
haben aber das traditionelle Bewußtsein beibehalten, die Propädeutik für alle
Universitätsstudien zu betreiben, und sie stellen es in mancherlei Arten von
„Studium generale“, jetzt vermehrt auch als „Seniorenstudium“ in den Vor-
dergund. Dies umso mehr, als ja neben der Ausbildung der Gymnasiallehrer und
seit einiger Zeit auch der Lehrer anderer Schultypen die sogenannten akade-
mischen Studiengänge für eine Reihe anderer Berufe in allen Kultur- und Medien-
bereichen qualifizieren sollen.
Wilhelm von Humboldt hat bei seiner Gymnasialreform (neben der Universi-
tätsreform) das Kurrikulum der Oberstufe des Gymnasiums mit denselben
Fächern ausgestattet, die auch an der damaligen Philosophischen Fakultät, die
noch die quadrivialen Studien der Mathematik und Naturwissenschaften ein-
schloß, gelehrt wurden. Und so blieben die Lehrpläne für das Gymnasium in der
Regel ein Fächerspiegel der einstigen Philosophischen Fakultät. Die einstigen
höheren Fakultäten aber hatten und haben daher kein gymnasiales Propädeutikum.
32
als vor einem halben Jahrhundert, als der gesamte Wissenschaftssektor und die
Zahl der Hochschulen viel kleiner war als heute.
Aber vermutlich liefert es auch heutzutage nicht mehr hervorragende Wissen-
schaftler als damals, da das alte System – entgegen einer modischen Kritik an den
sozialen Bildungsschranken - längst darauf abgestellt war, mit Hilfe von Stipen-
dien alle Begabungsressourcen auszuschöpfen. Sie bilden das heran, was man
heute allenthalben als Elite beschwört, so als hätte man keine mehr. Aber das Bild
dieser wissenschaftlichen Elite in der Öffentlichkeit ist weder klar noch adäquat,
sonst hätten der Exzellenzdiskurs und ministerielle Bemühungen, Exzellenz über-
haupt erst hervorzubringen, nicht aufkommen können. Offensichtlich fehlt es
dieser Elite an Zeit und Willen, ihre Leistungen in der Medienöffentlichkeit ange-
messen zu vermitteln. Und diejenigen, die das für sie besorgen, sind nicht immer
ihre überzeugendsten Repräsentanten.
Wie aber schon gesagt, sind moderne Wissenschaftler meist Fachleute in den
immer enger gezogenen Grenzen ihrer Fachgebiete, in denen sie sich in der Regel
nur durch ihre veröffentlichten Forschungsleistungen bekannt machen. Damit
kommen wir aber zu einem Punkte, an dem das gegenwärtige Wissenschafts-
system besonders in Deutschland am meisten im argen liegt. Und es ist gerade
dieser Punkt, wo der Laie und der Studierende dem Wissenschaftssystem zuerst
und mit nachhaltigsten Auswirkungen begegnet.
Noch immer beruht das neuere deutsche Wissenschaftssystem, besonders der
Universitäten, auf den Ideen und Plänen Wilhelm von Humboldts.11 Ihre Realisie-
rung führte die deutsche Wissenschaft im 19. Jahrhundert an die Weltspitze und
wurde in den USA, Japan und einigen anderen Ländern übernommen. W. v.
Humboldt stellte in seinen einschlägigen Schriften die zwei wesentlichen Grund-
sätze der „Einheit von Forschung und Lehre“ und des „forschenden Lernens in
Einsamkeit und Freiheit“ heraus und schrieb sie gewissermaßen fest.
Die Einheit von Forschung und Lehre entsprach einer auch vordem an vielen
Universitäten herrschenden Tradition, nach der nur ausgewiesene Forscher dort
lehren sollten. Damit war ein grundsätzlicher Unterschied zwischen Schulen (auch
dem Gymnasium) mit streng geregeltem „Unterricht“ und Universitäten mit
„freier Lehre“ begründet. Dieses Organisationsprinzip der Universitäten wird
neuerdings durch die sogenannte Verschulung der Hochschulen und durch die
(noch weitgehend nur geplante bzw. diskutierte) Einführung reiner „Lehrprofes-
suren“ konterkariert. Deren Lehrdeputat soll zwischen 12 und 20 Veranstal-
tungsstunden pro Woche betragen, was dem üblichen Lehrpensum der Gymna-
siallehrer entspricht. „Studienräte im Hochschuldienst“ gab es aber auch bisher
schon vereinzelt. So soll durch die Lehrprofessuren dies Institut nur ausgeweitet
werden.
11
W. von Humboldt, Über die innere und äussere Organisation der höheren wissenschaftlichen Anstalten in Berlin (ca.
1810), in: W. v. Humboldt, Studienausgabe in 3 Bänden, hgg. von K. Müller-Vollmer, Frankfurt a. M. 1972, Band 2, S.
133 – 141.
37
heiten zur Vertretung der Professoren bei deren Abwesenheit durch ihre Assisten-
ten in einzelnen Lehrveranstaltungen.
Aber das Abhalten von Vorlesungen überhaupt und das der „magistralen
Vorlesungen“ über das ganze Fach insbesondere hatte für die Professoren den sehr
großen Vorteil, daß sie dadurch jederzeit den Überblick über ihr ganzes Fach zu
erarbeiten, zu behalten und zu pflegen hatten. Es war gleichsam eine ständige
Turnübung für Geistesgegenwart. Und darüber hinaus war die Übung auch heu-
ristisch fruchtbar. Wer sich ständig um diese Geistesgegenwart bemühte, setzte
sich auch in die Lage, immer wieder neue Verknüpfungen zwischen den Inhalten
herzustellen, sie zu überprüfen und daraus Gesichtspunkte für neue Forschungs-
fragen zu entwickeln.
Als 1964 die genannten „erlesenen“ Hörgelder in der Bundesrepublik pau-
schaliert wurden, um den krassen Unterschied der Erzielung von Hörgeldern in
den großen Massenfächern und den kleinen sogenannten Orchideenfächern aus
Gründen der Gerechtigkeit einzuebnen, entdeckten die Didaktiker, daß soge-
nannter Frontalunterricht, unter den man auch die akademischen Vorlesungen
subsumierte, autoritär und indoktrinierend sei. Sofort sank das Interesse an den
Vorlesungen zugunsten des freien Dialogs im Seminarbetrieb, bei dem fortan der
nummerus clausus der Kleingruppen regierte.
Das kam vielen Privatdozenten und neu berufenen Professoren sehr zupaß,
denn sie hatten oft vor ihrem Amtsantritt noch nie eine Vorlesung gehalten,
wußten andererseits aber genau, wieviel Arbeit und Mühe dazu hätte investiert
werden müssen. Hinzu kam durch dieselbe Besoldungsreform der Oktroi einer
Lehrverpflichtung für die Professoren von acht (jetzt mancherorts neun), für
Assistenten bzw. wissenschaftliche Mitarbeiter von mindestens zwei Stunden.
Vordem waren die Professoren nur dazu verpflichtet, „nach Bedarf im Fache“
Lehrveranstaltungen abzuhalten. Das konnten zuweilen 15 Stunden sein, aber
auch „mindestens eine Lehreinheit“ (d. h. eine Vorlesung und ein zugeordnetes
Seminar), wie man sie im allgemeinen von den Privatdozenten forderte und auch
jetzt noch fordert. Manche berühmten Professoren, an deren Forschungen die
Universität und das zuständige Ministerium besonders interessiert waren, hatten
sich in ihren Berufungsverhandlungen sogar ausbedingen können, überhaupt keine
Lehrveranstaltungen abzuhalten, um sich gänzlich der Forschung zu widmen.
Begleitend zur Einrichtung reiner Lehrprofessuren sollen übrigens nach neuesten
Plänen auch wieder vermehrt solche reine Forschungsprofesssuren (ohne Lehr-
verpflichtung) eingeführt werden.
Der Lehrverpflichtung seit 1964 ließ sich am bequemsten durch Seminare und
Kolloquien nachkommen, da die Zeit für die Ausarbeitung von Vorlesungen
immer knapper wurde. Wer heute in das Vorlesungsverzeichnis einer Universität
schaut, wird leicht bemerken, daß nur noch die Historiker – ans Geschichten-
erzählen gewöhnt – in nennenswertem Umfang Vorlesungen halten, die übrigen
Professoren allenfalls eine einzige pro Semester, und die Assistenten dürfen und
mögen es immer noch nicht. Die neuen Junior-Professoren haben inzwischen
40
Lehrer und Forscher haben, wie wir schon sagten, gewöhnlich nicht mehr den
Überblick über das Ganze ihres Faches. Und auch deswegen schotten sich die
einzelnen Fakultäten bzw. Fachbereiche mehr und mehr gegeneinander ab. Für
„interfakultative“ Gespräche und Treffen der Fachvertreter fehlt es bei der zuneh-
menden Spezialisierung und dem zeitlichen Druck der Geschäfte sowohl an Zeit
wie an Interesse.
Wohl aber hat der bei so vielen Spezialisten studierende junge Kopf noch
immer alle Chancen, sich Überblicke über den „Tellerrand“ seines engeren Stu-
dienfaches hinaus zu erarbeiten. Doch den meisten sind bei der jetzt üblichen
Kapazitätsplanung des Stundenbudgets für Besuch sowie Vor- und Nachbereitung
der Lehrveranstaltungen (die sich am Arbeitsvolumen von ca. 40 Wochenstunden
der lohnabhängig Beschäftigten orientiert) engste Grenzen gesetzt.
Erwähnen wir aber auch die neueste Initiative des Landes Nordrhein-Westfalen
im letzten Hochschulgesetzt von 2014 zur Aufhebung der persönlichen Anwesen-
heitspflichten der Studierenden in den Lehrveranstaltungen. Sie wird damit be-
gründet, daß so viele Studierende aus unterprivilegierten Bevölkerungsschichten
tagsüber ihren Lebensunterhalt durch eine berufliche Tätigkeit finanzieren müß-
ten. Da sie auf diese Weise tagsüber nicht mehr an Lehrveranstaltungen teil-
nehmen können, kann die Präsenz bei Lehrveranstaltung nur noch in besonders zu
begründenden Fällen verbindlich gefordert werden. Die einstige akademische
Freiheit zum Besuch oder Nichtbesuch von Vorlesungen (und nur von diesen) an
den Universitäten, wodurch die Studierenden gegebenenfalls auch ihren Beifall
oder ihre Mißbilligung bezüglich des jeweiligen Dozenten zum Ausdruck brach-
ten, wird durch das neue Hochschulgesetz auf alle Übungen und Seminare an
allen Hochschulen ausgedehnt.
Gewitzte Geister vermuten, daß im nächsten Hochschulgesetz alle Hochschulen
des Landes der Fern-Universität Hagen, die mit ca. 80 000 Studierenden ohnehin
die größte Hochschule Deutschlands ist, eingegliedert werden. Für das danach
folgende Hochschulgesetz wäre in Konsequenz zu erwarten, daß auch der gesamte
Lehrbetrieb eingespart und durch ein zentrales Videoprogramm exzellenter Lehre
im MOOC-Verfahren ersetzt wird. Deren Inhalte lassen sich preisgünstig als
Video-Mitschnitte von Lehrveranstaltungen der prominentesten Professoren US-
amerikanischer Ivy-League-Universitäten und auch schon einiger deutscher Ex-
zellenz-Universitäten kaufen.12
12
Eine vorsichtige Empfehlung des MOOC-Verfahrens (Massive Open Online Courses) liegt
schon seit einiger Zeit vor. Der geschäftsführende Direktor der German-American Fulbright Com-
mission Rolf Hoffmann verspricht sich davon: „Neue didaktische Modelle im online-learning
erhöhen die Qualität der Lehre, vermitteln komplexe Inhalte verständlicher, öffnen auch kleinen
Hochschulen neue Nischen bei der Rekrutierung und Einbindung Studierender (gerade im dualen
Bereich) und erreichen potenziell Studierwillige, die sonst nicht den Weg zur Hochschule finden“.
In: Forschung und Lehre 8/13, S. 606.
43
Denn: „tertium non datur“, wie bekanntlich das Prinzip vom ausgeschlossenen
Dritten besagt.
Damit kommt man in den meisten Fällen ganz gut durch. Doch der wissen-
schaftstheoretisch etwas gewitztere Kollege kontert mit Autoritäten und neueren
Forschungsergebnissen. Er weiß von Karl Albert, daß man in der Wissenschaft
überhaupt nichts begründen kann. Denn jede Begründung ist entweder „dogma-
tisch“ (und schon deswegen theologischer Voreingenommenheit verdächtig), oder
sie beruht auf einer Petitio principii, (sie beweist, was sie vorausgesetzt hat, und
sie setzt voraus, was sie beweisen will), oder sie führt zu einem unendlichen
Regreß immer weiter zurückreichender Begründungen, und etwas Viertes gibt es
nicht. Das Argument geht auf Jakob Friedrich Fries zurück und ist mittlerweile
auch als Friessches Trilemma bekannt.13 Auch beim Widerspruch behauptet etwa
die neuere Paralogik (wie schon I. Kant bezüglich der „dynamischen Antinomien
der reinen Vernunft“), daß Widersprüchliches gelegentlich wahr sein könne. 14
Bezüglich der Identität der Begriffe hat L. Wittgenstein behauptet, daß sich
unter Begriffen nur „Familienähnlichkeiten“ und gegebenfalls gar keine Identitä-
ten der Bedeutungen erfassen ließen.15 Wem dies schon zu lange her ist, der beruft
sich auf die neueste daraus entstandene „Fuzzi-Logik“, die „unscharfe Begriffe“
(hinsichtlich ihrer Intensionen und/oder Extensionen) zuläßt.16
Das Tertium non datur gilt vielen schließlich durch die avanciertesten Theorien
der Mathematik und Mikrophysik als längst überholt und als eingeschränkter
Spezialfall für klassische Problembewältigung. 17
Werden solche Argumente noch durch einige logische bzw. mathematisch-
logische Formeln unterstützt, so wird der Muttermilch-Logiker sicher sogleich die
Waffen strecken und das Gespräch verständnislos beenden. Was ihn aber nicht
hindert, auf seiner Meinung zu bestehen und die moderne Logik und Wis-
senschaftstheorie insgesamt für sophistisches Gerede zu halten. Auch darin zeigt
sich die zunehmend sich weitende Kluft zwischen den wissenschaftlichen Kultu-
ren und den sogenannten Laien.
Die Mathematik hat für die sogenannten exakten Naturwissenschaften, aber im-
mer mehr auch darüber hinaus in Wissenschaften, die sich mit dem Prestige der
„Exaktheit“ der Naturwissenschaften, insbesondere der Physik, schmücken wol-
len, ebenfalls methodische Funktionen. Hervorgetreten sind hier vor allem die
Ökonomie, die Soziologie und Teile der Sprachwissenschaften. Auch die Mathe-
matik stellt eigene Theorien über Wahrheit, Falschheit und Wahrscheinlichkeit
13
K. Albert, Traktat über kritische Vernunft, Tübingen 1968, S. 13.
14
Manuel Bremer, Wahre Widersprüche. Einführung in die parakonsistente Logik, Sankt Augustin 1998.
15
L. Wittgenstein, Philosophische Untersuchungen (1953), Frankfurt a. M. 1971, Nr. 67, S. 57 f.
16
L. A. Zadeh, Fuzzy Logic and Approximate Reasoning, in: Synthese 30, 1975, p. 407 – 428.
17
K. Gödel, On Formally Undecidable Propositions of Principia Mathematica and Related Systems, hgg. von R. B.
Braithwaite, New York 1962; dt. Original: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme I. In: Monatshefte für Mathematische Physik 38, 1931, p. 173-198; N. Vasallo, Sulla problematicità del principio
del terzo escluso. Linguisticità e senso concreto del principio nella lettura intuizionista di L. E. J. Brouwer. In: Epistemolo-
gia 23, 2000, p. 99-118; F. von Kutschera, Der Satz vom ausgeschlossenen Dritten. Untersuchungen über die Grundlagen
der Logik, Berlin-New York 1985.
45
zur Verfügung. Nicht von ungefähr gilt ja eine richtige Gleichung wie etwa „2
mal 2 = 4“ als exemplarische Wahrheit, und die „Scheingleichung“ „2 mal 2 = 5“
als falsch. Wahrscheinlichkeiten gelten als die eigentliche Domäne der mathe-
matischen Statistik.
Die Mathematik hat sich, anders als die Logik, zu einer höchst umfangreichen
Einzelwissenschaft mit großen Instituten (an manchen Universitäten sogar zu
„Mathematischen Fakultäten“), einem eigenen Studiengang und einem Berufs-
profil der Mathematiker ausgeweitet. Die Schwierigkeit und damit der Aufwand
zu ihrem Studium ist beträchtlich und schreckt die meisten Wissenschaftler und
immer mehr auch die jungen Leute davon ab, sich näher damit zu befassen.
Gleichwohl empfiehlt es sich, und besonders für den Wissenschaftstheoretiker,
sich mathematische Grundkenntnisse anzueignen.
Auch die Mathematiker diskutieren ihre Grundlagenprobleme „logisch“. Und
viele betonen, daß die von ihnen gepflegte „mathematische Logik“ nur ein
Anwendungsgebiet der allgemeinen Logik für die Zwecke der Mathematik sei.
Die meisten mathematischen Logiker dürften jedoch der Meinung sein, daß die
sogenannte mathematische Logik bzw. „Logistik“ die von ihnen nun „klassisch“
genannte traditionelle Logik abgelöst und fast gänzlich ersetzt habe. W. Steg-
müller schreibt etwa: „Mit Recht wird heute zwar darauf hingewiesen, daß die
aristotelische Syllogistik nur einen infinitesimalen Teil dessen ausmacht, was man
gegenwärtig als Logik bezeichnet. Mit fast derselben Sicherheit kann man aber
behaupten, daß bereits in wenigen Jahrzehnten dasjenige, was heute Logik
genannt wird, nur mehr als Bruchteil der Logik betrachtet werden wird“ (wobei
mit „die Logik“ im wesentlichen die moderne mathematische Logik gemeint ist.18
Der Mathematiker Gottlob Frege, der diese Wendung am Ende des 19. Jahr-
hunderts mit eingeleitet hat, betont ausdrücklich, „daß die Arithmetik weiter
entwickelte Logik ist, daß eine strenge Begründung der arithmetischen Gesetze
auf rein logische und nur auf solche zurückführt“. 19 Der Mathematiker Hans
Hermes bekräftigte dies mit dem Hinweis: „Die Besinnung auf die Grundlagen
der Mathematik hat zu dem Versuch geführt, die Logik auf der Basis formaler
Sprachen von Grund auf neu zu begreifen und ihr Verhältnis zur Mathematik zu
untersuchen“. 20 Wobei vorausgesetzt wird, daß „formale Sprachen“ selbst schon
mathematische Zeichenkomplexe sind, die Wittgenstein in seinem „Tractatus
logico-philosophicus“ von 1921 als „Idealsprachen“ von den Gemeinsprachen
strikt unterschieden hatte. Zugleich bemerkt Hermes aber auch:
„Zu einer genauen Beschreibung des mathematischen modus procedendi gehört also
die Diskussion der logischen Schlußregeln. Welche Regeln werden angewandt?
18
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band 1: Wissenschaft-
liche Erklärung und Begründung, Berlin-Heidelberg-New York 1969, S. XVI.
19
G. Frege, Funktion und Begriff, in: G. Frege, Funktion, Begriff, Bedeutung. Fünf logische Studien, hgg. von G. Patzig,
Göttingen 1962, S. 25.
20
H. Hermes, Methodik der Mathematik und Logik, in: Enzyklopädie der geisteswissenschaftlichen Arbeitsmethoden, hgg.
v. M. Thiel, 3. Lieferung, München-Wien 1968, S. 4.
46
Merkwürdigerweise haben sich die Mathematiker mit dieser Frage fast zweitausend
Jahre lang kaum befaßt. Noch heute wird z. B. von einem an einer deutschen
Universität studierenden Mathematiker nicht verlangt, daß er sich mit diesem Prob-
lem beschäftigt. ... Obwohl der Mathematiker offenbar auch ohne Kenntnis der
logischen Regeln seine Wissenschaft betreiben kann, so sollte er doch beachten, daß
die Strenge der Mathematik mit den logischen Regeln zusammenhängt, und daß es
doch sehr erstaunlich ist, daß man in einer so intensiv betriebenen Wissenschaft, wie
es die Geometrie ist, mehr als zweitausend Jahre benötigte, um eine wesentliche
Lücke in der Beweisführung zu entdecken. Eine solche Panne wäre vermutlich nicht
eingetreten, wenn man die Regeln der Logik gekannt hätte“. 21
Dem kann man nur zustimmen. Tatsächlich wird jedoch von Seiten der meisten
Mathematiker der Anspruch erhoben, eine zeitgemäße moderne Logik könne nur
eine Teildisziplin der Mathematik sein.
Diese Meinung ist zuerst von dem Mathematiker George Boole (1815 - 1864)
in seiner „Untersuchung über die Denkgesetze, auf welche die mathematischen
Theorien der Logik und der Wahrscheinlichkeiten gegründet sind“ 22 vertreten
worden. Aber in diesem Werk zeichnen sich auch schon gravierende Unterschiede
zwischen der alten „klassischen“ und der neuen „mathematischen Logik“ ab. Man
findet zum ersten Mal die Ersetzung der logischen Kopula als Hauptjunktor des
Urteils durch die mathematische Gleichung (die eine logische Äquivalenz ist und
keineswegs mit der Kopula „ist“ in behauptenden Urteilen verwechselt werden
darf!). Daraus ergibt sich die seither in der mathematischen Logik herrschende
Auffassung, das Verhältnis von Subjekt und Prädikat im Urteil sei, wie in mathe-
matischen Gleichungen, ein solches der Bedeutungsidentität, das durch die ver-
schiedenen terminologischen und ausdrucksmäßigen Formulierungen, etwa durch
die Quantifikation des Subjekts und/oder eine Quantifikation des Prädikats dissi-
muliert werde. Wahre Urteile müßten daher als „Tautologien“ (wie Wittgenstein
im „Tractatus logico-philosophicus“ behauptete) verstanden werden.
An Boole schließt sich der Ausbau einer „Boolschen Algebra der Logik“ durch
W. S. Jevons und Ch. S. Peirce an, in der die Logik als „mathematischer Kalkül“
verstanden wird. H. Hermes definierte: „Jeder Kalkül besteht aus einem System
von Regeln, die es erlauben, Figuren herzustellen, die aus den Buchstaben eines
Alphabets gebildet sind, welche zu K (d. h. zum Kalkül) gehören“.23
Man wird also bei der „mathematischen Logik“ grundsätzlich davon ausgehen
müssen, daß es sich dabei um Anwendung der Mathematik auf einige traditionelle
logische Sachverhalte handelt. Was sich aus dem Bestand der klassischen Logik
für diese Anwendungen nicht eignet, wird dabei außer Betracht gelassen.
Unseren Bedenken gegen diese Auffassung von Logik haben wir in der „Logik“
(Aalen 1987), im „Grundriß der pyramidalen Logik mit einer logischen Kritik der
mathematischen Logik und Bibliographie der Logik“ (Internet der Phil.-Fak. der
21
H. Hermes, Methodik der Mathematik und Logik, S. 16.
22
G. Boole, Investigation of the Laws of Thought on which are Founded the Mathematical Theories of Logic and Proba-
bilities, London 1854, ND New York 1958.
23
H. Hermes, Methodik der Mathematik und Logik S. 34.
47
24
Erweiterte und durch Anmerkungen und Korollarien ergänzte englische Übersetzung: L. Geldsetzer, Logical Thinking
in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements. Introduced and Translated from German
by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013
25
Stuttgart 1962.
26
Stuttgart 1955, 3. Aufl. 1961.
48
nannten Gegenstände seien in der klassischen Logik gleichsam nur angedacht und
in gänzlich unklaren Gestalten überliefert worden. In der mathematischen Logik
aber seien sie erst in angemessener formaler Fassung diskutierbar und mehr oder
weniger schon ein „fundamentum inconcussum“ jeder brauchbaren wissenschaft-
lichen Methodologie geworden.
Bei dieser Lage kann es nicht verwundern, daß auch gutwillige Liebhaber der
klassischen Logik kaum noch Anlaß gesehen haben, deren Potentiale weiterzuent-
wickeln und überhaupt die klassische Logik in eine moderne Form zu bringen.
Geschweige denn, daß sie diese Potentiale dazu benutzt hätten, daraus kritische
Gesichtspunkte zu entnehmen, um die mathematische Logik selber von ihrem
Standpunkt aus zu prüfen.
Genau dies haben wir in den oben genannten Veröffentlichungen versucht. Als
Ertrag dieser Studien und Ausarbeitungen der klassischen Logik seien folgende
hier relevante Punkte angeführt, zu denen auch einige Fehler in den Grundlagen
der klassischen Logik gehören, die z. T. auch in die mathematische Logik über-
nommen worden sind.
1. Es war und ist bisher ein erstrangiges Ideal sowohl der klassischen wie der
mathematischen Logik, den logischen Formalismus so auszubauen, daß sich in der
„logischen Formalisierung“ wissenschaftlicher Erkenntnisse deren Wahrheit un-
mittelbar „ablesen“ lassen könne. Natürlich sollte das auch dafür genügen, die
Falschheit formal kennzeichnen zu können, und über Wahrheit und Falschheit
hinaus auch die Wahrscheinlichkeit.
Dies ist weder in der klassischen noch in der mathematischen Logik gelungen.
In beiden Konzeptionen hat man sich damit begnügt, den Widerspruch als
formales Kennzeichen der Falschheit auszuweisen. Genauer gesagt: dies zu
behaupten. Somit auch die Aufdeckung von Widersprüchen in formalisierten
Theorien als Hauptmittel der Widerlegung von Irrtümern in der Wissenschaft zu
benutzen.
Daß dies falsch ist, weil der Satzwiderspruch aus einem wahren und einem
falschen allgemeinen Satz, die im Negationsverhältnis zueinander stehen, zusam-
mengesetzt ist und also nicht ausschließlich falsch sein kann, ist wohl auch
Aristoteles nicht entgangen. Nur hat er sich dazu nicht genau genug geäußert, als
er nur auf das Falsche beim Widerspruch hinwies. Zu dem Begründungsargument
für die übliche Auffassung, es handele sich bei der dann sogenannten Wider-
spruchsfalschheit um ein metasprachliches Phänomen, werden wir weiter unten
Stellung nehmen.
Unter dieser also selbst falschen Voraussetzung geht man davon aus, daß alles
„Logische“, in dem kein Widerspruch nachzuweisen ist, als „wahr“ (oder „gül-
tig“) zu behandeln sei. Das hat zur Folge, daß man einerseits jede noch so phan-
tastische Spekulation, wenn sie nur widerspruchslos ist, als wahr hinnehmen solle.
Es hat auch zur Folge, daß die Wahrscheinlichkeit immer nur hinsichtlich ihrer
49
„Wahrheitsnähe“ thematisiert wurde, nicht aber, wie es richtig wäre, ebenso hin-
sichtlich ihrer Falschheitsnähe.
Wir haben uns demgegenüber bemüht, auf der Grundlage der in der Logik alt-
bekannten „porphyrianischen Bäume“ bzw. der „Begriffspyramiden“ (das sind
„auf den Kopf gestellte“ Begriffsbäume) einen neuen logischen Formalismus zu
entwickeln, der dem alten logischen Ideal der Wahrheits- und Falschheits-
darstellung – und darüber hinaus der Wahrscheinlichkeitsdarstellung – direkt zu
genügen vermag.
Der „pyramidale Formalismus“ beruht auf der prinzipiellen Voraussetzung, daß
die Logik allgemein und ein logischer Formalismus speziell, die intensionalen und
extensionalen Begriffseigenschaften in allen logischen Verhältnissen gemeinsam
beachten und zum Ausdruck bringen muß. Das heißt, daß eine sogenannte rein
intensionale Logik (wie man sie gewöhnlich den Geisteswissenschaften unter-
stellt) ebenso wie eine rein extensionale Logik (auf die sich Mathematiker zu
berufen pflegen) schon deswegen keine Logik sein kann, weil sie nur eine Seite
des logisch Relevanten berücksichtigen.
Diese Verkennung der intensional-extensionalen Verknüpftheit in allen logi-
schen Elementen hat den ungeheuren Aufwand zur Folge, den man bei der
Entwicklung und Ausgestaltung dieser Einseitigkeiten der vermeintlich nur
intensionalen und der nur extensionalen Logik betreibt. Und auch von diesem
Aufwand kann man bei genauem Hinsehen feststellen, daß er immer wieder davon
zehrt, daß auf versteckte oder unbemerkte Weise intensionale Voraussetzungen in
die extensionale, und umgekehrt extensionale Voraussetzungen mehr oder
weniger unbemerkt oder gar dissimuliert in die intensionale Logik eingehen, ohne
welche ja Logik niemals funktionieren kann.
Der in unserer Logik vorgestellte pyramidale Formalismus integriert also beides,
nämlich intensionale und extensionale Logik, wieder zu einem Ganzen. In ihm
werden die gewohnten alphabetischen Notationszeichen (allerdings in Anwen-
dung auf Intensionen von Begriffen, nicht auf „ganze“ Begriffe) mit graphischen
Strukturen für die Anwendung auf Extensionen und auf die Verknüpfungs-
funktion der Junktoren verbunden. Der hier vorgeschlagene pyramidale Graph
formalisiert die logischen Verhältnisse so, daß an ihnen unmittelbar die inten-
sional-extensionale Struktur von Begriffen, ihrer Verknüpfungen mittels der Junk-
toren zu Ausdrücken und Urteilen, und schließlich auch deren Verknüpfung zu
Schlüssen und ganzen Theorien sichtbar und kontrollierbar wird.
In diesem Formalismus wird nicht nur die intensional-extensionale Definition
der im Formalismus vorkommenden Begriffe, sondern auch die „logische
Wahrheit“ der mit ihnen gebildeten Urteile unmittelbar an den regulären Rela-
tionen, die zwischen ihnen in der Pyramidenstruktur bestehen, sicht- und ablesbar.
Erweiterungen zu irregulären Strukturen machen entsprechend sicht- und
ablesbar, was als logisch formalisierte Falschheit und Wahrscheinlichkeit gelten
kann. Damit wird das eingangs genannte Ideal der Logik, Wahrheit, Falschheit
und Wahrscheinlichkeit direkt im Formalismus sichtbar zu machen, verwirklicht.
50
Frege übernahm seine Unterscheidung von Sinn und Bedeutung des logischen
bzw. mathematischen Formalismus aus der Hermeneutik.27 Das hat den mathe-
matischen Gleichungs-Formalismus grundsätzlich „mehrdeutig“ gemacht. Die
Fregesche Unterscheidung von Sinn und Bedeutung reproduziert ersichtlich die
alte hermeneutische Unterscheidung von vordergründigem Literalsinn eines
Textes (bei Frege der „Sinn“ der Formeln der Aussagenlogik bzw. mathe-
matischer Formeln) und „geistigem“ oder „mystischem“ Hintersinn (bei Frege die
beiden Wahrheitswerte „Wahrheit“ und „Falschheit“ als „Bedeutungen“ des
Formalismus). Diese Unterscheidung von Literalsinn und „Hintersinn“ (= Be-
deutung) wurde schon seit Philon von Alexandrien (ca. 25 v. Chr. – ca. 50 n. Chr.)
und Augustinus (354 – 430 n. Chr.) für die Interpretation der heiligen Schriften,
dann auch in der juristischen Gesetzesinterpretation entwickelt. Sie ist seither in
der Hermeneutik aller Textwissenschaften verbreitet worden. In der mittelalter-
lichen Logik aber war die Lehre von den „Suppositionen“ (d. h. das als gemeint
„Unterstellte“) der Zeichen ein bedeutendes Lehrstück über die mehrfache Be-
deutung bzw. des Sinnes von Wörtern, wobei zwischen Bedeutung und Sinn nicht
unterschieden wurde.
Durch Freges (implizite) „logische Hermeneutik“ des Doppelsinnes wurde der
logische Formalismus grundsätzlich zu einer eigenen „formalen Sprache“ ge-
macht. Frege selbst bemühte sich in einem seiner Hauptwerke, für diese formale
oder „ideale“ Sprache eine neue „Begriffsschrift“ zu entwickeln. 28
Daran war soviel richtig, daß es bei den üblichen logischen Formalismen tat-
sächlich um eine Notationsweise von ausgewählten sprachlichen Elementen geht.
Das zeigt sich in der Verwendung von Buchstaben und im gemeinsprachlichen
Sinn der meisten Junktoren. Falsch jedoch war es, den Formalismus als solchen
für eine selbständige Sprache zu halten. Keiner spricht „Mathematik“, und die
Formalismen werden auch nicht übersetzt, sondern in allen Sprachen in derselben
Gestalt notiert. Gleichwohl hat sich seither die Auffassung, die Logik und insbe-
sondere die mathematische Logik seien insgesamt „formale Sprachen“ (oder
„Idealsprachen“) ziemlich allgemein durchgesetzt. Und auch das widerspricht
ersichtlich der sonst herrschenden Meinung, der Formalismus sei als solcher
sinnleer. Entsprechend dieser Sprachauffassung vom Formalismus wurden auch
immer mehr grammatische Kategorien in die mathematische Logik übernommen.
Man spricht seither von „logischer Semantik“, womit man die „Bedeutungslehre“
als Lehre von den Wahrheitswerten meint, von „logischer Syntax“, was die
Verknüpfungsweisen mit ihrer „Sinn“-Befrachtung meint, und von „logischer
Pragmatik“, den methodischen Benutzungsweisen der vorgeblichen Idealsprache.
27
W. Hogrebe, Frege als Hermeneut (Bonner Philosophische Vorträge und Studien 16), Bonn 2001, S. 19 sieht Freges
hermeneutische Erkenntnis wesentlich darin, daß er von „nichtpropositionalen Ahnungen“ des Gemeinten speziell bei
undefinierbaren axiomatischen Begriffen spricht, zu denen auch „Sinn“ und „Bedeutung“ gehören sollen. – Zur „dogmati-
schen Hermeneutik der Mathematik“ vgl. den entsprechenden Abschnitt in § 44.
28
G. Frege, Begriffschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879; jetzt in:
G. Frege, Begriffsschrift und andere Aufsätze, hgg. von I. Angelelli, Darmstadt 1964.
53
Nun ist es schon an sich bedenklich, bezüglich des logischen bzw. mathe-
matischen Formalismus von einer besonderen Sprache zu reden. Wie schon ge-
sagt, keiner spricht oder schreibt „Logik“ oder „Mathematik“. Wären Logik und
Mathematik Sprachen, so müßten sie sich in andere Sprachen übersetzen lassen.
Es wäre ausgeschlossen, logische oder mathematische Formalismen in allen Kul-
tursprachen als Notationssystem gleicherweise zu verwenden und in diesen Ge-
meinsprachen zu interpretieren. Man kann allenfalls „logisch“ reden oder „mathe-
matisch“ argumentieren. Aber dabei werden nur logische oder mathematische
Denkstrukturen in einer inhaltlichen Bildungssprache verwendet.
Es scheint den Logikern und auch den Mathematikern gänzlich entgangen zu
sein, daß die logischen Junktoren durchweg aus der Gemeinsprache übernommene
und somit selbst eine sprachliche Bedeutung mit sich führende logische Elemente
sind. Ihre logische Bezeichnung geschieht deshalb auch durch logisch-formale
Zeichen, die nur stenographische Kürzel für bestimmte Verbindungswörter der
Gemeinsprache sind, die man in der Regel auch sprachlich sogleich versteht. Was
„und“ („“), „oder“ („“), „wenn... dann“ („“) „ist“ („“), „ist gleich“ („“)
und „nicht“ („“ bzw. „ “) bedeuten, steht in jedem guten Wörterbuch jeder
Einzelsprache. Dasselbe gilt aber auch von den meisten mathematischen Junk-
toren, die man als Rechenzeichen kennt. Einige von ihnen haben dieselbe Be-
deutung wie bestimmte logische Junktoren. Insbesondere muß auch hier betont
werden, daß das mathematische Gleichheitszeichen mit der logischen Äquivalenz
identisch ist, keineswegs aber mit der Kopula (dem „ist“). Einige mathematische
Junktoren aber bilden spezifisch mathematische Begriffe und Ausdrücke, die kein
logisches oder sprachliches Pendant haben.
Es gehört also schon ein besonderer Sinn für Mystisches dazu, sich beim
formalen Gebrauch dieser Zeichen nicht an ihre gemeinsprachliche Bedeutung zu
erinnern oder sich gar eine andere als die gemeinsprachliche Bedeutung vorzu-
stellen. Der Umgang mit diesen Junktoren in der Logik und Mathematik besteht
gerade darin, ihre gemeinsprachliche Bedeutung in den Formalismus zu über-
tragen.
Irreführend ist daher die häufig anzutreffende Darstellung, die Bedeutung der
Junktoren nähere sich nur gelegentlich und gar zufällig der gemeinsprachlichen
Bedeutung mehr oder weniger an und sei dann geradezu deren logisch und mathe-
matisch exaktere Fassung. Sind aber diese für die Logik tragenden Elemente der
Junktoren schon selber Bestandteile der Gemeinsprache, so kann das Verhältnis
von Formalismus und Sprache keineswegs als dasjenige von zwei verschiedenen
Sprachen - einer formalen und einer inhaltlichen - angesehen werden.
Der Abendländer ist gewohnt, seine Sprache wesentlich als geregelte Lautarti-
kulation aufzufassen, wobei die Schrift als Wiedergabe der Lautungen dient, die
Bedeutungen aber unabhängig von der Lautung hinzugedacht werden müssen. Im
allgemeinen hat er keine Übung im Umgang mit ikonischen Schriften, die nicht
die Lautung, sondern unmittelbar die Bedeutungen von Wörtern in anschaulichen
Bildern oder Symbolen notiert, wie es etwa im Rebus oder auch im Chinesischen
54
der Fall ist (wobei freilich manche chinesischen Schriftzeichen zugleich auch
einen Aussprachelaut mitrepräsentieren, wie das ja auch bei den alphabetischen
logischen Zeichen der Fall ist).
Die üblichen logischen und mathematischen Formalismen sind nach dem
Vorbild abendländischer Lautschriften entwickelt worden. Das sieht man schon
äußerlich daran, daß sie wie Texte in Zeilen von links nach rechts, und die Zeilen
untereinander geschrieben werden. Daher gleichen formalisierte Argumentationen
noch immer sprachlichen Texten, gelegentlich auch Versen.
Der Vorteil dieser „Schrift“ liegt darin, daß sie in allen Sprachen und Lautungen
gelesen und verstanden werden kann. Und nur deshalb gibt es bei dieser formalen
Notation kein Übersetzungsproblem in andere Sprachen. Sicherlich ist sie des-
wegen von Leibniz als „characteristica universalis“ (universelles Zeichenreser-
voir) bezeichnet worden.
In der Mathematik haben seit der Antike geometrische Sachverhalte als Veran-
schaulichungsmittel arithmetischer Verhältnisse gedient, und sie dienen auch bis
heute nicht nur in der Didaktik diesem Zweck. In der Logik sind seit der Spät-
antike auch Strukturbilder (sog. Graphen oder Diagramme), vor allem Baum-
schemata (und diese umgedreht in der Neuzeit als Pyramidenschemata) für die
Darstellung von Begriffsverhältnissen, vor allem der Hierarchie von Gattung,
Arten und Unterarten verwendet worden. Durch Raimundus Lullus in der Scho-
lastik, G. W. Leibniz, J. C. Lange (1712), Leonard Euler (1768) im 18. Jahrhun-
dert und vor allem durch John Venn im 19. Jahrhundert sind dann Kreise als
Bilder von Begriffsumfängen eingeführt worden. 29 Dadurch ließen sich auch
Implikations- und Inklusionsverhältnisse sowie Teilidentitäten von Begriffen
durch Einschreiben von kleineren in größere Kreise oder durch Überschneidungen
von Kreisen bildlich darstellen. Und da diese Verhältnisse auch als Urteile und
Schlüsse gelesen werden können, wurden dadurch auch diese z. T. bildlich
repräsentiert.
Man hält solche graphischen Darstellungen gewöhnlich nur für Hilfsmittel,
unterschätzt sie damit aber sehr. Denn in der Tat handelt es sich dabei um ikoni-
sche Notationen, die wenigstens einige logische Sachverhalte unmittelbar sinn-
lich-anschaulich darstellen und andere sonst nötige Notationen entbehrlich
machen. Unser Vorschlag einer neuen „pyramidalen“ Notation für den logischen
Formalismus knüpft an diese Tradition an, indem er bisherige lautschriftliche und
ikonische Repräsentationen der logischen Verhältnisse vereinigt.
29
John Venn, On the Diagrammatic and Mechanical Representations of Propositions and Reasoning, in: The London,
Edinburgh and Dublin Philosophical Magazine 10, S. 1-18, London 1880. Vgl. dazu G. Wolters, Art. „Venn-Diagramme“
in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 4, Stuttgart-Weimar 1996, S. 496 – 498;
ders., Art. “Diagramme, logische“, ibid. Band 1, Mannheim-Wien-Zürich 1980, S. 462 – 463.
55
wie die Sätze aus Subjekts- und Prädikatsbegriffen zusammengesetzt sind (was in
der klassisch-logischen Notation etwa als „S ist P“ wenigstens noch zum Teil
gewährleistet war). Schon gar nicht wird dadurch die Verknüpfungsweise durch
spezielle Junktoren, einschließlich auch der Quantoren, sichtbar gemacht. Wird
das Satzsymbol („p“) durch ein vorgesetztes Negationszeichen spezifiziert („-p“,
d. h. „nicht p“), so wird dies gewöhnlich als Notation eines falschen Satzes
erklärt. Tatsächlich können negierte Sätze aber auch wahr sein, ebenso wie umge-
kehrt positive Sätze falsch sein können.
Vor allem läßt sich zeigen, daß im Urteil keineswegs immer „ganze“ Begriffe
als Prädikate mit dem Subjektsbegriff verbunden werden, sondern oft auch nur
reine Intensionen. Damit erübrigen sich auch viele Fragen nach der vermeint-
lichen begrifflichen und insbesondere ontologischen Natur der Prädikate, um die
sich seit dem Mittelalter der Universalienstreit vergeblich bemüht. Man sucht
seither nach dem ontologischen Ort z. B. des Begriffes „Röte“, während man bei
seiner prädikativen Verwendung im Urteil doch nur dem Begriff von Fläche oder
Ausdehnung eine pure Intension als Merkmal „rot“ zuspricht.
Ebenso wird im Formalismus der Schlüsse ohne weiteres sichtbar, warum sie
„gelten“ - und auch, daß einige klassische Syllogismen des Aristoteles keineswegs
„gültig“ sein können. Insbesondere kann gezeigt werden, daß die bei den aristote-
lischen Syllogismen vorkommenden partikulär und individuell quantifizierten
Sätze keineswegs Urteile mit einem für Urteile erforderlichen Behauptungssinn
sein können. Sie sind vielmehr Definitionen und müßten als Gleichungen bzw.
Äquivalenzen notiert werden.
4. Ist der Formalismus eine Spezialschrift eines Teils der spezialisierten Bildungs-
sprache, so ergibt sich von selbst, daß man mittels des Formalismus über den
Formalismus selbst reden und verhandeln kann, ebenso wie man in der Sprache
auch über die Sprache selbst reden und verhandeln kann. Und nicht weniger muß
dann gelten, daß man in der Bildungssprache über den Formalismus und mittels
des Formalismus über die Bildungssprache reden kann.
Dieses „Reden über ...“ wird in der Logik und Mathematik unter dem Titel
„Meta-Verhältnis“ thematisiert. Dabei wird vorausgesetzt, daß dasjenige, was im
Meta-Verhältnis zueinander stehen soll, gänzlich verschiedene Sprachen, nicht
aber Teile einer und derselben Bildungssprache seien.
Die kanonische Meinung ist die, mit der formalen (logischen oder mathema-
tischen) Metasprache ließe sich über die (inhaltliche) Gemeinsprache („Objekt-
sprache“) reden, über die formale Metasprache ihrerseits in einer dann „Meta-
meta-Sprache“ genannten weiteren formalen Sprache, usw. Als bislang ungelöstes
Problem gilt es dann, daß eine letzte Meta-meta...-Sprache wiederum die Gemein-
58
30
Vgl. S. C. Kleene, Introduction to Metamathematics, Amsterdam-Groningen 1952; L. Borkowski, Formale Logik.
Logische Systeme – Einführung in die Metalogik (aus dem Polnischen 1968), Berlin 1976, 2. Aufl. München 1977; H.
Rasiowa and R. Sikorski: The Mathematics of Metamathematics, 3. Aufl. Warschau 1970.
31
Vgl. A. Tarski, Der Wahrheitsbegriff in den formalisierten Sprachen, in: Studia Philosophica 1, 1935, S. 261 - 405. ND
in: Logik-Texte, hgg. v. K. Berka und L. Kreiser, Berlin 1971, S. 445 - 559, 4. Aufl.. 1986, S. 443 - 546; A. Tarski, Die
semantische Konzeption der Wahrheit und die Grundlagen der Semantik, 1944, in: Wahrheitstheorien, hgg. von G.
Skirbekk, Frankfurt a. M. 1977, S. 140 – 188.
59
gangssatzes keineswegs nachvollziehen kann, daß und warum das Zitat überhaupt
ein Satz sein soll. Und noch weniger kann er nachvollziehen, daß und warum das
Zitat des Zitats einen logischen Begriff bzw. den „logischen Namen“ eines
wahren Satzes (wie Tarski behauptet) darstellen soll. Er muß dies als pure „aus-
sagenlogische“ Konvention zur Kenntnis nehmen.
Wir halten diese logische und mathematische Konvention einer vorgeblichen
Sinn-Eliminierung durch Zitatzeichen und Klammern (neuerdings spricht man
hier von „Deflation“) für irreführend und überflüssig. Mit dem hermeneutischen
Commonsense sind wir der Meinung, daß Zitatzeichen und Klammern keineswegs
die Sinnhaltigkeit logischer Zeichen eliminieren oder neutralisieren, sondern ihren
eigenen Zeichensinn zum Sinn des Zitierten hinzufügen. Und genau dies macht
erst ihren Gebrauch in der Logik verständlich und gemäß vollziehbaren Regeln
beherrschbar. Eine kleine Überlegung zum Zitieren in der hermeneutischen Praxis
der Geisteswissenschaften kann dies zeigen.
Der eigene Sinn der Zitatzeichen in der Schriftsprache ist grundsätzlich der, das
Zitierte hervorzuheben und die Aufmerksamkeit darauf zu lenken (wir machen
davon im vorliegenden Text reichlich Gebrauch!). Das Zitierte erhält dadurch den
Doppelsinn einer inhaltlichen (semantischen) Bedeutung und einer formalen
(syntaktischen) Bedeutung. Es war ersichtlich diese Doppeldeutigkeit, die G.
Frege zu seiner Unterscheidung von Sinn und Bedeutung veranlaßte. Ein drittes
und weitere Zitatzeichen werden zwar beim mathematischen Einklammern ver-
wendet, das kommt aber in der sprachlichen Verwendung nur in Ausnahmefällen
vor. Man kann damit allenfalls signalisieren, daß etwa ein Autor ein Wort, einen
Ausdruck oder einen Satz verwendet hat, den dann ein anderer zitierter Autor von
dem ersten Autor übernahm. Konsequenterweise muß aber auch das zweite Zitat-
zeichen dem Doppelsinn noch einen weiteren Sinn hinzufügen. Und dies führt zu
einer Sinnverdoppelung im Formalismus selber, die nur entweder tautologisch
(„der Satz des Satzes“) oder widersprüchlich („der Satz ist zugleich kein Satz“)
werden kann. Diese Meta-Weiterungen der Logik sind ein Beispiel dafür, wie die
Logik sich auch durch die Metastufentheorie der Sprachen Probleme selber
schafft, die sie dann nicht lösen kann.
5. Um hier weiter zu kommen, ist zu zeigen, daß und wie der logische Forma-
lismus als Spezialschrift für einen Teil der Bildungssprache selber eine Semantik,
d. h. eine inhaltliche genuin logische Bedeutungssphäre besitzt. Wir sagten schon,
daß die Junktoren selbst gemeinsprachliche Bedeutungen festhalten. Ein „und“
oder „oder“ verknüpft – wie in jeder Gemeinsprache – zwei Gegebenheiten. Das
können Intensionen, Extensionen, Begriffe oder Urteile bzw. Aussagen sein.
So bei allen Junktoren mit Ausnahme der in der modernen Logik erfundenen
„Selbstimplikation“. Sie soll etwas Gegebenes mit sich selbst verknüpfen. Aber
derartiges kann in der Tat gar keine Verknüpfung sein. Denn ersichtlich wird
dadurch in widersprüchlicher Weise aus einer Einheit eine Zweiheit gemacht, die
gleichwohl eine Einheit bleiben soll. Vielleicht war Kant für diese Auffassung
60
32
I. Kant, Kritik der reinen Vernunft, A 80/B 106, in: I. Kant, Werke, hgg.von W. Weischedel, Band 2, Darrmstadt 1956,
S. 118.
33
J. G. Fichte, Grundlage der gesamten Wissenschaftslehre, 1794, hgg. von W. G. Jacobs, Hamburg 1970, S. 12 – 15.
61
34
Prototypisch dafür war die Darstellung seiner eigenen Philosophie durch Descartes unter dem Titel „Renati Des Cartes
Principiorum philosophiae pars I et II, more geometrico demonstratae, Amsterdam 1644 u. ö. B. Spinoza hat die Philo-
sophie des Descartes unter demselben Titel bearbeitet und in Amsterdam 1663 veröffentlicht. Auch sein postum veröf-
fentlichtes Hauptwerk „Ethica, ordine geometrico demonstrata“ (in seinen Opera posthuma), Amsterdam 1677 trug we-
sentlich zur Verbreitung bei. In Deutschland hat sich vor allem Chr. Wolff für den mos geometricus stark gemacht und ihn
als „methodus scientifica“ in seinen zahlreichen lateinischen Disziplinendarstellungen verbreitet. Vgl. dazu besonders
seinen „Discursus praeliminaris de Philosophia in genere / Einleitende Abhandlungen über Philosophie im Allgemeinen,
(1728), historisch-kritische Ausgabe, übers., eingel. und hgg. von G. Gawlik und L. Kreimendahl, Stuttgart-Bad Cannstatt
1996. Im Gegensatz zum modernen Axiomenverständnis legte Wolff größten Wert darauf, daß die axiomatischen Begriffe
klar und deutlich definiert sein müssen, um aus ihnen Folgesätze ableiten zu können.
62
Euklid thematisiert die Gleichheit nach der Behandlung der Definitionen und
Postulate.35 Es handelt sich bei seinen Ausführungen darüber offensichtlich um
Einsichten, die an den Eigenschaften der Waage gewonnen wurden, die hier als
Modell für den Umgang mit Gleichem und Ungleichem dient. Andernfalls wären
diese angeblichen „Axiome“ unverständlich. Hauptsache dabei ist die Vorstellung
vom Gleichgewicht, die man an jeder Waage mit zwei gleichen Hebelarmen (in
gerader Linie und parallel zum Horizont, bei Euklid „Ebene“ genannt) beobachten
kann.
Machen wir aber auch auf die Dialektik aufmerksam, die in die platonisch-
euklidische Mathematikbegründung eingebaut ist, und die sich auch am Waage-
modell erweist. Die hier herausgestellte Gleichheit der beiden Seiten beruht er-
sichtlich zugleich auf der Ungleichheit ihrer Ausrichtung, also auf ihrem Gegen-
satz, d. h. auf der Ungleichheit ihrer (vektoriellen) Ausrichtung. Diese Dialektik
macht sich später noch in Newtons Definition der Kräfte bemerkbar, wonach be-
kanntlich jede Kraft einer entgegengesetzten Kraft „gleich“ sein soll, obwohl sie
ihr in dieser Entgegensetzung gerade „ungleich“ ist.
Die Erfahrung lehrt, daß der Gleichgewichtszustand einer Waage sich auch
dadurch aufrecht erhalten läßt, daß man verschiedene Gewichte in jeweils ver-
schiedenen Abständen vom Aufhängepunkt der Waage anbringt. Jedes Wiegen
und Wägen besteht ja darin, daß man ausprobiert, welche Gewichte in welchen
Abständen vom Aufhängepunkt die Waage im Gleichgewicht halten. Dies ge-
schieht in kontinuierlichen Veränderungen der jeweiligen Gewichte und der Ab-
stände vom Aufhängepunkt der Waagebalken. Damit aber ergibt sich auch die
Modellvorstellung für das jenige, was man seither bei den Umwandlungen von
Gleichungen in einfachere oder komplexere Gestalten (sog. Kürzen oder Herüber-
nehmen von Ausdrücken der einen auf die andere Seite unter Auswechseln der
Rechenjunktoren) praktiziert.
Ein entscheidender Schritt in der Entwicklung der Mathematik war dann die
Ablösung der Arithmetik von jeder geometrischen Veranschaulichung in der soge-
nannten Algebra, und zwar unter Beibehaltung der Gleichung als Hauptmittel der
methodischen Artikulation. Was man als geometrische Gleichung jederzeit mit
Pythagoras demonstrieren kann, nämlich die Gleichung a² + b² = c² (Flächen-
Summe der Kathedenquadrate = Flächen-Summe des Hypothenusenquadrats am
rechtwinklichen Dreieck) läßt sich rein arithmetisch keineswegs für beliebige
Zahlen beweisen. Für a = 3, b = 4, c = 5 ist es auch eine arithmetische Gleichung.
Für a = 2, b = 3, c = 4 ist es keine Gleichung, obwohl es so erscheint. Damit er-
öffnet sich ein ungeheures Problemfeld für diese neue Disziplin, nämlich der
Nachweis, ob solche Formeln überhaupt Gleichungen sind oder nicht, und welche
Zahlenwerte sie „erfüllen“, damit sie Gleichungen bleiben. Irgendwelche Formeln
als Gleichungen zu notieren, ohne zu wissen, ob es tatsächlich Gleichungen sind,
erfüllt auch in der Mathematik den Tatbestand der Irreführung und Täuschung.
35
Euklid‟s Elemente. Fünfzehn Bücher aus dem Griechischen übersetzt von J. F. Lorenz, neu hgg. von C. Brandan Moll-
weide, 5. verb. Ausgabe Halle 1824, S. 4.
63
“Die Kopula ‚ist‟ wird bald die eine, bald die andere der beiden Beziehungen aus-
drücken, die wir mittels der Zeichen C und = dargestellt haben. ... Ausführlichst
wird dieses Zeichen als ‚untergeordnet oder gleich‟ zu lesen sein“.36
Peirce hat zwar richtig gesehen, daß die logische Kopula eine Unterordnung eines
Subjektbegriffs unter seine Gattung anzeigt, und daß das Gleichheitszeichen die
Bedeutungsidentität zweier Ausdrücke besagt. Aber diesen wesentlichen Unter-
schied in einem neuen Junktor unsichtbar werden zu lassen, hat in der mathe-
matischen Logik große Folgeschäden gehabt.
Der Mathematiker Hermann Weyl dokumentiert, daß die Kantische Auffassung
von der mathematischen Gleichung als behauptendes Urteil sakrosankt war – und
läßt dabei seine Fehleinschätzung der Logik erkennen:
36
Ch. S. Peirce, Vorlesungen I, zitiert nach J. M. Bochenski, Formale Logik , 3. Aufl. Freiburg i. Br. S. 357.
64
„(Beispiel für) ein wirkliches Urteil (ist) 17 + 1 = 1 + 17“.... „Ein Existentialsatz – etwa
‟es gibt eine gerade Zahl‟ - ist überhaupt kein Urteil im eigentlichen Sinne, das einen
Sachverhalt behauptet. Existential-Sachverhalte sind eine leere Erfindung der Logi-
ker“.37
37
H. Weyl, Über die neue Grundlagenkrise der Mathematik (1921), in: O. Becker, Grundlagen der Mathematik in ge-
schichtlicher Entwicklung, 2. Aufl. Freiburg-München 1964, S. 350.
65
7. Ist der Formalismus entsprechend gebaut, so wirkt er gleichsam wie ein struk-
turierter Filter. Er läßt nur Begriffe und begriffliche Ausdrücke, behauptende
Sätze und Satzketten als Schlüsse durch und zwingt ihnen seine Form auf. Alles
andere Sprach- und Vorstellungsmaterial aber läßt er nicht passieren. Das heißt
zugleich auch, daß nicht alles, was man sich vorstellen und selbst in grammatisch
korrekter Weise besprechen kann, logisch formalisiert werden kann.
Ein falsch verstandenes Logikkonzept verunklart den formalen Logikfilter da-
durch, daß er ihn der Grammatik einer Sprache annähert oder gar mit Teilen einer
Sprachgrammatik gleichsetzt. Die sprachliche Grammatik ist aber selbst ein Filter
der Sinnhaftigkeit von Laut- und Schriftgebilden. Werden in dieser Weise gram-
matische Elemente zu logischen Formen gemacht, so kommt es zu den diversen
Logiktypen etwa einer speziell temporalen, deontischen, Normen-, Wunsch- oder
66
8. In den üblichen Formalismen sind die bisherigen formalen Elemente wie Buch-
staben, Junktorenzeichen, Klammern und Zitatzeichen, auch mathematische Re-
chenzeichen, weit davon entfernt, das einzulösen, was man sich seit Leibniz unter
einer Kalkülisierung des logischen Prozedere verspricht. Die in der mathema-
tischen Logik vertretene Kalkülisierung bzw. Algebraisierung des Denkens insi-
nuiert zwar, man habe nach dem Vorbild des mechanischen Rechnens längst
einige zuverlässige „intellektuelle“ Denkmaschinen (sog. Turing-Maschinen) er-
funden. Aber es handelt sich trotz allem, was man darüber sagt, um pure
mathematische Metaphern, die dem logischen Denken nur sehr vage und allenfalls
so weit entsprechen, als auch in der Mathematik Logik enthalten ist. Ganz außer
acht bleibt dabei, daß die Mathematik selbst auf weite Strecken dialektisch ist.
Das wird über die quasi-mathematischen Formalismen der mathematischen Logik
naturgemäß in die klassische Logik zurückübertragen.
Der ursprüngliche römische Calculus war ein Kalksteinchen, bei den Griechen
Psephos genannt. Er diente zur sinnlichen Repräsentanz einer Recheneinheit. Man
konnte mehrere von ihnen gruppieren, einteilen und trennen und so die Grund-
rechenarten mechanisch praktizieren. Reste von diesen Verfahren finden sich
noch im Abacus und im japanischen Soroban.
Die Hauptsache bei einem solchen Rechenkalkül war und ist es, den Zahlen
oder Anzahlen von Gegenständen Rechensteine zuzuordnen, um dann unter ihnen
Gruppierungen gemäß den Rechenarten vorzunehmen. Von einem „logischen“
Kalkül sollte man erwarten, daß er den aus Reden oder Schriften entnommenen
Begriffen in gleicher Weise manipulierbare Dinge zuordnet.
Genau dies haben wir bei der Entwicklung der „Begriffspyramide“ im Auge
gehabt. Sie ordnet den Begriffen Positionen in einer Begriffspyramide zu. Die in
den Reden und Schriften verwendeten Junktoren, soweit sie Ausdrücke und
Urteile bestimmen, zeigen die sich ergebenden Relationen zwischen den Be-
griffspositionen an. Dadurch wird das hierarische Allgemeinheitsgefälle und die
Nebeneinanderstellung der vorkommenden Begriffe abgebildet.
Trägt man die so verstandenen Begriffe in die Pyramidenpositionen ein (oder
stellt sie sich in dieser pyramidalen Ordnung vor), so wird man leicht erkennen,
welche Begriffe dabei regulär sind, und welche – wenn sie nicht in die reguläre
Pyramidenstruktur passen – irregulär, also z. B. kontradiktorisch sind. Und vor
allem wird man dann bei einiger Übung und Routine sogleich noch weitere
junktorielle Verknüpfungen zwischen ihnen herstellen (oder sich vorstellen)
können, als in der Rede oder Schrift artikuliert werden.
Für das eigene logische Argumentieren wird man demnach seine eigenen
Gedanken schon von vornherein als pyramidal geordnete Begriffe explizieren.
Gelingt dies nicht in erhoffter Weise, so kann dies nur ein Anzeichen für unklares
67
Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Aber sprachliche Wörter bezeichnen regel-
mäßig nur die Intension(en) eines Begriffs, nicht aber die zugehörigen Exten-
sionen. Deswegen sind sprachliche Wörter nicht mit wissenschaftlichen Begriffen
zu verwechseln.
Traditionellerweise wurden die wissenschaftlichen Begriffe aus griechischen
und lateinischen Wörtern gebildet, aus deren Kenntnis man meist schon ihre
Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter (oder was man dafür hält) importiert. Daneben gibt es
freilich einen neueren Brauch, künstliche „Termini“ aus Anfangsbuchstaben von
Wörtern zu bilden (Akronyme), aus denen man die Bedeutung nicht mehr erraten
kann (z. B. DNS = „Desoxyribonukleinsäure“, KI-Forschung = „künstliche Intel-
ligenz“-Forschung, MOOC = massive open online course). Das ist man zwar aus
Firmenbezeichnungen gewöhnt, in der Wissenschaft aber führt es zu einer
Esoterisierung der Terminologie, die ein Verständnis „nichteingeweihter“ Laien
und nicht weniger auch von Wissenschaftlern anderer Disziplinen fast unmöglich
macht.
68
Seit Aristoteles weiß man auch, daß die Intensionen allgemeiner Begriffe voll-
ständig als sogenannte generische Merkmale in den Merkmalsbestand aller in
ihrem Umfang liegenden spezielleren Begriffe eingehen und bei deren Bedeu-
tungsverstehen mitgedacht werden müssen. Die niederen bzw „konkreteren“ Be-
griffe enthalten zusätzliche Merkmale („spezifische Differenzen“), die in ihnen
mit den generischen Merkmalen vereinigt werden (concresci = lat.: zusammen-
wachsen). Unterste Begriffe nennt man daher im Unterschied zu den abstrakten
oberen auch konkrete Begriffe. Meist sind sie Eigennamen oder quantifizierte
allgemeinere Begriffe. Letztere nennt man seit Bertrand Russell Kennzeich-
nungen.
Aus diesem Zusammenspiel der Intensionen und Extensionen der Begriffe
ergibt sich unter ihnen das, was man ihre Hierarchie oder das Allgemeinheits-
gefälle nennen kann. Dieses ist schon durch den einführenden Kommentar (Isa-
goge) des Porphyrios (um 232 – um 304 n. Chr.) zum aristotelischen Organon als
„porphyrianischer Baum“ beschrieben worden und hat in der scholastischen Logik
immer wieder auch zu graphischen Baumdarstellungen von Begriffshierarchien
geführt. Bei Porphyrios bilden die allgemeinsten Begriffe (Gattungen) den Stamm
und die Arten (Eidos) und Unterarten bis zu den Individuen die Äste und Blätter.
Moderne Fassungen solcher Begriffshierarchien stellen das Allgemeinheitsgefälle
in der Gestalt der Begriffspyramide dar, also gegenüber dem Baumschema gleich-
sam auf den Kopf gestellt, wovon auch in der hier vorgeschlagenen „pyramidalen
Logik“ ausgegangen wird.
Nun sollte man meinen, von einem Begriff könne in der Logik und mittels der
Logik in den Wissenschaften überhaupt nur die Rede sein, wenn seine inten-
sionalen und extensionalen Bestimmungen genau bekannt sind und offengelegt
werden. Ebenso sollte man meinen, daß Intensionen (Merkmale) und Extensionen
(Umfänge) für sich genommen nicht selber Begriffe sein können, da sie ja erst in
ihrer Vereinigung einen Begriff ausmachen. Um dies aber in der logischen Be-
griffslehre klar und deutlich festzuhalten, war die von Aristoteles eingeführte und
seither beibehaltene Formalisierung der Begriffe durch einfache Großbuchstaben
(die im Griechischen zugleich Zahlzeichen sind) nur unzulänglich geeignet. Sie
konnte die Intensionen und Extensionen der Begriffe nicht selbst formal darstellen
und verdeckte dadurch den internen Aufbau des Begriffs aus Intensionen und
Extensionen.
Als Kompensation dieses Nachteils der formalen Notation der Begriffe erfand
Aristoteles die nach ihm benannte Definitionsweise. Sie besteht darin, für einen
Begriff seine generischen Merkmale und die spezifische Differenz (zusätzliches
Merkmal) gesondert anzugeben.
Dies geschieht für einen beliebigen Begriff durch Angabe des nächsthöheren
Allgemeinbegriffs (genus proximum), dessen sämtliche Merkmale er (als „gene-
rische Merkmale“) aufnimmt und in dessen Umfang der zu definierende Begriff
liegt. Hinzu tritt das sogenannte spezifische Merkmal, das ihn einerseits von der
Gattung, andererseits auch von anderen unter dieselbe Gattung fallenden Art-
70
begriffen unterscheidet. Auf diese Weise wurde etwa das gemeinsprachliche Wort
„Tier“ als wissenschaftlicher Begriff definiert, indem man als nächsthöhere Gat-
tung „Lebewesen“ angab (das „Lebendigsein“ ist generisches Merkmal von
„Tier“), als spezifische Differenz seine es von den Pflanzen unterscheidende
Eigenschaften der Beweglichkeit und Sinnesausstattung.
Mit dieser aristotelischen und auch jetzt noch als logischer Standard geltenden
Definitionsweise können keineswegs alle Intensionen und Extensionen eines
Begriffs offengelegt werden. Um die Definition genau und vollständig zu machen,
müßten alle generischen Merkmale aller allgemeineren Begriffe, in deren Umfang
der zu definierende Begriff liegt, offenliegen (d. h. die ganze Hierarchie der
allgemeineren Begriffe, nicht nur das genus proximum, müßte bekannt sein).
Platon hat das schon in seiner „Definition“ des „Angelfischers“ (im Dialog So-
phistes) sehr klar vorgeführt. 38 Ebenso müßte aber auch die Extension des Be-
griffs durch Angabe aller untergeordneten Begriffe, die in seinen eigenen Umfang
fallen, deutlich werden. Das wiederum kann man im „Angelfischer“-Beispiel in
Platons Dialog Sophistes an den verschiedenen „Handwerkern“ (einschließlich
des Angelfischers) sehen, die unter den Begriff „Handwerker“ fallen und dort eine
ganze Hierarchie ausmachen.
Die Grenzen des aristotelischen Definitionsverfahrens wurden freilich schon in
der Antike entdeckt und diskutiert. Sie liegen in Richtung des Allgemeineren da-
rin, daß man beim Versuch, Begriffshierarchien aufzustellen, zu „obersten Gat-
tungen“ (Aristoteles‟ Kategorien, Euklids „axiomatische“ Grundbegriffe) gelangt,
die dann kein genus proximum mehr über sich haben. Nach unten aber gelangt
man so zu konkreten Ding- und Lagebezeichnungen („Eigennamen“) mit so
vielen Eigenschaften, daß man von ihnen dann unübersehbar viele Merkmale
nebst einer spezifischen Differenz angeben müßte. Dies hielt man gemäß dem
scholastischen Diktum: „individuum est ineffabile“ (das Individuelle läßt sich
nicht erschöpfend aussagen) für unmöglich.
Diese Begrenzungen – die in der Tat aber nur Schwächen der aristotelischen
Definitionsweise sind – haben dazu geführt, daß man „nach oben“ die Kategorien
und axiomatischen Grundbegriffe und „nach unten“ die Individuen weitgehend
aus der logischen Betrachtung ausnahm bzw. ihnen eine restringierte logische
Stellung einräumte.
Diese Beschränkungen der aristotelischen Standarddefinitionsweise sind bis
heute dogmatisch als allgemeine Grenze der Definierbarkeit von Begriffen fest-
gehalten worden. Seither sind die Logiker und Mathematiker gleicherweise der
Meinung, Grundbegriffe als höchste Gattungen (Kategorien, „Axiome“) könnten
überhaupt nicht definiert werden, und ebensowenig unterste konkrete Begriffe, die
allenfalls durch Eigennamen oder Russellsche Kennzeichnungen angedeutet
werden könnten.
38
Platon, Sophistes 219 a – 221 a, in: Platon, Sämtliche Werke nach der Übersetzung von F. Schleiermacher hgg. von W.
F. Otto u. a. (Rowohlts Klassiker der Literatur und der Wissenschaft, Griechische Philosophie Band 5) Hamburg 1958, S.
188 – 192.
71
Dies ist höchst erstaunlich angesichts der Tatsache, daß es neben der aristote-
lischen eine Menge anderer Definitionsweisen gibt, die geeignet sind, das hier
Vermißte zu leisten.
Bei höchsten Begriffen kann es nur darauf ankommen, von den spezifischen
Differenzen der nächst niederen Arten abzusehen und das ihnen gemeinsame
Merkmal festzuhalten und zu benennen, wofür freilich nicht immer ein geeignetes
„Wort“ zur Verfügung steht. Bei den sogenannten Individuen lassen sich die
generischen Merkmale, die es ja mit anderen Arten und Gattungen gemeinsam
hat, durch diese oberen Begriffe angeben, und die Spezifität als spezifische
Differenz immer auf ein einziges Merkmal reduzieren (und sei es die nur einmal
vergebene Buchstaben-Nummernkombination eines individuellen Automobils
oder eines Personalausweises). Deshalb kann und muß eine effektive Begriffs-
logik auch die höchsten und untersten begrifflichen Positionen in Begriffs-
hierarchien hinsichtlich ihrer intensionalen und extensionalen Komponenten ge-
nau konstruieren und definieren. Dadurch wird eine empfindliche Lücke in der
Begriffslogik und in der Theorie der Axiome geschlossen.
Die aristotelische Standarddefinition geht von den Intensionen (Merkmalen)
eines Begriffs aus, die dann als generische Leitfäden zugleich auch die Begriffs-
umfänge festlegen. Daran anschließend hat man später gemeint, es ließe sich auch
eine rein „intensionale Logik“ unter Absehung von den Begriffsextensionen ent-
wickeln. Da aber „Begriffe ohne Umfang“ grundsätzlich keine Begriffe sein kön-
nen, laufen diese Versuche auf reine „Bedeutungslehren“ (Semantiken) von Wör-
tern hinaus, wie sie in der philologischen Lexikographie zum Thema werden.
Von daher lag es aber nahe, als Gegenstück auch so etwas wie eine rein „exten-
sionale Logik“ zu entwickeln. Es waren die Mathematiker, die sie als „Klassen-
logik“ und mathematische Mengenlehre entwickelten. Sie wurde zum Kern der
modernen mathematischen Begriffslehre.
Auch dazu ist kritisch anzumerken, daß „Begriffe ohne Intensionen“ grund-
sätzlich keine Begriffe sein können, so daß eine strikt durchgehaltene extensionale
Logik keine Logik sein kann, sondern allenfalls zu Klassifikationen dienen kann.
Dies hat sich spätestens auch in der Logik von William Van Orman Quine,
einem der renommiertesten mathematischen Logiker in den USA, gezeigt. In
seiner Logikkonzeption des von ihm sogenannten Extensionalismus haben die
(rein extensional definierten) „Begriffe“ keinen bestimmbaren Inhalt, sie „referie-
ren nicht“ auf Bedeutungen. Daher können sie auch nicht in andere „Sprachen“ (d.
h. hier andere logisch konstruierte Theorien) „übersetzt“ werden. Die mit ihnen
gebildeten Sätze (propositions) konstruieren und gliedern immer nur einen ganzen
„holistischen“ Theorieraum, der ausschließlich durch den Anwendungsbereich
(Umfang) eines solchen „Begriffes“ bestimmt sein soll.
In der Tat werden jedoch in der mathematischen Klassen- und Mengenlogik die
Extensionen zugleich (aber meist nicht explizit) auch als Intensionen der Klassen-
und Mengenbegriffe behandelt. Das macht sie manchmal doppeldeutig und zu
dem, was wir als contradictiones in adiecto vorgeführt haben. Sie sind dann ganz
72
wesentlich für die sich hier ergebenden Widersprüche und Paradoxien verant-
wortlich. Dies zeigt sich aber erst, wenn man die klassische Begriffslogik und
unsere Analyse des Aufbaus der nichtregulären (dialektischen) Begriffe als Maß-
stab anlegt. Dann zeigt sich auch genauer der Unterschied, der zwischen klas-
sisch-logischer und mathematisch-logischer Begriffslehre besteht und damit auch
die logische von der mathematischen Denkweise trennt.
Dieser Unterschied besteht unserer Einschätzung nach wesentlich in der Stel-
lung, die die Dialektik in den Begriffslehren der klassischen und der mathe-
matischen Logik einnimmt. Und dies hat wieder beträchtliche Unterschiede
zwischen der logischen und mathematischen Auffassung von der Definition und
ihrer Formalisierung zur Folge.
In der klassischen Logik galt und gilt die Dialektik als eine „Logik des Wider-
spruchs“, die man traditionellerweise zu vermeiden und zu bekämpfen suchte, die
aber auch immer ihre Anhänger und Vertreter hatte. In der mathematischen Logik
aber gilt das Denken in Widersprüchen und mit Hilfe widersprüchlicher Begriffe
geradezu als unmöglich. Schon die Bezeichnung „Dialektik“ ist hier verpönt.
Wenn Widersprüche auftauchen und in der Forschung herausgearbeitet werden –
wie die zahlreichen mathematischen Paradoxien es zeigen – gelten sie als Grund-
lagenprobleme der Disziplin. Und von daher hält sich unbeirrt die Meinung der
Mathematiker und mathematischen Logiker, die reine Mathematik und mathe-
matische Logik könne und müsse widerspruchslos auf- und ausgebaut werden. So
definiert ein älteres Lexikon die „Mathematik“ folgendermaßen:
„Die reine Mathematik hat das Eigentümliche, daß sie aus gewissen einfachen Begriffen und
Voraussetzuungen ihre Ergebnisse durch rein logische Schlüsse ableitet, deren Rich-
tigkeit jedes Wesen, das mit menschlicher Vernunft begabt ist, zugeben muß. Er-
forderlich ist dabei nur, daß jene Begriffe und Voraussetzungen so gewählt sind, daß
man niemals auf einen Widerspruch stößt, denn ein solcher würde sofort das ganze
Gebäude umstoßen. Deshalb entnimmt die Mathematik ihre ersten Begriffe und
Voraussetzungen der Anschauung. So entnimmt die Analysis den Begriff der ganzen
Zahl und die Erzeugung der ganzen Zahlen aus der Einheit der inneren Anschauung
und entwickelt daraus alles Weitere; die Geometrie entnimmt die Begriffe der gera-
den Linie etc. der äußeren Anschauung. In beiden Fällen aber werden von den
Merkmalen der Begriffe, die man in der Anschauung vorfindet, nur gerade so viele
beibehalten, als erforderlich sind, um daraus Schlüsse ziehen zu können. Wenn nun
jemand jene ersten Begriffe und Voraussetzungen zugibt, was bei zweckmäßiger
Auswahl jeder wird tun müssen, so kann er nicht umhin, auch alles, was daraus
gefolgert wird, als richtig anzuerkennen. In diesem Sinne haben die mathematischen
Sätze eine solche Sicherheit, daß man sprichwörtlich von mathematischer Gewißheit,
Strenge und Wahrheit spricht, und eine Beweisführung mathematisch nennt, um sie
als völlig einwandfrei zu bezeichnen. In diesem Sinne nennt man auch die Mathe-
matik vorzugsweise eine exakte Wissenschaft“.39
Dieser „hohe Ton“ ist zwar heute aus den Lexika verschwunden. Sicher aber nicht
die darin zum Ausdruck kommende Überzeugung von „Gewißheit, Strenge,
39
Art. „Mathematik“ in: Meyers Großes Konversationslexikon, Band 13, 6. Aufl. Leipzig-Wien 1908, S. 432.
73
Exaktheit und Wahrheit“ aus den Köpfen der Laien und der meisten Mathema-
tiker.
Der zitierte Artikel ist, wie man leicht erkennt, im Kantischen Sinne formuliert,
wo bekanntlich Geometrie und Arithmetik auf die „Anschauungsformen“ (Raum
und Zeit) begründet werden. Jetzt ist man mehrheitlich wieder auf die platonische
„Anschauung mit einem geistigen Auge“ zurückgekehrt (was ersichtlich ein
dialektisches Oxymoron ist). Und dies nicht zuletzt, um den zahlreichen Perple-
xitäten der sinnlichen Anschauung zu entgehen, an denen schon die antike Mathe-
matik sich abgearbeitet hatte. Aber auch von der sinnlichen Anschauung gilt die
Kant-Horazische Maxime: Naturam expellas furca, tamen usque recurret. Soll
heißen, auch die moderne Mathematik kommt nicht ohne Anschaung aus.
Was man jetzt „reines Denken“ oder „unanschauliche Vorstellung“ nennt, be-
darf, um überhaupt einen Gehalt zu haben, anschaulicher Elemente. Soll das
„reine Denken“ einen Gehalt besitzen, so kann er nur in dem bestehen, was die
Sinne dem Gedächtnis und der Phantasie übermittelt haben. Ohne solchen Gehalt
bleibt keineswegs reines Denken übrig, sondern pures Nicht-Denken. Daher sind
Gedächtnis und Phantasie auch diejenigen sogenannten Vermögen, die in der
Mathematik am meisten benötigt und kultiviert werden.
Phantasie unterscheidet sich von der direkten „Anschaung“ (und zwar aller
einzelnen Sinne) dadurch, daß sie auch dasjenige noch zu irgend einer einheit-
lichen Vorstellung bringt, was nicht zugleich und im gleichen Erfahrungskontext
anschaulich gemacht werden kann. Gerade diese kreative Vorstellungsbildung ist
aber das Wesen aller sogenannten Dialektik geworden. Davon haben die Künste
gezehrt, die den „Pegasus“ (der nur als Pferd oder Vogel anschaubar ist) als
„geflügeltes Pferd“ kreierten. Ebenso aber auch die griechischen Mathematiker,
als sie „Punkt und Linie“ sowie „Eines und Vieles“ in Begriffe faßten.
Das Verfahren dieses kreativen dialektischen Denkens war den antiken Philoso-
phen geläufig. Das zeigen die Formulierungen des Parmenidesschülers Zenon
vom „fliegenden Pfeil, der ruht“, und des Heraklit vom „Logos“, der das „Wider-
sprechende vereinigt“. Derartige Denkbemühungen wurden bei den Logikern im
alten Megara und bei den Sophisten zu einem Denksport geselliger Unterhaltung.
Platon hat in seiner Ideenlehre vielfach davon Gebrauch gemacht und die
Dialektik jedenfalls nicht verachtet. Aristoteles aber wollte sie aus seiner Logik,
die wesentlich auf der sinnlichen Anschauung beruht, ausscheiden oder vermei-
den. Aber auch ihm gelang es nur teilweise, denn er hat sie in seine sogenannte
Modallogik integriert und dadurch an die Nachwelt weitergegeben.
Es dürfte nun gerade die im obigen Zitat beschriebene Einstellung und Grund-
haltung gewesen sein, die sowohl die Laienwelt als auch die Mathematiker selbst
blind gemacht hat für die offensichtliche Tatsache, daß Mathematik und die an sie
anknüpfende mathematische Logik in weiten Teilen eine ausgebaute Dialektik
widersprüchlicher Grundprinzipien und Grundbegriffe ist. Zeigen wir es an eini-
gen Beispielen.
74
Das mathematische Hauptbeispiel für inhaltliche Begriffe waren und sind die
Zahlen. In den Zahlen sah und sieht man in der neuzeitlichen Mathematik auto-
nome ontologische Gebilde, die entdeckt, erforscht, erkannt und auf Begriffe
gebracht werden müssen. Den Zahlen als mathematischen Begriffen mußten dem-
nach autonome mathematische Bedeutungen bzw. Intensionen zukommen, ebenso
Extensionen, die sich wiederum auf (andere) Zahlen erstrecken mußten. Deren
dialektische Definitionen haben wir an anderer Stelle (vgl. Elementa logico-
mathematica, Internet der Phil. Fak. der HHU Düsseldorf, 2006)40 dargestellt.
Danach ist der allgemeine Zahlbegriff eine widersprüchliche Verschmelzung der
logischen Quantoren „ein“ und „alle“ D. h. er ist zugleich elementare Einheit bzw.
genauer: Einzelheit, wie auch Gesamtheit bzw. Totalität. Logisch ist er als „All-
Einheit“ oder „Ein-Allheit“ zu definieren. Und demgemäß ist auch jede weiter zu
definierende Zahlart im Umfang des allgemeinen Zahlbegriffs ein Gebilde, das
mittels des generischen Merkmals des allgemeinen Zahlbegriffs zugleich eine
Zahleinheit und ein Gesamt von (anderen) Zahlen darstellt. So ist die Eins („ 1 “)
eine „elementare“ Einheit der natürlichen Zahlen, zugleich aber auch das Gesamt
aller ihrer echten Bruchzahlen geworden. Und jede andere natürliche Zahl ist
zugleich eine „Zahleinheit“ als Gesamt (z. B. Summe, Produkt usw.) von Ein-
heiten der natürlichen Zahlen.
Aber daß die Zahlen als solche in dieser Weise dialektisch zu definieren wären,
hat man stets „vermieden“, und wo es nicht vermieden werden konnte, durch
Dissimulationen unsichtbar gemacht. Das gelang in der Neuzeit durch die syste-
matische Trennung von Geometrie und Arithmetik.
Die alte Auffassung bis auf die Zeit von Descartes bezog die Zahlen als bloße
Quantifikationen auf geometrische Gegenstände. Diese galten als vorgegebene
„Bedeutungen“ (Intensionen), denen durch die zahlenmäßigen Quantifikationen
„Umfänge“ (extensionen) zugesprochen wurden. In dem quantifizierten Ausdruck
„3 Meter“ steht „Meter“ für die Intension der (konventionellen) Maßeinheit einer
geraden Linie; „3“ ordnet der Intension als Umfang „drei hinter einander gelegte
Einheitslängen“ zu. Das „in einer geraden Linie Hintereinanderlegen“ wird frei-
lich nicht ausgedrückt. Es muß mitverstanden werden.
Bei Euklid wurden z. B. die später sogenannten natürlichen Zahlen als Punkte
oder auch als Erstreckungseinheiten von geometrischen Linien dargestellt. Darü-
ber hinaus sprach Euklid von Flächenzahlen (zweite Potenzen) und Körperzahlen
(dritte Potenzen). Von daher stammt die Meinung, es ließe sich überhaupt eine
rein „extensionale Logik“ der Quantifikationen aufbauen. Das hieß jedenfalls, daß
die geometrischen Gebilde neben anderen Gebilden, etwa Viehherden, wirtschaft-
lichen Gütern, Münzbeständen usw. ein Anwendungsbereich arithmetischer Quan-
tifikationen war.
40
Zuletzt in: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concept: The Logical and Mathematical Ele-
ments. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013,
S. 20 – 26 und S. 94f. – Vgl. dazu auch § 9 der vorliegenden Schrift.
75
teristik genügt bei weitem nicht, sich einen (logischen) Begriff von diesen mathe-
matischen Begriffen zu machen.
Sollen sie überhaupt Begriffe sein, so muß das Metrisch-Quantitative auch auf
Intensionen bezogen werden. Das geschieht allerdings durch die stillschweigende
Voraussetzung bzw. die Gewohnheit, daß die Intensionen mathematischer Be-
griffe immer noch wie bei Euklid geometrische Sachverhalte bedeuten, nämlich
(unausgedehnte) Punkte, Ausdehnungen, Strecken, Abstände. Ohne diese traditio-
nellen Veranschaulichungen, die heute „Modelle“ oder „Graphen“ genannt wer-
den, lassen sich die mathematischen Begriffe gar nicht denken. Das aber hat zur
Folge, daß die Anwendung der mathematischen Begriffe auf Wirklichkeitsberei-
che zunächst eine Geometrisierung der Objekte verlangt. Zeigen wir auch dies an
einigen Beipielen.
Der „quadriviale“ Hauptanwendungsbereich der Mathematik war und ist die
Physik geblieben. Alles, was in der Physik mit mathematischen Begriffen erfaßt
wird, enthält daher das geometrische Ausdehnungsmoment (Strecke) als generi-
sches Merkmal. Und mit ihm zugleich auch die Voraussetzung, daß diese Ausdeh-
nung aus (geometrischen) Punktreihen bestünden. Wie man weiß, ist aber das
Verhältnis der vorausgesetzten Diskontinuität von Punkten und des Linienkon-
tinuums bis heute ein vieldiskutiertes geometrisches Problem, dem selber eine
Dialektik zugrunde liegt.
Diese Dialektik von Punkt und Linie bzw. Unausgedehntheit und Ausdehnung
überträgt sich also von vornherein in die physikalischen Grundbegriffe. Redet
man vom physikalischen Zeitbegriff, so muß er zunächst als Ausgedehntes, näm-
lich als Zeitstrecke, aber zugleich auch als Punktreihe von „Zeitpunkten“ ver-
standen werden. Ebenso beim physikalischen Raumbegriff, der ein Komplex
seiner Erstreckungsdimensionen in Punktreihen ist (gemäß der cartesianischen
analytischen Geometrie). Die physikalische Masse wird ebenso als „Punktmasse“
(man spricht dann von „Idealisierung“) verstanden, die sich immer schon an be-
stimmten Raum- und Zeitpunkten befinden soll, während sie tatsächlich doch
immer räumlich ausgedehnt ist. Das ist von Descartes geradezu zum Wesensmerk-
mal („extensio“) der physikalischen „Substanzen“ erklärt worden.
Entsprechend der logischen Bildung abgeleiteter (deduzierter) Begriffe verste-
hen sich dann alle weiteren physikalischen Begriffe als aus diesen Grundbegriffen
zusammengesetzt. Aber ihre Zusammensetzung ist nicht eine von generischen und
spezifischen Merkmalen. Vielmehr werden diese Komplexierungen der abgelei-
teten physikalischen Begriffe gemäß den Rechenarten gebildet.
Es sind vor allem die Rechenarten der Summierung, der Subtraktion (zur Defi-
nition negativer Begriffe), der Multiplikation, der Potenzbildung und der Division,
in der Neuzeit dann die Differential- und Integralbildung, später noch die Loga-
rithmenbildung, die die mathematischen Hauptmittel als mathematische Junktoren
bzw. Operatoren dazu hergeben. Und je nach ihrer Anwendung zur Bildung der
entsprechenden Begriffe könnte man sie Tupel-Begriffe (Paare, Drillinge usw.),
negative Begriffe, Produktbegriffe, Potenzbegriffe, Quotientenbegriffe, Differen-
78
Nun geht der Physiker davon aus, daß ein auf einer Strecke in bestimmter Zeit
bewegter Körper auch auf jedem Punkt der Strecke und zu jedem Zeitpunkt diese
Geschwindigkeit besitzen muß. Um gerade dies auch zu beweisen, haben Leibniz
und Newton mit ihrer Erfindung der Fluxions- und Differentialbegriffe in dialek-
tischer Weise den Punkt zur Strecke gemacht. Sie definierten den euklidischen
„ausdehnungslosen Punkt“ zu einem „unter jede zahlenmäßige Bestimmbarkeit
hinabreichende („infinitesimale“ = „gegen Null verschwindende“) Erstreckung“
um. Und dies zweifellos nicht ohne den verschwiegenen Einfluß von Berkeleys
sensualistischer Geometrie, in welcher der geometrische Punkt als ein „minimum
sensible“, also als etwas minimal Ausgedehntes definiert war.
Diese dialektische Definition verbirgt sich noch bis heute hinter manchen
Mystifizierungen in der Lehre von den Differentialen. Denn wohl kein Mathema-
tiker wäre geneigt zuzugeben, daß der Widerspruch in die Erfindung und Defi-
nition dieser neuen arithmetischen „Größen“ („unterhalb jeder zahlenmäßigen Be-
stimmbarkeit“) gleichsam eingebaut ist.
Der Leibnizsche Differentialquotient „d s / d t“ hält ersichtlich die Geschwin-
digkeitsdefinition als Proportion einer räumlichen und einer zeitlichen Er-
streckung bei. Aber die durch das Zeichen „d“ („differential“) quantifizierten
Strecken sollen gemäß Definition als „infinitesimale“ (gegen Null verschwin-
dende) Größenbezeichnung zugleich auch keine quantifizierbaren Strecken
(„Größen“) sein. Was nur heißen kann, daß die als Differentialgeschwindigkeit
definierte Punktgeschwindigkeit sowohl eine meßbare Größe als auch keine
(quantifizierbare) meßbare Größe ist. Und so ist das Differential von Leibniz als
neuer widersprüchlicher Zahlbegriff in die Arithmetik eingeführt worden. Logisch
läßt er sich nur als widersprüchlicher Begriff definieren, nämlich als „bestimmt-
unbestimmte Zahlengröße“. Was hier von Leibnizens Begriff des Differentials
gesagt wurde, gilt mutatis mutandis auch vom Fluenten-Begriff Isaak Newtons.
Die Definition der Punktgeschwindigkeit durch den Differentialquotienten be-
herrschte die klassische Mechanik. Als man jedoch um die Wende zum 20. Jahr-
hundert mit verfeinerten Beobachtungs- und Meßinstrumenten in die Ausdeh-
nungsbereiche der (damaligen) Elementarteilchen vordrang, glaubte man, die (in-
finitesimalen) Punktgeschwindigkeiten von Elementarteilchen ließen sich mit den
neuen Meßmethoden direkt und exakt bestimmen.
Wäre es dabei logisch zugegangen, so hätte sich das von vornherein als
vergebliche Mühe einschätzen lassen. Die Punktgeschwindigkeiten der Elemen-
tarteilchen konnten auch in den Bereichen der Mikrophysik nichts anderes sein als
Proportionen von Raum- und Zeitstrecken.41
Aber die mathematische Denkart verlangte in diesen Mikrodimensionen nach
der messenden Feststellung einer „idealen“ Punktgeschwindigkeit. Bei dieser
mußte, wie man voraussetzte, der „genaue Ort und der genaue Zeitpunkt eines
41
Vgl. dazu L. Geldetzer, Über den Begriff des Zeitpunktes bei Meßbestimmungen kanonisch-konjugierter Größen in der
Physik und über das Problem der Prognostik in der Mikrophysik. In: Geschichte und Zukunft, Festschrift für Anton Hain,
hgg. v. Alwin Diemer, Meisenheim (Hain) 1967, S. 142 - 149.
80
Teilchens auf seiner Bahn“ ermittelt werden. So sehr man aber in den darauf
gerichteten Experimenten die Meßskalen verfeinerte, stellte sich durchweg eine
Grenze der Geschwindigkeitsmessungen „auf dem Punkte“ heraus.
Anstatt diese Grenze auf den als Streckenproportion bzw. als Quotienten defi-
nierten Geschwindigkeitsbegriff selber zurückzuführen, brachte Werner Heisen-
berg sie in seiner Formel von der grundsätzlichen „Unbestimmtheit“ der „gleich-
zeitigen“ Erfassung von Raumstelle und Zeitpunkt der Elementarteilchen mit dem
Planckschen Wirkungsquantum h in Verbindung. Was bedeuten sollte, daß es
zwar Punktgeschwindigkeiten der Elementarteilchen geben müsse, daß aber der
messende (und somit wirkungsübertragende) Eingriff in die Bewegung der Teil-
chen deren genaue Bestimmung in der Größenordnung des Wirkungsquantums
verhindere.
Heisenberg erhielt dafür bekanntlich den Nobelpreis. Und das konnte nur be-
deuten, daß alle Mikrophysiker diese Theorie als wahr und grundlegend aner-
kannten. Heisenbergs Theorie von der prinzipiellen „gleichzeitigen“ Unbestimmt-
heit von Ort und Zeitpunkt (und anderer in Proportionen bzw. Quotientenbegriffen
„konjugierten Größen“) der Mikrophysik begründet seither das moderne physika-
lische Weltbild mit seiner Unterscheidung von Makro- und Mikrophysik und den
diesen Bereichen jeweils zugeschriebenen kausalen und indeterministischen
(akausalen) Strukturen. Auch die Bezeichnung „Quantenphysik“ verdankt sich der
Theorie von der punktuellen Unbestimmtheit in der Größenordnung des Planck-
schen Wirkungsquantums. Die Natur offenbart sich, so meint man seither, in ihren
Mikrophänomenen nur „gequantelt“. Unsere Überlegungen dürften aber schon
gezeigt haben, daß sich auch die Makrophänomene nur in „gequantelten“ Ge-
schwindigkeits-Proportionen bzw. Quotienten definieren und messen lassen.
Betrachten wir aber noch weitere dialektische Einschüsse in der physikalischen
Behandlung der Geschwindigkeit.
Ändert sich die Geschwindigkeit eines bewegten Körpers, so versteht man lo-
gisch ganz richtig, daß sie zu- oder abnimmt, und man nennt es gemeinsprachlich
Beschleunigung oder Verlangsamung. Kommt eine Bewegung eines Gegenstan-
des aber zum Stillstand, so wird man logisch überhaupt nicht mehr von Bewegung
und Geschwindigkeit reden.
In der Physik ist das anders. Hier wird jede Veränderung einer Geschwindigkeit
(also auch eine Verlangsamung), ja sogar die Richtungsänderung einer Bewegung,
als „Beschleunigung“ definiert. Da wundert sich der laienhafte Autofahrer, der
mit einer Geschwindigkeit von 80 Kilometer pro Stunde in der Kurve fährt, daß er
dabei seine (logische) Geschwindigkeit beibehält und zugleich (physikalisch) be-
schleunigt.
Logisch sollte man vermuten, daß eine Geschwindigkeit v, die als beschleunigte
gleichmäßig zunimmt, allenfalls als Summe der Ausgangsgeschwindigkeiten und
der hinzugekommenen (erhöhten) Geschwindigkeiten bezüglich der zurückge-
legten Strecken definiert werden müßte. Und das wird in der Praxis durch Inte-
gralbildung über die differentiellen Geschwindigkeiten der zurückgelegten
81
Strecke so berechnet. Definiert aber wird die Beschleunigung als eine weitere
Proportion der Geschwindigkeit im Verhältnis zur Zeit, also v / t = (s / t) / t.
Logisch sollte man wiederum meinen, daß eine Geschwindigkeit, die selber nur
das Verhältnis einer zurückgelegten Raumstrecke zu einer Zeitstrecke sein kann,
nicht nochmals in ein Verhältnis zu derselben Zeitstrecke gestellt werden könnte.
Der mathematisch denkende Physiker aber produziert aus den beiden Zeitstrecken
(die eine und dieselbe, aber zugleich auch zwei verschiedene sein müssen) ein
Zeitquadrat „ t² “ und definiert die Beschleunigung als „s / t² “.
Da nun aber die einfache gleichmäßige Geschwindigkeit als Proportion s / t
definiert ist, muß sich der mathematische Physiker die Beschleunigung nunmehr
als eine Proportion einer räumlichen Strecke und einer zeitlichen Fläche vorstel-
len. Was aber eine zeitliche Fläche oder auch ein mit sich selbst multiplizierter
Zeitbegriff „ t² “ bedeuten könnte, das wird er sich kaum vorstellen können (es sei
denn, er nehme seine Zuflucht zu M. Heideggers Spekulationen über die „Zeit-
lichkeit der Zeit“). Er beachtet nur die extensionalen Quantifikationen seines Be-
griffs. Mit anderen Worten: Er hält sich daran, daß jede Einsetzung von Zahlen an
die Stellen seiner Strecken- und Zeitparameter eine durch Division errechenbare
Zahl (den Quotienten) ergibt, die ihm die Größe der jeweiligen Beschleunigung
anzeigt. Und er beschwichtigt sein unzulängliches Vorstellungsvermögen mit der
Meinung, es handele sich ja bei den Begriffszeichen um bloße Meßanweisungen
(„Dimensionen“) der jeweiligen Begriffskomponenten.
Doch auch damit sind die dialektischen Einschüsse bei den physikalischen Ge-
schwindigkeitsvorstellungen nicht erschöpft. Sie setzen sich in den Grundlagen
der sogenannten Relativitätstheorie kosmischer Geschwindigkeiten fort.
A. Einsteins „revolutionärer Sturz der klassischen Newtonschen Mechanik“
durch seine Relativitätstheorie beruhte grundsätzlich darauf, daß er die Licht-
geschwindkeit c als Naturkonstante postulierte. 42 Einstein trug damit den nega-
tiven Resultaten der Michelson-Morley-Experimente Rechnung, die darauf aus-
gerichtet waren, den Einfluß der Eigengeschwindigkeit von Lichtquellen auf die
Geschwindigkeit der ausgestrahlen Licht-Quanten (oder Lichtwellen) festzu-
stellen.
Logischerweise hätte man erwarten können, daß sich die Geschwindigkeiten der
jeweiligen Lichtquelle und des ausgestrahlten Lichtes addieren oder subtrahieren
ließen, wenn sie sich auf einer und derselben Strecke bewegen. So, wie bekannt-
lich eine aus einem fliegenden Jet in Flugrichtung abgeschossene Rakete um den
Betrag der Jet-Geschwindigkeit schneller fliegt, als sie es von einem stehenden
Abschußgerät aus tun würde. Aber dies freilich unter der Voraussetzung, daß sich
die sogenannten Lichtquanten wie nacheinander abgeschossene Raketen von der
Lichtquelle entfernen. Paradigmatische Phänomene hatten sich vorher schon beim
akustischen „Doppler-Effekt“ gezeigt: Das Motorengeräusch eines sich entfernen-
den Fahrzeugs klingt dumpfer oder tiefer, eines sich nähernden „höher“ als zum
42
Vgl. dazu H. A. Lorentz, A. Einstein, H. Minkowski, Das Relativitätsprinzip. Eine Sammlung von Abhandlungen mit
einem Beitrag von H. Weyl und Anmerkungen von O. Sommerfeld. Vorwort von A. Blumenthal, 6. Aufl. Darmstadt 1958.
82
Zeitpunkt des Passierens. Und das wird erklärt als Verlängerung bzw. Verkürzung
der Schallwellen, die beim Hörer eintreffen.
Einstein postulierte nun zur Erklärung der negativen Befunde Michelsons und
Morleys, daß sich das Licht ganz unabhängig von der Eigengeschwindigkeit der
Lichtquelle immer mit gleicher Geschwindigkeit nach allen Richtungen hin
ausbreite. Die Lichtausbreitung zeige also, anders als die Schallausbreitung, kei-
nen Doppler-Effekt. Das war die Einsteinsche Idee von der absoluten „Konstanz
der Lichtgeschwindigkeit nach allen Richtungen und unabhängig von der Eigen-
bewegung der Lichtquelle“. Ersichtlich war dies eine „paradoxe“ und mithin als
Widerspruch in sich hinzunehmende Idee. Sie wurde von den meisten Physikern
auch so verstanden. Was allerdings zeigt, daß sich in der Physik das dialektische
Denken wenigstens in dieser Frage durchzusetzen begann.
Es wurden seither zahlreiche weitere Dialektiken bzw. Widersprüche in der
Relativitätstheorie entdeckt. Sie machen sich etwa als „Uhrenparadox“ bei der
Abstimmung gegeneinander mit annähernder Lichtgeschwindigkeit bewegter
Uhren bemerkbar (was freilich nur im Gedankenexperiment demonstriert wird).
Die Relativitätstheorie verbietet auch, die Ablenkung von Lichtstrahlen („Perihel-
verschiebung“) im Gravitationsfeld kosmischer Massen als „Beschleunigung der
Lichtgeschwindigkeit“ zu deuten. Einstein begründete das damit, daß der kosmi-
sche Raum insgesamt in Abhängigkeit von der Verteilung der Sternmassen in ihm
„gekrümmt“ sei, so daß die krummen Linien dieser sogenannten (nicht-euklidi-
schen) Minkowski-Räume eben als „gerade Linien“ des relativistischen kosmi-
schen Raumes anzusehen seien.
Nun haben die bekannten Rotverschiebungen im Spektrum des Lichtes weit
entfernter Sterne, die man weiterhin analog zum akustischen Doppler-Effekt als
Maß für die sich vergrößernde Entfernung solcher Sterne (und als Argument für
eine fortschreitende Ausdehnung des Universums) benutzt, nicht dazu geführt, das
Einsteinsche Postulat der Konstanz der Lichtgeschwindigkeit, das ersichtlich den
Rotverschiebungen widerspricht, aufzugeben. Einstein selbst schlug vielmehr die
„Relativierung“ der kosmischen Maßeinheiten vor. Alle Maßeinheiten für Entfer-
nungsmessungen (auch der Lichtquellen!) sollen in Proportion zur Geschwin-
digkeit der Bewegung der Meßgeräte „kontrahieren“, d. h. kürzer werden, und
dementsprechend sollen auch die Zeitperioden der Zeitmeßinstrumente „dilat-
tieren“, also länger werden.
Auch das ist für den Logiker nicht nachvollziehbar. Denn es wird ihm zuge-
mutet sich vorzustellen, daß ein Metermaß, das er evtl. bei einem Raumflug (mit
angenäherter Lichtgeschwindigkeit) mit sich führt, zugleich dasselbe bleibt und
auch kürzer wird. Und daß die mitgeführte Uhr in gleichem Rhythmus weitertickt
und zugleich langsamer geht.
Physiker „erklären“ dies dem Laien so, daß der Raumfahrer bei der langsamer
verstreichenden Zeit der Reise jünger bleibt als die zurückgebliebenen Erdbe-
wohner (was ersichtlich die Raumfahrt attraktiv macht). Der Logiker aber wird
dagegenhalten, daß die widersprüchliche Relativitätstheorie auch den gegentei-
83
ligen Schluß zuläßt. Der zurückbleibende Erdbewohner entfernt sich mit der-
selben Geschwindigkeit vom Raumschiff wie dieses von der Erde. Und so müssen
auch die irdischen Uhren im Verhältnis zu den Uhren im Raumschiff langsamer
ticken. Dialektisches Denken erlaubt es, beides zu beweisen.
1983 hat die (internationale) 17. Allgemeine Konferenz für Maße und Gewichte
eine neue Längeneinheit (anstatt des Pariser „Urmeters“) als diejenige Strecke
definiert, die das Licht im Vakuum in 1/299792458 Sekunden zurücklegt. „Damit
wurde die Lichtgeschwindigkeit c als Naturkonstante endgültig festgelegt und die
Längendefinition von der Zeitdefinition abhängig gemacht“.43 Man kann das eine
Art apostolischer Definition nennen. Denn wenn die physikalischen Grundbegriffe
Raum und Zeit durch die Lichtgeschwindigkeit definiert werden, kann man sie
nicht mehr Grundbegriffe nennen und die Geschwindigkeit durch sie definieren.
Ein anderer wichtiger physikalischer Begriff ist der Kraftbegriff. Er ist schon von
Aristoteles in die Naturphilosophie eingeführt worden, und zwar im Zusammen-
hang seines Vier-Ursachenschemas der Erklärung von Veränderungen und Bewe-
gungen der natürlichen Dinge (vgl. dazu § 18).
Bei Aristoteles ist Kraft eine Disposition bzw. Anlage der toten und lebendigen
Wesen, auf Grund ihrer „materialen Ursache“ (hýle, ὕλη, lat. materia) „Formen“
(morphé, μορθή, lat. forma) anzunehmen, die ihre dann veränderten Bewegungs-
zustände bzw. ihre veränderten Gestalten als „aktuellen Zustand“ (energeia ἐνέρ-
γεια, lat. actus, dt. wörtlich “Beim-Werke-sein“ oder „Wirklichkeit“) anzeigen.
Aristoteles nannte diese Eignung zur Aufnahme von Formen „Dynamis“ (δύναμις,
lateinisch potentia, Kraft). Das blieb im späteren abendländischen Wortschatz als
„Potenz“ und somit auch in der Bezeichnung von Kräften erhalten. Die Bezeich-
nung des jeweils „aktuellen“ Zustandes aber blieb im modernen Energiebegriff
erhalten.
Das Vier-Ursachenschema diente vor allem der Erklärung von natürlichen und
(durch andere Körper) erzwungenen Bewegungen (ί, lat. motus) der irdi-
schen und kosmischen Körper und legte insofern den Grund für eine „dynami-
sche“ Physik bzw. physikalische Kinetik.
Als „natürliche Bewegungen“ beschrieb Aristoteles die sinnlich beobachtbaren
geradlinigen Bewegungen von erdhaften und flüssigen Substanzen zum Erdmittel-
punkt, die geradlinigen Bewegungen von lufthaften und feurigen Substanzen in
entgegengesetzter Richtung nach oben, schließlich die Bewegungen der Gestirne
auf „vollkommenen“ Kreisbahnen. Diese natürlichen Bewegungen erklärte
Aristoteles durch teleologische Ursachen (ηέ, causa finalis), die das „Ziel“
dieser natürlichen Bewegungen als ihren „heimatlichen Ort“ (ἰκῖ ηóπος oikei-
os topos) bestimmten. Als „Entelechie“ (ἐνηελέτεια, lat. impetus, tendentia, „inne-
res Streben“) bezeichnete er die ständige Ausrichtung des bewegten Körpers bzw.
des sich verändernden Lebewesens auf dieses Ziel hin. Vermutlich hat ihm dafür
43
R. Knerr, Goldmann Lexikon Mathematik, Gütersloh und München 1999, S. 247.
84
die beständige Ausrichtung einer Magnetnadel auf einen Magneten bei allen
Lageveränderungen als Modell für das Entelechiekonzept gedient.
„Erzwungene Bewegungen“ ergaben sich bei Aristoteles durch die Berührun-
gen und Kreuzungen der natürlichen Bewegungen der Körper. Wobei der Eingriff
des Menschen in diese natürlichen Bewegungen selbst das deutlichste anschau-
liche Beispiel für das Bewirken von Veränderungen wurden. Die erzwungenen
Bewegungen werden durch eine Wirkursache (ὅ ἡ ἀὴ ηῆ ή,
„woher der Ursprung der Bewegung“, causa efficiens) hervorgebracht. Ein Stoß
oder Druck (πή, lat impulsus, „Einschlag“) verleiht einem Körper eine Bewe-
gung in eine Richtung, die von der natürlichen ungezwungenen Tendenz zu
seinem „heimatlichen“ Ziel abweicht. Die durch Wirkursachen hervorgerufenen
Bewegungen stören also die natürlichen Bewegungen. Dies aber nach Aristoteles
nur solange, bis die natürlichen Bewegungen der Substanzen wieder bestimmend
werden und diese ihre natürlichen Ziele „anstreben“. Das ist von der neuzeitlichen
Newtonschen Physik im Begriff der Trägheitskraft als Beharren in einer unge-
störten geradlinigen Bewegung sowie als Beharren in „Ruhe“ beibehalten worden.
Bis in die Spätscholastik wurde das aristotelische Vier-Ursachenschema soweit
ausgebaut, daß die vier Ursachen die Interventionen der Körper untereinander auf
folgende Weise erklärten: die materielle Ursache erklärte überhaupt die Existenz
eines oder mehrerer Körper. Die formale Ursache erklärte ihre Gestalt. Die kau-
sale Ursache wirkte als „Einschlag“ (impulsus) eines Körpers auf einen anderen in
direkter Berührung, wodurch eine Kraft (potentia) übertragen wurde. Und die
Finalursache bewirkte als sogenannter Impetus (lat. intus petere, wörtlich: inneres
Streben oder Tendenz) die Einhaltung der natürlichen Bewegung, die ggf. durch
einen Impuls gestört wurde.
Die neuzeitliche Physik entwickelte sich aus dem Zusammentreffen dieser
aristotelischen (nicht-mathematischen und sozusagen phänomenologischen) Phy-
sik mit der neuplatonischen Phänomen- und Geisterlehre und ihrer teilweisen
Durchdringung. Der Platonismus aber brachte auch die Mathematisierung in die
neuzeitliche Physik.
Die neuplatonischen Geister (Engel) galten als die „Ausflüsse“ (Emanationen)
aus dem göttlichen Schöpfergott. Wie Gott die Welt geschaffen hat, so wirken
auch diese Geister unsichtbar auf die sinnlichen Erscheinungen ein. Die Verän-
derungen in der körperlichen Naturwelt wurden alsbald neuplatonisch in der
aristotelischen Terminologie von Kräften (Potenzen, Energien und Entelechien)
erklärt. Neuplatonischen Physikern war es daher selbstverständlich, daß man diese
Kräfte nicht sinnlich beobachten und wahrnehmen, sondern nur auf Grund ihrer
Wirkungen erschließen konnte. Und die Ausbreitung des neuplatonischen Den-
kens in weiteren Kreisen führte gleichzeitig mit der Entwicklung der modernen
Physik zu einem wuchernden Gespenster- und Hexenglauben in der Bevölkerung.
Die Unbeobachtbarkeit der Kräfte und Energien blieb seither ein neuplato-
nisches Erbstück der neuzeitlichen Physik. Man nennt derartiges heute „unbeo-
bachtbare Parameter“. Da man sie nur aus ihren Wirkungen erschließen können
85
stattete. Das war die mathematische Gleichungsform und ihre Eignung zur Defi-
nition quantifizierter Größen.
Was man dabei als Kraft definieren sollte, darüber bestand lange keine Über-
einstimmung unter den Physikern.
Descartes und seine Schule schlugen vor, die physikalische Kraft als m × s / t.
(d. h. „Massen-Geschwindigkeit“) zu definieren: also K = m × v. Das ist auch so
beibehalten worden. Aber die Kraft des bewegten Körpers ließ sich so nur für
geradlinige und gleichförmig bewegte Körper bestimmen. Man hatte es aber in
vielen und interessanten Fällen mit beschleunigten und nicht auf geraden Linien
bewegten Körpern zu tun.
Hierzu machte man Gebrauch von den Definitionsgleichungen der Beschleu-
nigungen, die wir vorn schon behandelt haben. Es war Leibniz, der dafür den Be-
griff der „lebendigen Kraft“ (vis viva“ vorschlug, weil sich solche unregel-
mäßigen Bewegungen augenfällig bei Lebewesen beobachten ließen. Das wurde
zunächst angenommen und mit dem gleichsam brachliegenden aristotelischen
Begriff der Energie („E“) benannt. Die Definition der Energie bei Leibniz und
seinen Zeitgenossen lautete E = m × v². Auch dies wurde festgehalten, wie man
noch bei Einstein sieht, der die (gesamte kosmische) Energie als „E = m × c² “
(Masse multipliziert mit dem Quadrat der Lichtgeschwindigkeit c) definierte.
Daß es den Physikern aber auf die rein quantitativen Bestimmungen dabei nicht
allzu sehr ankam, sieht man daran, daß Jean LeRond d‟Alembert schon im 18.
Jahrhundert und G. C. Coriolis 1829 die Leibnizsche Definition durch den Faktor
½ korrigieren wollten und die Energie somit als „ ´ m × v² “ definierten. Diese
Korrektur berücksichtigt die Entdeckung der „Calculatores“ (Rechenkünstler) des
Oxforder Merton-Colleges in der Scholastik, wonach die Endgeschwindigkeit
einer gleichmäßig beschleunigten Bewegung der „mittleren“ Durchschnittsge-
schwindigkeit entspricht.44
Diese Definitionen typischer physikalischer Begriffe zeigen, daß in der Physik
die Berechnungsweisen von Meßdaten der Grundgrößen von Zeit- und Raum-
strecken in die intensionalen Definitionen der jeweiligen komplexeren Begriffe
übernommen werden. Logisch aber besteht doch Bedarf, über die Tragweite und
Sinnhaftigkeit dieses Verfahrens genauere Klärungen herbeizuführen.
So ist es schon logisch fragwürdig, Proportionen zwischen irgendwelchen
Größen, die als Quotientenbegriffe dargestellt werden, grundsätzlich auszurech-
nen. Bei den Geschwindigkeiten hat man sich daran gewöhnt. Aber wer würde
etwa das Ergebnis eines Fußballspiels von 6 : 2 Toren als 3 Tore angeben? Ganz
abgesehen davon, daß dasselbe Torverhältnis auch als 2 / 6 = 0, 333... „ oder „1/3“
angegeben werden könnte.
Noch fragwürdiger erscheinen die mathematischen Potenzierungen von Begrif-
fen, in denen logisch ja ohne Zweifel Begriffe mit sich selbst zu neuen Begriffen
vereinigt werden. Auch an dieses Verfahren hat man sich seit Euklids Zeiten
44
Vgl. dazu M. Jammer, Art. „Energie“, in: J. Ritter (Hg.), Historisches Wörterbuch der Philosophie, Band 2, Basel-
Stuttgart 1972, Sp. 494 - 499.
87
durch die Definitionen von Flächen (a²) und Körpern (a³) durch Potenzierung ihrer
Seitenlängen gewöhnt. Aber man hat nicht darauf geachtet, daß das Meßver-
fahren, einen Maßstab a an zwei bzw. drei ganz verschieden ausgerichtete (im
rechten Winkel zueinanderstehende, d. h. vektoriell verschiedene) Seiten eines
Quadrats oder eines Kubus anzulegen, keineswegs darauf schließen läßt, daß eine
Quadratfläche aus der 2. Potenz des Begriffs Strecke bzw. ein Kubus aus der 3.
Potenz einer Strecke hervorgehen könnte. Und somit erst recht nicht bei nicht-
euklidischen Flächen und Körpern. Es kann nur diese Denkgewohnheit sein, die
dem Physiker auch Begriffe wie Zeitquadrat oder Geschwindigkeitsquadrat in
irgend einer Weise als „rationale“ Denkhilfe bei seinen Begriffen erscheinen
lassen.
Geht man der historischen Entwicklung dieser Denkgewohnheit in Potenzen
nach, so stößt man auf „logische“ Begriffsbildungen, die als „Reflexionsbegriffe“
bekannt geworden sind und seit jeher als rätselhaft gelten. Der Prototyp scheint
des Aristoteles „noesis noeseos“, d. h. „Denken des Denkens“ gewesen zu sein.
Aristoteles hielt das „Denken des Denkens“ für eine nur einem Gotte zukom-
mende Fähigkeit. Aber später machte dieser Reflexionsbegriff als „Selbst-Be-
wußtsein“ auch bei minderen Geistern bedeutend Fortüne.
Raimundus Lullus (um 1235 – 1315) hat in seiner Ars Magna schon jede
Menge anderer Begriffe in dieser Weise mit sich selbst potenziert. Auch Charles
Bouillé (Carolus Bovillus, 1470 - ca. 1553, ein seinerzeit berühmter Logiker aus
der Schule des Petrus Ramus (Pierre de la Ramée) hat - freilich recht beiläufig -
vorgeschlagen, eine produktive Verschmelzung eines Begriffs mit sich selbst in
die Logik einzuführen. Er schlug vor, den ersten Menschen Adam als „homo“,
Eva als aus dem ersten Menschen gemacht als „homo-homo“ und Abel als dritten
Menschen und gemeinsames Produkt der Eltern als „homo-homo-homo“ zu be-
zeichnen.45 Aber bekanntlich wurden solche Vorschläge von den Logikern nie-
mals ernst genommen, wohl aber von Leibniz. Und Leibniz hat maßgeblich daran
mitgewirkt, diese „mathematische Begriffsbildung“ für „logisch“ und selbstver-
ständlich zu halten.
Die Dialektik in der mathematischen und physikalischen Begriffsbildung ist
gewiß nicht allen Mathematikern und Physikern entgangen. 46 Aber die meisten
halten die entdeckten Widersprüche und Paradoxien für Probleme, die auf dem
Wege künftiger Forschung durch widerspruchslose Lösungen zu überwinden
seien. Manche jedoch, wie etwa der Nobelpreisträger Richard P. Feynman, be-
haupten, daß z. B. die Quantenphysik – im Unterschied zum logischen Common-
sense – der „Absurdität“ (d. h. Widersprüchlichkeit) der Natur Rechnung tragen
müsse:
45
Carolus Bovillus, Liber de Sapiente, im Nachdruck der Ausgabe seiner Schriften Paris 1510, Stuttgart-Bad Cannstatt
1970 (erst 1973 erschienen) S. 132.
46
Zum Widerstand einiger Philosophen und Logiker gegen Riemanns mehrdimensionale Raumtheorie vgl. R. Torretti,
Philosophy of Geometry From Riemann to Poincaré, Dordrecht-Boston-London 1978, Chap. 4, 1: „Empiricism in Geo-
metry“ und 4,2: „The Uproar of Boeotians“, S. 255 – 301.
88
„Die Theorie der Quanten-Elektrodynamik beschreibt die Natur vom Standpunkt des
Commonsense als absurd. Und sie stimmt gänzlich mit den Experimenten überein.
So hoffe ich, daß Sie die Natur als das akzeptieren können, was sie ist, - absurd“.47
„Ich denke man kann mit Sicherheit sagen, daß niemand die Quantenmechanik
versteht“.48
In der Logik ist der Hauptjunktor für behauptende Urteile bzw. Sätze die sprach-
liche Partikel „ist“, die sogenannte Kopula geblieben. Sie wird daher auch seit
jeher schlechthin „Verknüpfungsjunktor“ (lat.: copula) genannt. Und in Anknüp-
fung an die logische und sprachliche Verwendung der Kopula wurde auch in der
Mathematik das „ist“ beibehalten. Allerdings mit einer entscheidenden Einschrän-
kung, die mit der Behauptung der „Gleichheit“ ausgedrückt wird.
Die Behauptungsformel in der Mathematik lautet also „irgend etwas ist gleich
einem anderen etwas“. Der Verfasser gesteht bei dieser Gelegenheit gerne, daß er
sich im mathematischen Grundschulunterricht – weil im Deutschen „gleich“ auch
„sofort“ bedeutet - eine zeitlang zu der Meinung verführen ließ, die Mathematiker
hätten es mit ihren Gleichungen nur auf Schnelligkeit des Denkens, d. h. „sofor-
tige“ Ausrechnungen der Gleichungen angelegt.
Nun wird diese mathematische Gleichheitsaussage seit jeher für eine exaktere
Form der logischen kopulativen Sätze gehalten. Wie das von Ch. S. Peirce und H.
Weyl begründet wurde, ist schon im vorigen Paragraphen gezeigt worden. Man
sieht das auch an dem laxen Sprachgebrauch vieler Mathematiker, die ihre Glei-
chungen auch in der Form „a ist b“ oder ähnlich lesen. Und so findet man zwi-
schen Descartes und Kant immer wieder mathematische Gleichungen als Bei-
spiele für besonders klare und exakte Urteile angeführt. Berühmt ist das schon
erwähnte Beispiel Kants für das, was er für ein „synthetisches Urteil a priori“
hielt, nämlich die Gleichung „7 + 5 = 12“.52
Der logische kopulative Behauptungssatz drückt jedoch in keiner Weise irgend
eine Gleichheit zwischen einem Subjekt und einem Prädikat aus. Handele es sich,
um mit Kant zu reden, um analytische oder synthetische Urteile, so wird in ihnen
durchweg gerade eine Ungleichheit zwischen Subjektsbegriff und Prädikatsbegriff
vorausgesetzt. Nämlich dadurch, daß („analytisch“) eine Eigenschaft (ein Merk-
mal), das sich neben anderen Merkmalen im Subjektbegriff findet, eigens heraus-
gestellt und betont wird, oder daß es („synthetisch“) zu den Merkmalen des Sub-
jektsbegriffs hinzugefügt wird. In mathematischen Gleichungen stehen jedoch die
Ausdrücke links und rechts vom Gleichheitszeichen in keinerlei logischem Sub-
jekt-Prädikatverhältnis. Durch die Gleichung wird vielmehr die vollkommene
logische Identität der Bedeutungen der Ausdrücke links und rechts vom Gleich-
heitszeichen zum Ausdruck gebracht. Und deswegen kann eine mathematische
Gleichung keineswegs eine exaktere Form eines logischen kopulativen Urteils
sein.
Die Gleichung ist in der Tat eine „Aussageform“, die in der klassischen Logik
ebenfalls immer benutzt worden ist, nämlich eine sogenannte Äquivalenz. Die
Gleichung bzw. Äquivalenz geht vermutlich auf den philologischen Brauch zu-
rück, in den Wortlisten und späteren Sprachlexika Wörter verschiedener Sprachen
mit identischer Bedeutung nebeneinander anzuordnen, wobei das Gleichheitszei-
52
I. Kant, Kritik der reinen Vernunft, A 164, sowie Einleitung B 16 und B 205; auch in den Prolegomena, Vorerinne-
rungen § 2, c.
90
chen eingespart wird (z. B. Armut = Pauvreté). Dasselbe Verfahren der Neben-
einanderstellung wurde und wird aber auch innerhalb einer und derselben Sprache
bei den sogenannten Synonymen verwendet, also bei verschiedenen Wörtern oder
Ausdrücken, die dasselbe bedeuten.
Die logische Form dieser Äquivalenzen ist dann zur Standardform der logischen
Begriffsdefinition geworden. Es kommt hierbei ausschließlich darauf an, einen
(durch ein Wort bzw. Term bezeichneten) Begriff dadurch zu erläutern, daß seine
Merkmale (Intensionen) und sein Anwendungsbereich (die Extension) deutlich
werden. Auch die aristotelische Standarddefinition durch Angabe der generischen
und spezifischen Merkmale bezweckt nichts anderes.
Nun kann man freilich auch den Logikern den Vorwurf nicht ersparen, daß sie
den Unterschied zwischen kopulativen Behauptungen und definitorischen Erläu-
terungen (Äquivalenzen) nicht immer bemerkt und beachtet haben. Kennzeich-
nend dafür ist, daß man etwa die sogenannten Subalternationen, bei denen „eini-
ge“ und „ein“ Exemplar einer Gattung (also eine von mehreren Arten und ein
bestimmtes Individuum einer Gattung) definiert werden, für partikuläre und indi-
vidualisierende „Urteile“ mit einem bestimmten Wahrheitswert hält.
Hält man den Unterschied zwischen kopulativen behauptenden Urteilen der
Logik und gleichungsmäßigen Definitionen der Mathematik fest, so muß man
auch einsehen, daß die mathematischen Gleichungen in ihrer regulären Verwen-
dung nur Definitionen mathematischer Begriffe und Ausdrücke sein können. Und
das muß dann auch für die Anwendungen mathematischer „metrischer Begriffe“
in den mathematisierten Wissenschaften, insbesondere in der Physik gelten.
Es gilt also mit dem epochalen Mißverständnis Schluß zu machen, mathema-
tische Gleichungen wie „3 ∙ 3 = 9“ oder physikalische wie „s / t = v“ seien
überhaupt Urteile bzw. Behauptungen, die mit Wahrheit oder Falschheit in Ver-
bindung zu bringen seien. Es sind vielmehr Definitionen von Begriffen und evtl.
Ausdrücken, denen ein Terminus zugeordnet wird. Und die dadurch eingeführten
Begriffe sind teils durch ihr Alter, teils durch Auswendiglernen in der Alltags-
sprache sanktioniert worden. Da es sich dabei um Ausdrücke und Begriffe han-
delt, haben sie logisch also keinen sogenannten Wahrheitswert.
Das kann allerdings nicht heißen, daß der Umgang und die Beherrschung
solcher Ausdrücke und Begriffe immer so leicht wie beim Auswendiglernen eines
Vokabulars oder des kleinen Einmaleins wären. Jede Rechenaufgabe in der Form
einer Gleichung mit größeren Zahlen und/oder komplexeren Rechenanweisungen
stellt gegebenenfalles eine große Herausforderung dar. Aber ein nach allen Regeln
der praktischen Rechenkunst erzieltes Rechenergebnis als wahre Erkenntnis oder
neues Wissen zu deuten, geht an den logischen Tatsachen vorbei. Und das gilt
auch in den Fällen, wo die praktische Rechenkunst bei Nicht-Aufgehen von Rech-
nungen dazu geführt hat, immer neue Zahlarten (wie die negativen Zahlen beim
Subtrahieren über die Null hinaus, oder die imaginären Zahlen beim Wurzelziehen
aus negativen Zahlen) zu definieren.
91
Der Übergang zu etwas anderem als Begriffsdefinitionen liegt allerdings dort vor,
wo Mathematiker und Physiker sich in Prosatexten ohne Gleichungsformeln
äußern oder zu solchen Äußerungen veranlaßt werden. Hier müssen sie mittels
Behauptungen gleichsam Farbe bekennen, nämlich über das, was sie für wahr
und/oder falsch halten. Dabei unterliegt aber die Prüfung von Wahrheit und
Falschheit ausschließlich logischen Kriterien. Und das zeigt, daß letzten Endes
auch Mathematik und Physik in ihren Einsichten, Erkenntnissen und Theorien auf
die klassische Logik verpflichtet werden können und müssen.
Der Unterschied zwischen der logischen und mathematischen Denkweise redu-
ziert sich dadurch auf professionelle Voreingenommenheiten bezüglich ihrer
Textsorten. Denn der Logiker achtet auf die grammatische und logische Kor-
rektheit der mathematischen und ggf. physikalischen Behauptungen und sucht in
den mathematischen Formeln allenfalls Erläuterungen dazu, falls er sie nicht
gänzlich überschlägt. Der Mathematiker und Physiker aber geht davon aus, daß
sich der Behauptungsgehalt am deutlichsten und exaktesten in den angeführten
Gleichungen darstelle, und daß alles Reden darüber nur eine mehr oder weniger
einleuchtende Interpretation sei. Und dies kann nach allem, was über Gleichungen
zu sagen war, nur als Selbsttäuschung bezeichnet werden.
Die Lage kompliziert sich dadurch, daß es bei logischen Urteilen mit der zwei-
wertigen Logik von „wahr“ und „falsch“ nicht getan ist. Hinter dem Thema drei-
und/oder mehrwertiger Logiken verbergen sich mehrere Problematiken, von de-
nen man kaum wird sagen können, daß sie bis jetzt angemessen geklärt geschwei-
ge denn gelöst sind.
Zunächst hat man damit zu rechnen, daß in der Wissenschaft neben manifest
wahrem und methodisch falsifiziertem falschem Wissen, das in klaren Behaup-
tungen formuliert wird, vielerlei in Vermutungen, Hypothesen, Konjekturen und –
wie eingangs schon behandelt – in der Gestalt von Glauben und Intuitionen arti-
kuliert wird. Das mag noch mancher vorsichtige Forscher in seinen Reden und
Texten im sprachlichen Konjunktiv oder mittels verbaler Relativierungen des
Behauptungscharakters wie „könnte“, „dürfte“, „sollte“, „möglicherweise“ u. ä.
formulieren. Hat er aber logische oder mathematische Ambitionen, so kann er
nicht auf die nichtbehauptende Satzform der Vermutung zurückgreifen, denn
weder in der Logik noch in der Mathematik gibt es einen Konjunktiv. Also bleibt
ihm gar nichts anderes übrig, als seine Vermutungen in der behauptenden Urteils-
form oder mathematisch in der vermeintlich behauptenden Gleichungsform auszu-
drücken.
Auf diese Weise formulierte Vermutungen zielen naturgemäß auf die Wahrheit.
Und deshalb zeigen sie vor allem, was der Autor für wahr hält, viel weniger aber,
was er eventuell für falsch halten könnte. Und deswegen wiederum spricht man
angesichts solcher Vermutungen von „Wahrscheinlichkeit“. In welchem Begriff ja
der Wahrheitsanspruch und zumindest eine gewisse Wahrheitsnähe prätendiert
wird. Es „scheint so“, als sei die Wahrheit in der Vermutung schon enthalten. Man
weiß natürlich, daß eine Vermutung gelegentlich auch bestätigt wird, und das gilt
92
als „Verifikation“ bzw. Wahrheitsbeweis. Aber ebenso weiß man auch, daß eine
Vermutung gänzlich „daneben liegen“ kann. Aber dafür gibt es bisher leider
keinen gleichwertigen Begriff der „Falschscheinlichkeit“ von Vermutungen.
Dies waren und sind sicher genügend ernsthafte Gründe, die Wahrscheinlichkeit
in der Logik als einen dritten „Wahrheitswert“ auszuzeichnen und ihn in der
mathematischen Wahrscheinlichkeitslehre noch numerisch zu einem Kontinuum
von „Wahrscheinlichkeiten“ zu spreizen.
Wir gehen nun davon aus und haben schon früher gezeigt (vgl. Logik, Aalen
1987), daß die „Wahrscheinlichkeit“ von Vermutungen, aber dann auch in der
logischen Form der Behauptung, nichts anderes ist als ein „zugelassenes Drittes“
zwischen und neben den wahren und falschen Behauptungen. Ebenso wurde
schon gezeigt, daß dieses „Dritte“ mit dem „Widerspruch“ identisch ist und also
„Wahr-Falschheit“ genannt werden sollte. Die Widersprüche im Wahrscheinlich-
keitsbegriff erweisen sich anhand von mehren Charakteristika, die man leicht auch
als Paradoxien formulieren kann.
Auch bezüglich der Wahrscheinlichkeitskonzepte halten sich die Unterschiede
zwischen logischem und mathematischem Denken durch. Logische Wahrschein-
lichkeit ist stets symmetrisch wahr und falsch zugleich; mathematisch-numerische
Wahrscheinlichkeit spreizt die Wahrheit und Falschheit zu unterschiedlich quanti-
fizierten Anteilen auf, bzw. sie geht davon aus, daß dies so wäre. Gleichwohl liegt
die logische nicht-quantifizierbare Wahrscheinlichkeit auch jeder mathematischen
Wahrscheinlichkeit zugrunde.
Wegen der großen Wichtigkeit der Wahrscheinlichkeit und ihrer immer noch
recht undurchsichtigen Natur, soll ihr ein eigener § 11 gewidmet werden.
93
Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige Induktion.
Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion: Kontrolle der korrekten
Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der logischen Deduktion des Zahlbegriffs und der
hauptsächlichen Zahlarten. Die Primzahlberechnung. Die Funktion der Buchstabenzahlen (Variablen) in der Mathematik.
Unterscheidung der begriffs- und ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre
pyramidale Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behaup-
tungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“ zwischen Urteils- und Schlußlehre.
Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale Formalisierung der Hegelschen „Phänomenologie des
Geistes“ und einer logischen Zahlentheorie. Die Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des
Widerspruchs und des „Dritten“ und die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit
Ausgehend vom Primat der Logik auch für das Verständnis der elementaren
mathematischen Begriffe, seien im Folgenden die logischen Elemente vorgestellt
und erläutert. Soweit möglich, seien dann auch die elementaren mathematischen
Elemente im Vergleich mit den logischen vorgestellt und ggf. auf diese zurück-
geführt.
A A
AB AC AB AC AD AE
1 2 3
A B C
AB BA CB
Sokrates = ein philo- Sokrates = ein grie- Sokrates = einer der „Sokrates“ genannten
sophischer Grieche chischer Philosoph Personen unter den philosophischen Griechen
53
Vgl. Léon Baudry, Lexique philosophique de Guillaume d‟Ockham, Paris 1958, art. Induction, S. 119: “Aliquando
universale quod debet induci habet pro subiecto speciem specialissimam et ad habendam cognitionem de tali universali
frequenter sufficit inducere per unam singularem” / Zuweilen hat der zu induzierende Allgemeinbegriff als Instanz eine
speziellste Unterart, und um die Kenntnis eines solchen Allgemeinbegriffs zu erreichen genügt es häufig, ihn von einem
Einzelnen aus zu induzieren.
54
Sextus Empiricus, Pyrrhoneische Grundzüge. Aus dem Griechischen übersetzt und mit einer Einleitung und Erläute-
rungen versehen von Eugen Pappenheim, Leipzig 1877, Kap. 15, S. 142: „Sehr abzulehnen aber, meine ich, ist auch die
Weise in Betreff der Induction. Da sie (scl.: die Logiker) nämlich durch sie von den Einzeldingen aus das Allgemeine
beglaubigen wollen, so werden sie dies thun, indem sie entweder doch an all die Einzeldinge herangehen oder an einige.
Aber wenn an einige, so wird die Induction unsicher sein, da möglich ist, dass dem Allgemeinen einige von den in der
Induction ausgelassenen Einzeldingen entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen,
da die Einzeldinge unbegrenzt sind und unabschließbar. So dass auf diese Weise von beiden Seiten, mein„ ich, sich ergibt,
dass die Induction wankend wird“.
96
schen Begriff der „Erfahrung“ und abstrahiert daraus den regulären Begriff des
„Allgemeinen“.55
In diesem und anderen Beispielen solcher dialektischen bzw. kontradiktorischen
Begriffe werden Merkmale der Realität vereinigt, die nicht zu einem gemein-
samen Erfahrungskontext gehören. Sie können daher nur in der Phantasie bzw. in
Erinnerungen an absolut Ungleichzeitiges komponiert werden.
Widersprüchliche Begriffe sind deswegen auch die Bausteine der sogenannten
möglichen Welten. Zu diesen möglichen Welten gehört auch die Welt der mathe-
matischen Gebilde, die in der Regel durch Deduktionen konstruiert werden.
Als spekulative Konzeptionen sind solche widersprüchlichen bzw. „dialektischen“
Begriffe für die Wissenschaft, Kunst und Technik kreativ. Für die Forschung sind
sie heuristisch fruchtbar und daher unentbehrlich. In der Argumentation verursa-
chen sie Zwei- und Mehrdeutigkeiten, die sich in Widersprüchen und Paradoxien
ausdrücken. Und diese werden dann selbst wider Motive zu ihrer „Auflösung“
bzw. Eliminierung oder Ersetzung durch widerspruchslose Begriffe.
Kontradiktorische Begriffe lassen sich an jeder Stelle einer Begriffspyramide
zwischen je zwei dihäretischen (vollständig disjunkten, d. h. im Negationsver-
hältnis zueinander stehenden) Begriffen als deren Verschmelzung bzw. Fusion
einschreiben. Sie umfassen dann die Extensionen der fusionierten Artbegriffe ge-
meinsam. Diese Eigenschaft haben sie mit dem jeweiligen Oberbegriff (Gattung)
der dihäretischen Artbegriffe gemeinsam, und sie werden daher oft mit Gattungs-
begriffen verwechselt. Die Gattung unterscheidet sich von ihnen aber dadurch,
daß sie die spezifischen Differenzen der disjunkten Arten nicht enthält, während
sie in deren kontradiktorischer Verschmelzung gerade enthalten sind. Das sieht
formal so aus:
55
Vgl. dazu L. Geldsetzer, Über das logische Prozedere in Hegels ‚Phänomenologie des Geistes‟, in: Jahrbuch für Hegel-
forschung I, hgg. von H. Schneider, Sankt Augustin 1995, S. 43 – 80 und die daraus entnommene Begriffspyramide in
Abschn. 8.
98
besitzt. Der Mathematiker Leopold Kronecker hat sich in einem geflügelten Wort
so über die Zahlen geäußert: “Die (positiven, d. h. natürlichen) ganzen Zahlen hat
der liebe Gott gemacht, alles andere ist Menschenwerk” 56
Die logische Terminologie liefert für den mathematischen Zahlbegriff den Gat-
tungsbegriff (die aristotelische Kategorie) der Quantität (in der obigen Forma-
lisierung: A) und seine beiden dihäretischen Artbegriffe Einheit (AB, logisch:
„ein“) und Allheit (AC, logisch: „alle“). Logisch gilt daher : „Einheit ist nicht
Allheit“ und umgekehrt.
Der mathematische Begriff der Zahl verschmilzt aber diese genau unterschie-
denen Artbegriffe zu dem widersprüchlichen Begriff der „Ein-Allheit“ oder „All-
Einheit“ (ABC). Zahlen sind daher zugleich Einheiten und Allheiten, von denen
dann nach dem obigen formalen Schema die Definitions-Gleichung gilt: „Einheit
= Allheit“ bzw. in Umkehr: „Allheit = Einheit“. ABC bezeichnet jede Zahl als ein
Etwas, das sowohl als Einheit bzw. „Element“ wie auch als Allheit (bzw. ein
Ganzes oder Gesamt von vielen Einheiten) gedacht wird.
Daß es „gedacht“ werden muß und keineswesg „sinnlich anschaulich“ gemacht
werden kann, erklärt sich wie bei allen dialektischen Begriffen daraus, daß nur die
Ausgangsbegriffe der Einheit (logisch: Individuelles) und der Allheit bzw. eines
Ganzen (logisch: alles) in jeweils verschiedenen Kontexten anschaulich werden
können, niemals aber zugleich und gewissermaßen auf einen Blick. Denn ent-
weder betrachtet man etwas als (elementare) Einheit und erfaßt dann nicht die es
umfassende Ganzheit; oder man achtet auf das Ganze und muß insofern dessen
Einheiten bzw. Elemente außer acht lassen. Mathematisches Denken aber besteht
gerade darin, diese getrennten Erfahrungen kreativ zu „einer Idee“ bzw. zu einem
dialektischen Begriff zu vereinen.
In der Extension des Begriffs der Zahl liegen alle weiteren speziellen Zahl-
begriffe, über deren Definitionen weiter unten zu sprechen sein wird. Daher be-
sitzen sie, soweit es sich überhaupt um Zahlen handeln soll, das generische
Merkmal der „All-Einheit“. Das zeigt sich z. B. darin, daß man die Zahl Eins in
Bruchzahlen zerlegt, was voraussetzt, daß auch sie eine Allheit von Zahlen um-
faßt. Umgekehrt darin, daß jede „größere Zahl“, die aus Einheiten zu einer Allheit
bzw. einem Ganzen zusammengesetzt wird, selber eine Zahl-Einheit darstellt.57
Der am meisten logisch klingende „Begriff“ der Zahl ist der Mengenbegriff, den
auch Euklid in seinem Lehrbuch „Elementa“ schon definierte. Logisch ist der
Mengenbegriff definiert, wenn er nur als logische Gattung der beiden logischen
Quantifikationsjunktoren „alle“ und „einige“ verstanden wird. Als mathemati-
scher Begriff ist „Menge“ jedoch geradzu ein Paradigma der Dialektizität der
mathematischen Begriffsbildung geworden. Denn man hat in ihm alle logischen
56
Leopold Kronecker in “Ueber den Zahlbegriff”, in: Journal für reine und angewandte Mathematik 10, 1887, p. 261 –
274, auch in: L. Kronecker, Werke, vol. 3, hgg. von K. Hensel, Leipzig 1899, ND New York 1968.
57
Zur pyramidalen Formalisierung der Zahlbegriffe in: L. Geldsetzer, Logik, Aalen 1987, S. 133 – 155; ders., Elementa
logico-mathematica, Internet der HHU Duesseldorf 2006; ders., Logical Thinking in the Pyramidal Schema of Concepts:
The Logical and Mathematical Elements, Dordrecht-Heidelberg-New York-London 2013, S. 20 – 28. Die Pyramide der
Zahlbegriffe in Abschn. 8 (s. u.) ist um die Prim- und Nicht-Primzahlen erweitert worden.
99
Die Buchstaben wurden zunächst nur als Variable verwendet. Die Bezeichnung
besagt, daß etwa X als Begriff für „beliebige“ Einsetzungen („Erfüllungen“) von
Zahlen stehen soll. Und zwar ebenso, wie das logische Zeichen „S“ für beliebige
Subjektbegriffe stehen kann. Dies allerdings mit der von der Logik übernom-
menen Einschränkung, daß bei solchen Einsetzungen in Rechnungen immer die-
selbe Zahl (ob man sie kennt oder auch nicht kennt) durch die Variable vertreten
wird. Diese Einschränkung wurde aber alsbald fallen gelassen. In den sogenann-
ten Funktionsgleichungen stehen die Variablen in der Regel für verschiedene
Zahlen bzw. „Größen“, was in der Logik keine Parallele hat.
Da aber Rechnungsgleichungen, wie sogleich zu betrachten ist, kreativ für die
Definition von Zahlarten sind, hat man auch einige solcher Zahlarten mit anderen
Buchstaben bezeichnet, die man seither Konstanten nennt. Am verbreitetsten sind
etwa der Quotient des Verhältnisses von Kreisumfang zum Kreisdurchmesser,
genannt „Pi“ (griech.: π = 3,14159…), der nur eine und in allen Berechnung
dieses Verhältnisses bei verschieden großen Kreisen gleichbleibende Irrational-
zahl bezeichnet. Dann etwa „i“ als Konstante für eine „imaginäre“ Komponente
aller Zahlen, die sich aus dem Wurzelziehen (Radizieren) aus negativen Zahlen
ergeben. Oder auch der Differentialquotient „δx/δy“, der den sog. Grenzwert einer
sich asymptotisch der Null annähernden „unter jeden angebbaren Zahlenwert
hinabreichenden“ Quotienten bezeichnet (dazu s. u. über Differentialquotienten-
bildung). Logisch gesehen sind solche Konstanten Eigennamen für bestimmte
mathematische Gebilde, die bei ihrer Einführung wegen „Widersprüchlichkeit“
von vielen Mathematikern abgelehnt und gar nicht als „Zahlen“ anerkannt
wurden. Mit ihnen umzugehen muß der Mathematiker ebenso lernen, wie man
sich auch sonst bestimmte Wörter und Namen einprägt.
Mit der Einführung der Variablen verbunden war das Aufkommen der sog.
(mathematischen) analytischen Methode. Sie besteht darin, einerseits beliebige
Zahlen durch Variablen vertreten zu lassen, anderseits bestimmte unbekannte
Zahlen bzw. Zahlgrößen als bekannt zu behandeln und mit ihnen wie mit
bekannten Zahlen zu rechnen. Dadurch wurde die Rechentechnik außerordentlich
erleichtert und vereinfacht. Dies vor allem in den Fällen, wo sich die Unbekannten
durch geschickte Gestaltung von Rechenoperationen (z. B. das „Wegkürzen“ in
Gleichungen) zum Verschwinden bringen lassen. Was man von den „Unbe-
kannten“ ohnehin nicht weiß, braucht man dann auch nicht mehr zu wissen.
Man hat wohl bis heute nicht bemerkt, daß die Buchstaben sowohl als Variable
wie als Konstanten ebenso wie das (mathematische) analytische Verfahren selbst
eine dialektische Seite besitzen. Die Dialektik besteht darin, daß mit den
Variablen die sogenannten kommensurablen Zahlen (Zahlen, die aus einer und
derselben Einheit zusammengesetzt sind, wie die Rationalzahlen) und die
inkommensurablen Zahlen (aus verschiedenenartigen Einheiten, wie die irratio-
nalen und imaginären bzw. komplexen Zahlen und erst recht die Infinite-
simalzahlen, die keinen Zahlenwert besitzen) gleicherweise als Zahlengrößen
dargestellt werden konnten. Daraus kann man entnehmen, daß die Buch-
101
stabenzahlen bzw. Variablen selbst dialektische Zahlbegriffe aus der Fusion des
Begriffs der kommensurablen mit dem Begriff der inkommensurablen Zahlarten
sind, was ihren widersprüchlichen Charakter ausmacht.
Die Variablen vertreten grundsätzlich Zahlenwerte, die ihrerseits den arithme-
tischen Quantifizierungen unterworfen werden. Man kann sagen: dadurch werden
Quantitäten nochmals quantifiziert.
Man versteht mathematisch etwa „3x“ als Multiplikation einer unbekannten
Zahl (x) mit 3, oder „3/x“ als drei Xtel. Das versteht jeder, der weiß, was „drei
Äpfel“ oder „drei Teile eines Apfels“ sind. Er wird nicht vermuten, daß aus den
drei Äpfeln oder drei Apfelteilen beim Multiplizieren etwas ganz anderes als
Äpfel werden könnten. In der Mathematik aber muß gelernt werden, daß etwa 3x
jede beliebige Zahl bedeuten kann, die sich beim Multiplizieren mit Drei ergeben
kann. Setzt man für x die eins ein, so bleibt es bei der Drei. Setzt man 1/3 ein, so
ergibt sich die Eins. Rechnet man jedoch im Dezimalsystem, so ergibt sich im
letzteren Fall „3 0,333....“, was nicht die Eins, sondern die Irrationalzahl 0,999...
ergibt, die ersichtlich keine 1, sondern eine kleinere Zahl als 1 ergibt. Nur Mathe-
matiker finden das, wenn sie es gelernt haben, „ganz logisch“ und vor allem
„exakt“.
Konträre Begriffe lassen sich zwischen Begriffen in multiplen Artenreihen ein-
schreiben. Ihre Extension besteht dann aus denjenigen der verschmolzenen Art-
begriffe. Es handelt sich hier um die sogenannten Dispositionsbegriffe.
A A = Aggregatzustand A = Wahrnehmung
AB = fest AB = Sehen
AB AC AD AD = dampfförmig AD = Tasten
ABC = schmelzbar ABC = Wahrnehmungs-
vermögen
Ihr dialektischer Charakter zeigt sich ebenso wie bei den kontradiktorischen
Begriffen darin, daß man die in ihnen verschmolzenen Merkmale zwar in ver-
schiedenen bzw. getrennten Erfahrungskontexten, ihre fusionierte Vereinigung
aber nicht in einem und demselben Erfahrungskontext wahrnehmen kann.
Von dieser Art sind zahlreiche Grundbegriffe der Physik wie auch der Psy-
chologie, nämlich die Begriffe von Kräften und Potentialen sowie von Vermögen,
Veranlagungen, Fähigkeiten. Da sie seit Jahrhunderten auch in der Alltagssprache
gebraucht werden, vermutet man kaum, daß sie einen dialektischen Charakter
besitzen könnten. Man wundert sich nicht einmal darüber, daß man Kräfte und
Fähigkeiten niemals sinnlich wahrnehmen kann, sondern nur ihre sogenannten
102
lassen sich Behauptungen formulieren, die wahr, falsch oder auch wahr-falsch
sein können. Diese sind die Kopula (ist), das allgemeine und das spezielle
(aristotelische) Zukommen, die urteilsbildende Negation (ist nicht) und der
Existenz- bzw. Produktjunktor (es gibt) sowie vier verschiedene Implikations-
junktoren (wenn ... dann). Die Unterscheidbarkeit der wird erst in einer regulären
Begriffspyramide sichtbar. Ihre traditionelle Nichtunterscheidung hat immer
wieder zu Problemen geführt, so daß man sogar mit Nelson Goodman vom
„Rätsel der Implikation“ sprach.
Die in der folgenden Figur eingezeichneten Pfeile drücken die Verknüpfungs-
richtung aus.
104
Allg. Implikation
↕↔
Wenn…dann
Die ausdrucksbildenden Junktoren lassen sich als widersprüchliche Begriffe in die Pyramide der
satzbildenden Junktoren einschreiben.
Allg. Implikation
↕↔
Wenn…dann
↕↔ Disjunktor vel
und/oder
↕ Allg. Aristotel. ↔ Korrelative
Zukommen Implikation
Gehört zu Wenn...dann
↕↔ Kon- ↕↔Alter-
↕↔
junktor native
und oder, aut
↕↔ Quantoren = Äquivalenz
und alle, einige, ein dist ↔
gleich, d. h.
Allgemeine Implikation
Die korrelierende Implikation wird hier ohne Pfeil notiert. Sie korreliert nur durch
Negation unterschiedene Begriffe.
Die beiden dihäretischen Arten (unter der Gattung der allgemeinen Implikation)
sind einerseits das allgemeine (aristotelische) „Zukommen“, das vertikal in beiden
Richtungen verknüpft. Sie ist seit langem außer Gebrauch und macht sich nur
bemerkbar, wenn untere Begriffe oberen Begriffen zugeordnet werden („Zukom-
men“ als „Inklusion“ von AB in A), oder wenn die (generischen) Merkmale
oberer Begriffe den in ihre Extensionen fallenden unteren Begriffen beigelegt
werden („Zukommen“ als Implikation von A in AB und AC). Andererseits die
korrelierende Implikation, die allgemein horizontal alle durch Negation bestimm-
baren Begriffe verknüpft. Nur die korrelierende Implikation ist zur Formalisierung
von Kausalverhältnissen (Ursache ... Wirkung) geeignet.
Die dihäretischen Unterarten des allgemeinen Zukommens sind das spezielle
„Zukommen“ (Inklusion) bzw. die formale Implikation, welche nur von oben nach
unten verknüpft, sowie die materiale Implikation, welche nur von unten nach
106
obenverknüpft. Die Kopula („ist“ bzw. „sind“) ist synonym mit der materialen
Implikation.
Dihäretische Unterarten der korrelierenden Implikation sind die Negation und
der Existenzjunktor, die horizontal in beiden Richtungen verknüpfen (nämlich die
Begriffe, die durch die Urteils-Negation „ist nicht“ unterscheidbar und korrelier-
bar sind).
Der Existenzjunktor („es gibt“) führt Begriffe in eine Pyramide ein. Er korreliert
Intensionen und Extensionen miteinander zur Einheit des Begriffs, d. h. er
„produziert“ Begriffe. In Anwendung auf inhaltliche Beispiele behauptet er die
Existenz eines dem Begriff entsprechenden Gegenstandes. Da reguläre Begriffe
auf der Induktion aus sinnlichen Wahrnehmungen beruhen, bezeichnen die durch
Negation unterschiedenen unteren Positionen die Extension, ihre gemeinsamen
Merkmale die Intensionen der so eingeführten Begriffe.
Existenzjunktor
„es gibt A“ , nämlich als induktiv gewonnene Gattung der durch
A Negation unterschiedenen Artbegriffe AB und AC
AB AC
Ausdrucksbildende Junktoren
Sie sind aus je zwei der oben genannten dihäretischen urteilsbildenden Junktoren
zu widersprüchlichen Junktorbegriffen verschmolzen. Dadurch heben sich deren
Funktionen für die Wahrheitswertbildung auf. Die ausdrucksbildenden Junktoren
haben daher keinen Wahrheitswert.
Die nicht-ausschließende Disjunktion („und/oder“ bzw. lateinisch „vel“) ist aus
dem allgemeinen Zukommen und der korrelierenden Implikation verschmolzen
und verknüpft in allen Richtungen. Konjunktion bzw. Adjunktion („und“) und
Alternative („entweder... oder“, lateinisch „aut ...aut“) spezifizieren diese Ver-
knüpfungsweisen. Der mathematische Summenjunktor („und“ im Sinne von
107
Das Subtrahieren ist eine Verknüpfung der logischen Konjunktion und der Nega-
tion zu einem Ausdruck von Differenzen. Logisch ist es, wenn man sagt „AB und
nicht AC“: Und das bleibt bei Anwendung auf Beispiele so lange logisch, wie der
Subtrahend kleiner ist als der Minuend. Es ist also logisch, daß man nicht mehr
„wegnehmen“ kann als „vorhanden“ ist. Nimmt man jedoch genau das weg, was
vorhanden ist, so wird das Subtrahieren dialektisch und kreativ. Die Subtraktion
109
definiert dann in widersprüchlicher Weise „Etwas und nicht Etwas“ als „Nichts“
und definiert somit die Null als Zahl (mathematisch „+ 2 -2 = 0“).
Die Dialektik setzt sich fort in der kreativen Definition der negativen Zahlen,
denn dabei wird mehr weggenommen als vorhanden ist. Logisch muß man sagen:
negative Zahlen sind zugleich negierte bzw. Nicht-Zahlen. Deshalb wurde ihr
Zahlcharakter von vielen Mathematikern bis in die Neuzeit bestritten. Als man im
Handel und Bankwesen den negativen Zahlen eine positive Bedeutung als Schul-
den oder Kredit zusprach, setzten sich auch die negativen Zahlen als spezifische
Zahlen in der Arithmetik durch. Noch Kant befaßte sich in seinem „Versuch, den
Begriff der negativen Größen in die Weltweisheit einzuführen“ 58 mit diesem
Problem. Er diagnostizierte ganz richtig den logisch widersprüchlichen Charakter
des Verfahrens und versuchte gleichwohl, die inhaltliche Anwendung des Ver-
fahrens als „Realrepugnanz“ antagonistischer Entitäten (wie z. B. Newtons Kraft
und Gegenkraft), als nichtwidersprüchlich darzutun.
Das Multiplizieren hat als logische Grundlage die Verschmelzung bzw. Fusion
beliebiger Intensionen zu Begriffen unter Zuweisung von Extensionen. Diese Ver-
schmelzung geschieht nicht mittels eines verknüpfenden Junktors. Wie sie funk-
tioniert wurde bei der Begriffsbildung vorgeführt. Die logische Fusion führt zur
„Produktion“ neuer Begriffe, seien sie regulär oder auch widersprüchlich. Bei-
spiele sind zusammengesetzte Begriffe wie das reguläre „Gast-Haus“ oder das
irreguläre „hölzerne Eisen“ (ein bekanntes sprachliches Oxymoron).
In der Arithmetik wird die Fusion auf Zahlen und Zahlausdrücke angewandt und
liefert dadurch mathematische „Produkte“. Als Rechenverfahren wird die Multi-
plikation auf wiederholtes Summieren zurückgeführt (3 2 = 2 + 2 + 2) und
dadurch erläutert und definiert. Die Multiplikation dient neben den anderen Re-
chenverfahren ebenfalls zur Definition der Zahlen. Im mathematischen Grund-
unterricht werden die Definitionen der Zahlen aus der dezimalen Zahlreihe am
häufigsten mittels des (kleinen) „Ein-mal-Eins“ auswendig gelernt.
Die traditionelle geometrische Veranschaulichung hat die Mathematiker an die
Kreativität der Produktbildung gewöhnt, so daß sie als „logisch“ erscheint. Man
stellt Zahlgrößen durch Strecken dar, die multipliziert Flächeninhalte (ein nicht-
streckenhaftes Produkt!) produzieren. Dabei wird grundsätzlich ausgeblendet, daß
es sich nicht um gleiche Strecken, sondern um Vektorstrecken (die in der Fläche
ganz verschieden ausgerichtet sind) handelt. Und nur so kann die Multiplikation
von Strecken (a b) zu einem nicht-streckenhaften Flächenprodukt („ab“) führen.
Dieses traditionelle Beispiel findet weite Anwendung bei der multiplikativen
Fusion unterschiedlich dimensionierter naturwissenschaftlicher Begriffe. Der
Physiker verschmilzt z. B. den Massenbegriff (m) mit dem Begriff einer Strecke
(s) und bildet so den Begriff „Arbeit“ (ms = Masse Weg). Wollte man das Ver-
58
I. Kant, Versuch, die negativen Größen in die Weltweisheit einzuführen, Königsberg 1763, in: I. Kant, Werke in sechs
Bänden, hgg. v. W. Weischedel, Darmstadt 1960, S. 777 – 819.
110
Das Potenzieren
Die Dialektik setzt sich fort in der Potenzbildung, also im sogenannten Poten-
zieren. Hierbei wird, logisch gesehen, etwas mit sich selbst verschmolzen, was
einerseits eines und dasselbe bleibt, andererseits auch etwas anderes sein kann.
Ersteres zeigt sich in der Einerpotenz (1 1 = 1), letzteres in den Potenzen aller
anderen Zahlen (z. B. 3 3 = 9).
Die Selbstfusion von etwas mit sich selbst und somit die Widersprüchlichkeit
des Potenzierens wird in der Mathematik durch die traditionelle Veranschau-
lichung an geometrischen Anwendungen dissimuliert. Daher spricht man bekannt-
lich seit Euklid von „Quadratzahlen“ (2. Potenz) und „Kubikzahlen“ (3. Potenz).
Diese Art der Begriffsbildung wird seit der Renaissance heuristisch und spe-
kulativ benutzt, um gewisse Probleme auf den Begriff zu bringen. So ist z. B. in
der Kinematik (Bewegungslehre) der Geschwindigkeitsbegriff (v, d. h. die Pro-
portion Wegeinheit zu Zeiteinheit) mit sich selbst zu „v²“ potenziert worden, um
damit die Beschleunigung zu erfassen. (Nach der vorn schon genannten Merton-
Regel wird allerdings Beschleunigung als „mittlere Geschwindigkeit zwischen der
langsamen Anfangs- und der schnelleren Endgeschwindigkeit, also als „ ½ v² “
definiert.) Man findet in der einschlägigen Literatur keinen Hinweis darauf, daß
Physiker sich darüber Rechenschaft gaben, daß sie damit einen Begriff bildeten,
der eine Proportion von flächenhaften „Streckenquadraten“ und „Zeitquadraten“
darstellt, die sich jeder Veranschaulichung hinsichtlich bewegter Massen entzieht.
Und das wird in der Regel damit begründet, daß es sich bei den Potenzbegriffen
um rein numerische und an Beispielen empirisch verifizierte Meßgrößen handele.
In der nichtmathematischen Begriffsbildung ist das Verfahren des Potenzierens
Grundlage für das Verständnis sogenannter reflektiver bzw. ipsoflexiver (selbst-
bezüglicher) Begriffsbildung in der Reflexionsphilosophie. Beispiele sind etwa
das „Denken des Denkens“ (aristotelische „noesis noeseos“) oder „Bewußtsein
von Bewußtsein = Selbstbewußtsein“). Diese Begriffsbildung wird jedoch ebenso
wenig wie der mathematische Potenzbegriff als dialektisch durchschaut und aner-
kannt.
Das Wurzelziehen
Das als Umkehrung des Potenzierens eingeführte Wurzelziehen bzw. Radizieren
zerlegt die Potenzzahlen in ihre Faktoren. Darauf beruht die Notation der Potenz-
zahlen, die die „Wurzel“ als Basis und die Anzahl der multiplizierenden Fusionen
als Exponent notiert, wie z. B. 32 oder auch 3x . Wurzelzahlen lassen sich insofern
aus allen durch Potenzieren definierte Zahlen ziehen. Läßt man diese Beschrän-
kung fallen, so wird auch das Radizieren kreativ für die Definition neuer Zahl-
arten, und zwar sogleich mehrfach. Einerseits definiert man so die irrationalen
Zahlen, die wir „ungenau“ nennen können (vgl. unten bei Division), andererseits
111
die sogenannten imaginären Zahlen als Wurzeln aus negativen Zahlen. Hinzu
kommt, daß dieselbe Potenzzahl sich aus positiven wie negativen Wurzeln glei-
cher Größe definieren (z. B. √4 = +2 und = –2). Wollte man diese doppelte
dialektische Definition an einem nicht-mathematischen Beispiel demonstrieren, so
könnte man sagen: „Der Wurzelbegriff des Selbst-Bewußtseins ist sowohl das Be-
wußte wie das Nicht- bzw. Unbewußte“.
Die Division
Das Dividieren bzw. die Teilung hat zur logischen Grundlage die logischen Quan-
toren. Es liegt auf der Hand, daß „einige A“ und „ein A“ Teile von „A“ (bzw. von
„allen A“) sind. Diese Teile sind in allen Bildungssprachen schon durch eigene
Wörter bezeichnet, wie etwa „Element von...“, „Hälfte“, „Drittel“ usw. Worauf es
ankommt ist, daß die Partikularisierungen stets das „alle“ bzw. „das Ganze“ im
Blick behalten. Daher entsteht das Rechenverfahren der Division aus einer Ver-
schmelzung bzw. Fusion des Allquantors mit den Partikularisierungsquantoren.
Logisch könnte man dies „Teil-Ganzes“ nennen. Das erklärt, daß der mathemati-
sche Quotient als Ergebnis der Rechenoperation Division ebenfalls nur einen Teil
eines Ganzen definiert.
Logische Teilungen eines Ganzen können über „Teilbereiche“ nur bis zu
„Elementarteilen“ (was immer man in Beispielen dafür hält) führen. So ist es ganz
logisch, daß man All- oder Ganzheiten, die aus Einheiten bestehen, in vielfacher
Weise in ihre Teile bis zu den Einheiten zerlegen kann. Wobei das Divisions-
verfahren z. B durch die Rechengleichung „6 : 3 = 2“, wie gesagt, nur den
Zahlenwert eines Teils definiert. Die beim Teilen entstehenden übrigen Teile ver-
schwinden gleichsam im mathematischen Nirvana. Und dies ist logisch und
didaktisch die Grundlage für das Erlernen des Divisionsverfahrens.
Das mathematische Teilungsverfahren geht dialektisch darüber hinaus und wird
kreativ für die Definition neuer Zahlarten, nämlich der Bruchzahlen oder kurz: der
Brüche und insbesondere der sog. unendlichen Brüche. Die „elementare Einheit“,
aus der nach Euklid alle Zahlen zusammengesetzt werden, erscheint hierbei zu-
gleich als logische Einheit und als Allheit. Sie kann darum in noch „elementarere
Einheiten als die Zahleinheit“ zerlegt bzw. „zerbrochen“ werden. Darauf beruht
schon die übliche Notierung der Brüche als „1/2“, „1/3“, „1/4“ usw. gemäß den
sprachlichen Bezeichnungen „eine Hälfte“, „ein Drittel“ und „ein Viertel“ (immer
hinzugemeint: von einem Ganzen), usw.
Die Notation der Bruchzahlen mittels des Bruchstriches („ / “) ist zugleich eine
Formalisierung der Rechenaufgabe. Das Divisionsergebnis, das man speziell
„Quotient“ nennt, ist jedoch nur eine Umformung in die Dezimalnotation mittels
der Äquivalenz-Gleichung, d. h. von der Bruch- in die Dezimalform (1/2 = 0,5).
Dabei erweist sich wiederum der kreative dialektische Charakter des Verfahrens
bei der Definition der „unendlichen“ Brüche. „1/2 = 0,5“ definieren sich gewiß
gegenseitig. Aber schon der einfache Quotient „1/3“ ist nicht in dezimaler Form
definierbar. Die Gleichung „1/3 = 0,333...“ (bei Abbruch der Rechnung an belie-
112
biger Stelle hinter dem Komma) liefert ersichtlich keinen genauen dezimalen Zah-
lenwert. Sie definiert daher logisch gesehen ungenaue Zahlen (sog. „Grenzwerte“
von Reihen) als eine besondere „ungenaue“ Zahlart neben denjenigen Zahlen, die
man „genaue Zahlen“ nennen kann. Die Gleichung ist dann zugleich (dialektisch!)
keine Gleichung bzw. sie wird eine Ungleichung.
Die Division hat ebenso wie das Multiplizieren und Potenzieren zu höchst
kreativen Begriffsbildungen in der Mathematik und ihren Anwendungen geführt.
Die übliche Formulierung von Divisionsaufgaben (als Rechenoperation) ist selbst
zugleich Ausdruck für Proportionen, bei der die proportionierten Größen bzw.
Dimensionen selbständige Begriffe sind. Das hat auch Euklid in seinen „Elemen-
ten“ berücksichtigt, als er die Proportionen von den Teilungen unterschied.
Proportionen sind Teilungen, bei denen berücksichtigt wird, daß dabei nicht nur
ein „Quotient“, sondern ebenso viele „Quoten“ entstehen, wie der Divisor vorgibt.
Diese für den Praktiker jederzeit anschauliche und verständliche Operation wäre
eigentlich formal z. B. als „6 / 3 = 2 3“ zu notieren. Das ist in der Mathematik
jedoch ausgeschlossen, weil es als Ungleichung und „falsche Rechnung“ verstan-
den würde.
Und doch werden diese Proportionen als gemeinsprachige Ausdrücke häufig
verwendet, z. B. bei der Angabe von Wettkampfergebnissen („Eins zu Drei“ oder
umgekehrt, etwa bei Ergebnissen von Fußballspielen). Es würde wohl niemandem
einfallen, Fußballergebnisse in der Weise einer Divisionsaufgabe auszurechnen,
also das obengenannte „Eins zu Drei“ auszurechnen und als ein Drittel bzw.
0,333... (oder umgekehrt: 3/1 bzw. 3,0) anzugeben.
Das Beispiel kann darauf aufmerksam machen, daß es logisch auszuschließen
ist, eine quantifizierte Proportion als Divisionsaufgabe auszurechnen. Die Aus-
rechnung von Proportionen führt jedoch in der Mathematik zu Definitionen einer
Reihe genuin mathematischer und in Anwendungen physikalischer Begriffe. Als
Beispiel wurde schon die Proportion von Kreisumfang und Kreis-Durchmesser als
Quotient genannt, die mit dem (stets ungenau bleibenden) Zahlenwert 3,14159...
ausgerechnet wurde. Das Ergebnis ist die Definition der Naturkonstante Pi (π), die
für alle Kreise aller beliebigen Größen gilt.
Der mathematische Formalismus erzwingt jedoch nach der Zulassung der Null
als Zahl auch die Ausrechnung von Divisionsproblemen, bei denen Nullwerte im
Dividenden oder Divisor vorkommen. Die Rechenergebnisse reichen dann ins
Infinite und Infinitesimale. Dabei ist man allerdings nicht konsequent geblieben.
Man hat solche Rechenausdrücke als „sinnlos“ bzw. unzulässig „verboten“. Dies
aber erzeugte den Bedarf, auf andere Weise mit dem sich hier zeigenden Infi-
nitesimalproblem umzugehen. Und das Ergebnis war die Einführung einer beson-
deren Quotientenart: des sogenannten Differentialquotienten.
Bei den Differentialquotienten tritt die arithmetische Dialektik dem Logiker wohl
am eindrucksvollsten entgegen. Es handelt sich um ein Divisionsverfahren mit
113
„Zahlen, deren Zahlenwert unter jede bestimmbare Größe hinabreicht und sich
asymptotisch der Null annähert (d. h. ohne sie zu erreichen)“. Logisch wird man
solche „Zahlen ohne Zahlengröße“ als Nichtzahlen bezeichnen. Die Buchstaben-
rechnung war jedoch das geeignete Mittel, diese dialektische Eigenschaft als
irrelevant erscheinen zu lassen. Und so wurden diese „hybriden“ nicht-zahlhaften
Zahlen als „Infinitesimalzahlen“ zugelassen und buchstabenmäßig (was dann
„algebraisch“ genannt wurde) wie Zahlen behandelt. Daraus hat sich eine ganze
mathematische Disziplin, die „Infinitesimalmathematik“ entwickelt.
Nun sollte man nicht erwarten, daß in der Mathematik angesichts ihrer rein
„theoretischen“ (d. h. unanschaulichen) Ausrichtung überhaupt etwas unendlich
Kleines (Infinitesimales) oder auch unendlich Großes (Infinites) vorkommen
könnte, da sich Großes und Kleines und ungeheuer Großes oder winzig Kleines
ausschließlich in der sinnlichen Anschauung findet. Hier hat man dasjenige, was
man bei der Beobachtung mit bloßem Auge unendlich klein und unendlich groß
nennt, mit Mikro- und Teleskop ziemlich vergrößert oder verkleinert. Die Infini-
tesimalmathematik empfiehlt und plausibilisiert sich daher mit dem (allerdings
metaphorischen) Versprechen, gewissermaßen in eine Feinstruktur der Zahlen
(und ebenso in eine Megastruktur des Zahlenkosmos mittels der Cantorschen
„Mächtigkeiten“ von Zahlsystemen) einzudringen. Ein Mathematiker bekennt
dazu: „In den letzten 200 Jahren hat sich dieser Zweig der Mathematik zu einem
umfassenden Hilfsmittel der Naturwissenschaften entwickelt. Er ist immer noch
nicht völlig erforscht.“ 59
Daß hier noch viel Forschungsbedarf besteht, kann den Logiker nicht verwun-
dern. Das wird auch so bleiben, wenn man sich in der Infinitesimalmathematik
nicht über die hier waltende Dialektik im klaren ist. Und das war schon so, als
besonders George Berkely das infinitesimal-geometrische Verfahren von Leibniz
und das physikalisch-mechanische Fluxions-Verfahren von Newton als dialek-
tisches Unternehmen analysierte und kritisierte.
Die Preußische Akademie der Wissenschaften hatte dies in einer Preisfrage für
das Jahr 1784 über das Wesen des Unendlichhen so formuliert:
„Man weiß, daß die höhere Geometrie kontinuierlich vom unendlich Großen und
unendlich Kleinen Gebrauch macht. Indessen haben die Geometer, und sogar die
antiken Analysten, sorgfältig alles vermieden, was mit dem Unendlichen zu tun hat;
und berühmte Analysten unserer Zeit bekennen, daß die Termini unendliche Größe
widerspruchsvoll sind. Die Akademie verlangt also, daß man erkläre, wie man aus
einer widerspruchsvollen Annahme so viele wahre Sätze deduziert hat, und daß man
ein sicheres und klares, d. h. wirklich mathematisches Prinzip angebe, das geeignet
ist, das Unendliche zu ersetzen, ohne die Forschungen, die darauf beruhen, zu
schwierig oder zu lang zu machen.“ 60
59
R. Knerr, Goldmann Lexikon Mathematik, Art. „Infinitesimalrechnung“, München 1999, S. 163.
60
Nouveaux Mémoires de l‟Académie Royale des Sciences et Belles-Lettres, Berlin 1784, S. 12: „On sait que la haute
Géometrie fait un usage continuel des infiniment grands et des infiniment petits. Cependant les Géometres, et mȇme les
Analystes anciens, ont évité soigneusement tout ce qui approche de l‟infini; et de grands Analystes modernes avouent que
les termes grandeur infinie sont contradictoires. L‟Académie souhaite donc qu‟on explique comment on a déduit tant de
théoremes vrais d‟une supposition contradictoire, et qu‟on indique un principe sȗr, clair, en un mot vraiment mathématique,
114
Eine Antwort vom logischen Standpunkt hätte auch damals lauten können: Der
Differentialquotient, der ausschließlich in Buchstabenzeichen (δx/δy) dargestellt
wird, bleibt logisch immer eine nicht auszurechnende Proportion (wie bei den
Fußballergebnissen). Die Proportion wird aber (wie im Falle von Pi) als Quotient
bzw. Divisionsaufgabe behandelt und (wenn auch nur buchstabenmäßig) „ausge-
rechnet“. Das Ergebnis wird dann als neu definierter mathematischer Begriff
behandelt, dessen Widersprüchlichkeit keine mathematische Besonderheit dar-
stellt, wie es die Preisfrage der Preußischen Akademie unterstellt, da sie dem dia-
lektischen Verfahren der üblichen mathematischen Begriffsbildung entspricht.
G. W. Leibniz hatte das dialektische Verfahren dadurch begründet, daß er alle
Begriffe kontinuierlich bzw. „stetig“ in einander übergehen ließ. Dafür postulierte
er seine berühmte „Lex continuationis“61. Dies „Gesetz“ steht in offenbarem Wi-
derspruch zur logischen Begriffsbildung und Begriffsunterscheidung, wonach
grundsätzlich keine Kontinuität zwischen Begriffen bestehen kann, da sie gerade
durch ihre gegenseitige Abgrenzung (griech. peras, lat. definitio, im Gegensatz
zum apeiron als „Infinitem) zu Begriffen werden.
Die Widersprüchlichkeit zeigt sich in dem von Leibniz in die Geometrie ein-
geführten Begriff vom „Grenzübergang“, der einerseits eine Abgrenzung der Be-
griffe voraussetzt, andererseits diese Grenze negiert. Was hier eine Grenze über-
schreitet, gehört somit beiden Bereichen diesseits und jenseits der Grenze zugleich
an. Ersichtlich lassen sich daraus widersprüchliche geometrische Urteile über das-
jenige deduzieren, was einerseits zum Bereich diesseits, andererseits jenseits der
Grenze gehört und zugleich beiden Bereichen gemeinsam sein soll. Und dies
beantwortet die Akademie-Preisfrage nach der Fruchtbarkeit des Verfahrens. Na-
turgemäß weisen Leibnizens Beispiele aus der projektiven Geometrie der „in
einander übergehenden“ Kegelschnitte eben dieselbe kreative Dialektik auf. Und
das gilt nicht minder für alle erst im 19. Jahrhundert entwickelten Kontinui-
tätstheorien der Zahlentheorie (Dirichlet).
Leibnizens Hauptbeispiel für die Deduktion des Differentialquotienten ist eine
geometrische Strecke (die Sekante einer Kurve), die „im Grenzübergang“ in einen
geometrischen Punkt (Berührungspunkt einer Tangente) übergeht. Übrigens ein
Beispiel, das auch Nikolaus von Kues schon in vielen Variationen diskutiert
hat.62 Im Grenzübergang kann daher die Strecke zugleich Punkt und Strecke sein.
Der dialektische Begriff „Grenzübergang“ wurde nachfolgend aber nicht auf die
Grenze zwischen Strecken und Punkten beschränkt, sondern in der Geometrie
allgemein auf alle Punkte einer Strecke (oder Kurve) angewandt, die dann zu-
gleich auch Strecken in einem Punkte sein sollten. Das konnte logisch nur be-
propre à ȇtre substituté à l‟Infinie, sans rendre trop difficiles, ou trop longues, les recherches qu‟on expédie par ce moyen”
(zit. nach G. W. F. Hegel, Ges. Werke, Band 7, Hamburg 1971, Anhang S. 369f. Hier auch die Titel der eingereichten und
weiterer Arbeiten).
61
G. W. Leibniz, „Principium quodam generale“ / „Über das Kontinuitätsprinzip“, in: Hauptschriften zur Grundlegung
der Philosophie I, hgg. von E. Cassirer, Leipzig 1904, auch Hamburg 1966, S. 84 – 93.
62
Nikolaus von Kues, „De mathematica perfectione / Über die mathematische Vollendung“, in: Nikolaus von Cues, Die
mathematischen Schriften, hgg. v. J. Hofmann und J. E. Hofmann, Hamburg 1952, S. 160 – 177.
115
deuten, daß alle Punkte auf einer Strecke zugleich als „Strecken-Punkte“ und die
Strecken in einem Punkte als „Punkt-Strecken“, d. h. als ausgedehnt und zugleich
nicht-ausgedehnt definierbar wurden.
Isaak Newton hat diesen dialektischen Begriff „Fluente“ genannt. Sein Haupt-
beispiel entstammt der physikalischen Kinematik: Die Geschwindigkeit einer
physikalischen Bewegung bliebe danach auch in einem „Zeitmoment“ (d. h. in
einem Zeit-Punkt) erhalten. Logisch widerspruchslos läßt sich allerdings nur be-
haupten: Eine Strecke ist kein Punkt; und eine durch Raum- und Zeiter-
streckungen definierte Geschwindigkeit läßt sich nicht auf einen Punkt über-
tragen, denn dies wäre allenfalls ein „Ruhepunkt“ (was übrigens Zenon, der
Schüler des Parmenides, schon in der Antike und Nikolaus von Kues im Über-
gang vom Mittelalter zur Neuzeit demonstriert hatten).
Sicher dient es zur Dissimulierung dieses Widerspruchs im Begriff des Diffe-
rentialquotienten, daß er in Lehrbüchern immer noch anhand von Leibnizens
geometrischer Veranschaulichung als „Grenzübergang“ von einer Sekanten-
Strecke zu einem Tangenten-Punkt einer Kurve dargestellt wird. Man hat sich so
sehr daran gewöhnt, daß diese Demonstration nicht mehr als widersprüchlich
durchschaut wird, wenn damit behauptet wird, die Eigenschaften einer Strecke
(bezüglich ihrer Lage im Raum) blieben auch im unausgedehnten Punkt erhalten.
Die Folge ist, daß man dann auch in der Physik von „Punktgeschwindigkeiten“
redet, wo logisch nur das Gegenteil von Geschwindigkeit, nämlich „keine Ge-
schwindigkeit“ angetroffen werden kann. Werner Heisenberg hat, wie schon
vorne erwähnt, mit seiner „Unschärferelation“ bei sogenannten konjugierten phy-
sikalischen Größen aus der Not dieses Widerspruchs die Tugend einer onto-
logischen Eigenschaft der Mikro-Natur gemacht.
5. Die Definitionen
zu formulieren als: „wenn y dann (f)x“. Als Implikationen sind diese Funktionen
Behauptungen und haben daher Wahrheitswerte (Über behauptende Funktionen
mit Wahrheitswerten siehe unten bei Urteil).
Urteile machen den Bestand des Wissens aus. Sie können wahr, falsch oder beides
zugleich sein. Letzteres im Falle der widersprüchlichen Urteile bzw. der Wahr-
scheinlichkeitsurteile. Sie sind immer allgemein, wie die stoische Logik gegen
Aristoteles mit Recht annahm. Und zwar, weil die sogenannten partikulären und
individuellen Urteile, wie gezeigt, Definitionen ohne Wahrheitswerte sind.
Wahre Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Wahrheitsdefinition.
Beispiele für wahre Urteile in der pyramidalen Formalisierung
1. 2. 3.
A A alle AB sind nicht AC =
kein AB ist AC,
wenn AB dann AC
A kommt allen
AB alle AB sind A = AB AB zu = AB AC
wenn AB dann A wenn A dann AB
Die materiale und die formale Implikation können nicht zur logischen Forma-
lisierung von Kausalrelationen dienen. Dies offensichtlich deshalb, weil Begriffe
nicht kausale Ursachen von einander sind. Die übliche Rede von „logischen
Gründen“ verführt aber häufig zu Verwechslungen von logischen und kausalen
„Gründen“.
Die korrelative Implikation dient einerseits zur Formalisierung von beliebigen
Nebeneinanderstellungen. Sie ist jedoch auch die formale Gestalt von Kausal-
relationen. Bei diesen bedarf es jedoch weiterer anwendungsbezogener bzw.
inhaltlicher Präzisierungen. Erstens muß ein zeitlicher Unterschied zwischen den
Bedeutungen der korrelierten inhaltlichen Begriffen vorausgesetzt werden.
Zweitens muß der inhaltliche Oberbegriff als Garant der kausalen Verknüpfung
(das seit Hume gesuchte „innere Band“ zwischen Ursache und Wirkung) bekannt
und bestimmt sein.
Falsche Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Falschheitsdefinition. Diese
ergeben sich im Formalismus der Pyramide am einfachsten durch regelwidrige
(„verkehrte“) Lesung der satzbildenden Junktoren: z. B. der Kopula als negierte
Kopula und umgekehrt; oder einer der Implikationen, z. B. der Korrelation als
materiale oder formale Implikation, und umgekehrt.
118
1. 2. 3.
alle AB sind AC /
A A alle AC sind AB
Verwechselung von Unter- und Oberbegriffen (4 u. 5) und von Nebenarten mit Unterordnung
4. 5. 6.
AB
B
AB
A AB A
1 2. 3.
A A wahr als korrelative Impl.
falsch als formale
wahr als materiale I. wahr als formale I. und als materiale Implikation
falsch als formale und falsch als mat. I. und
AB
als korrelative Impl. AB
als korrelative Impl. AB AC
4. 5. 6.
A -A AB AC
Wahr-falsches Urteil als
wahr-falsch wahr-falsch als Ur- wahres neg. U. und falsches
als Urteil mit teil mit widerspr. kopulatives Urteil
widerspr. Prädikat Subjekt
AB ABC AB AC
alle AB sind A und -nicht A alle ABC sind AB und AC alle AB sind AC und nicht AC
119
63
„Probabile verum est, quod plerisque aut sapientioribus probatur, hoc est verum censetur“, Joachim Jungius, Logica
Hamburgensis, hgg. v. R. W. Meyer, Hamburg 1957, S. 2 und S. 403.
121
64
I. Kant‟s Logik. Ein Handbuch zu Vorlesungen, hgg. v. G. B. Jäsche, erl. v. J. H. v. Kirchmann, Leipzig 1876, S. 90.
122
Der logische Musterfall dieser Verhältnisse ist der Münzwurf. Man weiß mit
Sicherheit, daß die geworfene Münze Bild oder Zahl zeigen wird, aber man weiß
nicht, welche Seite sich zeigen wird. Wenn die Münze auf dem Rand stehen
bleibt, gilt dies nicht als Münzwurf. Die logische und zugleich mathematische
Formulierung des Falles aber lautet: die Wurfergebnisse stehen im Verhältnis von
1 : 1 (oder „fifty-fifty“). Man beachte dabei, daß es sich bei dieser Formulierung
um eine Proportion (wie beim Fußballspiel), keineswegs aber um einen aus-
rechenbaren Quotienten handelt.
Man sieht, daß die Wahrscheinlichkeiten (auch „Chancen“ genannt) für den
einen und den anderen Fall der Münze gleichverteilt sind. Man kann auch sagen:
Wahrheit und Falschheit der Prognose sind im Gleichgewicht. Was wiederum
bedeutet, daß man mittels der logischen Wahrscheinlichkeit überhaupt nichts über
das prognostizierte Ergebnis behaupten kann.
Mathematiker berechnen die „statistische Wahrscheinlichkeit“ mittels ausge-
rechneter Quotienten. So ergeben sich Wahrscheinlichkeits- (oder „Risiko-“) Ko-
effizienten. Darüber soll im § 10 mehr gesagt werden. Jedenfalls kann schon
festgehalten werden, und jedes Beispiel numerischer Wahrscheinlichkeiten zeigt
es, daß die logische Halbe-Halbe-Wahrscheinlichkeit immer auf alle mathema-
tischen („statistischen“) Wahrscheinlichkeiten durchschlägt. Letztere mögen hoch
oder niedrig sein, das Ergebnis ist im Einzelfall immer gänzlich unbestimmt.
Selbst das Höchst-Wahrscheinliche passiert manchmal gerade nicht, und das
Unwahrscheinlichste passiert.
Deshalb kann man mit Wahrscheinlichkeitsaussagen – je nach Standpunkt –
immer Recht behalten oder immer falsch liegen.
7. Schlüsse.
Implikative Urteile sind zugleich einfachste Schlüsse. Komplexe Schlüsse, auch
Argumente genannt, sind Urteilsverbände, wie die aristotelischen Syllogismen
und die stoischen (chrysippschen) Schlüsse.
Man bemerke, daß sich bei den Urteilsimplikationen als einfachsten Schlüssen
nicht die Frage nach einem „falschen“ ersten oder zweiten Schlußglied stellen
kann, da diese selbst nur Begriffe, jedoch keine wahrheitswertfähigen Urteile sind.
Aristotelische Syllogismen sind Argumente aus drei Begriffen, deren inten-
sionale und extensionale Verflechtungen in einer Begriffspyramide durch Urteile
und/oder Definitionen klar und deutlich dargestellt werden. Ihre Subsumptions-
verhältnisse im Gattungs-Art-Individuum-Zusammenhang werden durch die Ko-
pula bzw. die materiale Implikation (oder beides zusammen) von unten nach oben,
oder (wie oft bei Aristoteles) durch das spezielle „Zukommen“ bzw. die formale
Implikation (oder beides zusammen) von oben nach unten dargestellt. Ihre Unter-
scheidungen von Nebenbegriffen werden durch die Negation dargestellt.
Da hierbei alles auf die Unter- und Nebenordnung der drei Begriffe des Syl-
logismus ankommt, spielen in den aristotelischen Syllogismen die Quantifi-
kationen die Hauptrolle. Die Nebenordnung kann durch die Negation eines Be-
griffs („kein ... ist“) oder durch die Negation der Kopula („.... ist nicht“) dar-
gestellt werden. Die in vielen aristotelischen Syllogismen enthaltenen sogenann-
ten partikulären bzw. individuellen Urteile sind als Definitionen zu lesen (statt
„ist“ lies „das heißt“).
Alle klassischen Syllogismen des Aristoteles lassen sich auf drei Verknüpfungs-
schemata zurückführen. Diese sind nicht mit den sog. syllogistischen Figuren des
Aristoteles zu verwechseln. Sie sehen folgendermaßen aus:
65
R. Knerr, Goldmann Lexikon Mathematik, München 1999, S. 131.
124
A A
AB AB AC AB AC
ABD ABD
Erklärung: In der „Leiter“ wird eine Unterart bzw. ein Individuum mit einem
Artbegriff, dieser mit seiner Gattung und im engeren „Schluß“ ersteres mit letzte-
rem verknüpft. Im Beispiel: Alle Hunde sind Tiere. Alle Tiere sind Lebewesen.
Also sind alle Hunde Lebewesen (modus barbara).
Im „Riß“ werden Unterart und Artbegriff verknüpft und beide durch Negation
von einer Nebenart unterschieden. Im Beispiel: Alle Hunde sind Tiere. Kein Tier
ist Pflanze. Also ist keine Pflanze Hund (modus calemes).
In der „Spitze“ werden zwei Artbegriffe gegeneinander abgegrenzt und mit ihrer
Gattung verknüpft. Im Beispiel: Kein Tier ist Pflanze. Alle Tiere sind Lebewesen.
Also sind (eigentl. =) einige Lebewesen Nicht-Pflanzen (modus felapton). Der
Schluß i. e. Sinn ist eine Definition von „Tier“ durch Negation der Nebenart
„Pflanze“!
Die von Aristoteles als „gültig“ dargestellten und in einem berühmten Merk-
spruch benannten Syllogismen spielen sämlich in diesen Figuren. Jedoch sind
nicht alle echte Syllogismen, da in einigen mittels negativer Definitionen mit
mehr als drei Begriffen „gespielt“ wird.
Die sogenannten stoischen Schlüsse (Chrysipps fünf „Unbeweisbare“ bzw.
„Indemonstrablen“) sind Argumente, in denen zwei Begriffe in einem pyrami-
dalen Zusammenhang gemäß den möglichen junktoriellen Verknüpfungen ein-
geführt („es gibt...“) oder eliminiert werden („es gibt nicht...“). Sie bestehen aus
einem hypothetischen bzw. nicht-behauptenden Anteil (falls es gäbe, ... so gäbe es
auch …), der sprachlich im Konjunktiv formuliert wird, und einem behauptenden
Anteil, den im engeren Sinne sogenannten Schluß (nun gibt es... also gibt es … /
gibt es nicht …).
Der Einführung oder Eliminierung eines Begriffs in den oder aus dem pyrami-
dalen Formalismus entspricht gemäß dem nicht-formalen Logikverständnis der
Stoiker die inhaltliche Behauptung oder Negierung der wirklichen Existenz von
Gegenständen, die unter den jeweiligen Begriff fallen. Die Schlüsse i. e. S.
behaupten daher die Existenz oder die Nichtexistenz des unter den einen Begriff
125
a. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im disku-
tierten Beispielsfall) eine Ursache. Also gibt es (auch) eine Wirkung (modus ponens).
b. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im
diskutierten Beispielsfall) keine Wirkung. Also gibt es (auch) keine Ursache (modus
tollens).
c. Es gäbe nicht (gleichzeitig) eine Ursachen und eine Wirkung. Nun gibt es aber eine
Ursache. Also gibt es (noch) nicht eine Wirkung.
d. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Bei-
spielsfall eine Ursache. Also gibt es (noch) keine Wirkung.
e. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Bei-
spielsfall) keine Wirkung. Also gibt es (erst nur) eine Ursache. 67
66
Sextus Empiricus, Pyrrhoneische Grundzüge, aus dem Griechischen übersetzt und mit einer Einleitung und Erläute-
rungen versehen von Eugen Pappenheim, Leipzig 1877, 3. Buch Kap. 3,26, S. 170.
67
Vgl. die Darstellung der fünf „Unbeweisbaren“ bei J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg-München 1970,
S. 145f.
126
Die moderne Aussagenlogik steht zwischen der traditionellen Urteilslehre und der
Schlußlehre. Es werden beliebige inhaltliche Urteile („Aussagen“ bzw. sog. Ele-
mentarsätze als Beispielsfälle) in die Begriffspositionen eingesetzt, so daß die
Junktoren nicht mehr Begriffe, sondern selbständige wahre oder falsche Urteile zu
komplexen Aussagen verknüpfen. Diese komplexen Aussagen ähneln den Ver-
knüpfungen von Urteilen zu Schlüssen.
Für die komplexen Aussagen werden je nach den darin verwendeten Junktoren
eigene Wahrheitswerte („wahr“ oder „falsch“; ein dritter Wahrheitswert wird
strikt ausgeschlossen) definiert bzw. festgesetzt. Die vorne satzbildende Junktoren
genannten Operatoren behalten ihre traditionellen (von den Stoikern detaillierter
als bei Aristoteles ausgearbeiteten) Definitionen.
Die ausdrucksbildend genannten Junktoren erhalten in der Aussagenlogik eben-
falls Wahrheitswert-Definitionen, deren Sinn rätselhaft erscheint und deshalb um-
stritten ist. Dies kann nicht verwundern, weil sie gar keinen Wahrheitswert besit-
zen können. Die für die Definitionen aller Junktoren aufgestellte „Wahrheits-
werttabelle“ 68 gilt als bedeutende Errungenschaft der modernen Logik. Obwohl
sich Wittgenstein selbst später vom damaligen Stand seiner Philosophie distanziert
hat, gehört der „Tractatus“ noch immer zum obligatorischen Lehrstoff der Logik-
seminare.
Die Aussagenlogik beruht auf zahlreichen fehlerhaften Annahmen, die mehr
Probleme in der Logik aufgeworfen als gelöst haben.
Die grundlegende (falsche) Voraussetzung ist das Vorurteil, die Logik insgesamt
sei eine Meta-Sprache. D. h. ihr „Vokabular“ (Variable und Junktoren) und ihre
„Grammatik“ (die Regeln der Verknüpfung der Vokabeln und Junktoren zu „Aus-
sagen“) erzeuge eine autonome logische Bedeutungsschicht mit eigenständiger
Wahrheit und/oder Falschheit über dem Bedeutungsbereich der normalen und der
inhaltlichen wissenschaftlichen Bildungssprachen, die jeweils ihre eigenen Wahr-
heitswerte besitzen. Das hat vielfach widersprüchliche oder gar paradoxe Folgen.
Sie bestehen darin, daß die definierten Wahrheitswerte der Meta-Sprache selbst in
Widerspruch zu den Wahrheitswerten der Beispielsätze geraten.
Wittgenstein hat selbst den Terminus „Elementarsatz“ eingeführt, aber niemals
ein Beispiel für einen Elementarsatz geliefert. Aus seiner Definition: „Der Ele-
mentarsatz besteht aus Namen. Er ist ein Zusammenhang, eine Verkettung, von
Namen“ (Tractatus 4.22) kann man aber schließen, daß er mathematische Aus-
drücke wie Summen, Quotienten, Produkte und ihre „Verkettungen“ für wahr-
heitswertfähige Behauptungssätze hielt. Das ist jedoch, wie gezeigt wurde, falsch.
68
Vgl. L. Wittgenstein im Tractatus logico-philosophicus. 1920/21 Satz 5.101, in: L. Wittgenstein, Tractatus logico-
philosophicus. Logisch-philosophische Abhandlung, Frankfurt a. M. 1963, S. 60. – Vgl. dazu die Darstellungen bei J. M.
Bochenski und A. Menne, Grundriß der Logistik, 4. Aufl. Paderborn 1973, S. 36f. sowie W. Stegmüller, Probleme und
Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band I: Wissenschaftliche Erklärung und Begründung,
Berlin-Heidelberg-New York 1969, S. 6 - 25.
127
Eine weitere (falsche) Voraussetzung Wittgensteins besteht darin, daß die in der
Aussagenlogik verknüpften „Elementarsätze“ (Basissätze) keinerlei thematischen
Kontext zu besitzen brauchen. Was Aristoteles durch den „Mittelbegriff“ als Zu-
sammenhang zwischen Prämissen und Folge garantiert hatte, ist also fallenge-
lassen worden. Das aber hat u. a. zur Folge, daß auch die Abfolge von Vorder-
und Hintersätzen (bzw. von Prämissen und Folgerungen) willkürlich gewählt
werden kann.
So lehrt die Aussagenlogik, die gewöhnlich beliebige Behauptungssätze als
Elementarsätze verwendet, z. B. folgende metasprachliche „Wahrheiten“: Werden
ein beliebiger wahrer und ein ebenfalls beliebiger falscher Satz durch den Junktor
„und“ zu einem aussagenlogischen Argument verknüpft, so hat das Argument ins-
gesamt den Wahrheitswert „falsch“. Werden ein beliebiger wahrer Satz und ein
beliebiger falscher Satz durch den Junktor „oder“ (hier ist das ausschließende
„entweder ... oder“, die Alternative, gemeint) zu einem Argument verknüft, so hat
das Argument den Wahrheitswert „wahr“. Wird ein beliebiger falscher Satz und
ein beliebiger wahrer Satz durch den Junktor „wenn ... dann“ (Implikation) zu
einem Argument verknüpft, so hat das Argument den Wahrheitswert „wahr“.
Wird in umgekehrter Reihenfolge ein beliebiger wahrer und ein beliebiger
falscher Satz durch den Implikationsjunktor zu einem Argument verknüpft, so hat
das Argument den Wahrheitswert „falsch“. Und werden zwei beliebige falsche
Satze durch den Implikationsjunktor zu einem Argument verknüpft, so hat das
Argument den Wahrheitswert „wahr“.
Die Formen dieser Argumentbildungen erscheinen nur deshalb in einigen Hin-
sichten als plausibel, weil sie die Urteilsbildung der klassischen Logik nach-
ahmen. Aber der Schein trügt.
Es wurde vorn schon gezeigt, daß in der klassischen Urteilslehre ausdrucks-
bildende Junktoren ohne Wahrheitswert und satzbildende Junktoren, die den
Wahrheitswert bestimmen, zu unterscheiden sind. Gerade diese grundlegende
Unterscheidung wird in der Aussagenlogik außer acht gelassen. Nimmt man die
Voraussetzungen der Aussagenlogik beim Wort, so muß man z. B. ganze Bücher
voller falscher Sätze mit einer daraus gefolgerten falschen These für „wahr“ hal-
ten. Und das kommt in den Wissenschaften nicht selten vor (und wird durch die
Aussagenlogik gleichsam abgesegnet). Der entscheidende Fehler, der viele andere
nach sich zieht, ist also der, den ausdrucksbildenden Junktoren bzw. Operatoren
generell und speziell auf der Meta-Ebene Wahrheitswerte zuzusprechen.
Geben wir noch einige Beispiele dieses Fehlers, die sich aus dem Meta-
Ebenenansatz ergeben. So muß z. B. eine „alternative“ Verknüpfung zweier belie-
biger wahrer Sätze (mit „entweder ... oder“) wie „entweder ist Paris die Hauptstadt
von Frankreich oder die Erde ist ein Planet“ für falsch gehalten werden. Man
bemerkt aber, daß es sich nicht um eine falsche, sondern überhaupt nicht um eine
Alternative handelt.
Ebenso gilt die Konjunktion (mit „und“) eines falschen und eines wahren Satzes
wie „Paris ist die Hauptstadt von Deutschland und die Erde ist ein Planet“ (ebenso
128
in umgekehrter Reihenfolge) als falsch. Zu verstehen dabei ist allenfalls, daß die
Konjunktion nach dem Muster der Widerspruchsfalschheit für falsch gehalten
wird, obwohl es sich keineswegs um einen echten Widerspruch handelt. Es
handelt sich vielmehr um eine bloße Nebeneinanderstellung eines selbständigen
wahren und eines falschen Satzes. Man sieht dabei nicht ein, warum die beiden
Sätze noch einen übergeordneten Meta-Wahrheitswert haben sollten.
Formalisiert man die Beispielsätze selbst (üblicherweise mit den Variablen für
ganze Behauptungssätze „p“ (= wahrer Satz) und „-p“ (falscher Satz), so verkennt
der gesamte Meta-Sprachenansatz und mit ihm die Aussagenlogik, daß durch
diese Formalisierung (p bzw. –p) der inhaltliche Beispielsatz seine eigene wahre
oder falsche Satz-Bedeutung verliert und ein nicht wahrheitswertfähiger Ausdruck
an seine Stelle tritt. „Wahrer Satz“ bzw. „falscher Satz“ sind nicht selbst wahre
oder falsche Behauptungen, sondern Bezeichnungen eines (logischen) Sach-
verhaltes. Dies ebenso wie die nebeneinandergestellten Ausdrücke „weiße Kuh
und schwarze Kuh“.
Die Aussagenlogik ist entwickelt worden, um komplexe Satzverknüpfungen als
Argumente formalisieren zu können. Tatsächlich lassen sich die behauptenden
komplexen Urteile (also solche mit satzbildenden Junktoren) in der Regel auf
syllogistische und stoische Schlußformen zurückführen. Als Hauptjunktor ver-
wendet man dann die Implikation (wenn ... dann) und interpretiert die damit
verknüpften Aussagen nach der scholastischen Faustregel: „Ex falso seqitur quod-
libet“ (Aus dem Falschen folgt Beliebiges, d. h. Wahres und Falsches) und „Ve-
rum sequitur ex quolibet“ (Wahres folgt aus Beliebigem, d. h. aus Wahrem und
aus Falschem).
Diese Faustregeln, die aus der scholastischen Syllogistik in die Aussagenlogik
übernommen worden sind, machen aber nur Sinn, wenn das „Beliebige“ als Wi-
derspruchsfalschheit (also als wahr und falsch zugleich) verstanden wird. Nur
wenn ein widersprüchliches Urteil wahr und falsch zugleich ist, kann sowohl
Wahres als auch Falsches daraus gefolgert werden. Und ebenso folgt das Wahre
nur dann aus Beliebigem, wenn das „Beliebige“ ebenfalls als widersprüchliches
Urteil sowohl wahr als auch falsch zugleich ist und damit das Wahre mitenthält.
Diese – eigentlich auf der Hand liegende – restriktive Bedingung für das Funk-
tionieren solcher Schlüsse hat aber weder die scholastische Logik noch die Aus-
sagenlogik anerkannt. Als logisches „Falsum“ wurden und werden einfach falsche
Beispielsätze (anstatt widersprüchliche Sätze) in die Faustregel-Schemata einge-
setzt, und man wundert sich dann oft über die Schlußfolgen.
Dieser traditionelle Fehler verbindet sich schließlich mit dem durch die Aus-
sagenlogik neu eingeführten weiteren Fehler, den wir schon genannt haben. Er
macht sich auch in den gerade genannten Beispielssätzen bemerkbar. Er besteht
darin, daß bei der Formalisierung der Argumente auf jeden begrifflichen Zusam-
menhang zwischen den Argumentsätzen verzichtet wird. Dieser „kontextuelle“
Zusammenhang bleibt jedoch für jede Schlußbildung eine wesentliche Bedingung.
In der Aussagenlogik wird aber aus beliebigen Sätzen und Ausdrücken und ihren
129
Verknüpfungsweisen durch die Junktoren auf die Wahrheit oder Falschheit des
Gesamtarguments geschlossen. Deshalb kann man auch nur aus der Aussagen-
logik (nicht aber aus einem aristotelischen Syllogismus) den „wahren Schluß“
lernen: „Wenn 4 eine Primzahl und Berlin die Hauptstadt von Frankreich ist, dann
ist die Erde kein Planet“. Pfiffige Geister können daraus den moralischen Schluß
ziehen: Glaubwürdigkeit ergibt sich auch durch konsequentes Lügen.
Die von L. Wittgenstein vorgeschlagene Wahrheitswerttabelle von 16 Wahr-
heitswerten für die Kombination zweier Elementarsätze hat seither durch ihren
mathematischen Charakter der Variation aller möglichen Nebeneinanderstellun-
gen zweier Elementarsätze mit ihnen zugelegten Wahrheitswerten fasziniert. Sie
dürfte der bislang letzte Ausläufer der Lullischen Kunst sein, die darin bestand,
alle Kombinationen von 9 Kategorien mechanisch zu erzeugen.69
Nach allem, was vorn über die logische Leistungsfähigkeit der Junktoren gesagt
wurde, dürfte klar sein, daß die Wahrheitswertdefinitionen der Aussagenlogik sich
insgesamt dem mathematischen „dialektischen“ Prozedere verdanken.
Daher wird z. B. die Kopula, sicher der wichtigste, weil in der Logik meistge-
brauchte Junktor, überhaupt nicht definiert, sondern mit dem Gleichheitszeichen
und dem Existenzjunktor gleichgesetzt (Tractatus 3.323). Die vieldiskutierte
„Tautotologie“ mit dem Wahrheitswert „immer wahr“, mit der Wittgenstein gar
das Wesen der Logik erfaßt haben wollte, besteht in einer (nicht wahrheits-
wertfähigen) Konjunktion zweier (widersprüchlicher) Selbstimplikationen („Wenn
p, so p; und wenn q so q“).70 (Die „Kontradiktion“ mit dem Wahrheitswert „im-
mer falsch“, wird gleichsam spiegelbildlich als Konjunktion zweier wider-
sprüchlicher Satzvariablen dargestellt („p und nicht p; und q und nicht q“). Es sei
dem Leser überlassen, sich über den Unterschied der logischen und mathema-
tischen Denkweise anhand solcher Belege weiter klar zu werden.
8. Theorie
Theorien sind logisch geordnete Begriffspyramiden über einem abgegrenzten Er-
fahrungsbereich. Basisbegriffe einer Theorie sind unterste Artbegriffe bzw. Be-
schreibungstermini oder Eigennamen. Alle anderen Begriffe sind induktiv durch
Weglassen der spezifischen Differenzen und Festhalten der gemeinsamen generi-
schen Merkmale aus diesen zu abstrahieren. Das gilt insbesondere für die höch-
sten Gattungsbegriffe, die sogenannten axiomatischen Grundbegriffe oder Kate-
gorien der Theorie.
Beachtet man nur die Begriffe einer Theorie, ohne auf die Relationen zwischen
ihren Begriffspositionen Rücksicht zu nehmen, so hat man es mit dem zu tun, was
man als den „harten Kern“ (hard core) einer Theorie bezeichnen kann. Über diese
Begriffe zu verfügen, nennt man wissenschaftliche Kenntnisse. Erst die Notierung
69
Vgl. dazu L. Geldsetzer, Metaphysik. Einleitung und Geschichte der antiken und mittelalterlichen Metaphysik. Internet
des Philosophischen Instituts der HHU Duesseldorf 2009.
70
Vgl. jedoch dazu Tractatus 4.243: „Ausdrücke wie ‚a = a‟, oder von diesen abgeleitete, sind weder Elementarsätze,
noch sonst sinnvolle Zeichen“!
130
A
Erinnerung
absoluter Geist
Vern. Wissen
ABC
Schaffen
AB Taten AC
Selbstbewußt Institutionen
sein,Person Normen
ABDE
Handeln
ABD Begierde ABE ACP ACQ
unglückl. Be- freies Herren- Sitte Recht
wußtsein Bewußtsein
ABDFG
Begreifen
ABDF Begriff ABDG ABEN ABEO
Totes Äuße- Inneres Leben "stoisches" "sekptisches"
res, Sinne Verstand Bewußtsein Bewußtsein
ABDFHI
Wahrnehmung ABDGLM
ABDFH Täuschung ABDFI ABDGL Erklärung ABDDGM
Allgemeines Einzelnes, Kraft Gesetz
Dieses, sagen Meinen
ABDFHJK
ABDFHJ Erfahrung ABDFHK
Ding, Objekt Ich, Subjekt
Erläuterung: Hegel beginnt mit der Induktion der „Erfahrung“, in welcher die
beiden sich dihäretisch gegenüberstehenden Instanzen Objekt und Subjekt bzw.
Ding und Ich zu einem dialektischen Begriff verschmolzen sind. „Erfahrung“
enthält die spezifischen Merkmale des Objektiven (…J) und Subjektiven (…K)
gemeinsam. Werden diese weggelassen, so wird der Begriff des „Allgemeinen“
bzw. des als „Dieses … Sagbare“ als Oberbegriff der beiden Ausgangsbegriffe
erreicht. Dem „Allgemeinen“ (…H) steht im Negationsverhältnis gegenüber der
Begriff des „Einzelnen“ (…I) bzw. des nur „Meinbaren“. Allgemeines und Be-
sonderes bzw. das Sag- und Meinbare werden zum dialektischen Begriff dessen,
was zugleich „Wahrnehmung” und „Täuschung“ ist, verschmolzen. Wird von den
gemeinsamen spezifischen Differenzen (…HI) abgesehen („aufheben 1“), gewinnt
man den höheren Begriff des durch die „Sinne wahrgenommenen Äußeren” und
„Toten“ („aufheben 2“). Diesem steht im Negationsverhältnis gegenüber das
durch den „Verstand zu erfassende innere Leben“. Usw. bis zur letzten Induktion
des „absoluten Geistes“ mit seinen „Er-Innerungen“ des gesamten Induktions-
prozesses.
Man bemerke, daß Hegel nicht alle Begriffe als „dialektische“ konstruiert,
sondern daß er dialektische Begriffe als eine Stufe der Begriffsinduktion ein-
schaltet. Gelegentlich deduziert er aus der erreichten Stufe weitere Begriffe, wie
sie auf der rechten Seite des Schemas erscheinen.
132
Als Beispiel für eine deduktiv konstruierte Theorie sei eine semiformale Pyramide
der Zahlbegriffe vorgestellt.
Logische
Quantifikation
Zahlbegriff
Menge Logisches
Logisches
Alle = Ganzes
Ein = Element
Buchstabenzahl
Kommensurable Inkommensurable
Variable, Konstante
rationale Zahl komplexe Zahl
Null Non-standard-
Zahl
nmber
nmber
Primzahl Nicht-Primzahl
nur durch sich nicht nur durch
selbst teilbar sich selbst teilbar
9. Axiome
Axiome als oberste Gattungsbegriffe werden, wie gesagt, in vielen Wissenschaften
als „unableitbare“ Kategorien des jeweiligen Bereiches vorgestellt. Da sie nach
klassischem aristotelischem Definitionsmuster nicht definierbar sind und diese
Meinung sich allgemein durchgesetzt hat, spricht man mit D. Hilbert von ihrer
impliziten Definition, die sich erst im Verlauf von Deduktionen und Interpretatio-
nen aus ihnen herausklären lassen soll.
134
71
Vgl. dazu und zum Folgenden L. Geldsetzer, Art. „Hermeneutik“ in: Handlexikon der Wissenschaftstheorie, hgg. v. H.
Seiffert und G. Radnitzky, München 1989, S. 127 – 138, sowie § 45 im vorliegenden Text.
72
Vgl. D. Hilbert, Axiomatisches Denken, in: Mathematische Annalen 78, 1918, S. 405 – 415, ND in: Gesammelte
Abhandlungen III, Berlin 1935, S. 146 – 156; ND New York 1965.
135
können sie nicht unabhängig von einander sein. Wenn sie vollständig sein sollen,
muß schon der ganze Inhalt der Theorie aus ihnen abgeleitet, begründet und be-
kannt sein. Wenn sie evident sein sollen, müssen ihre Intensionen und Extensionen
bekannt sein, d. h. es geht nicht ohne ihre Definition.
Als oberste Gattungen („axiomatische Grundbegriffe“ oder „Kategorien“) so-
wohl der Logik wie auch der Mathematik gelten seit jeher die Begriffe Identität,
Widerspruch und Drittes. Da sie in Axiomatiken als nicht-definierbar gelten, kann
man sich nicht wundern, daß sie bis heute höchst umstritten, d. h. interpretierbar
geblieben sind. Ihre Problematik dürfte aber nur eine scheinbare sein, denn es läßt
sich zeigen, daß es sich bei der Identität, dem Widerspruch und dem Dritten
keineswegs um Kategorien, sondern um nachrangige Begriffe logischer Theorien
handelt.
Dafür spricht, daß sie bei Erläuterung ihrer logischen und mathematischen Natur
gewöhnlich mit den Begriffen Wahrheit und Falschheit in Verbindung gebracht
werden. Man sagt, die Identität garantiere die Wahrheit, der Widerspruch bringe
die Falschheit zum Ausdruck, und das Dritte liege außerhalb von Wahrheit und
Falschheit.
Diese Meinung wird damit begründet, daß die Identität eine Tautologie sei, bei
der man gewissermaßen keinen Irrtum begehen könne; daß der Widerspruch in der
Form einer Behauptung überhaupt „Nichts“ behaupte (deshalb wird sein Wahr-
heitswert aussagenlogisch mit 0 (Null) = Falschheit bezeichnet); das Dritte aber
liege jenseits der zweiwertigen Logik und werde erst in der neueren dreiwertigen
oder in mehrwertigen Logiken als eigenständiger Wahrheitswerte-Bereich ausge-
spreizt. Dieser Bereich umfasse die sogenannten Wahrscheinlichkeitswerte.
Als die tatsächlichen Axiome der Logik und Mathematik erweisen sich dadurch
die Begriffe von Wahrheit, Falschheit und Wahr-Falschheit.
Wahrheit und Falschheit sind diejenigen obersten Gattungen, in deren Extension
alle logischen und mathematischen Urteile und Schlüsse liegen. Im Umfang des
Wahrheitsbegriffes liegen sämtliche wahren Urteile und Schlüsse; im Umfang des
Falschheitsbegriff liegen alle falschen Urteile und Schlüsse. Die Begriffe von
Wahrheit und Falschheit stehen im Negationsverhältnis zueinander. Dadurch kön-
nen sie auch in Äquivalenzgleichungen definiert werden. Diese lauten: Wahrheit
= Nicht-Falschheit; sowie: Falschheit = Nicht-Wahrheit.
Wahr-Falschheit ist ein kontradiktorischer Begriff, der aus der Verschmelzung
der Begriffe von Wahrheit und Falschheit entsteht. Man erinnere sich, daß die
Extension eines kontradiktorischen Begriffs die Extensionen beider verschmol-
zenen Ausgangsbegriffe umfaßt. In seiner Extension liegen daher alle wahr-fal-
schen sowie Wahrscheinlichkeitsurteile und -Schlüsse, da sie aus wahren und
falschen Urteilen bzw. Schlüssen zusammengesetzt sind. Die Definition lautet
demnach: Wahr-Falschheit = Wahres und Falsches bzw. Nicht-Wahres und
Nicht-Falsches.
Man bemerke, daß Begriffe als logische und mathematische Elemente nicht
unter diese Kategorien von Wahrheit, Falschheit und Wahr-Falschheit fallen.
136
Begriffe können nicht wahr oder falsch oder wahrscheinlich sein. Insbesondere
sind es kontradiktorische und konträre widersprüchliche Begriffe nicht, die man
oft „falsche Begriffe“ nennt. Sie sind allerdings als Prädikatsbegriffe in Urteilen
das Hauptmittel, diese Urteile wahr-falsch zu machen. Im übrigen sind sie, wie
gezeigt wurde, phantastische Vorstellungen mit erheblicher heuristischer und
kreativer Relevanz.
Die Definitionen von Wahrheit, Falschheit und Wahr-Falschheit lassen erken-
nen, daß diese Kategorien nicht „unabhängig“ sondern im Gegenteil abhängig von
einander sind. Daher stellt sich die Frage der Kriterien anders als es die mathe-
matische Axiomatik vorschlägt.
Das Wahrheitskriterium besteht in der logischen Kohärenz (oft auch Konsistenz
genannt) und Komprehensibilität (Umfassendheit) einer Theorie als Urteils-
system. Kohärenz ergibt sich im definitionsgemäßen Gebrauch und entsprechen-
der Lesung der satzbildenden Junktoren in Anwendung auf reguläre Begriffe.
Komprehensibilität bedeutet, daß eine einzelwissenschaftliche Theorie sich in das
Gesamt des jeweiligen Fachwissens einschließlich seiner philosophischen (meta-
physischen und grunddisziplinären) Begründungen kohärent einfügen läßt.
Das Falschheitskriterium bedeutet: logische Inkohärenz bzw. Nicht-Kohärenz.
Diese zeigt sich im definitionswidrigen Gebrauch und entsprechender Lesung der
satzbildenden Junktoren in Anwendung auf reguläre (widerspruchslose) Begriffe.
Bei der Verwendung widersprüchlicher Begriffe in Urteilen ergibt sich die Inko-
härenz durch die falschen Anteile in den wahr-falschen Behauptungen.
Das Kriterium der Wahr-Falschheit ergibt sich aus gleichzeitiger Kohärenz und
Inkohärenz einer Theorie. Diese zeigen sich im definitionsgemäßen Gebrauch und
entsprechender Lesung satzbildender Junktoren in Anwendung auf irreguläre
(kontradiktorische und konträre) Begriffe. Hauptformen sind die widersprüch-
lichen Urteile, insbesondere als Möglichkeitsurteile, Paradoxe und Wahrschein-
lichkeitsurteile.
Bemerken wir auch an dieser Stelle: Es ist ein häufiger, jedoch irreführender
logischer Sprachgebrauch, widersprüchliche Urteile als „unlogisch“ oder gar
„sinnlos“ bzw. “absurd“ zu bezeichnen, und dies im Unterschied zu falschen Ur-
teilen. Denn Urteilswidersprüche gehören ebenso wesentlich zur Logik wie wider-
spruchslose falsche Urteile.
Sind dadurch die logischen und mathematischen begrifflichen Axiome klar und
deutlich als „Kohärenz“ und „Inkohärenz“ definiert, so lassen sich mit ihnen auch
die logischen und mathematischen „axiomatischen Grundsätze“ formulieren: 1.
„Alles Wahre ist kohärent“, 2. „Alles Falsche ist inkoherent“. 3. „Alles Wahr-
Falsche bzw. Wahrscheinliche ist kohärent und inkohärent zugleich“. Diese axio-
matischen Eigenschaften lassen sich im pyramidalen Formalismus sowohl dar-
stellen als auch ablesen.
137
Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter
von Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die
übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als
widersprüchlicher Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung
des Nichts gewordenen Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des
noch nicht seienden Zukünftigen im gegenwärtigen Sein. Die geschichtliche „Realität“ und das
Zukünftige als ontologische Bereiche von Möglichkeiten. Die Konstruktion der Notwendigkeit als
unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs
als Fusion von Wirklichkeit und Möglichkeit
73
Vgl. dazu neben den im § 5 genannten Arbeiten die Artikel „Modalität“, „Modalkalkül“ und „Modallogik“ von K.
Lorenz in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, Band 2, Mannheim-Wien-Zürich
1984, S. 904 – 906, 906 – 907 und 907 – 911.
138
man den Möglichkeitsbegriff selbst für einen regulären logischen Begriff gehalten
hat.
Leibniz definierte den Möglichkeitsbegriff in Übereinstimmung mit dieser logi-
schen Tradition als „das Widerspruchslose“ bzw. als das, „was eingesehen werden
kann, d. h. was klar eingesehen wird“. 74 Das wird durch Christian Wolff (1679 –
1754) in seiner Definition: das Mögliche ist das, „was keinen Widerspruch in sich
enthält“ 75 gemeine Auffassung der neueren Philosophie.
Kants Transzendentalphilosophie legt ebenfalls diese Möglichkeitsdefinition zu-
grunde. Transzendentalphilosophie verstand sich ausdrücklich als eine Erfor-
schung der „Bedingungen der Möglichkeit von Erkenntnis“, d. h. der begrifflichen
Grundlagen der Erkenntnis. Dabei sollte diese „Ermöglichung“ der wissenschaft-
lichen Erkenntnis (neben den Anschauungsformen der Sinne und den „dialek-
tischen“ Ideen der Vernunft) wesentlich in Grundbegriffen („Kategorien“ bzw.
„konstitutiven“ Grundbegriffen) des Verstandes bestehen, die widerspruchslos
sein sollten.
Die Leibniz-Wolff-Kantische Möglichkeitsdefinition macht jedenfalls verständ-
lich, daß die begrifflichen „Möglichkeiten“ als reguläre (widerspruchslose) Be-
griffe gefaßt werden. Umgekehrt hat es auch dazu geführt, daß Begriffe überhaupt
als „Möglichkeiten“ verstanden werden. Das Mögliche soll sich also wider-
spruchslos denken bzw. vorstellen lassen. Was aber einen Widerspruch enthält,
gilt danach als negierte Möglichkeit, also als „unmöglich“ (daher auch „absurd“
bzw. „sinnlos“). Auch das ist so von der modernen Logik übernommen worden.
Der Möglichkeitsbegriff ist außerhalb der Logik zum Stammbegriff einer Reihe
von Grundbegriffen in den Einzelwissenschaften geworden. Auf das griechische
„dynamis“ und die lateinische Übersetzung „potentia“ gehen der physikalische
Kraftbegriff und die „Potentialität“ sowie die anthropologischen und psycho-
logischen Begriffe „Vermögen“, „Anlage“, „Disposition“ zurück. Von der Medi-
zin bis in die Vulgärsprache sind auch die aristotelischen Begriffe der geschlecht-
lichen „Potenz“ und des Geschlechts-„Akts“ erhalten geblieben.
Die vorgenannten Begriffe von Kräften und Vermögen haben in den betref-
fenden Wissenschaften immer etwas Rätselhaftes behalten. Sie sollen als ange-
nommene Ursachen manifest Wirkliches (bei Aristoteles „energeia“, lateinisch
„actus“, deutsch wörtlich: „Wirklichkeit“), das immer sinnlich wahrnehmbar ist,
aus einem unsichtbaren und theoretisch konstruierten Hintergrund erklären. Physi-
kalische Kräfte werden erst in ihren Wirkungen erfaßt und bemessen, psychische
Vermögen und Anlagen erst, wenn sie sich in manifesten Leistungen darstellen.
Daher hat es auch nicht an Kritikern gefehlt, die z. B. eine Physik ohne Kräfte
74
„Possibile est, quod intelligi potest, id est ... quod clare intelligitur“, in: G,. W. Leibniz Confessio philosophi, 1673, zit.
nach H. Seidl, Art. Möglichkeit, Historisches Wörterbuch der Philosophie, hgg. v. J. Ritter und K. Gründer, Band 6, Basel-
Stuttgart, 1984, Sp. 85.
75
Vgl. H. A. Meissner, Philosophisches Lexikon aus Christian Wolffs Sämtlichen Deutschen Schriften, Bayreuth und Hof
1737, ND hgg. von L. Geldsetzer, Instrumenta Philosophica, Series Lexica III, Düsseldorf 1970, S. 379.
139
(Ernst Mach) oder eine Psychologie ohne Vermögen (J. H. Herbart) gefordert
haben.
Die meisten Physiker und Psychologen fuhren jedoch fort, von den Kräften und
Vermögen so zu reden, wie man vordem von Geistern und Dämonen redete. Diese
bewirken alle physischen und psychischen Prozesse, doch nimmt sie niemand
wahr, und sie zeigen sich niemals in manifesten Erscheinungen. Und so bilden
auch jetzt noch die „potentiellen Kräfte“ und „unentdeckten, unausgeschöpften
und unbewußten Vermögen bzw. Kapazitäten“ (jetzt manchmal auch „Kompe-
tenzen“ genannt) ein wissenschaftstheoretisches Gespensterreich hinter denjeni-
gen physikalischen und psychischen Phänomenen, die aktuell beobachtet werden.
Der traditionelle Glaube in der Philosophie und in den Wissenschaften, daß da,
wo ein Wort eine lange Geschichte aufzuweisen hat und als „Terminus“ in den
Wissenschaften verbreitet ist, auch ein regulärer Begriff zugrunde liegen müsse,
hat den Begriff der „Möglichkeit“ immer davor geschützt, als das erkannt und
durchschaut zu werden, was er ist: nämlich ein widersprüchlicher Begriff (con-
tradictio in terminis). Da widersprüchliche Begriffe bei der Satz- und Urteils-
bildung widersprüchliche Urteile nach sich ziehen können, liegt in solchen Be-
griffen die Grundlage für die „dialektische Logik“, die von der klassischen auf
Nichtwidersprüchlichkeit abzielenden Logik unterschieden werden muß. Die fak-
tische Existenz dieser Dialektik ist auch dort, wo man sie nicht vermutet, offen-
sichtlich.
Nun scheint es besonders die vermeintliche Undefinierbarkeit der höchsten Gat-
tungen gewesen zu sein, die die Logiker und Ontologen seit jeher dem Möglich-
keitsbegriff zugute gehalten haben. Sie verstehen ihn dann als (oberste) Gattung
über den beiden ontologischen Artbegriffen „Sein“ und „Nichts“ bzw. „Wirk-
lichkeit“ und „Unwirklichkeit“. Verwendet man den Möglichkeitsbegriff („das
Mögliche“) als genus proximum über den Begriffen „Sein“ und „Nichts“, so er-
gibt sich die gewiß im Abendland traditionelle Definition von „Sein“ als „Seins-
Möglichkeit“ und von „Nichts“ als „Nicht-Möglichkeit“ bzw. „Unmöglichkeit“.
Vom Sein läßt sich dann als wahr behaupten, daß es nicht Nichts ist; und vom
Nichts, daß es nicht Sein ist.
Trotz der Plausibilität und allgemeinen Verbreitung dieser Definition weist sie
jedoch einen gravierenden logischen Fehler auf, der erst durch die genaue Analyse
der Intensionen und Extensionen des Möglichkeitsbegriffs sichtbar wird.
Wäre „Möglichkeit“ die Gattung über „Sein“ und „Nichts“, dann müßte zur
Bildung des Begriffs der Möglichkeit von den spezifischen Differenzen „Sein“
und „Nichts“ (bzw. „Nichtsein“) abstrahiert werden können. „Möglichkeit“ bliebe
dann nur als gemeinsame Gattung übrig, und „möglich“ müßte als generisches
Merkmal den Artbegriffen „Sein“ und „Nichts“ zukommen. Was zur Folge hätte,
daß alles Seiende und alles Nichtige auch möglich sein müßte. Dieses reine
„Mögliche“ müßte sich in irgend einer Weise denken bzw. vorstellen lassen, und
zwar ohne Verknüpfung mit irgendwelchen Vorstellungen von Sein oder Nichts,
denn davon müßte ja abstrahiert werden. Es verhielte sich nicht anders als
140
76
Vgl. L. Geldsetzer, Logik, Aalen 1987, S. 94 und S. 98.
141
vor und beruhigt sich damit, im Modell (besser gesagt: in der jeweiligen
Privatmythologie) ließe sich dem Unanschaulichen gewissermaßen als Denkhilfe
etwas Bildhaftes beigesellen.
Was bei diesem widersprüchlichen Begriff gedacht bzw. vorgestellt werden soll
und kann, ist jedoch einerseits das, was als Seiendes oder Existierendes (d. h. als
etwas unter den Begriff „Sein“ Fallendes) wahrgenommen und nur durch die
Wahrnehmung in seiner faktischen Existenz überhaupt bestätigt werden kann.
Andererseits ist es zugleich auch das, was in der Erinnerung an das Wahr-
genommene nach dessen Verschwinden (ein Fall von Nichts!) vorgestellt wird.
Ohne Erinnerung an Vergangenes könnte man darüber nicht als von einem vor-
dem wahrgenommenen Sein oder Wirklichen reden.
Wahrnehmung und Erinnerung sind in aller Regel wohlunterschiedene geistige
Tätigkeiten. Während und solange man etwas wahrnimmt, bemerkt man nicht, daß
man zugleich dieses Wahrgenommene auch erinnert. Es muß aber begleitend
erinnert werden, wenn es als etwas mehr oder weniger Beständiges ausgezeichnet
werden kann. Aristoteles scheint dies mit seiner Substanzdefinition gemeint zu
haben. Sie lautet bekanntlich „to ti en einai“ bzw. „das, was war und (noch) ist“
(wir haben es mit „Ge-Wesen“ übersetzt). Wohl aber bemerkt man an den Erin-
nerungen, daß das, was ihnen als Wahrgenommenes zugunde lag, ins Nichts
abgeglitten ist. Es ist für keine sinnliche Wahrnehmung mehr verfügbar.
David Hume hat die Erinnerungen „schwache Bilder“ und „weniger lebhafte
Wahrnehmungen“ von Sinneseindrücken (faint images und less lively percep-
tions) genannt.77
Als solche schwachen Bilder werden die Erinnerungen gewiß nicht mit den
sinnlichen Wahrnehmungen verwechselt. Für den realistischen Empirismus, wie
ihn Hume vertrat, ist nur das Wahrgenommene in und während der Wahrnehmung
eigentliches Sein. Die „schwachen Bilder“ nach der Wahrnehmung repräsentieren
das ins Nichts Verschwundene. Die erinnerten Bilder sind das Sein dieses Nichts
im Bewußtsein.
Die realistischen Erkenntnistheorien erklären die sinnliche Wahrnehmung be-
kanntlich selbst schon als eine Abbildung eines (an sich unerkennbaren) Objektes,
des „Dinges an sich“ Kants. Sie verkennen den Unterschied zwischen nicht-abbil-
denden Wahrnehmungen und bild-bildenden Erinnerungen und übertragen das
letztere Verhältnis auf das erstere. Idealistische Erkenntnistheorien, wie diejenige
George Berkeleys, betonen jedoch gerade die Identität von sinnlicher Wahrneh-
mung und Gegenstand der Wahrnehmung. Abbildhaftigkeit von Erkenntnissen
ergibt sich für einen wohlverstandenen Idealismus, wie ihn Berkeley vertrat,
77
“By the term impression, then, I mean all our more lively perceptions, when we hear, or see, or feel, or love, or hate, or
desire, or will. And impressions are distinguished from ideas, which are the less lively perceptions, of which we are
conscious, when we reflect on any of those sensations or movements above mentioned”, D. Hume, An Inquiry Concerning
Human Understanding, ed. by. J. McCormack and M. Whiton Calkins, Leipzig 1913, S. 15 / „Unter der Bezeichnung
Eindruck verstehe ich also alle unsere lebhafteren Auffassungen, wenn wir hören, sehen, tasten, lieben, hassen, wünschen
oder wollen. Eindrücke sind von Vorstellungen unterschieden, welche die weniger lebhaften Auffassungen sind, deren wir
uns bewußt werden, wenn wir uns auf eine jener oben erwähnten Wahrnehmungen oder Regungen besinnen“, D. Hume,
Eine Untersuchung über den menschlichen Verstand, 9. Aufl. hgg. von R. Richter, Leipzig o. J. S. 18.
142
ausschließlich und nur durch das Verhältnis der Erinnerungen zu den Wahrneh-
mungen, die sie abbilden.
Die Verschmelzung von Sein und Nichts im Möglichkeitsbegriff hat nun ihre
weiteste Anwendung in den historischen Wissenschaften. Man sollte vorsichtiger-
weise sagen: eigentlich müßte es so sein. Denn der Gegenstand der historischen
Wissenschaften ist nichts anderes als ein ins ontologische Nichts verschwundenes
Sein, das teilweise in mehr oder weniger ausgearbeiteten und geordneten Erinne-
rungen präsent gehalten wird.
Das Vergangene und Gewesene gilt jedermann als etwas, das „nicht mehr“
existiert. Das heißt jedoch ontologisch konsequent: Es ist Nichts bzw. zunichte
geworden. Zugleich hat es ein Sein in der Erinnerung als historisches Geschichts-
bild. Das Objekt der Geschichtsschreibung war und ist diese Identifikation von
Nichts und Sein, die zuerst Heraklit auf den Begriff des „Logos“ zu bringen
versucht hat.
Heraklit hat seinen Logosbegriff (der gewöhnlich, aber fälschlich als Prototyp
eines regulären widerspruchslosen Begriffs interpretiert wird) präzise als die
„Einheit des Entgegengesetzten“ definiert. Seine „Dialektik“ richtete sich gegen
Parmenides, der in seinem berühmten Lehrgedicht den größten Gegensatz von
Sein und Nichts herausgearbeitet hatte. Das Sein hatte Parmenides als nur zu
denkendes ruhendes Eines, das Nichts als vielfältiges und bewegtes sinnlich
Wahrnehmbares erklärt. Und darauf gestützt sollte Wahrheit im Seinsdenken be-
stehen, Falschheit, Irrtum und Täuschung aber in jeder sinnlichen Wahrnehmung.
Heraklit aber zeigte, daß diese Gegensätze ihrerseits als Einheit begreifbar sein
mußten, nämlich als Werden. Und es ist das Werden, das alles Geschichtliche
auszeichnet. Daher sein bekanntes Dictum „Alles fließt“ (panta rhei). Heraklits
„Eines auch Alles“ (Hen kai Pan) sowie zahlreiche weitere Beispiele erweisen die
logische Natur seines „Logos“ als Einheit entsprechender extremer Gegensätze.
Über des Heraklit Logoslehre ist die Philosophie jedoch als zu „tief, dunkel und
unverständlich“ hinweggegangen. Schon die Zeitgenossen haben Heraklit als den
„Dunklen“ ausgegeben.
Es war Platon, der der Wiedererinnerung (Anamnesis) an die angeblich vorge-
burtlich geschauten Ideen einen so wichtigen Platz in der Ideenlehre zusprach. Er
hielt die erinnerten Ideen selber für das eigentliche Sein im Unterschied zu der
Nichtigkeit der wahrgenommenen Phänomene. Und so war es auch Platon, der
dem Vergangenen als erinnerten Ideen diesen besonderen Seinscharakter vindi-
zierte, den man ihm heute noch zuspricht. Denn wenn man das Vergangene noch
immer „historische Realität“ nennt, meint man, daß es wirkliches Sein sei. Aber
mit Heraklit ist daran zu erinnern, daß es sich dabei um eine „nicht-reale Realität“
handelt. Und das ist genau das, was man sich in Erinnerungen (seien sie auch
kollektiv in wissenschaftlicher Arbeit konstruiert) als „historische Möglichkeiten“
vorzustellen hat.
Man sollte freilich hinzufügen, daß die historischen Geschichtsbilder nicht allein
auf den aufgezeichneten Erinnerungen von Zeitzeugen oder späteren Historikern
143
beruhen. Deren Berichte über Fakten und Daten gelten zwar, je älter desto mehr,
als die eigentlichen Quellen des historischen Wissens. Jedoch sind die soge-
nannten Relikte bzw. Überbleibsel als gegenwärtige Quellen von Daten und Fak-
ten, die durch Interpretationen unter steter Bezugnahme auf die vorgenannten
Berichtsquellen gewonnen werden, wesentlich für die Konstruktion der Ge-
schichtsbilder. Für die Epochen der Geschichte vor der Erfindung der Schriften
sind sie als archäologische Funde ersichtlich alleinige Faktenquellen, aus denen
auf ein Sein des Nichtseienden geschlossen wird.
Betonen wir aber sogleich, daß so erarbeitetes historisches Wissen keine hypo-
thetische Spekulation darüber sein kann, „wie es eigentlich gewesen“ ist (Leopold
v. Ranke), sondern daß es direkt „das Historische selbst“ ausmacht. Denn es gibt
kein „reales historisches Sein“, mit dem historisches Wissen konfrontiert und ver-
glichen werden könnte. Man kann das in traditionellen Termini der Geschichts-
wissenschaft auch so ausdrücken: Die sogenannten „res gestae“ (historische Fak-
ten) sind nichts anderes als „historiae“ (aufgezeichnete Erinnerungen), und dies
zusammen mit den Schlußfolgerungen aus der jeweils gegenwärtigen Existenz
von Relikten. Das hatten wohl auch schon die antiken stoischen Juristen im Sinne
mit ihrer noch immer den Juristen geläufigen Maxime: Quod non est in actis non
est in mundo (Was nicht aufgezeichnet ist, das gibt es gar nicht in der Welt).
Bezüglich der vorgeblichen „historischen Realität“ hat sich seit langem die
Vorstellung verfestigt, sie sei das einzige ontologische Fundament gesetzlicher
Notwendigkeiten. Man stellt sich vor, was einmal geschehen ist, kann nicht mehr
verändert werden. Scholastische Philosophen gingen so weit zu behaupten, nicht
einmal der allmächtige Gott könne verändern, was er in der Zeit selbst erschaffen
habe. Dadurch erhielten die historischen Fakten den logischen Charakter von
Notwendigkeiten. Aber die Vorstellung von Notwendigkeiten in der Welt ver-
dankt sich nur dem stoischen Glauben an das Fatum und die Ananke, der sich im
Abendland als Kausaldeterminismus verfestigt hat.
Solange die „Historiographie“ ihren Status als pure Faktenbeschreibung behielt,
blieb sie – wie andere „Graphien“ – auf die Faktensicherung beschränkt. Diese
erschöpfte sich in den „Historien“, die auch in dem deutschen Begriff „die Ge-
schichte“ (oftmals bis ins 19. Jahrhundert) ein grammatischer Plural blieb. Aber
die aristotelische Wissenschaftstheorie verlangte für eigentliche Wissenschaft die
Erklärung der Fakten durch die vier Ursachen. So konnte man erwarten, daß auch
die Historiker immer wieder bestrebt waren, die historischen Fakten und Daten als
manifeste Wirkungen von Ursachen anzusehen und die „verborgenen“, d. h. nicht
als historische Fakten bekannten Ursachen, hypothetisch zu konstruieren. Dabei
waren es stets die aristotelischen (und zugleich stoischen) Wirk- und Zielur-
sachen, die so konstruiert wurden. Das führte einerseits zu spekulativen Hypo-
thesen über die Wirkursachen historischer Fakten, andererseit zu teleologischen
Spekulationen über den Sinn und Zweck der Daten und Fakten. Die Zweck-
ursachen verwiesen im Geschichtsgang jeweils auf jüngere Fakten und Daten,
144
78
Vgl. Em. Radl, Geschichte der biologischen Theorien in der Neuzeit, 1. Teil, Leipzig-Berlin 1913, S. 173.
79
„Denn gleichwie sich findet, daß die Blumen wie die Tiere selbst schon in den Samen eine Bildung haben, so sich zwar
durch andere Zufälle etwas verändern kann, so kann man sagen, daß die ganze künftige Welt in der gegenwärtigen stecke“.
G. W. Leibniz, Von dem Verhängnisse, in: Hauptschriften, hgg. von E. Cassirer, Band II; ähnlich in Nouveaux Essays,
Vorwort.
80
„Das Verhängnis besteht darin, daß alles an einander hänget wie eine Kette, und ebenso unfehlbar geschehen wird, ehe
es geschehen, als unfehlbar es geschehen ist, wenn es geschehen ... Und diese Kette besteht in dem Verfolg der Ursachen
und der Wirkungen“. Vom dem Verhängnis, in: Leibniz, Hauptschriften Band II, S. 129f.
81
„Ex rationibus metaphysicis constat praesens esse gravidum futuro“. G. W. Leibniz, Fragment über die apokatastasis
panton, Erstausgabe in: M. Ettlinger, Leibniz als Geschichtsphilosoph, München 1921, S. 30.
82
G. W. Hegel, Phänomenologie des Geistes, hgg. v. J. Hoffmeister, Hamburg 1952, S. 28.
146
begriff in Anwendung auf die Geschichte voraus und hebt einige speziellere
Aspekte seiner Dialektik heraus. Man sollte doch zumindest bemerken, daß die
biologisch-evolutionäre Rede von der „Vererbung“ aus dem Erbrecht und also
historisch-kulturellen Zusammenhängen übernommen wurde. Jedes Erbe ist ja ein
je gegenwärtiges Wirkliches, das Vergangenes und ins Nichts Verschwundene in
sich aufbewahrt. So ist auch nach der Entwicklungslehre jedes Lebewesen
Produkt und Resultat seiner Ahnen und insofern ein Erbe aller vorangegangenen
Generationen.
Im Unterschied zum Erbrecht aber wird in der Biologie die Art und Weise, wie
die Erbschaft von Familien (bzw. biologisch: der Gattungen) und des Individuums
in der Geschichte zustandegekommen und aufgehäuft wurde, mit in den Evo-
lutionsbegriff aufgenommen. Das Individuum wird als Wirklichkeit von Möglich-
keiten verstanden, sowohl seiner vergangenen wie auch seiner zukünftigen. Die
Möglichkeit des Vergangenen wird im Darwinismus zur kausal konstruierten
Genidentität. Die Gene aber sind dabei noch stets die Substanz des geschicht-
lichen Werdens geblieben, die Aristoteles als To ti en einai, als „Ge-Wesen“ defi-
niert hat. Die zukünftigen Möglichkeiten erweisen sich in der „Anpassungs-
fähigkeit“ an die jeweilige Umwelt im Überleben einer je existierenden Gene-
ration und ihrer Individuen (survival of the fittest). Im gegenwärtig wieder-
belebten Lamarckismus jedoch wird das Individuum teleologisch konstruiert: als
Träger erworbener Eigenschaften, Fähigkeiten und „Vermögen“, die sich in einer
hier konstruierten Memidentität (Meme, eigentlich „Mneme“, sind im Gedächtnis
niedergelegte Möglichkeiten) zeigen sollen.
Ersichtlich ist man sich heute beim so selbstverständlichen Gebrauch des Ent-
wicklungsgedankens in den Einzelwissenschaften von der Kosmologie über die
Biologie bis zu den Technik-, Kultur- und Geisteswissenschaften dieser Dialektik
nicht bewußt. Allenfalls sind Spuren in der Definition des Entwicklungsbegriffes
des Begründers der modernen Entwicklungsphilosophie Herbert Spencer auszu-
machen. Er hatte „Evolution“ und zugleich ihr Gegenteil, die „Dissolution“ fol-
gendermaßen definiert: „Evolution in ihrem einfachsten und allgemeinsten Aspekt
ist die Integration der Materie und die Zerstreuung der Bewegung; während
Auflösung Absorption der Bewegung und begleitende Differenzierung der Materie
ist“.83
Die Evolutionsmerkmale Integration und Dissolution (= Differenzierung) klin-
gen vertraut als mathematische Bestimmungen: Integrieren und Differenzieren
gehören zu den komplizierten höheren Rechnungsarten, und sie sind höchst
gegensätzlich. Sie waren dem studierten Ingenieur Spencer wohl vertraut. Indem
er versucht, diese gegensätzlichen Merkmale einerseits auf Materie, andererseits
auf Bewegung zu beziehen, will er ihren dialektischen Charakter verschleiern. Im
83
“Evolution under its simplest and most general aspect is the integration of matter and concomitant dissipation of motion;
while dissolution is the absorption of motion and concomitant desintegration of matter”. Herbert Spencer, First Principles §
97, zitiert nach R. Eisler: Wörterbuch der philosophischen Begriffe, 3. Aufl. Berlin 1910, Band 1 Art. Evolution, S. 356.
147
Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit
und die mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des
Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmel-
zung des stoischen Universaldeterminismus und des epikureischen Indeterminismus im Wahr-
scheinlichkeitsbegriff. Die Rolle der „docta ignorantia“ beim Umgang mit der Wahrscheinlich-
keit.
tungen sein können. Sie sind Vermutungen im Gewande von Behauptungen. Als
Vermutungen besitzen sie überhaupt keinen Wahrheitswert, d. h. sie sind weder
wahr noch falsch. Als Behauptungen aber besitzen sie einen Wahrheitswert, und
der ist „wahr und falsch zugleich“, was dann als „wahrscheinlich“ bezeichnet
wird.
Ein weiterer paradoxaler Zug am Wahrscheinlichkeitsbegriff liegt in seiner
doppelten Beziehung auf das subjektive Wissen bzw. Glauben einerseits und auf
einen angeblich objektiven Wirklichkeitsbestand andererseits. Nur das erstere
konnte bei seiner Verwendung schon durch die antiken Skeptiker gemeint sein,
und es wird weiterhin in der sogenannten subjektiven Wahrscheinlichkeitstheo-
rie84 beibehalten.
Letzteres, die „objektive Wahrscheinlichkeit“, ist eine Erfindung der neuzeit-
lichen Mathematik, die ihren eigenen Begriffen ein ontologisches Korrelat zu
geben bemüht war. Die Kalkülisierung von „probabilités“ 85 beruhte auf der An-
nahme, daß diese mathematischen „Wahrscheinlichkeiten“ objektive Zustände
seien, die sich durch Messungen, d. h. Anwendung der Arithmetik auf empirische
und besonders physikalische Gegebenheiten, annäherungsweise erfassen ließen.
K. Popper hat solche objektiven Wahrscheinlichkeiten „propensities“ (etwa: Ten-
denzen) genannt.
Messungen sind in aller Regel ungenau und oszillieren um gewisse „Häufig-
keitspunkte“, die man als Grenzwerte „unendlicher“ (d. h. beliebig lange fortsetz-
barer aber nie zuende zu bringender) Meßreihen berechnet. Aus diesen Grenz-
werten ergeben sich dann „idealisierte“ Meßwerte, von denen man annimmt, sie
drückten die Wirklichkeit aus. Es waren und sind noch immer diese genuin
mathematischen Verfahren, die dazu geführt haben, daß so viele Naturwissen-
schaftler davon überzeugt sind, die Wirklichkeit ließe sich überhaupt und
grundsätzlich nur noch in Wahrscheinlichkeitsbegriffen erfassen. Und da Natur-
gesetze grundsätzlich durch quantitative Messungen gewonnen werden, gibt man
in diesem Sinne auch die Naturgesetze nunmehr als Wahrscheinlichkeitsgesetze
aus.
Dies fällt dem mathematischen Logiker und Physiker umso leichter, als er seit
Leibniz (und Nikolaus Cusanus) daran gewöhnt ist, wohlunterschiedene Begriffe
in Kontinua aufzulösen, die an ihren definitorischen Grenzen ineinander über-
gehen. Danach ist etwa der „nichtausgedehnte Punkt“ zugleich eine „minimal
ausgedehnte Fläche“ (in der dann unendlich viele infinitesimale Flächenelemente
enthalten sind). Genau so erscheint dann die Wahrheit zugleich auch als „maxi-
male (100 %ige) Wahrscheinlichkeit, und die „minimale“ (0%ige) Wahrschein-
lichkeit als Falschheit. Darin zeigt sich aber nur ein weiterer paradoxaler Zug am
84
Vertreter sind L. J. Savage, The Foundations of Statistics, New York 1954, 2. Aufl. 1972 sowie B. de Finetti,
Probability, Induction, and Statistics. The Art of Guessing, London-New York 1972.
85
Pioniere dieser Wahrscheinlichkeitstheorie waren Jakob Bernoulli, Ars coniectandi, Basel 1713, ND Brüssel 1968 und
P. S. de Laplace, Théorie analytique des probabilités, Paris 1812, ND Brüssel 1967; dazu auch: Jak. F. Fries, Versuch einer
Kritik der Principien der Wahrscheinlichkeitsrechnung, Braunschweig 1842, auch in Sämtl. Schriften, hgg. von L.
Geldsetzer und G. König, Band 14, Aalen 1974.
150
Der Münzwurf, bei dem es nur zwei gleichwertige Möglichkeiten (Bild und Zahl)
gibt, bietet das Beispiel der logischen Wahrscheinlichkeit. Was wir hier logische
Wahrscheinlichkeit nennen, wird gewöhnlich als „fify-fifty“ bzw. ´ oder 50 %ige
Wahrscheinlichkeit mathematisch quantifiziert. Die numerischen Formulierung
auch der logischen Wahrscheinlichkeit (50 %) erweckt den Anschein, als sei der
mathematische Wahrscheinlichkeitsbegriff der einzig angemessene und schließe
den logischen Wahrscheinlichkeitsbegriff ein. Das führt aber nur dazu, daß die
Paradoxie mathematisch so lautet: Jede nicht 50 %ige Wahrscheinlichkeit (von
0,999... bis 0,000...1) ist zugleich eine 50 %ige. Wie man ja leicht bei jedem
Glücksspiel feststellen kann.
Die Attraktivität, ja der Zauber der mathematischen Wahrscheinlichkeit beruht
auf zweierlei. Einerseits auf dem „statistischen“ Erhebungsverfahren staatlicher
Behörden, mit dem ursprünglich alle Fälle in einem Erfahrungsbereich erhoben
wurden (z. B. die Zahl der Einwohner, der Heiraten und der Geburts- und Sterbe-
fälle in einem bestimmten Zeitintervall in einer bestimmten Region). Das konnte
bei gehöriger Sorgfalt der Erhebung zu wahren Ergebnissen führen und versah
alles „Statistische“ mit dem Renommee der Zuverlässigkeit und der Wahrheit.
Diese Erwartung erhielt sich auch bei der Ausweitung der Anwendung statisti-
scher Verfahren auf repräsentative Stichproben, die mehr oder weniger mit Unge-
nauigkeiten behaftet sind. Diese werden dann ihrerseits mit statistischen Schät-
zungen über den Umfang der Abweichung von Erwartungswerten austariert. Da-
mit aber kam der mathematische Wahrscheinlichkeitsbegriff ins Spiel. Er ließ bei
allen Anwendungen der mathematischen Statistik eine zahlenmäßig abschätzbare
Wahrheitsnähe assoziieren, wie ja schon die Bezeichnung selber nahelegt. Sie ist
bei allen Anwendungen der statistischen Wahrscheinlichkeitsberechnungen bei
Prognosen, insbesondere ökonomischen und spieltheoretischen Risikoabwägun-
gen relevant geworden.
Logisch gesehen aber wird in der Tat mit dem Wahrscheinlichkeitsbegriff zu-
gleich eine jeweils entsprechende Falschheitsnähe angesagt, die man dabei grund-
sätzlich unterschlägt, die aber in dem hier vorgeschlagenen Begriff „Wahr-Falsch-
heit“ sehr deutlich zum Ausdruck kommt.
Im Falle der Glücksspiele sollte sich der würfelnde Glücksspieler klarmachen,
daß – gemäß dem herrschenden mathematischen Wahrscheinlichkeitsbegriff -
seine Hoffnung auf den mit 16,666... % Wahrscheinlichkeit für ihn günstigen Fall
immer zugleich mit einer Restquote von 83,333...% „Falschscheinlichkeit“ beglei-
tet wird. Zugleich kann er aber über das Ergebnis des nächsten Wurfs überhaupt
nichts wissen (sofern der Würfel gut geeicht, d. h. „fair“ und nicht gefälscht ist).
Stellt man aber die Berechnung von Wahrscheinlichkeiten nicht, wie in der
Mathematik üblich geworden, als Proportion von günstigen zu allen möglichen
Fällen (und „alle möglichen Fälle“ erinnern hier an die ursprüngliche statistische
Gesamterhebung „aller“ Daten) dar und rechnet sie zudem als Quotient aus,
sondern beachtet, wie es logisch allein angemessen ist, die Proportion der günsti-
gen zu den ungünstigen Fällen, so ergeben sich auch ganz andere numerische
152
Beide Strategien aber unterschätzen die Bedeutung und die Natur des Nicht-
wissens in der Wissenschaft. Die alte „docta ignorantia“ des Sokrates, des Cusa-
ners und Pascals ist in neueren Zeiten gerade in die Wahrscheinlichkeitsprob-
lematik eingebaut worden. Sie berührt aber darüber hinaus höchste Interessen der
Menschheit, nämlich die Interessen an einer Begründung der Freiheit einerseits,
und der Kalkulierbarkeit der Welt andererseits. Soll Freiheit mehr sein als Abwe-
senheit von sozialen Zwängen, so fällt sie überall mit dem Bereich des Nichtwis-
sens zusammen. Und soll Notwendigkeit mehr sein als ein dringendes Bedürfnis,
so fällt sie mit dem Bereich der erkannten Kausalitäten zusammen.
Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und
Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unan-
schaulichem Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buch-
staben als Modelle der Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allge-
meine Charakteristik der Modelle. Geometrie als Veranschaulichung der arithmetischen Struktu-
ren von Zahl und Rechnung. Die Rolle der geometrisierenden Veranschaulichung der Natur-
objekte in der Physik. Der Modelltransfer und seine Rolle bei der Entwicklung der physikalischen
Disziplinen. Die Mathematisierung von Chemie, Biologie und einiger Kulturwissenschaften. Die
Parallele der Entwicklung von formalisierter Mathematik und formaler Logik und die Frage von
Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer Axiomatik und
Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen
Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von
Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die
Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen.
Die KI-Forschung („Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer
und Intelligenz. Weitere Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-
Simulation
In jeder Kultur greift der Mensch in die Dinge und Sachverhalte ein, verändert
ihre Konstellationen und erzeugt neue Gegenstände. Die Wörter als artikulierte
Lautkonstellationen in den Gemeinsprachen gehören selbst schon zu solchen
„künstlichen“ Gegenständen. Aber ein großer Teil der künstlichen Dinge ahmt die
natürlichen Dinge nach und stellt Abbilder von ihnen dar. Auch die Lautnach-
ahmungen vieler Wörter (wie das berühmte „Wau-wau“) verdanken sich dieser
primitiven Kulturtätigkeit. Erst recht aber auch die verkleinerten oder vergrößer-
ten Bildwerke, die schon in den ältesten archäologischen Funden zutage getreten
sind. Es muß schon ein gewaltiger Schritt in der Kulturgeschichte gewesen sein,
als diese Abbilder von räumlichen Gegenständen zu Bildern wurden, d. h. in
154
flächige Figuren überführt wurden, wie sie in den Fels- und Höhlenzeichnungen,
die vermutlich bis zu 40 000 Jahre alt sind, gefunden wurden.
Die Repräsentationen der natürlichen Dinge durch körperliche und flächige
Abbilder machte die Dinge verfügbar für den zivilisatorischen Umgang mit ihnen.
Spiel, Belehrung, Kult, Erinnerungskultur, Handel, Thesaurierung und vieles
mehr beruhte auf dieser Verfügbarkeit. In ihrem Gebrauch wurden sie zu Zeichen
für das, was sie abbilden. Am deutlichsten sieht man es noch in den chinesischen
(„ikonischen“) Schriftzeichen, die als stilisierte Abbildungen von Dingen und
Sachverhalten entwickelt wurden. Derjenige verstand die Zeichen, der sie mit
ihren Vor- oder Urbildern, den Gegenständen selbst, vergleichen konnte.
Aber mit zunehmender Komplexheit der Zivilisationen und Kulturen wurden die
Zeichen „abstrakt stilisiert“. Der Zusammenhang mit dem, was sie abbildeten,
wurde prekär und vieldeutig. Am deutlichsten zeigt sich das in der Verschie-
denheit der kulturgebundenen Laut-Sprachen. Durch die eigene (Mutter-) Sprache
hat noch jeder einen bestimmten konkreten Zugang zu seiner Umwelt. Wer eine
Fremdsprache lernt, muß die Spuren noch vorhandener Abbildlichkeit aus ihrer
Kultur lernen. Selbst der Hahnenschrei „lautet“ in den verwandten europäischen
Sprachen immer wieder anders als das deutsche „Kikeriki“.
Der Umgang mit den Abbildern ist die Grundlage von Kunst und Wissenschaft
geworden. Deren Entwicklungen gehen Hand in Hand. Frühe Wissenschaft be-
dient sich der Kunst, wenn sie deren Abbilder und Zeichen zu ihren besonderen
Gegenständen macht. Dadurch präsentiert sich das Große und Ferne als Kleines
und Nahes der unmittelbaren Inspektion und Manipulation der Wissenschaftler.
Lao Zi (ca. 571 – 480 v. Chr.) drückte es in China so aus:
„Ohne aus der Tür zu gehen, kennt man die Welt. Ohne aus dem Fenster zu spähen,
sieht man das Himmels-Dao (den Prototyp des Weltgesetzes). ... Darum kennt sich
der Heilige (d. h. der prototypische Wissenschaftler) ohne zu reisen aus. Er nennt
die Dinge beim Namen ohne herumzuspähen, und er bringt etwas zustande ohne
einzugreifen“.86
Auch der moderne Wissenschaftler befindet sich vor seinem Buch oder Computer
noch in der gleichen Situation, indem er die Welt über Verbildlichungen zu sich
kommen läßt. Frühe Kunst aber bedient sich solchen Wissens und der anfäng-
lichen Formen von Wissenschaft, wenn sie ihre Bilder und Zeichen verfeinert,
stilisiert, typisiert.
Mathematik in ihren beiden Zweigen Geometrie und Arithmetik dürften die
ältesten Wissenschaften sein. Geometrie arbeitet aus den Abbildungen der Dinge
und Sachverhalte deren einfachste Formen heraus und perpetuiert ihre ständige
Reproduzierbarkeit mit Zirkel und Lineal. Man setzt den Zirkel an einem „Punkt“
86
Lao Zi, Dao De Jing, neu übersetzt von L. Geldsetzer, II. Teil, 47, im Internet des Philosophischen Instituts der HHU
Düsseldorf, 2000; auch in: Asiatische Philosophie. Indien und China. CD-ROM, Digitale Bibliothek (Directmedia Pub-
lishing GmbH), Berlin 2005.
155
ein und zieht damit „Kurven“ und „Kreise“. Dem Lineal verdankt man den
geraden Strich, die „Linie“.
Arithmetik unterwirft alle Dinge der Abzählbarkeit, indem sie verfügbare Dinge
als Abbilder von Dingen gruppiert und ordnet. Ihre plastischen und schon abstrak-
ten Abbilder der Dinge dürften zuerst Psephoi (Kalksteinchen), alsbald Münzen
gewesen sein. In den verschiedenen Münzmetallen unterscheidet die Arithmetik
(axiein = wertschätzen) die Abbilder, die Einzelnes und Vielfaches repräsentieren.
Was wir so sagen können, ist eine hypothetische historische Spekulation über
Ursprünge, und dies im Sinne einer historischen Möglichkeit, wie sie vorne
definiert wurde. Sie soll am Einfachen und Schlichten auf etwas Wesentliches an
der Wissenschaft hinweisen.
Wissenschaft beruht auf der Anschauung und sinnlichen Erfahrung der Welt.
Noch immer erinnern ihre vornehmsten Begriffe daran: „Wissen“ hat die etymo-
logische Wurzel im „Sehen“ (indogermanisch Vid-; griech. idea, lat. videre),
„Theorie“ in der „Gesamtschau“ einer Gesandtschaft, die darüber berichtet
(griech. theorein), „Intuition“ in der „Betrachtung des Einzelnen“. Auch die ara-
bische Wissenschaft, die an die antike griechische Bildung anknüpfte, führt ihre
Theoriebegriffe auf das „Anschauen“ (arab.: nazar) zurück. Was darüber hinaus-
geht, heißt noch immer „Spekulation“, d. h. „Spiegelung“ der Bilder, das zu neuen
und vermittelten Bildern führt. Spekulation ist der Ausgang des philosophischen
Denkens aus der Anschauung in ein anderes Medium, über dessen Natur noch
immer heftig diskutiert und geforscht wird.
Die einen nennen dies Medium „überanschauliches Denken“, manche „unan-
schauliches Denken“. Auch die „Ahn(d)ung“ und die Intuition, von der wir ein-
gangs sprachen, weist in diese Richtung. Wird das Denken von der Sinnes-
anschauung unterschieden und getrennt, wie es für abendländische Wissenschaft
und Philosophie konstitutiv wird, so muß das Denken etwas anderes und Selb-
ständiges gegenüber der sinnlichen „bildhaften“ Wahrnehmung sein.
Parmenides (geb. um 540 v. Chr.) übersprang die sinnliche Anschauung als
täuschend und identifizierte das reine Denken (to noein) als Eines mit dem Sein
(to einai). Anaxagoras (ca. 499 – ca. 428 v. Chr.) nannte es „Nous“ (Vernunft
oder Denkkraft). Bei Platon, Aristoteles und bei den Stoikern wurde der Nous (lat.
ratio) zum eigentlichen Erkenntnisorgan. Descartes wiederholte in der Neuzeit die
parmenideischen und platonischen Argumente, indem er die sinnliche Anschau-
ung skeptisch in Frage stellte und das Vernunftdenken als einzig zuverlässige
Erkenntnisquelle herausstellte. In einer der wirkkräftigsten spekulativen Philoso-
phien der Moderne, in der Transzendentalphilosophie Kants, wurde reines Denken
zur „reinen Vernunft“. Alle Formen des philosophischen Rationalismus berufen
sich seither auf Descartes und Kant und beschwören die Selbständigkeit der
Vernunft gegenüber aller sinnlichen Anschauung.
Zu dieser Frage der Stellung und Rolle der Vernunft muß auch der Wissen-
schaftstheoretiker Stellung beziehen. Er muß metaphysisch Farbe bekennen, ob er
sich auf die eingefahrenen Bahnen des Rationalismus oder des Sensualismus
156
begeben will. Machen wir also keinen Hehl aus dem diesen Ausführungen zu-
grunde liegenden Sensualismus. Und verschweigen wir nicht die offensichtliche
Tatsache, daß der Rationalismus in der Moderne die Mehrheit der Wissenschaftler
hinter sich hat, der empiristische Sensualismus aber nur wenige Denker des 18.
Jahrhunderts wie George Berkeley (1685 -1753) und Etienne Bonnot de Condillac
(1714 – 1780).
Ein wesentlicher Prüfstein für die Leistungsfähigkeit des Rationalismus bzw.
des Sensualismus sind die in der Wissenschaft verwendeten Modelle. Ihre Rolle
ist ein Modethema der neueren Wissenschaftstheorie geworden.87 Aber die Mo-
delle haben unter den Bezeichnungen Gleichnis, Metapher, Symbol u. ä. eine
lange Geschichte.
Der erste Philosoph, der die Modelle zum Thema machte, war Demokrit (2.
Hälfte des 5. Jhs v. Chr.). Er suchte, wie alle Vorsokratiker, nach dem Grund und
Ursprung aller Dinge (arché) und fand ihn im Vollen der Atome und im Leeren
des Raumes. Von den Atomen aber sagte er, man könne die winzigsten von ihnen
nicht sehen bzw. sinnlich wahrnehmen, und ebenso wenig den leeren Raum. Gera-
de das, was der Grund und Ursprung aller Dinge in der Welt sein sollte, könne
nicht sinnlich wahrgenommen werden. Es mußte zur Erklärung der unsichtbaren
winzigen Atome (größere Atome könne man u. U. als Sonnenstäubchen sehen)
und des leeren Raumes „gedacht“ werden. Das wurde zur Matrix der physikali-
schen Theorien von den „unbeobachtbaren Parametern“, die eines der umstrit-
tensten Themen der modernen Physik geworden sind.
Aber „unanschauliches Denken“ konnte Demokrit sich nicht vorstellen. Und so
führte er die Modelle zur Veranschaulichung des Unanschaulichen ein. In seinem
Falle waren es die (erst kurz vor ihm in Griechenland eingeführten) Buchstaben
der Schrift. Ihre verschiedenen Gestalten vertraten die verschiedenen Atomsorten,
ihre Verbindungen zu Wörtern und Sätzen vertraten die Komplexionsformen der
Moleküle. Und man darf vermuten, daß er die Lücken zwischen Wörtern für
anschauliche Modelle des Leeren hielt (auch bei der alten scriptio continua
mußten sich die gelesenen Wörter von einander abgrenzen lassen, um verstanden
zu werden).
Der zweite wichtige Entwicklungsschritt zur Modelltheorie war Platons (427 –
347 v. Chr.) Ideenlehre. Von Demokrit hat er den Modellgebrauch für Veran-
schaulichungen übernommen. Seine Modelle für die „unanschaulichen“ und nur
„zu denkenden“ Ideen waren seine berühmten Gleichnisse (Höhlengleichnis, Son-
nengleichnis, Liniengleichnis im „Staat“), und viele andere. Daß er gleichwohl
von „Ideenschau“, und zwar mit einem „geistigen Auge“, sprach, darf man selbst
schon als Metaphorik, in welcher das sinnliche Auge als Modell für das „un-
sinnliche Denken“ steht, verstehen. Aber es wurde zu einer Wurzel des „dialek-
tischen Denkens“, in welchem das sichtbare Modell mit dem Unsichtbaren ver-
87
Für eine Übersicht der Modelltypen und Anwendungsgebiete vgl. H. Stachowiak in: Handlexikon zur Wissenschafts-
theorie, hgg. v. H. Seiffert und G. Radnitzky, München 1989, S. 219 – 222; ders., Allgemeine Modelltheorie, Wien 1977,
sowie ders., Modelle - Konstruktion und Simulation der Wirklichkeit, München 1983.
157
schmolz (wie modellhaft die immer sichtbare Vorderseite des Mondes mit seiner
unsichtbaren Rückseite).
Die Nachfolger der platonischen Ideen waren in der abendländischen Philo-
sophie und Wissenschaft der Gott, die Geister und die Kräfte. Sie sind immer da
und wirken, aber man nimmt sie nicht wahr. Wie man über sie „dialektisch“
redete und dachte, zeigt sich in der Erbfolge des Platonismus und Neuplatonis-
mus.
Für alle Geisteswissenschaften wurde die Lehre des Neuplatonikers Philon von
Alexandria (um 25 v. Chr. – um 50 n. Chr.) vom mehrfachen Schriftsinn eine
immer sprudelnde Quelle der geisteswissenschaftlichen Modelle, die hier die
Form der Metaphern und Allegorien annahmen. Auf dem Hintergrund der plato-
nischen Ideenlehre war für Philon der „geistige Sinn“ der heiligen Schriften und
insbesondere der jüdischen Thorah etwas nur zu Denkendes. Von diesem nur zu
Denkenden unterschied Philon seine Veranschaulichung in den Texten. Zentral
wurde sein hermeneutischer Kanon vom „allegorischen Sinn“, in dem Platons
Gleichnislehre perenniert wurde. Er liegt auch Cassians vierfachen Kanones vom
literalen, allegorischen, moralischen und anagogischen Sinn zugrunde, die vor
allem den Laien der religiösen Gemeinde die „geistige Botschaft“ durch die
wörtliche Einkleidung, die gleichnishaften und moralischen Beispiele und die
Hinweise bzw. Andeutungen prophetischer Art anschaulich vermitteln.
Der dritte wesentliche Entwicklungsschritt der Modelltheorie war die Theorie
der Stoiker über das Verhältnis von Mikrokosmos und Makrokosmos. Die stoi-
sche Neuerung bestand darin, daß sie nicht das Unanschauliche durch Modelle
repräsentierten, sondern etwas Anschauliches durch etwas anderes Anschauliches.
Das wurde zum Ausgang einer allgemeinen Metaphorologie, in welcher alle
Dinge Symbole für einander werden konnten. Da sie im allgemeinen einen kau-
salen Universaldeterminismus vertraten, hat sich bei den Stoikern das Mikro-
Makroverhältnis mit der Meinung vermischt, das Modell-Verhältnis sei ein Kau-
salverhältnis. Davon zeugt der römische Augurenkult und im weitesten Ausmaß
die Astrologie und Mantik. Sternkonstellationen, Handlinien, Physiognomien sind
bekanntlich auch heutzutage noch in weitesten Kreisen motivierende Kausalitäten
für praktisches Verhalten, Tun und Entscheidungen.
Kommen wir aber zu einer mehr systematischen Betrachtung der Modelle.
Modelle sind seit Demokrit ein „Quid pro quo“ geblieben. Etwas Anschauliches
steht für etwas anderes. Was dies andere aber sein kann ergibt sich aus metaphysi-
schen Begründungen sowie aus der Abgrenzung der Wissenschaftsgebiete und
deren Gegenständen.
1. Wichtig ist, daß ein Modell grundsätzlich etwas anderes ist als das mit ihm
„Veranschaulichte“. Das Modell für die „Sache selbst“ nehmen, ist daher ein
schwerer aber weitverbreiteter Fehler in den Anwendungen. Solchen Fehlern sind
wir schon in den bisherigen Ausführungen begegnet.
158
Die „physikalische“ (eigentlich: physische) Natur bietet sich dem Betrachter dar
in Gestalt diskreter fester Körper und als kontinuierliches Fließen von Flüssig-
keiten und Wehen von Winden (Gasen). Ob und wie man das eine für den Grund
des anderen halten konnte, darüber haben sich Demokrit und die stoischen und
epikureischen Atomisten mit Heraklits (um 544 – 483 v. Chr.) Dictum „Alles
fließt“ (panta rhei) und neuplatonischen „Emanations-Philosophen“ (emanatio =
„Herausfließen“) auseinandergesetzt.
Die Physik hat zunächst beide Phänomene in getrennten Disziplinen erforscht.
Daraus entstanden einerseits die sogenannte korpuskulare Mechanik und ande-
rerseits die „Hydrodynamik“ der Flüssigkeiten. I. Newton (1643 – 1727), der Kor-
puskularphysiker, und Christian Huygens (1629 - 1695), der Hydrodynamiker,
wiederholten den antiken Streit zwischen den Atomisten und Emanatisten um den
Vorrang ihrer Modelle für die Erklärung des Lichts und seiner Eigenschaften auf
den Grundlagen der mathematischen Physik ihrer Zeit. Es ging um die Frage,
welches Modell – diskrete Körper oder kontinuierliche Flüssigkeiten – sich besser
dazu eigne, die Lichterscheinungen mathematisch elegant und vollständig zu er-
klären und zugleich anschaulich zu machen.
Wie man weiß, blieb der Streit unentschieden. Beide Modelle blieben in Kon-
kurrenz auch in neueren physikalischen Disziplinen. Die entsprechenden Theorien
sind die Korpuskel-Mechanik und die Wellenmechanik. Mathematisches dialek-
tisches Denken aber vereinigt mittlerweile beide zur „dualistischen“ Theorie der
Partikel-Wellen-Mechanik.
Daß es überhaupt zu einer Abgrenzung der „Mikrophysik“ (der Elementar-
teilchen oder Wellen) von der klassischen Makrophysik gekommen ist, verdankt
sich ebenfalls zum Teil einem Modelltransfer. Die alte Physik der Himmelskörper
und ihrer mechanischen Bewegungen wurde selbst zum Modell, sich die Atome
wie kleine Sonnen vorzustellen, um welche die Elektronen wie Planeten kreisen
(Bohrsches Atommodell). Aber die genauere Erforschung des Verhaltens der
Elektronen (deren Theorie ja in der „Hydro“-Dynamik des elektrischen “Stroms“
entwickelt worden war) zeigte das Ungenügen dieser Modellvorstellung. Statt um
„Flüsse“ und ihr „Strömen“ geht es nun um „Strahlungen“, in denen etwas bewegt
wird, was sich manchmal an Meßpunkten identifizieren läßt, manchmal aber auch
nicht (non-locality). Die anhaltende Verlegenheit um eine Modellvorstellung
dafür äußert sich in der „String-Theorie“ („Schleifen“).
Ebenso war die Entwicklung der Relativitätstheorie, die heute die makrokos-
mische Physik beherrscht, zunächst inspiriert von den Erkenntnissen der Akustik,
insbesondere des Dopplereffektes bewegter Schallquellen. Schallausbreitung wur-
de zum Modell der Lichtausbreitung, bis sich das Ungenügen der Modellana-
logien des Schalls angesichts der (von A. Einstein postulierten) Konstanz der
Lichtausbreitung herausstellte. Inzwischen steht auch die Astronomie im Zeichen
der Modellierung und Simulation, wie es im Titel der Jahrestagung der astrono-
mischen Gesellschaft in Deutschland 2011 zum Ausdruck kam: „Surveys and
Simulations / The Real and the Virtual Universe“.
161
Die Chemie war in ihrer Geschichte (als Alchemie) ziemlich weit entfernt von
Mathematisierung. Antoine Laurent Lavoisier (1743 – 1794) und John Dalton
(1766 – 1844) aber haben erste quantitative Gesetze der Elementenverbindungen
aufgestellt und damit ihre Mathematisierung eingeleitet. Atome wurden durch
Jens Jakob Berzelius (1779 – 1848) mit latinisierten Eigennamen bezeichnet (z. B.
„H“ für „Hydrogenium“ bzw. Wasserstoff). Moleküle als chemische Verbindun-
gen von Atomen bezeichnete er mit Wörtern bzw. „Formeln“, die ihren Aufbau
gemäß der Zahl ihrer Atome darstellten (z. B. „H2O“ für das Wassermolekül, be-
stehend aus 2 Wasserstoffatomen und einem Sauerstoffatom). Molekülvorstellun-
gen aber unterwarf man dann auch in der Chemie der Geometrisierung mittels
„Strukturformeln“, die die gegenseitige Lage der Atome im Molekül veran-
schaulichen sollten. Diese wurden dann auch durch dreidimensionale Modelle
dargestellt. Die Modelle erwiesen sich als fruchtbare heuristische Instrumente für
die Entdeckung vieler komplizierterer Molekülverbindungen. August Kekülé von
Stradonitz (1829 – 1896) berichtete 1865, wie er im „Halbtraum“ das Struktur-
modell des Benzolrings (C6H6) in Gestalt einer sich selbst in den Schwanz
beißenden Schlange fand. Francis Crick und James Watson entdeckten 1953 die
Doppelhelix als Strukturmodell der DNA und erhielten dafür den Medizin-
Nobelpreis.
Ein bedeutender Schritt in der chemischen Modellierung waren die sogenannten
chemischen Reaktionsgleichungen. Sie stellen Anfangs- und Ergebniskonstel-
lationen von chemischen Prozessen dar. Auch bei ihnen kann man den Effekt dia-
lektischer Mathematisierung feststellen. Denn sie drücken zugleich die Gleichheit
und die Unterschiedlichkeit der Anfangs- und Endkonstellationen von Prozessen
in Gleichungsform dar, wo man logisch behauptende kausale Implikationen er-
wartet hätte.
Auch die Biologie hat an dieser Geometrisierung ihrer Gegenstände teilgenom-
men. Goethes „Urform“ der Pflanze im Modell des Ginko-Blattes war ein Vor-
schlag dazu. Eine wichtige Vorstufe, die Biologie näher an die Physik heranzu-
bringen, war die geometrische Beschreibung der tierischen und pflanzlichen „Zel-
len“ durch Matthias Jakob Schleiden (1804 – 1881). Noch weitergehend versuchte
dies der „Energetismus“ der Monisten-Schule des Chemie-Nobelpreisträgers Will-
helm Ostwald (1853 – 1932) und Ernst Haeckels (1834 – 1919).
Der Physiker Felix Auerbach (1856 – 1933) ging von dem Ansatz der Monisten-
schule aus, daß die Organismen insgesamt „Energiewesen“ sind, die in ihren Kör-
pern Energie speichern und „verkörpern“, zugleich aber auch in ihren Lebens-
prozessen Energie umsetzen. Er erkannte dabei, daß der Bereich des organischen
Lebens sich vom Bereich der toten physikalischen Natur dadurch unterscheidet,
daß die Lebewesen nicht dem 2. Hauptsatz der Thermodynamik unterliegen.
Dieses sogenannte Machsche Gesetz besagt, daß in „geschlossenen Systemen“ der
Physik (ohne Energiezufuhr von außen) die Energiepegel eine „entropische Ten-
denz“ zum allgemeinen Niveauausgleich aufweisen (deshalb nennt man das
Machsche Gesetz auch Entropiegesetz), wodurch zugleich auch die physikalische
162
Zeitrichtung (von der Vergangenheit in die Zukunft) definiert bzw. simuliert wird.
Auerbach nannte den Energiehaushalt lebendiger Organismen im Gegensatz zur
Physik geschlossener Systeme „ektropische Systeme“, (in denen sich auch die
Zeitrichtung, die die Entwicklung der Lebewesen bestimmt, umkehrt. 88 Heute
spricht man diesbezüglich von „Negentropismus“ (= negativer Entropismus). Auf
dieser Grundlage hat dann Karl Ludwig v. Bertalanfy (1901 - 1972) sogenannte
Fließdiagramme der Lebewesen erarbeitet. Diese hat er in Modellen von „offenen
Systemen“ (GST, d. h. General System Theory) darzustellen versucht.89
Obwohl die Möglichkeit einer adäquaten Darstellung „offener Systeme“ und
erst recht deren Anwendung in anderen Wissenschaften wie Psychologie und
Soziologie umstritten ist, war dieser Ansatz doch ein wichtiger Beitrag zur Ein-
gliederung der biologischen Objekte in das physikalisch-geometrische Paradigma.
Aber erst die neuere Rückbindung der Biologie an die physikalische Chemie
(„Molekularbiologie“ und „Molekularmedizin“) hat diese Tendenz zur herrschen-
den gemacht.
Die moderne Tendenz zur Mathematisierung weiterer Einzelwissenschaften hat
auch das Modelldenken in diesen Wissenschaften zur dominierenden Methode
gemacht. Hier sind vor allem die Soziologie und die Ökonomie zu nennen. Für
beide Bereiche war einer der Ausgangspunkte die Max Webersche Theorie von
den „Idealtypen“, die schon als Modelle in nuce angesprochen werden können.90
Kern- und Ausgangspunkt für ökonomische Modelle ist etwa der „vollkommene
Markt“ (ohne Monopole und Kartelle bei vollständiger Information aller Markt-
teilnehmer über die Marktlage) oder der „Homo oeconomicus“, der sich stets
marktgerecht „rational“ verhält.91
Von den Geisteswissenschaften hat sich die Linguistik („Computerlinguistik“)
am meisten dieser Tendenz geöffnet.92
Die Psychologie hat sich seit dem 19. Jahrhundert in einen geisteswissenschaft-
lichen (W. Dilthey, H. Lipps u. a.) und einen medizinisch-klinisch-naturwissen-
schaftlichen Zweig (im Anschluß an J. F. Herbart) geteilt. Für den letzeren Zweig
dürften das Hauptmodell der Computer und seine Leistungskapazitäten geworden
sein.
In die Philosophiegeschichtsschreibung hat das Modellkonzept mit Rudolph
Euckens „Bilder und Gleichnisse in der Philosophie“ 93 Einzug gehalten. Aber es
88
Vgl. F. Auerbach, Ektropismus und die physikalische Theorie des Lebens, Leipzig 1910.
89
K. L. v. Bertalanfy, Biophysik des Fließgleichgewichts, Braunschweig 1953, 2. Aufl. Berlin 1977; ders., General
System Theory, Scientific-Philosophical Studies, New York 1968, 2. Aufl. 1976.
90
M. Weber, „Über einige Kategorien der verstehenden Soziologie“ sowie „Die drei reinen Typen der legitimen Herr-
schaft“, in: M. Weber, Soziologie, Weltgeschichtliche Analysen, Politik, hgg. v. J. Winckelmann, Stuttgart 1956, S. 97 –
166.
91
Vgl. R. Mayntz, Formalisierte Modelle in der Soziologie, Neuwied 1967; D. Maki und M. Thompson, Mathematical
models and applications. With emphasis on the social, life, and management sciences, Englewood Cliffs, N. J. 1973; K.
Troitzsch, Modellbildung und Simulation in den Sozialwissenschaften, Opladen 1990; H. Albert, Marktsoziologie und
Entscheidungslogik, Neuwied-Berlin 1967, neue Aufl. Tübingen 1998.
92
Vgl. N. Chomsky, Explanatory models in linguistics, in: Logic, Methodology and Philosophy of Science, hgg. von E.
Nagel, P. Suppes und A. Tarski, Stanford Univ. Press 1962, S. 528 – 550; H. P. Edmundson, Mathematical Models in
Linguistics and Language processing, in: Automated Language Processing, hgg. von H. Borko, New York 1968, S. 33 – 96.
163
dauerte bis in die zweite Hälfte des 20. Jahrhunderts, bis es von Hans Leisegang
unter dem Titel „Denkform“ 94 und Ernst Topitsch in Verbindung mit dem
Mythosbegriff wieder aufgenommen wurde. Topitsch arbeitete insbesondere tech-
nomorphe, biomorphe, soziomorphe und psychomorphe Modelle als anschauliche
Denkgrundlagen der großen historischen Philosophiesysteme heraus. Dies aller-
dings in der kritischen Absicht, sie als gänzlich unzulängliche Stützen überholter
Denksysteme der „wissenschaftlichen Philosophie“ des Wiener Kreises, d. h. der
Analytischen Philosophie gegenüber zu stellen.95
Eine positive forschungsleitende Bedeutung erhielt das Modelldenken bei Hans
Blumenberg (1920 - 1996) für diejenigen Philosophen, welche die Philosophie im
engen Anschluß an die Sprach- und Literaturwissenschaften betrieben. Er ging
von theologischen und literarischen Metaphern- und Mythenstudien aus, wo es
seit jeher gepflegt wurde, und hat es geradezu zur Leitmethode eines „trivial“-
philosophischen Denkens gemacht. Für ihn sind Metaphern und Mythen das genu-
ine Denkmittel einer philosophischen Sinnkonstruktion für die Welterklärung.
Dies in scharfem Gegensatz zum begrifflichen und abstrakten wissenschaftlichen
Denkstil der neuzeitlichen Naturwissenschaft. „Die Metaphorologie sucht an die
Substruktur des Denkens heranzukommen, an den Untergrund, die Nährlösung
der systematischen Kristallisationen, aber sie will auch faßbar machen, mit wel-
chem ‚Mut‟ sich der Geist in seinen Bildern selbst voraus ist und wie sich im Mut
zur Vermutung seine Geschichte entwirft“.96
So fruchtbar sich diese Version der Metaphern- und Mythenforschung in Blu-
menbergs eigenen Schriften und in denen seiner zahlreichen geisteswissenschaft-
lichen Schüler erwiesen hat, so betonte er in seinem letzten Werk „Die Lesbarkeit
der Welt“ 97 auch die Kehrseite überkommener Mythen und Modelle als Ver-
führung und Irreführung der wissenschaftlichen Forschung. Dies am Beispiel der
(augustinischen und galileischen) Metapher vom „Buch der Natur“ („das in geo-
metrischen und arithmetischen Zeichen geschrieben ist“). Erst die neuzeitliche
Naturwissenschaft habe sich von der darin implizierten Leitvorstellung eines gött-
lichen Buch-Autors verabschiedet und den Nachweis erbracht, daß es sich um das
Modell eines Buches mit gänzlich leeren Seiten gehandelt habe.
Zuletzt hat sich noch Kurt Hübner für die Unentbehrlichkeit des Modelldenkens
in den Wissenschaften stark gemacht. 98 Auch er ging von der theologischen
Mythenforschung aus und stellte die Mythen als empirisch nicht widerlegbare
93
R. Eucken, Bilder und Gleichnisse in der Philosophie, Leipzig 1880.
94
H. Leisegang, Denkformen, Berlin 1951.
95
E. Topitsch, Vom Ursprung und Ende der Metaphysik. Eine Studie zur Weltanschauungskritik, Wien 1958; ders., Mythi-
sche Modelle in der Erkenntnistheorie, in: E. Topisch, Mythos, Philosophie, Politik. Zur Naturgeschichte der Illusion,
Freiburg 1969, S. 79 - 120.
96
H. Blumenberg, Paradigmen zu einer Metaphorologie“, Bonn 1960, S. 11; ders., Arbeit am Mythos, Frankfurt a. M.
1979. - Vgl. dazu L. Geldsetzer, Die Philosophie der Philosophiegeschichte im 19. Jahrhundert, Meisenheim 1968, S. 172 -
173.
97
H. Blumenberg, Die Lesbarkeit der Welt, Frankfurt a. M. 1981.
98
K. Hübner, Die Wahrheit des Mythos, München 1985, 2. Aufl. Freiburg-München 2010; ders., Die nicht endende
Geschichte des Mythischen, in: Texte zur modernen Mythenforschung, Stuttgart 2003.
164
Geometrie als Modell der Hilbertschen (1862 – 1943) Axiomatik. Dies dürfte die
Standardauffassung in der Wissenschaftsphilosophie sein.
Umgekehrt findet man aber auch die Meinung, für jede „intuitive“ inhaltliche
Theorie eines Objektzusammenhangs sei der (axiomatische) Formalismus ein Mo-
dell. Aber wie man leicht bemerkt, ist das erstere – die Interpretation eines Forma-
lismus - nichts anderes als ein Anwendungsbeispiel. Aus solchen Beispielen aber
wird der Formalismus in aller Regel erst gewonnen (wie es die stoische Logik
vorführte). Formalismus und Interpretation müssen daher von vornherein „tautolo-
gisch“ übereinstimmen. Diese Modellvorstellung ist daher ein Fall einer petitio
principii.
Da für die Logik die logischen Formalismen die anschaulichen Modelle für das
sind, was man logisches Denken (oder oft auch Rationalität schlechthin) nennt,
kommt alles darauf an, wie die Formalismen gestaltet sind und was sie dabei „zu
denken“ erlauben.
Der übliche logische Formalismus mit Begriffsvariablen und Junktoren ist –
ebenso wie der mathematische mit Zahlvariablen und Rechenarten als Junktoren
(„Operatoren“) – an die Textgestalt von Schriftsprachen gebunden. Das Textmo-
dell modelliert die Abfolge von ganzen Begriffen in (behauptenden) Sätzen und
deren Abfolge zu weiteren Begriffen und Behauptungen als “Denkprozeß“ ent-
sprechend der Abfolge eines schriftlich notierten Lese- und Vorstellungsablaufes.
Dies ist die Grundlage für die sogleich zu behandelnde „Simulation“ von Abläu-
fen geworden.
Die Modelle in der Form von Graphen modellieren dagegen keinen sprachlichen
Gedankenlauf, sondern geben ein statisches Abbild von logischen Relationen. Als
Beispiele haben wir schon die porphyrianischen Bäume, die (umgekehrten) Be-
griffspyramiden, die Eulerschen Kreise sowie die Vennschen Diagramme er-
wähnt. Sie gelten zwar als didaktische Hilfsmittel, haben aber eine selbständige
und andersartige Funktion ihrer Abbildlichkeit als die textartigen Formalismen.
Wesentlich für sie ist, daß diese Graphen-Formalismen als das behandelt werden
können, was man Modelle nennt. Der von uns vorgeschlagene und in § 9 ausführ-
lich explizierte Formalismus stellt insofern einen Verbesserungsvorschlag des
Pyramidenmodells dar.
Hier ist jedoch darauf hinzuweisen, daß es sich bei der hier entwickelten For-
malisierung nicht um eine Veranschaulichung eines „unanschaulichen Denkens“ -
das es nicht gibt - handelt. Was in den logischen Pyramiden „modelliert“ wird ist
immer inhaltliches Vorstellen, sei es in direkter sinnlicher Betrachtung des Pyra-
midenformalismus selbst oder als Erinnerung an seine Gestaltung. Die Forma-
lisierung liefert nur ein normatives Beispiel dafür, wie man mit anschaulichen
Vorstellungen, Erinnerungen und Phantasien umzugehen hat, wenn sie in eine
logische Ordnung gestellt werden sollen. Der pyramidale Formalismus in seiner
Anschaulichkeit ist also selbst ein Exemplar des logischen Vorstellens im Unter-
schied zu rein sprachlichem Reden, zum Schreiben oder Spekulieren, das der
logischen Formalisierung vorauslaufen oder auch nachfolgen mag.
167
„Modell (nach dem aus lat. modellus, Maßstab (Diminutiv von Modus, Maß)
gebildeten ital. (16. Jh.) modello), in Alltags- und Wissenschaftssprache vielfältig
verwendeter Begriff, dessen Bedeutung sich allgemein als konkrete, wegen ‚ideali-
sierender‟ Reduktion auf relevante Züge, faßlichere oder leichter realisierbare Dar-
stellung unübersichtlicher oder ‚abstrakter‟ Gegenstände oder Sachverhalte umschrei-
ben läßt. Dabei tritt die Darstellung der objekthaften Bestandteile hinter der Darstel-
lung ihrer relational-funktionalen Beziehungen (Struktur) zurück.“ 99
99
G. Wolters, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-
Zürich 1984, S. 911.
100
Vgl. A. Tarski, Contributions to the Theory of Models, in: Indagationes Mathematicae 16, 1954, S. 572 - 588; nach G.
Wolters, Art. „Modelltheorie“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band,
Mannheim-Wien-Zürich 1984, S. 913 – 914; vgl. auch G. Hasenjäger, Art. „Modell, Modelltheorie“ in: Wörterbuch der
Philosophischen Begriffe, Band 6, hgg. von J. Ritter und C. Gründer, Basel-Stuttgart 1984, Coll. 50 – 52.
169
In diesem Dictum ist schon auf die „Folgen der Bilder“, also das prozessuale
Moment der Nachbildung, hingewiesen, welches im Simulationskonzept festge-
halten wird. Diese Bedeutung dürfte überhaupt der Grund für die Attraktivität des
Terminus „Simulation“ gewesen sein.
Daneben hat aber die Simulation schon seit der Antike noch die recht pejorative
Nebenbedeutung, die seine positive Bedeutung geradezu ins Gegenteil verkehrt.
101
H. Hertz, Prinzipien der Mechanik, in: Ges. Werke Band 3, Leipzig 1894, zit. nach F. Ueberweg, Grundriß der Ge-
schichte der Philosophie, Band 4, Berlin 1923, S. 422.
170
Angesichts dieser Geschichte der „Simulation“ sollte man also auch in der Wis-
senschaftstheorie eine gewisse Skepsis gegenüber der Konjunktur der Simulatio-
nen nicht ganz hintanstellen.
Ebenso wie die mathematischen Modelltheorien beruhen auch die (Computer-)
Simulationen auf mathematischen Theorien. Anders als die mathematischen Mo-
delltheorien bezieht sich dabei die mathematisierte Theorie der Computer nicht
auf eine Axiomatik, sondern direkt auf große Forschungsbereiche und die hierin
gesammelten Daten- und Faktenmassen nebst ihren Zusammenhängen.
Ein weiterer Unterschied zu den mathematischen Modellen besteht darin, daß
die Objekte der Simulation in der Regel Prozesse bzw. Abläufe sind, die dann
auch durch technische Prozesse bzw. ihre mathematischen Formalisierungen in
Algorithmen, die das Computerprogramm ausmachen, abgebildet werden. Günter
Küppers und Johannes Lenhard haben die Simulationen daher sehr griffig als
„Modellierungen 2. Ordnung“ bezeichnet.102 So bleibt das Quid pro quo der Mo-
delle auch in den Simulationen erhalten.
Die Attraktivität und Konjunktur der Simulation dürfte sich in erster Linie der
Tatsache verdanken, daß sie – ebenso wie die Modelltheorien überhaupt - so gut
in den Kontext der realistischen Erkenntnistheorie paßt.
Simulationen erscheinen als eine exakte und mathematisierte Form der traditio-
nellen Adaequatio rei et intellectus, der „Übereinstimmung von Sachverhalt und
Erkenntnis“. Durch die ein-eindeutige Abbildung eines prozessualen Sachverhal-
tes soll eine selber progredierende Erkenntnis simuliert werden. Das Paradigma
dafür ist das Computerprogramm (und dafür ist wiederum die sogenannte Turing-
Machine das konzeptionelle Modell), das die maschinellen Prozesse im Computer
steuert, die ihrerseits durch bild- und geräuscherzeugende Simulation etwas dar-
stellt, was als schon bekannt und wiedererkennbar erscheint.
Das kennt jedermann vom Theater her, in welchem ja historische oder typische
Lebensabläufe und Handlungszusammenhänge simuliert werden. Sie gelten in der
Ästhetik als umso „wahrer“, je mehr sie „dem vollen Leben entsprechen“. Aller-
102
Vgl. G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for General Philoso-
phy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 305 – 329. Eine Ausarbeitung dieses
Ansatzes mit zahlreichen Anwendungsbeispielen und kritischen Bemerkungen in Joh. Lenhard, Mit allem rechnen – zur
Philosophie der Computersimulation, Berlin 2015.
171
dings war sich die ästhetische Einschätzung der dramatischen Simulationen schon
seit dem Sophisten Gorgias (ca. 480 – 380 v. Chr.) bewußt, daß dabei immer auch
die „Täuschung“ und Verstellung“ durch die Illusionen der Bühne und die Ver-
stellungskunst der Schauspieler im Spiel war. Diese Bedenken sind jedoch in den
quadrivialen Naturwissenschaften und ihren Simulationen verloren gegangen.
Umso mehr besteht Bedarf, sie auch hier geltend zu machen.
Wie in § 5 gezeigt wurde, lebt die Forschung wesentlich von Vermutungen und
Hypothesen, die eigentlich im sprachlichen Konjunktiv zu formulieren wären. Da
es diesen Konjunktiv aber weder in der Logik noch in der Mathematik gibt,
formuliert man auch die Vermutungen in der behauptenden Urteilsform. Und das
erfüllt zunächst den Tatbestand der Vortäuschung von Tatsachen, wo über deren
Existenz oder Nichtexistenz, geschweige über deren bestimmten Charakter, nichts
behauptet werden kann. Wie sich die Wahrscheinlichkeitskonzeptionen über die-
sen logischen Sachverhalt selbst hinwegtäuschen, haben wir schon ausführlich
beschrieben. Es kann jedenfalls nicht verwundern, daß in den Simulationen aus-
gebreiteter Gebrauch von statistischer Wahrscheinlichkeit und Schlußfolgerungen
daraus gemacht wird.
Da diese in ihren mathematischen Formalisierungen als sicheres und wahrheits-
garantierendes Wissen gelten, ersetzen und vertreten sie alles das, was auf der
Faktenebene alles andere als sicher, gewiß und etablierte Wahrheit ist. Damit
erfüllt das Simulationsverfahren die erste römische Maxime: „Simulo quae non
sunt“. Die mathematischen Simulationen stehen als „wahre Theorien“ für nur
vermutete und unsichere Fakten. Und zugleich decken sie das Ungewisse, vom
dem man nur mit Sicherheit weiß, daß da „irgend etwas ist“, mit Wahrheits- und
Gewißheitsansprüchen zu. Damit erfüllen sie auch die zweite römische Maxime:
„Quae sunt ea dissimulantur“. Erst die post-festum Verifikationen und Falsi-
fikationen können allenfalls als Begründungen für gelungene oder mißlungene
Simulierung dienen. Aber post festum sind die Simulationen nicht mehr Simu-
lationen, sondern Tatsachenbehauptungen.
Ersichtlich sind es gerade die schwierigsten Grundprobleme, an denen sich
metaphysische Forschung jahrhundertelang abgearbeitet hat, die nun mit der
Simulationstechnik in Angriff genommen und mit der Hoffnung auf endgültige
Erledigung bewältigt werden sollen. Nämlich die Fragen: Was ist eigentlich Geist,
Subjekt, „Intelligenz“ und deren Leistungsfähigkeit; und was ist das „Ding an
sich“ als objektiver Kern aller Wirklichkeit.
Auf der metaphysischen Grundlage des herrschenden materialistischen Realis-
mus geht die KI-Forschung (Künstliche Intelligenz-Forschung) davon aus, das
Gehirn sei das materielle Substrat des Geistes bzw. des Subjekts. Die physiolo-
gischen Gehirnprozesse müßten daher durch maschinelle Prozesse simuliert
werden können.
Der Mathematiker Johann v. Neumann (1903 – 1957), neben Konrad Zuse
(1910 – 1995) der Pionier des Computerbaus, der für sein photographisch genaues
und zuverlässiges Gedächtnis berühmt war (er konnte schon als Kind eine Tele-
172
phonbuchseite mit allen Namen und Nummern zuverlässig erinnern) hat in seinem
Buch „The Computer and the Brain“ 103 die „Analogie“ des Computers zum
menschlichen Gehirn unterstrichen. Für die Wissenschaften relevant sind dabei
naturgemäß die sogenannten kognitiven Leistungen des Gehirns.
Aber wie man durch Maschinen seit jeher die menschlichen körperlichen
Leistungen verlängert und verstärkt hat, so natürlich auch die sogenannten intel-
lektuellen Leistungen. Teleskop und Mikroskop, Hörgeräte, Thermometer und
Waagen sind Verlängerungen der sinnlichen Organe. Leibnizens Rechenmaschine
war die erste Maschine, die auch eine solche – und zwar notorisch aufwendige
und umständliche – intellektuelle Leistung, nämlich das Rechnen in den Grund-
rechnungsarten verlängerte, beschleunigte und fehlerlos ersetzte.
Mit Recht sieht man darin die Matrix der Computer. Das Wort Computer ( =
„Rechner“) selbst hat diesen Ursprung festgehalten. Nur in Frankreich hat man
eine weitere Leistungsfähigkeit der Computer aus jüngeren Entwicklungen in den
Vordergrund gerückt. Man nennt sie dort „ordinateur“ und betont damit zugleich
mit ihrer Datenspeicherkapazität – die als maschinelles Gedächtnis eingeschätzt
wird - die zuverlässige Klassifizierung und Anordnung der Daten und ihre sichere
Abrufbarkeit.
Gewiß übertrifft der Computer inzwischen jede menschliche Erinnerungs- und
Ordnungskapazität. Daher überlassen wohl die meisten Zeitgenossen ihre Erin-
nerungen und die Registerhaltung ihrer Angelegenheiten ihrem Computer. Und
ersichtlich wird im gleichen Maße das individuelle Erinnern und die Ordnungs-
haltung vernachlässigt und ersetzt.
Computerprozesse werden durch Algorithmen gesteuert. Das sind in der Mathe-
matik Handlungs- bzw. Prozeßanweisungen für die Durchführung von Rechnun-
gen. Computerprogramme sind mehr oder weniger komplexe Algorithmen, die
das Funktionieren der Computer auf bestimmte Ergebnisse hin abrichten und
steuern. Längst setzt man sie daher auch für alle möglichen Berechnungen ein, die
ein Mensch wegen Umfang und Dauer nicht mehr durchführen kann. Daraus hat
sich auch in der Wissenschaft längst ein computergestütztes „Puzzle-Solving“,
also das mechanische Problemlösen, durchgesetzt. Insbesondere mechanisiert man
mathematische Beweisverfahren.104
Nun weiß man zwar genau, wie die Computer funktionieren, aber nicht, wie das
menschliche Gehirn funktioniert. Gemeinsam haben beide nur, daß man „von
außen“ nicht sieht, wie sie ihre Geschäfte erledigen. Beide sind das, was man
„black box“ (eine schwarze Kiste) nennt, in die etwas hineingetan wird („in-put“)
und etwas herauskommt („out-put“). Und so kommt wiederum das mathematische
Modelldenken, verstärkt durch das Simulieren unbekannter Vorgänge durch be-
kannte Prozesse, ins Spiel. Wenn der Computer so gut rechnen und Daten spei-
103
J. v. Neumann, The Computer and the Brain, 1958, neue Aufl. New Haven 2000, dt.: Die Rechenmaschine und das
Gehirn, 1958.
104
Vgl. dazu die Literatur bei Kl. Mainzer, Artikel „Intelligenz, künstliche“, in: Enzyklopädie Philosophie und Wissen-
schaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-Zürich 1984, S. 255 –256.
173
chern und wieder hervorrufen kann, und beides als ausgezeichnete und geradezu
paradigmatische Intelligenzleistung gilt, so läßt man sich gerne zu dem Schluß
verführen, geradezu alle Bewußtseinsakte ließen sich computermäßig simulieren.
Als Beweis für gelungenes Simulieren der rechnenden und datenspeichernden
Intelligenz gilt nicht von ungefähr das Schachspiel der Schachcomputer gegen die
Weltmeister des Schachspiels. Und da freies Entscheiden und sogenannte Krea-
tivität als wesentliches Anthropinon gilt, haben viele Tonkünstler und Maler ihre
Kreativität längst in die Programmierung von geräusch- und bilderzeugenden
Computern mit eingebauten Zufallsgeneratoren verlagert. Was man aber bisher so
noch nicht simulieren kann, ergibt dann regelmäßig ein willkommenes und stets
auszuweitendes Forschungsprogramm.
Neben dem Rechnen ist es das Sprechen, welches gemeinhin als „Out-put“ von
Denkprozessen gilt. Das sieht man schon daran, daß alles Schulwesen heute
Mathematikkenntnisse und Sprachverfügung als hauptsächliche Testfelder intel-
ligenter Leistungen festgeschrieben hat. Auch bei den sprachlichen Artikulationen
findet der Computer seit langem verstärkten Einsatz. Schriftliche und lautliche
out-puts gehören längst zum Standard der Computer bei Übersetzungen, bei
Robotern und Automaten bis hin zu den Richtungsanweisungen im GPS der Fahr-
zeuge.
Und so hält man es für eine Frage des Fortschritts, bis auch alle weiteren
Gehirnfunktionen computermäßig simuliert werden könnten. Puppen lachen und
weinen schon und simulieren Gefühle. Die inzwischen aufgelaufene Literatur zur
Künstlichen Intelligenz läßt schon ahnen, was man sich davon verspricht, nämlich
die Klonung menschlicher Gehirne in Gestalt von Computern und den Zusam-
menschluß von Computerelementen mit neuronalen Organen (Implantation von
Computerchips ins Gehirn). Auch die Tagespresse nimmt regen Anteil an der
Reklame.105 Alle diese schönen Hoffnungen und Aussichten, die inzwischen mit
Millionendotierungen an zahlreichen Forschungsinstituten genährt und unterhal-
ten werden, beruhen aber, wie schon vorn gesagt, auf naturwissenschaftlichen
Modell- und Simulationsmethoden. Der Computer ist Modell des Gehirns, und die
Computerprozesse sind die Simulationen des menschlichen Seelenlebens. Daß nur
eine Analogie vorliegt, die neben dem, was dabei identisch funktioniert, gerade
das Unterschiedliche kennzeichnen sollte, gerät dabei immer mehr aus dem Blick.
Man muß schon die Perspektive eines sensualistischen Idealismus einnehmen,
um zu erkennen, daß auch Gehirne und ihre Funktionen etwas sind, was erst
einmal gesehen, beobachtet und erforscht werden muß, und zwar keineswegs
durch Computer.
Die sogenannten bildgebenden Beobachtungsverfahren, die die Grundlage für
die hirnphysiologischen Erkenntnisse darstellen, haben einstweilen nur eine neue
105
Vgl. z. B. FAZ vom 6. 8. 2011, S. 31: Art. „Unsterblichkeit für alle“: „Unermüdlich arbeitet Ray Kurzweil daran, uns
den Weg ins ewige Leben zu weisen. Im Jahr 2029, so prophezeit es der amerikanische Autor und Erfinder, werden das
menschliche Gehirn und der Computer eine Einheit bilden“.
174
Peter Kolbatz schon seit 1994 für die Zunahme der regionalen Sturm- und
Regenkatastrophen verantwortlich macht.
Am meisten umstritten ist dabei der Eintrag zivilisationserzeugter sogenannten
Treibhaus-Gase, besonders des Kohlendioxyds. Sie waren zwar schon immer eine
natürliche Bedingung des Lebens auf der Erde. Jetzt werden sie jedoch wegen
vermuteter übermäßiger Freisetzung aus ihren natürlichen Speichern in Kohle,
Erdöl und Erdgas als ein Hauptfaktor der Klimaerwärmung angesehen.
Die Daten sind recht kontingent und weisen in allen geschichtlichen Epochen
eine erhebliche Streuung auf. Je mehr man mit derartigen Daten und den immer
dichter ausgebauten Meßstationen der Gegenwart nahe kommt, desto dichter wer-
den sie. Sicher ist vom Klima aber nur das eine: daß es immer und überall ein
Klima (als Integral der Wetterlagen) gegeben hat. Aber wie es früher war, ist
überwiegend unbekannt, und wie es jetzt ist, kann jedermann direkt beobachten.
Es ist schon eine erhebliche (hypothetische) Induktion, vom Wetter in verschie-
denen Erdregionen und in begrenzten Zeitperioden zum Klima überzugehen und
dabei das Klima als Wetterdurchschnitt bestimmter Zeitepochen oder geographi-
scher Zonen zu definieren.
Die Klimax der Simulation aber ist bei alledem die Tendenzformulierung gemäß
der Comteschen Devise des „Savoir pour prévoir“. Wie das Wetter (je nach
Wunsch und Nutzen) mal für besser, mal für schlechter gehalten wird, so auch die
Simulation. Die einen beklagen, die anderen wünschen eine bestimmte Klima-
tendenz. Und jede gewünschte Tendenz läßt sich auch simulieren.
Hier kommen jedoch die nationalen und erst recht die industriellen und kom-
merziellen Interessen ins Spiel. Wird es tendentiell kälter (in Richtung auf eine
neue Eiszeit), so erscheint das genau so gefährlich und lebensbedrohend wie eine
Tendenz zur Erwärmung. Beide Tendenzen lassen sich durch entsprechend aus-
gewählte fotographische Bestandsaufnahmen bestimmter Weltregionen illustrie-
ren. Die Kehrseite dieser Gefahren ist freilich der kaum öffentlich diskutierte
Nutzen und Vorteil solcher Tendenzen für die eine oder andere Weltgegend und
ihre Bewohner, seien es Menschen oder Tiere und Pflanzen.
Die überall privilegierte Ausrichtung der Klima-Simulation zwischen den ex-
tremen Tendenzen ist die Konstanthaltung des Klimas geworden, der Status quo,
wie er gegenwärtig empfunden wird. Die Simulation liefert ein mathematisches
Bild, in welchen die bekannten und die zahlreichen vermuteten unbekannten
Faktoren ein prekäres Gleichgewicht aller bekannten und unbekannten Faktoren
vortäuschen. Schon die Einteilung natürlicher und zivilisatorischer Faktoren, die
in diese Simulationen eingehen, bleibt willkürlich und interessengebunden. Daß
die Weltklimakonferenzen dazu auffordern können, das Klima so, wie es sich
heute darbietet, zu stabilisieren und dazu ungeheure Ressourcen aufzubieten, dürf-
te eine der merkwürdigsten Erscheinungen der bisherigen Weltgeschichte sein.
176
Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches
und wahr-falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und
Erkenntnisse. Die Verkennung von Dokumentationen als Wissensbasen.
Es sei auch hier betont, daß neben den Argumenten auch und gerade Theorien,
und erst recht Teile von Theorien, wahr, falsch und auch wahr-falsch sein können.
Ebenso sei hier nochmals auf die merkwürdige Tatsache hingewiesen, daß in der
neueren Wissenschaftstheorie der Mathematik und Naturwissenschaften die Mei-
nung vertreten wird, daß insbesondere die Grundbegriffe bzw. „Prinzipien“ (axio-
matische Grundbegriffe) einschlägiger Theorien gerade „undefinierbar“ seien. Es
handelt sich dabei jedoch um die ersichtlich wahr-falsche These, daß solche
Grundbegriffe zugleich Begriffe und auch keine Begriffe seien.
Alles Wissen ist grundsätzlich Wissen lebendiger Menschen. Es besteht daher
wesentlich im Vollzug sogenannter geistiger Handlungen. Da diese privater Natur
und von anderen Menschen nicht unmittelbar erfaßbar sind, kann man ein Wissen
nur auf Grund seiner Verlautbarungen in sprachlichen und anderen symbolischen
Zeichen erschließen. Man nennt dies gewöhnlich „Objektivierung“ des Wissens.
Sprachliche Äußerungen auf Tonträgern, Texte, Bilder und Schemata gelten all-
gemein als solche Objektivierungen und sind die Grundlage für alle öffentlichen
Institutionen des Wissens.
Die Tatsache solcher Objektivierungen des Wissens führt allerdings zu der ver-
breiteten irrigen Auffassung, Wissen selbst bestünde in diesen Objektivierungen.
Daher spricht man heute allgemein von Texten, Dateien u. ä. als „Wissensbasen“.
Von da ist es nur ein kleiner Schritt, Dokumentationen, Bibliographien, Bücher,
Bibliotheken, Archive insgesamt als „objektives Wissen“ anzusehen und ihre Ord-
nungsapparaturen als „Expertensysteme“ zu bezeichnen. Besonders die Computer
mit ihrer ungeheuren Leistungsfähigkeit für die Speicherung und Zur-Verfügung-
stellung solcher Objektivationen haben diese Meinung verbreitet, so daß man
wegen der Verbreitung der Computer auch die sie benutzende Gesellschaft gerne
„Wissensgesellschaft“ nennt.
Hinter allen solchen Bezeichnungen verbergen sich aber nur Halbwahrheiten. Es
ist wahr, daß solche Apparate Wissen dokumentieren und den Zugang zu ihm
erleichtern und ordnen können. Aber es ist eine falsche Meinung, daß die Doku-
mentation von Wissen schon selber Wissen sei. Wie oben schon betont, kommt
Wissen nur (privat und individuell) zustande, wenn die Dokumentation zur Kennt-
nis genommen, gelesen, verstanden und „bedacht“ wird, und zwar eben durch
einen lebendigen Menschen in seinen (privaten) geistigen Kenntnis- und Erkennt-
nisakten.
Frühere Zeiten haben die platonische Einsicht kultiviert, daß Reden, Texte, Do-
kumentationen stumm und tot bleiben, wenn sie nicht in einem lebendigen Be-
wußtsein verarbeitet werden. Man war sich darüber im klaren, daß die (mate-
riellen) Formen sprachlicher Verlautbarungen von Texten, Bildern, Schematen ein
Mittel waren, geistige Akte zu evozieren und diesen selbst eine bestimmte Form
zu geben. Daher nannte man sie „Informationen“ (wörtlich: In-Form-Bringen).
Heute spricht man zwar noch in diesem alten Sinne davon, man „informiere sich“,
wenn man sich aus Dokumenten ein bestimmtes Wissen verschafft. Aber die
Information wird mehr und mehr mit dem Dokument als solchem, dem In-Form
179
Gebrachten, identifiert. Das erzeugt den Anschein, als ob das Dokument selber
schon ein Stück Wissen wäre. Man glaubt, Wissen ließe sich im Computer spei-
chern.
Abgespeicherte Information ist dann aber nicht mehr die gelesene, aufgenom-
mene, verstandene oder auch unverstandene, und gewußte Botschaft, sondern die
materielle Zeichenhülle selbst. Kein Wunder, daß Menschen, die sich auf solches
„dokumentiertes Wissen“ verlassen und die Information in Bits und Bytes quan-
tifizieren und sich dabei vom eigenen Erfassen und Denken entlasten, dabei in
Gefahr geraten, immer dümmer zu werden. Da dies jedoch eine sehr weit ver-
breitete Tendenz in den modernen Gesellschaften ist, muß es falsch und irre-
führend sein, die gegenwärtige Gesellschaftform eine „Wissensgesellschaft“ zu
nennen.
Nach dem bisher Gesagten müssen wir darauf bestehen, daß Wissenschaft wesent-
lich auf wissenschaftlichem Wissen beruht. Vieles andere kommt noch hinzu, aber
es ist nicht mit diesem Wesentlichen zu verwechseln, noch, wie es in der Wissen-
schaftstheorie häufig geschieht, an seine Stelle zu setzen.
Wissenschaft wesentlich auf das Wissen zu gründen, heißt keineswegs, es auf
ein anthropologisches oder psychologisches Wissen über das Wissen zu gründen
und damit einem reduktionistischen Anthropologismus oder Psychologismus zu
huldigen. Denn solches philosophisches Bereichswissen oder einzelwissenschaft-
liches Wissen, wie es auch das psychologische Wissen selbst ist, könnte allenfalls
ein Beispiel, ein Fall von wissenschaftlichem Wissen sein, das selber schon ge-
wußt werden muß.
Betonen wir beiläufig: Menschen haben auch vor der Entstehung oder Erfindung
von Wissenschaft mancherlei gewußt, und erst recht weiß jeder Mensch vieles,
ohne Anthropologe oder Psychologe zu sein und über spezielles Wissen aus
diesen Disziplinen zu verfügen. Wenn also die Wissenschaft darauf warten müßte,
bis eine besondere Wissenschaft geklärt hätte und „weiß“, was Wissen selber ist,
so gäbe es sicherlich noch keine Wissenschaften. Ebenso beiläufig sei gesagt:
Wenn Sokrates behauptete, daß er „wisse, daß er Nichts (genauer: nicht) wisse“
und Descartes, daß er „wisse, daß er wisse“, so verdanken diese Sprüche ihre
180
Notorietät offensichtlich gerade der Tatsache, daß sie auf ein Wissen hinweisen,
das sich in keiner Weise „objektivieren“ läßt.
Ein ebenso falscher Reduktionismus liegt der Denkfigur und der darauf beru-
henden Bestimmung des wissenschaftlichen Wissens als „Wissen von...“ zugrun-
de. Man setzt dabei voraus, dasjenige, von dem oder über das etwas gewußt wer-
de, sei die sogenannte objektive Wirklichkeit, also schlechthin der Gegenstand des
Wissens und der Wissenschaft. Diese wissenschaftlichen Objekte müßten unab-
hängig von allem Wissen erst einmal „gegeben“ und somit dem Wissen von ihnen
vorgegeben sein.
Diese Denkfigur ist in unseren Zeiten ein Grundgedanke des herrschenden
Realismus in den meisten Wissenschaften geworden. Es wird dabei aber nicht
bedacht, daß man das „Wovon“ und „Worüber“ des Wissens immer schon erkannt
haben und davon wissen muß, um überhaupt darüber reden zu können. Deshalb
verweist auch diese „realistische“ Denkfigur nur wiederum auf ein vorgängiges
Wissen, das dann weiteres „nachgängiges“ Wissen erzeugt, hinter das aber nicht
zurückgegangen werden kann.
Da nun Wissenschaft wesentlich auf Wissen beruht und dieses grundsätzlich ein
(privater) und bewußter Besitz lebendiger Menschen ist, sollte man sie am ehesten
bei den Wissenschaftlern selbst vermuten. In der Tat hat man diejenigen, bei
denen man Grund zu dieser Vermutung hatte, seit jeher als „Weise“ geehrt und
ausgezeichnet. Dieser Sitte verdanken sich noch immer alle Wissenschaftspreise
und Ehrungen.
Das alte Wissen darum, daß die Wissenschaft wesentlich vom Wissen der Wis-
senschaftler getragen wird, ist zwar heute sichtlich im Schwinden begriffen zu-
gunsten der Meinung und Erwartung, „objektiviertes“ Wissen stelle sich in den
wissenschaftlichen Institutionen mehr und mehr von selbst und gleichsam auto-
matisch in der oben genannten informationstechnischen Weise her. Aber man
wird auf das „lebendige“ Wissen zurückkommen müssen, wenn man Wissen-
schaft wirklich haben und erhalten will.
Wissen erwirbt man bekanntlich durch Lernen aus der Lebenserfahrung oder
durch Unterricht. Das gilt natürlich auch für wissenschaftliches Wissen. Ein guter
Wissenschaftler hat wie andere Menschen auch schulichen Unterricht genossen
und Lebenserfahrungen angesammelt. Wie gut die Schule und sein wissenschaft-
liches Studium war und wie tief und vielfältig seine Lebenserfahrungen sind, das
bestimmt auch nachhaltig die Qualität seines Wissens. Im übrigen lernt er im
besten Falle ständig hinzu und unterrichtet sich selbst weiter. „Life long learning“
war immer ein Spezifikum der Wissenschaftlerexistenz. Es nun jedermann zuzu-
muten kann nur bedeuten, alle Menschen zu Wissenschaftlern bilden zu wollen.
Dabei wäre es viel wichtiger, darauf zu achten und Sorge dafür zu tragen, daß und
wie schon einmal erlangte Wissensstandards in allen Bereichen des Lebens und
der Wissenschaft erhalten, vermittelt und womöglich verallgemeinert werden
könnten.
181
wäre. Dieses „avantgardistische“ Wissen kann sich zwar als wahr bewähren, es
kann sich aber auch als (falsche) „Ideologie“ erweisen.
Gegenwärtig kann man eine so eingeimpfte Gewißheitserwartung in weiten
Kreisen der Studierenden feststellen. Sie sind geschockt, enttäuscht und oft em-
pört, wenn sie an den Hochschulen einer forschungsnahen Lehre konfrontiert wer-
den, in der das meiste vorgetragene Wissen mehr oder weniger unsicher, disku-
tabel, problematisch erscheint. Gerade auf diese Unsicherheit des wissenschaft-
lichen Wissens hätte sich ein guter Schulunterricht immer auch propädeutisch im
Hinblick auf das wissenschaftliche Studium auszurichten und insofern mit aller
Vorsicht auf manche Ungesichertheit und Vorläufigkeit des wissenschaftlichen
Wissens vorzubereiten.
Begegnet man nun häufig bei den Studierenden und auch in weiten Kreisen der
Öffentlichkeit der Meinung, Wissenschaft sei als solche schon der Hort der
Wahrheit und eine „richtige“ Lehre vermittle daher lauter(e) Wahrheiten, so ist es
anderseits bei den Wissenschaftlern selbst geradezu eine Mode geworden, mit K.
R. Popper davon auszugehen daß alles in der Wissenschaft grundsätzlich unsicher
sei, daß alles Wissen der Wissenschaft nur vermutendes bzw. hypothetisches
„Wahrscheinlichkeitswissen“ sei, und daß sich Wissenschaft in und durch For-
schung nur allmählich und „asymptotisch“ der Wahrheit annähere, ohne sie je
erreichen zu können.
Dem Philosophen mag es zwar schmeicheln, darin eine alte Bescheidenheit wie-
derzuerkennen, die auf den Titel „Weiser“ (besser: Wissender) zugunsten der
„Liebe zur Weisheit“ (besser: zum Wissen) verzichtete - und damit auch auf das
Wahrheitsmonopol. Aber die Meinung, daß alles wissenschaftliche Wissen nur
wahrscheinlich sei, ist eine falsche Bescheidenheit und erst recht eine ganz falsche
Ansicht vom Wesen des wissenschaftlichen Wissens.
Das zeigt sich schon daran, daß man, um von einer „Annäherung an die Wahr-
heit“ (K. E. Popper) auch nur zu reden, schon wissen muß, was die Wahrheit ist.
Und wenn man das weiß, wie Popper natürlich voraussetzt, so hat man schon
wenigstens ein Stück wahren Wissens, von dem aus sich andere Stücke falschen
Wissens als falsch und als abständig von der Wahrheit einschätzen lassen.
Die wissenschaftliche Forschung stellten wir als Hilfsmittel zur Erweiterung
und Bereicherung des wissenschaftlichen Wissens heraus. Das Wort „Forschung“
(investigatio, auscultatio, scrutatio, skepsis, zetesis)107 verweist auf die Bedeutung
des Ausspähens, Herumblickens, Weitersehens, Suchens. So denkt man in erster
Linie daran, daß das wissenschaftliche Wissen durch Forschung neue Bereiche an
Kenntnissen und ihre erkennende Durchdringung erschließt.
Das ist in der Tat so. Die Erschließung ganz neuer Wissens- und Wissenschafts-
bereiche besonders in den Naturwissenschaften mit Hilfe neuer technischer
Experimentier- und Beobachtungsinstrumente hat diesen Forschungsbegriff ver-
festigt. Aber zur Forschung gehört neben der Erweiterung auch die Konsoli-
107
Vgl. L. Geldsetzer, Der Begriff der Forschung im 19. Jahrhundert. In: Jahrbuch der Universität Düsseldorf 1975/76,
Düsseldorf 1977, S. 135 – 146.
183
dierung und ständige Revision des wissenschaftlichen Wissens, also das, was wir
oben schon Prüfung der Wahrheit und Falschheit dieses Wissens genannt haben.
Man darf hier schon sagen: diese Art von Forschung steht heute weit hinter der
anderen, ständig auf Neues ausgerichteten - auch in der öffentlichen Wertschät-
zung - zurück. Der Zustand des kritischen Rezensionswesens in allen Wissen-
schaften zeigt es an. Es ist überall in vollem Verfall befindlich, und zwar zugun-
sten übersprudelnder „Informationen“ über neues Wissen, das nur noch darauf hin
geprüft wird, ob es nach „wissenschaftlichen Methoden“ erarbeitet, nicht aber ob
es wahres oder falsches Wissen ist.
Hinzu kommt ein in der Neuzeit sich immer mehr verbreitendes Fortschritts-
bewußtsein, das dazu neigt, alles schon vorhandene Wissen für überholt und daher
für „falsch geworden“ anzusehen. In gleichem Maße hält man es dann auch der
Mühe nicht mehr für wert, sich dieses Wissens überhaupt zu versichern, es zu
kennen und das vorgeblich Neue mit ihm zu vergleichen. Gerade dies aber ist die
einzig denkbare Probe für tatsächlich Neues. Man kann es auch so sagen: In
vielen Bereichen der Wissenschaft wird Amerika ständig neu entdeckt und das
Rad immer neu erfunden. Es wird nur anders benannt, und das erzeugt dann den
Anschein der Erschließung immer neuer „möglicher Welten“.
Forschung zur Erreichung und Verbesserung des Wissens gab und gibt es
natürlich auch außerhalb der Wissenschaft. Daher gilt von ihr ebenso wie von der
Lehre, daß sie vielfältige Gestalten annehmen kann. Sie kann sich auf handwerk-
liche Tricks und sogenanntes „know how“ stützen, sie kann als hohe Kunst
betrieben werden, und nicht zuletzt ist sie in neueren Zeiten immer mehr mit der
Technik verschmolzen worden. Das hat K. R. Poppers Schüler Paul Feyerabend
wohl mitgemeint und gesehen, als er für die Forschung die Parole ausgab:
„Anything goes“ (Alles geht) 108. Er hat mit dieser Parole aber viel zu weit ge-
griffen, indem er der Durchmischung aller Methoden und Tricks in der Wissen-
schaft ziemlich Vorschub geleistet hat. Wir haben aber schon genügend Gründe
aufgezählt, die es nahelegen sollten, zwischen wissenschaftlichen und außerwis-
senschaftlichen Forschungsmethoden zu unterscheiden.
Gerichtsprozessuale und „kriminalistische“ Verfahren zur Gewinnung (oder Her-
stellung) von wahrem Wissen und Entlarvung von Lüge, Täuschung und Betrug
sind wohl so alt wie die Kultur überhaupt. Sie haben in vielfältiger Weise Muster
und Modelle auch für die wissenschaftlichen Forschungsmethoden vorgegeben.
Gleichwohl ist die Forschung für die Wissenschaften derjenige Bereich geworden,
auf dem am meisten sichtbare und lehr- und lernbare Methoden entwickelt wur-
den, die daher im Mittelpunkt der Aufmerksamkeit der Wissenschaftstheoretiker
stehen. Angesichts der diesen Methoden gewidmeten Literatur könnte man den
Eindruck gewinnen, Wissenschaftstheorie sei fast nur Methodenlehre der For-
schung. Das ist bei der Wichtigkeit der Sache kein Wunder. Aber es besteht doch
108
P. K. Feyerabend, Against Method. Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the
Philosophy of Science IV, 1970, S. 117 – 130, 2. erw. Ausgabe: Against Method, London 1975; dt. erw. Übers.: Wider den
Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M. 1976.
184
Grund sich daran zu erinnern, daß auch Forschungsmethoden nur ein Mittel zum
Zweck der Wissensgewinnung und Wissenskonsolidierung sind, auf welche in der
Wissenschaft schlechthin alles ankommt.
Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien,
der Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Archi-
tektoniken und Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der
Wissenschaften. Die Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften.
Die Philosophie als Verunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die
Vorbilder der klassischen Methodologien.
Die Disziplin wird - wie viele andere auch - durch eine gräzisierende Namen-
gebung in der deutschen Schulphilosophie des frühen 17. Jahrhunderts etabliert.
Dies geschieht in der kleinen Schrift von Clemens Timpler: „Wissenschaftswis-
senschaft oder allgemeine Abhandlung über das Wesen und die Unterschiede der
freien Künste bzw. der wissenschaftlichen Disziplinen“ von 1604 109, das auch als
Einleitung in sein „Systema metaphysicum“ öfter aufgelegt wurde.
Hier steht das griechische Wort „téchne” für das lateinische „artes” bzw. artes
liberales, d. h. die freien Künste oder wissenschaftlichen Disziplinen der „Arti-
stenfakultät”, d. h. der Philosophischen Fakultät. Die „Logie” der „technai” ver-
steht sich also als eine neue Wissenschaft von den Wissenschaften der Philoso-
phischen Fakultät, d. h. der „trivialen” (oder „sermocinalen“, auf Reden bezoge-
nen) „Geisteswissenschaften” (Logik, Rhetorik, Grammatik) und der „quadri-
vialen“ (oder „realen”, auf Sachverhalte bezogenen) „mathematischen“ Naturwis-
senschaften (Arithmetik, Geometrie, Astronomie bzw. Naturwissenschaft,, musi-
kalische Harmonielehre). Sie ist als Wissenschaft vom Wesen und den Unter-
schieden der Einzelwissenschaften konzipiert. Damit hat Timpler der Wissen-
schaftsphilosophie ihre früheste Programmschrift geliefert.
Freilich ist eine solche Programmschrift nur sichtbarer Ausdruck von Tenden-
zen, die zur Konstitution der Disziplin zusammenliefen. Und diese erstrecken sich
über längere Zeiträume, z. T. kommen sie erst in der Gegenwart zum Tragen.
Dafür seien vor allem die Bestandsaufnahmen des Wissens und der Wissen-
schaften hervorgehoben, die eine leichte Übersicht erlaubten und zur Reflexion
109
Clemens Timpler, Technologia, seu tractatus generalis de natura et differentiis artium liberalium, Hanau 1604.
185
über diese Materie herausforderten. Sie bringen sich zur Geltung in mehreren
Literaturgattungen.
Vincent von Beauvais, Speculum quadruplex (verf. um 1260), 4 Bände Douai 1624, ND Graz
1965
Gregorius Reisch, Margarita Philosophica, Freiburg 1503, 4. Aufl. 1517, ND in Instrumenta
philosophica Series Thesauri I, hgg. von L. Geldsetzer, Düsseldorf 1973
Joh. Heinr. Alsted, Scientiarum omnium Encyclopaedia septem tomis distincta, Herborn 1630, 2.
Aufl. Leyden 1649
J. Th. Jablonski, Allgemeines Lexikon der Künste und Wissenschaften, 2 Bde Königsberg-Leipzig
1721, 3. verm. Aufl. hgg. v. J. J. Schwaben, Königsberg u. Leipzig 1767
J. Harris, Lexikon technicum, or an Universal English Dictionary of Arts and Sciences, London
1704, 1708, 1710, 1736, Supplement 1744, ND New York 1967
Ephr. Chambers, Cyclopedia, or a Universal Dictionary of Arts and Scienes, 2 Bde London 1728,
6. Aufl. hgg. von A. Rees, 5 Bde London 1788 – 1791
J. H. Zedler (Hg. u. Verleger), Großes vollständiges Universal-Lexikon aller Wissenschaften und
Künste, 64 Bde und 4 Suppl.-Bde (A bis Cag), Halle u. Leipzig 1732 – 1754, ND Graz 1961- 1964
D. Diderot und J. LeRond d„Alembert (Hg.), Encyclopédie ou Dictionnaire raisonné des Sciences,
des Arts et des Métiers, 35 Bde Paris bzw. Neuchâtel-Amsterdam 1751 - 1780 (mehrere
Ausgaben), ND Stuttgart-Bad Cannstatt 1969 ff.- Umarbeitung und Erweiterung durch Ch. J.
Pankouke und H. Agasse zur Encyclopédie méthodique ou par ordre des matières, 166
Bände, Paris-Liège 1781 – 1832, Ausgabe in 184 Bänden, Padua 1791
J. G. Krünitz (Hg. u. Verleger), Ökonomisch-technologische Enzyklopädie der Wissenschaften
und Künste, 242 Bände Berlin 1773 - 1858
Deutsche Enzyklopädie oder allgemeines Real-Wörterbuch aller Künste und Wissenschaften, von
einer Gesellschaft von Gelehrten (sog. “Frankfurter Enzyklopädie”), 23 Bde Frankfurt 1778 –
1807
J. G. Gruber und J. S. Ersch (Hg.), Allgemeine Encyclopädie der Wissenschaften und Künste, 167
Bde (in 3 unvollständigen Serien), Leipzig 1818 – 1889, ND Graz 1969 ff.
A. Rees (Hg.), The Cyclopaedia or universal Dictionary of Arts, Sciences, and Literature, 45
Bände London 1819 ff.
M. N. Bouillet (Hg.), Dictionnaire universel des Sciences, des Lettres et des Arts, Paris 1854, 12.
Aufl. Paris 1877
La Grande Encyclopédie. Inventaire raisonné des sciences, des lettres et des arts, 31 Bände Paris
1885 – 1902.
110
Vgl. G. Tonelli, A Short-Title List of Subject Dictionaries of the Sixteenth, Seventeenth and Eighteenth Centuries as
Aids to the History of Ideas (Warburg Institute Surveys IV), London 1971.- Vgl. zu den folgenden Materialien und weite-
ren Literaturgattungen L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissen-
schaftliche Institutionen, Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München 1971.
186
Dan. Georg Morhof, Polyhistor literarius, philosophicus et practicus, 1688, 4. Aufl. Lübeck 1747,
ND Aalen 1970 in 2 Bänden
Gottl. Stolle, Anleitung zur Historie der Gelahrtheit denen zum besten, so den freien Künsten und
der Philosophie obliegen, 1718, 4. Aufl. Jena 1736
V. Ph. Gumposch, Die philosophische Literatur der Deutschen von 1400 bis auf unsere Tage,
Regensburg 1851, ND in Instrumenta Philosophica Series Indices Librorum II, hgg. v. L.
Geldsetzer, Düsseldorf 1967
J. Andr. Fabricius, Abriß einer allgemeinen Historie der Gelehrsamkeit, 3 Bände, Leipzig 1752 –
1754
L. Wachler, Handbuch der allgemeinen Geschichte der literarischen Cultur, 2 Bände Marburg
1804, 2. Aufl.: Handbuch der Geschichte der Litteratur, 3 Teile in 2 Bänden Leipzig 1822 – 1824
W. T. Krug, Handbuch der Philosophie und der philosophischen Literatur, 2 Bände, Leipzig 1820
– 1821, 2. Aufl. 1822, 3. verm. Aufl. 1828, ND in Instrumenta Philosophica Series Thesauri III,
hgg. v. L. Geldsetzer, Düsseldorf 1969; schwedische Übers. von A. A. Bäckström, Stockholm
1831
W. T. Krug, Allgemeines Handwörterbuch der philosophischen Wissenschaften nebst ihrer
Literatur und Geschichte nach dem heutigen Standpunkt der Wissenschaften, 4 Bände nebst
Supplementband, Leipzig 1827 - 1829, 2. Aufl. in 6 Bänden 1832 – 1838
F. X. v. Wegele (Hg.), Geschichte der Wissenschaften in Deutschland, 22 Bde, München 1864 –
1913. Darunter Bd.VII Geschichte der Ästhetik von H. Lotze, 1886; XIII Geschichte der
Philosophie seit Leibniz von Ed. Zeller, 1873; XVIII (in 6 Teilbdn) Geschichte der deutschen
Rechtswissenschaft von R. Stintzing und E. Landsberg, 1880 – 1910; XIX (1-2) Geschichte der
klass. Philologie von C. Bursian, 1883; XX Geschichte der deutschen Historiographie von F. X.
von Wegele, 1885
F. Wagner und R. Brodführ (Hg.), Orbis Academicus, Problemgeschichte der Wissenschaften in
Dokumenten und Darstellungen, 3. Abteilungen in 59 Bänden, Freiburg i. Br. 1950 - 1987.
Darunter J. M. Bochenski, Formale Logik, 1956, 6. Aufl. 2002
L. Geymonat (Hg.), Storia del pensiero filosofico e scientifico, 9 Bände Mailand 1970, 2. Aufl.
1975
J. Joach. Eschenburg, Lehrbuch der Wissenschaftskunde, Berlin 1792 - 1800, 2. Aufl. 1800, 3.
Aufl. 1809
K. Chr. Erh. Schmid, Allgemeine Enzyklopädie und Methodologie der Wissenschaften, Jena 1810
A. M. Moschetti und A. Padovani u. a. (Hg.), Grande Antologia Filosofica, 8 Abteilungen,
Mailand 1954 ff.
W. Schuder (Hg.), Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955
F. Bacon, Novum organum scientiarum (= Instauratio magna I), London 1620, dt. Übers. v. S.
Maimon, Neues Organon, Berlin 1793, dt. Übers. von A. T. Brück, Neues Organ der Wissen-
schaften, Leipzig 1830, ND Darmstadt 1974
J. LeRond d„Alembert, Vom Ursprung, Fortgang und Verbindung der Künste und Wissenschaften
(Discours préliminaire zur Encyclopédie, übers. v. J. Wegelin), Zürich 1761, franz. Ausg. Paris
1965
von Berg, Versuch über den Zusammenhang aller Teile der Gelehrsamkeit, Frankfurt a. M. 1794
W. T. Krug, Über den Zusammenhang der Wissenschaften unter sich und mit den höchsten
Zwecken der Vernunft, nebst einem Anhang über den Begriff der Enzyklopädie, Jena-Leipzig
1795
Töpfer, Encyklopädische Generalcharte aller Wissenschaften (gestochen von W. v. Schlieben),
nebst Kommentar, Leipzig 1806 – 1808
G. B. Jäsche, Grundlinien zu einer Architektonik der Wissenschaften nebst einer Skiagraphie und
allgemeinen Tafel des gesamten Systems menschlicher Wissenschaften nach architektonischem
Plane, Riga 1817
J. M. Ampère, Essai sur la philosophie des sciences, 2 Bände, Paris 1834 - 1843 (hier wird aus
seinem Klassifikationsversuch der Wissenschaften eine „Mathésiologie“)
J. Bentham, Essai sur la nomenclature et la classification des principales branches d‟ art et science,
1823 (in : J. Bentham, Engl. Works, Band 8, 1843)
H. Spencer, The classification of Sciences, 2. Aufl. New York 1870
W. Schuder, Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955
B. M. Kedrow, Klassifizierung der Wissenschaften, aus dem Russischen übersetzt von L. Keith
und L. Pudenkow, 2 Bände Köln 1975 – 1976
5. Die Reflexion auf Nutzen und Relevanz der Wissenschaften für Gesellschaft und
Staat. Diese ist immer zugleich eine Reflexion auf ihr Wesen. Sie ist freilich selte-
ner positiv als negativ (Zensur) betrieben worden. Hier sind zu nennen:
Philosophie bzw. eine ihrer Disziplinen so aufzufassen, ist eine aus der Transzendentalphilosophie
des deutschen Idealismus erwachsende Tendenz, die auch in vielen Konzeptionen moderner
Wissenschaftstheorie eingeht. Unter anderem ist das auch eine Reaktion auf die Verselbständigung
der Disziplinen der „philosophischen” Fakultät zu Einzelwissenschaften in der Neuzeit, denen die
Philosophie dadurch ein gemeinsames Band und Zusammenhalt verschafft.
G. F. W. Hegel, System der Wissenschaft, Band 1: Die Phänomenlogie des Geistes, Bamberg 1807
J. A. Brüning, Anfangsgründe der Grundwissenschaft oder Philosophie, Münster 1809
F. L. Fülleborn, Materialien zu einer Grundwissenschaft (proté philosophia), Berlin 1845
W. T. Krug, Fundamentalphilosophie oder System des transzendentalen Synthetismus, Züllichau-
Freistadt 1803, 3. Aufl. 1827
G. W. Gerlach, Grundriß der Fundamentalphilosophie zum Gebrauch bei Vorlesungen, Halle 1816
J. Thürmer, Fundamentalphilosophie, Wien 1827
Fr. X. Biunde, Fundamentalphilosophie, Trier 1838
J. J. Tafel, Die Fundamentalphilosophie in genetischer Entwicklung, Tübingen 1848
In neueren Zeiten haben Joh. Rehmke, Philosophie als Grundwissenschaft, Leipzig - Frankfurt
1910, und sein Schüler Johs E. Heyde, Grundwissenschaftliche Philosophie, Leipzig - Berlin 1924,
diese Tendenz gepflegt. Nicht zuletzt kam sie auch in M. Heideggers Konzeption einer Fundamen-
talontologie zum Ausdruck.
Sie hat seit Kant im deutschen Idealismus im Zentrum der philosophischen Forschung gestanden.
Hier sind wesentliche Klärungen erarbeitet worden, die auch heute noch die Vorverständnisse
bezüglich des Wissensbegriffs der Wissenschaften steuern. Sie werden jedoch z. Z. nicht mit der
wünschenswerten Intensität weiterbetrieben.
I. Kant, Kritik der reinen Vernunft, Riga 1781; ders., Kritik der praktischen Vernunft, Riga 1788;
ders., Kritik der Urteilskraft, Berlin und Libau 1790
J. F. Fries, Wissen, Glaube und Ahndung, Jena 1805; ders., Neue oder anthropologische Kritik der
Vernunft, 3 Bde Heidelberg 1807, 2. Aufl. 1828, in: Sämtl. Schriften hgg. v. G. König u. L.
Geldsetzer, Aalen 1968 ff, Bd. 3 und Bde 4 - 5
E. Stiedenroth, Theorie des Wissens, mit besonderer Rücksicht auf Skeptizismus und die Lehren
von einer unmittelbaren Gewißheit, Göttingen 1819
J. A. Voigtländer, Eine Untersuchung über die Natur des menschlichen Wissens, mit
Berücksichtigung des Verhältnisses der Philosophie zum Empirismus, Berlin 1845
W. Rosenkrantz, Wissenschaft des Wissens und Begründung der besonderen Wissenschaften
durch die allgemeine Wissenschaft. Eine Fortbildung der deutschen Philosophie mit bes. Rücksicht
auf Platon, Aristoteles und die Scholastik des Mittelalters, 1. Bd. München 1866, 1. u. 2. Bd.
Mainz 1868
Im vergangenen Jahrhundert hat Edmund Husserl die „Phänomenologie“ als eine neue Theorie des
Wissens konzipiert. So in: Ideen zu einer reinen Phänomenologie und phänomenologischen Philo-
sophie, Freiburg 1913, 3. Aufl. 1928. Neben ihm vgl. A. Nordenholz, Scientologie, Wissenschaft
von der Beschaffenheit und Tauglichkeit des Wissens, München 1934; dazu W. Schingnitz, Scien-
tologie, in: Minerva 7, S. 65 - 75 und 110 - 114. Derartige Studien gewinnen auch heute noch viel
durch sorgfältige Interpretation und Aneignung der „klassischen” Erkenntnistheorien Lockes,
189
Berkeleys, Humes, Leibniz„„ u. a. mit ihren „realistischen“ oder „idealistischen” Erkenntnis- und
Wissenskonzeptionen.
Philosophie so aufgefaßt, ist sowohl in terminologischer wie sachlicher Hinsicht die genuine Früh-
gestalt moderner Wissenschaftstheorie. In ihr laufen die erkenntnistheoretischen ontologischen,
praxeologischen und anthropologischen Errungenschaften der Aufklärung und des deutschen
Idealismus in der Weise zusammen, daß daraus das Konzept einer philosophischen Disziplin von
der Natur des Wissens als menschlicher „Tathandlung” und dem Entwurf ihrer Gegenstands-
bereiche entsteht. Auch hierin bringt sich eine Tendenz zur Geltung, der Philosophie in der Nach-
folge der „Logik” des Triviums der alten philosophischen Fakultät eine verbindende und begrün-
dende Funktion gegenüber den verselbständigten trivialen und quadrivialen Wissenschaften zu
verschaffen. Im 20. Jahrhundert wird diese Tendenz in der Gesamtdarstellung der philosophischen
Grund- und Bereichsdisziplinen in „philosophischen Enzyklopädien“ und Handbüchern weiterge-
führt
J. Chr. Gottsched, Erste Gründe der gesamten Weltweisheit, darinnen alle philosophische Wissen-
schaften in ihrer natürlichen Verknüpfung in zwei Teilen abgehandelt werden, 1734, 5. Aufl. 1748
- 1749
J. G. Fichte, Über den Begriff der Wissenschaftslehre oder der sog. Philosophie, Weimar 1794;
ders., Grundlage der gesamten Wissenschaftslehre, 1794, neu hgg. v. W. G. Jacobs, Hamburg
1970
B. Bolzano, Wissenschaftslehre. Versuch einer ausführlichen und größtenteils neuen Darstellung
der Logik, 4 Bände, Sulzbach 1837
H. M. Chalybäus, Entwurf eines Systems der Wissenschaftslehre, Kiel 1846
G. Biedermann, Die Wissenschaftslehre, 3 Bde Leipzig 1845 - 1860
R. Graßmann, Die Wissenschaftslehre in der Philosophie, 4 Teile 1884
W. Wundt, Logik, I. Bd.: Erkenntnislehre, II. Bd.: Methodenlehre, Stuttgart 1880 - 1883, 4. Aufl.
in 3 Bänden : I. Allgemeine Logik und Erkenntnistheorie, 1919, II. Logik der exakten
Wissenschaften, 1920, III. Logik der Geisteswissenschaften, 1921
A. Baeumler und M.Schröter (Hg.), Handbuch der Philosophie, 4 Bände, München-Berlin 1925 -
1934
F. Heinemann, Die Philosophie im XX.Jahrhundert. Eine enzyklopädische Darstellung ihrer
Geschichte, Disziplinen und Aufgaben, Stuttgart 1959, 2. Aufl. 1963
S. Daval und B.Guillemain (Hg.), Philosophie. 6 Bände in 3 Abteilungen, Paris 1962 u. ö.
A. Diemer, Grundriß der Philosophie. Ein Handbuch für Lesung, Übung und Unterricht. Band I:
Allgemeiner Teil, Band 2: Die philosophischen Sonderdisziplinen, 2 Bände, Meisenheim 1962 –
1964
Gewisse Werke waren und bleiben prägende Vorbilder auch für moderne wissenschaftstheoreti-
sche Konzeptionen. Einige Theorien über das, was Wissenschaft sei, explizieren nichts anderes als
dasjenige, was sie als vorbildlich in dem einen oder anderen Werk eines der Klassiker ausgeführt
finden und empfehlen es als Exempel bzw. Paradigma für jede ernstzunehmende Wissenschaft.
Neben den immer bekannt gebliebenen und vielzitierten Klassikerwerken gibt es jedoch zahlreiche
„apokryphe“ wissenschaftliche Arbeitsinstrumente, die zu ihrer Zeit oder noch einige Zeit nach
ihrem Erscheinen Aufsehen erregt haben, die jedoch gerade wegen ihrer Verbreitung nicht mehr
190
genannt und zitiert wurden, dafür umso mehr ausgeschrieben und als selbstverständliches öffent-
liches Gedankengut behandelt wurden.111
Zu solchen Klassikerwerken gehören die folgenden:
Aristoteles, Organon (Kategorien, Hermeneutik, Analytiken, Topik, Sophistische Widerlegungen)
Euklid, Die Elemente, Buch 1 – 13, dt. Ausgabe Darmstadt 1971
Galenus, Einführung in die Logik, dt. v. J. Mau, Berlin 1960
Porphyrios, Isagoge (Einführung in das Organon des Aristoteles), dt. v. A. Busse, Berlin 1887
Petrus Hispanus, Summulae logicales, Venedig 1572, ND Hildesheim-New York 1982
R. Lullus, Ars generalis ultima, Palma de Mallorca 1645, ND Frankfurt 1970; Ars brevis, Palma
1669, Nachdr. Frankfurt 1970; Logica nova – logica parva – De quinque praedicabilibus et decem
praedicamentis, Palma 1744, ND hgg. v. C. Lohr, Frankfurt 1971; R. Lullus, Die neue Logik, lat.-
dt. übers. von W. Büchel und V. Hösle, Hamburg 1985
Nikolaus von Kues, De docta ignorantia – Die belehrte Unwissenheit (1440), lat.-dt. hgg. v. P.
Wilpert u. H. G. Senger, 3. Aufl. Hamburg 1977 – 1979.
J. Aconcio, De Methodo, hoc est de recta investigandarum tradendarumque artium ac scientiarum
ratione (1558), dt.-lat. Parallelausgabe nach der 2. Aufl. 1582 hgg. v. L. Geldsetzer in: Instrumenta
Philosophica Series Hermeneutica IV, Düsseldorf 1971
Fr. Bacon, Novum Organum Scientiarum, 1620; ders., De Dignitate et Augmentis Scientiarum,
1605, dt. Darmstadt 1966
G. Galilei, Discorsi e Dimostrazioni matematiche intorno a due nuove scienze, Leiden 1638, dt.
1891
R. Descartes, Discours de la méthode pour bien conduire la raison et chercher la vérité dans les
sciences, Leiden 1637, dt. Hamburg 1969
G. W. Leibniz, Dissertatio de arte combinatoria, in qua ex arithmeticae fundamentis
complicationum et transpositionum doctrina novis praeceptis exstruitur, Leipzig 1666
I. Newton, Philosophiae naturalis principia mathematica, 1687, (ND London 1960), 2. Aufl. 1713,
3. Aufl. 1726, dt. Übers. v. J. P. Wolfers, Berlin 1872, ND Darmstadt 1963
G. Vico, De nostri temporis studiorum ratione, Neapel 1708, dt. Übers., Vom Wesen und Weg der
geistigen Bildung, Godesberg 1947, ND Darmstadt 1974
G. F. Meier, Versuch einer allgemeinen Auslegungskunst, 1757, neu hg. v. L. Geldsetzer in: In-
strumenta Philosophica Series Hermeneutica I, Düsseldorf 1965; auch hgg. von A. Bühler und
Luigi Cataldo Madonna, Hamburg 1996
I. Kant, Metaphysische Anfangsgründe der Naturwissenschaft, 1786; ders., Prolegomena zu einer
jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können, 1783
C. Chr. E. Schmid, Erste Linien einer reinen Theorie der Wissenschaft, in: Phil. Journal für
Moralität, Religion und Menschenwohl 3, 1794 (neu in: Studien zur Wissenschafttheorie, hg. v. A.
Diemer, Meisenheim 1968)
G. F. W. Hegel, Die Wissenschaft der Logik, 2 Bde, Nürnberg 1812 – 1816, hgg. v. G. Lasson,
Leipzig 1951
Aug. Comte, Cours de philosophie positive, 6 Bde Paris 1830 – 1842
J. St. Mill, A System of Logic, rationative and inductive, 2 Bde London 1843, 9. Aufl. 1875
W. St. Jevons, The principles of science. A Treatise of Logic and scientific Method, 1874, 2. Aufl.
1877
111
Einige davon wurden in Nachdrucken wieder zugänglich gemacht in: L. Geldsetzer, Instrumenta Philosophica, 17
Bände in vier Serien, Series hermeneutica (G. F. Meier, A. F. J. Thibaut, M. Flacius Illyricus, Jac. Aconcio, J. M. Chlade-
nius); Series Lexica (J. Micraelius, St. Chauvin, H. A. Meissner); Series Indices Librorum (J. S. Ersch und Chr. A.
Geissler, Ph. V. Gumposch, B. C. Struve, J. H. M. Ernesti; Series Thessauri (Gr. Reisch, K. G. Hausius, W. Tr. Krug), Düs-
seldorf (Stern-Verlag) 1965 -1972.
.
191
A. Cournot, Essai sur les fondements de nos connaissances et sur les caractères de la critique
philosophique, 2 Bde, Paris 1851
R. H. Lotze, Mikrokosmus. Ideen zur Naturgeschichte und Geschichte der Menschheit, 3 Bände
Leipzig 1856 – 1864, 6. Aufl. 1923
H. v. Helmholtz, Über das Verhältnis der Naturwissenschaften zur Gesamtheit der Wissenschaften,
1862
G. Frege, Begriffsschrift. Eine der arithmetischen nachgebildete Formelsprache des reinen Den-
kens, Halle 1879, ND Darmstadt 1974
W. Dilthey, Einleitung in die Geisteswissenschaften. Versuch einer Grundlegung für das Studium
der Gesellschaft und der Geschichte, 1883
H. Poincaré, La science et l‟ hypothèse, Paris 1902; ders., Science et méthode, Paris 1909
P. Duhem, La Théorie Physique. Son Objet - Sa Structure, Paris 1906
B. Russell und A. N. Whitehead, Principia Mathematica, 3 Bände Cambridge 1910 – 1913
Edm. Husserl, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Frei-
burg 1913, 3. Aufl. 1928
L. Wittgenstein, Tractatus logico-philosophicus, 1921, engl. London 1922; ders., Philosophische
Untersuchungen / Philosophical Investigations, deutsch-engl. Ausg. Oxford 1953 u. ö.
M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre, 1922, u. a. über “Kategorien der
verstehenden Soziologie”, die “„Objektivität„ sozialwissenschaftlicher Erkenntnis” und den “Sinn
der ‚Wertfreiheit„ der Sozialwissenschaften”
E. Cassirer, Philosophie der symbolischen Formen (I. Die Sprache, II. Das mythische Denken, III.
Phänomenologie der Erkenntnis), 1923 - 1929, 6. Aufl. Darmstadt 1964
R. Carnap, Der logische Aufbau der Welt, Berlin 1928, 3. Aufl. Hamburg 1966
K. R. Popper, Logik der Forschung, Wien 1935, 10. Aufl. Tübingen 1994, engl., The Logic of
Scientific Discovery, London 1959, 10. Aufl. 1994
W. V. O. Quine, From a Logical Point of View, Cambridge, Mass. 1953; dt., Von einem logischen
Standpunkt, Frankfurt a. M. 1979
H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübin-
gen 1960 u. ö.
E. Betti, Die Hermeneutik als allgemeine Methodik der Geisteswissenschaften, Tübingen 1962, 2.
Aufl. 1972; ders., Teoria generale dell‟interpretazione, Mailand 1955
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie,
Berlin-Heidelberg-New York 1969 - 1984. Vol. I: Wissenschaftliche Erklärung und Begründung,
1969, 2. ed. 1974, 3. ed. 1983; Vol. II/1: Theorie und Erfahrung: Begriffsformen, Wissenschafts-
sprache, empirische Signifikanz und theoretische Begriffe, 1970, 2. ed. 1974; Vol. II/2: Theorie
und Erfahrung: Theoriestrukturen und Theoriendynamik, 1973, 2. ed. 1985 (Engl.: 1976); Vol. III
(mit M. Varga von Kibéd): Strukturtypen der Logik, 1984; Vol. IV/1: Personelle und Statistische
Wahrscheinlichkeit: Personelle Wahrscheinlichkeit und Rationale Entscheidung, 1973; Vol. IV/2:
Personelle und Statistische Wahrscheinlichkeit: Statistisches Schließen, Statistische Begründung,
Statistische Analyse, 1973.
und besetzt. Zunehmend verschwindet dabei auch jeder Hinweis auf die Philoso-
phie als Fach, zu dem die Wissenschaftsphilosophie gehört. Dadurch verbreitet
sich der Eindruck und die Meinung, es handele sich dabei schon um eine beson-
dere Einzelwissenschaft. Dies umso mehr, wenn sie als Abteilung philosophischer
Institute oder sogar als eigene Institute begründet oder ausgestaltet werden.
Diesen Ausgründungen kommen dann auch die Forschungen von Einzelwissen-
schaften entgegen, die sich irgend einem Aspekt der Wissenschaften widmen. Ein
enges Verhältnis besteht vor allem zur Wissenschaftsgeschichte, die früher teils
als Forschungs- und Lehrschwerpunkt einzelner Einzelwissenschaftler als Ge-
schichte ihres Faches, meist jedoch im Rahmen der Medizingeschichte und damit
im Rahmen der Medizinischen Fakultäten gepflegt wurde. Sie hat sich inzwischen
an mehreren Standorten als selbständige Wissenschaft etabliert und schließt dann
auch die Wissenschaftsphilosophie ein.
Die Psychologie, heute mehr und mehr in enger Verbindung zur Gehirnphy-
siologie, hat sich unter mehreren Aspekten – wie vor allem Intelligenz- und Krea-
tivitätsforschung – den Wissenschaften und ihren hervorragenden Repräsentanten
gewidmet und profitiert dabei naturgemäß vom politischen und populären Interes-
se am Wachstum der wissenschaftlichen Leistungen und Produkte, die sie zu
effektuieren verspricht.
Wissenschaftssoziologie, Wissenschaftsökonomie und Wissenschaftsstatistik
sind ebenfalls längst etablierte Spezialdisziplinen der entsprechenden Einzelwis-
senschaften, die auf breites Interesse der Öffentlichkeit und der politischen
Instanzen treffen. Besonders die ökonomische Betriebswirtschaftslehre ist dabei
so erfolgreich gewesen, daß im letzten Dezennium die wissenschaftlichen Ver-
waltungs- und Betriebsstrukturen auf dem Wege gesetzlicher Vorgaben gänzlich
nach den Mustern industrieller und dienstleistender Großbetriebe ausgerichtet
worden sind. Darüber wurde im Vorangehenden schon mehrfach gehandelt.
Zwei Tendenzen zeichnen sich hier ab. Einerseits die Ersetzung der Philosophie
als eigenständiges Lehrfach an Hochschulen durch die Wissenschaftsphilosophie.
Andererseits das Verschwinden der Philosophie aus dem Fächerkanon der Hoch-
schulen zugunsten der interdisziplinär vernetzten einzelwissenschaften Forschun-
gen über das Wissenschaftsphänomen.
193
A. Die Antike
§ 16 Die Vorsokratiker
Die Erfindung der Arché als ursrpung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und
Subjekt und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen
zum SubjektDie Enttdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des
dialektischen (widersprüchlichen) Begriffs. Der pythagoreische Zahlbegriff als dialektische Ver-
mittlung von Denk- und Sinnesobjekt. Das Sein der Atome und das Nichts des leeren Raumes bei
Demokrit und seine Erfindung der Denkmodelle. Das Nichts des Gorgias.
Objekt Subjekt
ἴ). Als Bilder für die Atome stellt er sich Buchstaben vor, die sich in ihren
verschiedenen Gestalten zu Komplexen der Wörter und Sätze „verhakeln“ - und
für das Leere mag er an einen Behälter oder an die Leerstellen zwischen den
einzelnen Wörtern gedacht haben, was er freilich nicht sagt. Anschauliche Buch-
staben werden somit zu anschaulichen „Symbolen“ für das unanschaulich zu Den-
kende. Ersichtlich sind seine Eidola die Muster aller „Modelle“ und „Symboli-
sierungen“ geworden, mit denen die Wissenschaft auch heute noch arbeitet.
Demokrit hat damit auch das Unanschauliche und nur Denkbare „auf den Begriff“
gebracht. Aber es ist ein - im herakliteischen Sinne – dialektischer Begriff. Wenn
die Atome (hier nach dem Modell von Buchstaben, in unseren Zeiten nach dem
Modell kleiner Sonnen, um welche die Elektronen wie kleine Planeten kreisen)
gedacht werden sollen, so weiß man doch zugleich, daß sie keine Buchstaben (und
keine kleinen Sonnen) sind: man stellt sie sich als Buchstaben vor und denkt sie
zugleich als Nicht-Buchstaben!
Die extremen, für die Wissenschaftsgeschichte folgenreichsten Positionen wer-
den allerdings in Unteritalien von den Pythagoräern und von Parmenides ent-
wickelt.
Parmenides (geb. um 540 v. Chr.) überwindet schon im Prinzip die Subjekt-
Objekt-Spaltung, die seine vorsokratischen Zeitgenossen aufgerissen hatten: Den-
ken und Sein ist ihm dasselbe (to gar auto noein estin te kai einai ò
γὰρὐòῖἐíεìἶ). Dies zu sagen und zu erforschen ist der eine
Weg der Wissenschaft (hier kommt das Thema der Methode, griech.: methodos
auf, hodos ὁός = Weg), der zur Wahrheit führt. Und ebenso ist ihm Nicht-Sein,
Erscheinung und sinnliche Erfahrung dasselbe. Dies zu sagen und zu erforschen
ist ihm der Weg des Irrtums und der Täuschung. Aber unterstreichen wir dies:
auch dieser Weg des Irrtums und der Täuschung ist ein Weg der Forschung, und
so gehört er auch zur Wissenschaft! So liefert Parmenides die erste Theorie des
Irrtums (wir besitzen bis heute keine unumstrittene) und das erste Beispiel einer
idealistischen Theorie der Wahrheit. Was hier zu denken ist (und dazu nicht auf
anschauliche Modelle zurückgreifen soll), ist die Identität von Sein, Einheit und
Unbewegtheit bzw. Ruhe und Wahrheit. Betonen wir das idealistische Moment an
dieser These: Es gibt hier nicht ein Denken auf der einen Seite, welches ein
einheitliches ruhendes Sein auf der anderen Seite sich gegenüber hätte - und daher
auch dann noch Denken bleibe, wenn es nicht (oder Nichts) denkt, vielmehr ist
Denken selbst Sein, und Sein ist Gedachtes. Spätere Gestalten des Idealismus sind
selten auf der Höhe dieses Gedankens geblieben, und alle Rationalismen haben
ihn verleugnet, indem sie die Vernunft und das Denken vom Sein unterschieden
und trennten. Von Parmenides haben sie - bis zum heutigen Tag - nur festge-
halten, daß mathematisches und logisches Denken nur ruhende Einheiten zu
denken vermag.
Die Pythagoräer (die Schule des Pythagoras, um 582 – 496 v. Chr.) versuchen
gegenüber diesem Ansatz auch die „Phänomene zu retten” (sozein ta phainomena
ῴὰό) ein dann beständiges Thema griechischer und abend-
197
Zenon von Eleia (1. Hälfte des 5. Jahrh. v. Chr., zu unterscheiden von den
beiden späteren Stoikern namens Zenon), der große Schüler des Parmenides,
kritisiert diese pythagoräischen Weiterungen, die das Denken mit der Anschauung
verknüpfen und anschauliches Denken lehren wollen. Alle seine berühmten para-
doxalen Argumente beziehen sich darauf, daß dabei dialektische Begriffe als
Denkmittel benutzt werden müssen, mittels derer sich bezüglich des tatsächlichen
Denkens der unbewegten Einheit Wahres, bezüglich des anschaulich Vielfältigen
und Bewegten aber Falsches aussagen lassen muß.
Auch den Zahlbegriff der Pythagoräer hat er dabei kritisiert, denn für ihn und
seinen Meister Parmenides konnte die Zahl nur als unbewegte Einheit gedacht
werden und nicht zugleich auch als Vielheit, da ja die Vielheit und Veränderung
nur der sinnliche Anwendungsbereich dieser Zahleneinheiten beim Zählen sein
konnte. Sein durch Zitat überliefertes Argument lautet: „Wenn Vieles ist (wäre),
müßte dies zugleich groß und klein sein, und zwar groß bis zur Grenzenlosigkeit
und klein bis zur Nichtigkeit“.112
Seine Paradoxien vom fliegenden Pfeil, der ruht; von Achill, der die Schildkröte
im Wettlauf nicht überholen kann etc. sind durchweg Scherze, die er über die
Erklärungsweise der Pythagoräer macht, wenn sie die Gegebenheiten der sinn-
lichen Beobachtung zu denken versuchen. Sie sind noch jetzt Herausforderungen
an die mathematische Theorie physikalischer Bewegung, der noch heute Abhand-
lungen und Widerlegungen gewidmet werden. Und gewöhnlich wird dabei der
Witz der Sache verfehlt. Denn man hält die zenonischen Paradoxien für schlicht-
weg falsch und sucht sie zu widerlegen. Tatsache aber ist, daß er damit das
faktische Denken der mathematischen Physiker auf den Punkt bringt, das noch
immer Wahrheit und Falschheit in widersprüchlichen Denkkonzepten verschmilzt.
Soll die Bewegung eines fliegenden Pfeiles mathematisch gedacht und kon-
struiert werden, so konstruiert ihn auch jetzt noch die Mathematik als einen Pfeil
an (jeweils) einem Punkt - und das ist nach Zenon und Parmenides das wahre
Denken dessen, was da ist: daß der eine Pfeil ruht! Zugleich aber summiert die
mathematische Konstruktion die Vielheit der Punkte zur ballistischen Linie, auf
denen viele Pfeile nacheinander sind und auch nicht sind. Genau das macht nach
Parmenides und Zenon die illusionäre Falschheit der Anschauung aus.
Aristoteles wird den gordischen Knoten zerhacken, indem er zwischen Sein und
Nichts eine mittlere ontologische Sphäre ansetzt, in der Bewegung, Vielheit und
Veränderung angesiedelt werden: das Werden bzw. die Veränderung. Dieser
Gedanke aber lag den Vorsokratikern gänzlich fern, und es ist noch eine offene
Frage, ob er zum Segen oder zum Schaden der abendländischen Wissenschaft
ausschlug.
Sicher waren Parmenides und Zenon zu rigoros und sparsam mit dem Denken,
wenn sie es nur auf einheitliche stabile Gegenständlichkeit bezogen und alles
andere auf täuschende Anschauung zurückführten. Aber dieser Sparsamkeit
112
O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl., Freiburg / München 1964, S. 42.
199
verdankt die Philosophie und Wissenschaft die Festlegung dessen, was ein
regulärer logischer Begriff ist - im Gegensatz zum dialektischen heraklitischen
Logos.
Dabei ist ja durch Zenon, wie wir dartun wollten, auch sehr deutlich festgestellt
worden, was ein dialektischer Logos, nämlich ein widersprüchlicher Begriff ist.
Daß Zenon dabei die heiligen Kühe der Pythagoräer und der griechischen Mathe-
matik, nämlich die Zahlen, als widersprüchliche Denkgebilde schlachtete, die man
doch schon damals allgemein als paradigmatische Archai und als widerspruchs-
lose Denkgebilde ansah, hat dazu geführt, daß man seine Paradoxien insgesamt als
falsch einschätzte. Und so hält man auch bis heute die Zahlen für wider-
spruchslose Denkgebilde und die Paradoxe und Widersprüche für begriffliche
Falschheiten. Und das kann nach allem, was darüber schon ausgeführt wurde, nur
selber falsch sein. Der Tatbestand ist selber ein Beispiel für Parmenides‟ These,
daß der Weg der Falschheit selbst zur Wissenschaft gehört.
Vergessen wir aber auch nicht den Sophisten Gorgias (ca. 480 - 380 v. Chr.)
den man gewöhnlich nur als den Erzvater des Nihilismus und der Leugnung aller
wissenschaftlichen Erkenntnis hinstellt. 113 Er hatte behauptet, es sei überhaupt
Nichts (Me on ὴὄnicht-sein, und wenn Etwas (Sein: on ὄ) sei, so könne
es nicht erkannt werden, und wenn es erkannt werden könne, so könne es nicht
ausgesprochen werden. Hinsichtlich des Arché-Problems ist seine Stellung eine
unabweisbare Konsequenz der Diskussionslinie Anaximander - Parmenides -
Zenon. Es ist die Einlösung der These des Sophisten Protagoras, daß es vom
Menschen abhängt, ob er das Sein oder das Nichts als „Arché“ behauptet.
Wenn die Arché aller vordergründigen Realität mit Anaximander als „unbe-
stimmt” gilt, so kann sie (wie es später Aristoteles von der absolut form- und
gestaltlosen Materie sagte) auch das Nichts genannt werden. Daß somit das Ziel
aller Forschung die Erkenntnis des Seins als eigentlich Nichts sein muß, das
haben später alle Mystiker behauptet, zu jener Zeit aber auch die Buddhisten in
Indien, von denen mancher auch damals schon als „Gymnosophist“ in Grie-
chenland aufgetreten sein und für die neue Lehre geworben haben mag. Jedenfalls
deuten auch die stammelnden Ausdrucksformen der Mystiker darauf hin, daß dies
Nichts schwerlich auszusprechen ist.
So sollte man auch Gorgias lesen: Es ist überhaupt das Nichts; wenn aber
Etwas wäre, so müßte es als Nichts erkannt werden; wenn aber Etwas als Nichts
erkennbar wäre, so müßte es als das Nichts ausgesprochen werden.
Nimmt man aber Georgias wörtlich und damit ernst, so kann auch seine
angeblich skeptische These nur ein Beitrag zur „Rettung der Phänomene“ sein, die
sich gegen die parmenideische Lehre vom falschen Weg der Forschung richtete
und dessen Lehre über das Nichts nicht mehr als falsche, sondern als wahre Lehre
propagierte. Wenn Parmenides im reinen Denken nur die Einheit und Unbe-
113
Vgl. W. Capelle, Die Vorsokratiker. Die Fragmente und Quellenbericht übers. und eingeleitet, Stuttgart 1968, S. 345 –
353.
200
wegtheit erfaßte, und wenn sein Schüler Zenon das, was da gedacht werden sollte,
schon an sinnlichen Phänomenen auswies: daß der eine Pfeil jeweils an einem Ort
ruht, so war es konsequent, die Einheit und Unbewegtheit auch einmal gänzlich
sinnlich zu demonstrieren.
Was aber wäre einheitlicher und unbewegter als die sinnliche Erfahrung der
absoluten Stille bei angestrengtestem Horchen, oder der absoluten Finsternis bei
angestrengstem Schauen und Spähen, oder gar der reinsten Luft bei ange-
strengtestem Schnüffeln und Riechen. Was man in diesen Fällen jederzeit sinnlich
wahrnimmt, das nennt man schlicht - Nichts.
Ersichtlich ist auch das, was man so das Nichs nennt, ein sinnlicher Erfahrungs-
gegenstand neben vielen anderen. Aber er erfüllt sehr genau die Kriterien, die
Parmenides als Wahrheitskriterien der Arché vorausgesetzt hatte, nämlich ein-
heitlich und unbewegt (unveränderlich) zu sein. Gorgias zeichnet es - eben wegen
der parmenideisch-zenonischen Wahrheitskriterien, als Arché aller sonstigen
vielfältigen und veränderlichen Sinnesgegebenheiten aus und begründet damit den
abendländischen Nihilismus. Er hat nicht nur die Phänomene, sondern das Nichts
selber als Phänomen „gerettet“.
Gewiß hätte ohne diese Rettung des Nichts als Phänomen durch Gorgias auch
die Lehre des Demokrit vom Leeren (oder leeren Raum) wohl kaum später solche
Fortüne bei den Naturwissenschaftlern machen können. Denn der leere Raum galt
nachmals bis auf Newton als ein einheitliches ruhendes Nichts, in dem alles
vielfältige und bewegliche Sein „erscheinen“ konnte. Und verhehlen wir uns
nicht, daß auch die gegenwärtige kosmische Physik mit ihrer Bilanzierung positi-
ver und negativer Weltmaterie zu einer großartigen kosmischen Null durchaus in
den Bahnen dieser Vorstellungen wandelt. So darf auch dieser „sophistische” An-
satz als ein wesentliches und propulsives Moment abendländischer Wissenschafts-
geschichte angesprochen werden.
h. auch der Welt der Sinne und ihren vielfältigen und bewegten Phänomenen
gerecht zu werden.
Ersteres versuchte er mit Hilfe der sokratischen Entdeckung des Abstraktions-
und Verallgemeinerungszusammenhanges der Begriffe, der Induktion (epagoge
ἐή: Wie der Allgemeinbegriff das Gemeinsame und Eine im Verschiede-
nen der Unterbegriffe zusammenfaßt und darstellt (er ist hier gleichsam die „Har-
monie” der Pythagoräer), so stellt auch die Idee des Guten (und zugleich Schönen
und Wahren) als oberster aller denkbaren Begriffe die Einheit in der Verschie-
denheit des ganzen Ideenreiches dar. Sie wird nur im reinen Denken erfaßt. Platon
bedient sich allerdings zur „Veranschaulichung“ der demokriteischen Modell-
Metaphorik, wenn er dies denkerische Erfassen eine „Schau mit dem geistigen
Auge“ nennt, dabei doch voraussetzend, daß der Geist kein Auge hat und deshalb
auch nicht „schaut“. Diesem Ideenreich sind auch die pythagoräischen Zahlen-
und Gestaltverhältnisse zugeordnet, gleichsam die Vorhalle zum Tempel des
Ideenreiches, in den man nur Zugang findet, wenn man sich durch das Studium
der Mathematik mit dem „abstrakten Denken” vertraut gemacht hat.
Anders als bei Parmenides wird die Sphäre der Phänomene, der sinnlich wahr-
nehmbaren Dinge gefaßt. Freilich gibt es über Sinnliches auch bei Platon nur
Meinung, Glaube (doxa ό und pistis í), aber diese sind nicht durchweg
Irrtum und Täuschung, sondern enthalten auch Wahrheit. Soviel ist allerdings
richtig: die Dinge sind nicht das, als was sie erscheinen. Sie „scheinen” etwas zu
sein, nämlich wahre Realität, was sie doch nicht sind. Ihre Seinsart ist eine
geborgte, nämlich von den Ideen und mathematischen Gebilden. Sie sind deren
Abbilder und haben an deren Sein teil (methexis é, participatio = Teilhabe).
Platon erläutert dieses Teilhabeverhältnis, indem er auf das analoge Teilhabe-
und Abhängigkeitsverhältnis von Spiegelbildern und gemalten Bildern von diesen
sinnlichen Dingen hinweist. So ergibt sich gemäß dem Teilhabeverhältnis zwi-
schen allen Seins- und Phänomenbereichen eine ontologische Hierarchie. Sie wird
durch die Neuplatoniker und die frühchristliche Philosophie fest im abendlän-
dischen Denken verankert. Dies hat das pythagoräische Motiv in der Wissen-
schaftskonzeption verfestigt und die Ideen und Begriffe mit einbezogen: For-
schung ist danach die Erkundung der Idee, des begrifflichen Wesens, das in allen
vordergründigen Phänomenen nur „zum Ausdruck” kommt.
Neben der ontologischen Hierarchie verdankt man Platon eine dieser entspre-
chende Hierarchie der (anthropologisch begründeten) Erkenntnisvermögen. Dem
Bereich der Ideen und mathematischen Gebilde ist die Vernunft zugeordnet. Im
reinen Denken „schaut” sie die Idee des Guten, von ihr absteigend über die allge-
meinen Begriffe, die Zahlen und Proportionen bis zu den geometrischen Formen
und wieder aufsteigend zur Einheit, erkennt und erkundet sie begrifflich-diskursiv
das Reich der Ideen und der Wahrheit. Dies erzeugt eigentliche Wissenschaft
(episteme ἐή).
Im Reich der sinnlichen Dinge und ihrer Spiegel- und Abbilder aber orientieren
uns die Sinne, vorzüglich das Auge. Leicht sind sie der Täuschung und dem
202
Irrtum zugänglich. Daher ist, was sie liefern, nur Glaube und Meinung, nicht mehr
eigentliche Wissenschaft. Auf den Weg der Wahrheit führen sie nur, wenn sie zur
„vernünftigen” Erfassung der Urbilder, Ideen und Begriffe Anlaß geben, wenn die
Seele sich anläßlich sinnlicher Anschauung der Phänomene der geistigen Schau
der Idee „erinnert” (anamnesis ἀά).
So steht bei Plato die Erinnerung (man übersetzt anamnesis gewöhnlich mit
„Wiedererinnerung“) zwar für die Ideenschau, die das Einheitliche und Stabil-
Ruhende in der Vielfältigkeit und bewegten Veränderlichkeit der Phänomene
erfaßt. Aber Platon entdeckt und thematisiert damit genau die Leistungsfähigkeit
des Gedächtnisses, das Vergangene, nicht mehr Seiende und damit zum Nichts
Gewordene in ein geistiges Sein, eine seiende Gegenwärtigkeit zu verwandeln, die
in aller empirisch sinnlichen Anschauung als Folie des Einheitlich-Ruhenden, auf
dem sich das Vielfältig-Bewegte abheben kann, miterfahren wird. Aristoteles wird
es in seine Bestimmung der Substanz als des „Ge-Wesens“ (to ti en einai
ìἦἶ), als desjenigen aufnehmen, das historisch und zugleich empirisch
als in der Zeit „Durchständiges“ aufweisbar ist.
So erweitert und verfestigt Platon das vorsokratische Subjekt-Objektschema der
Erkenntnis und Wirklichkeit und macht es zum festen Besitz abendländischer
Wissenschaft:
OBJEKT SUBJEKT
Kritisch ist darauf hinzuweisen, daß Platon trotz allem Bestreben, „vernünftige”
Erkenntnis als das ganz andere und höhere gegenüber der sinnlichen Anschauung
auszugeben, gleichwohl nicht umhin kann, dies nach demokriteischem Vorbild in
der Sprache der sinnlichen Anschauung zu verdeutlichen. Nicht nur sind die
„Ideen” und zumal die geometrischen Gestalten und Figuren als „Bilder” und
sinnliche Formen konzipiert, sondern auch ihre Erfassung gilt ihm als „Schau“,
Betrachtung, „Theorie” (griech.: í Schau). Man interpretiert diese Tatsache
als notwendige Metaphorik, als Akkomodation an beschränkte menschliche Vor-
stellungskraft. Und entsprechend interpretiert man die Tatsache, daß sich Platon
zur Darstellung der höchsten und wichtigsten Einsichten der Gleichnisse und
203
2. Die Modell- bzw. Paradigmentheorie. Sie wurde als demokriteisches Erbe ein
unentbehrliches Komplement der rationalistischen These vom reinen unanschau-
lichen Denken. Modelle, Metaphern, Gleichnisse, Analogien, Symbolisierungen
sind bisher - nach Wittgensteins eigener Metapher - die „Leitern“ gewesen, auf
denen man zum nur noch rein zu Denkenden aufsteigen müsse, um sie nach
Erreichung solcher Denkziele „wegwerfen“ zu können.
Kritisch wird man bemerken, daß sich so erreichte schwindelnde Einsichtshöhe
regelmäßig als Schwindel entlarven läßt. Die vorgeführten Modelle sind stets
anschauliche „Sachen selbst“, über welche nicht hinausgegangen werden kann.
Gerade deswegen sind sie nicht das, was durch sie vermittelt bzw. symbolisiert
werden soll (vgl. dazu das in § 12 Gesagte).
114
Vgl. Platon, Politeia (Staat), 6. Buch, 508 a - 509 b: Sonnengleichnis; 6. Buch 509 d - 510 b: Liniengleichnis; 7. Buch,
514 a - 517 a: Höhlengleichnis. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band
6, Hamburg 1958, S. 220 - 222 und S. 224 - 226. – S. auch Platon, Phaidros 246 a - d: Wagenlenker-Modell des Menschen.
In: Platon, Sämtliche Werke Band 4, Hamburg 1952, S. 27f. Es dürfte aus dem indischen Kathaka-Upanishad des Yayur-
Veda 3, 7, Vers 3 - 9 übernommen worden sein, vgl. P. Deussen, Sechzig Upanishads des Veda, 4. Aufl. Darmstadt 1963,
S. 276f.
204
Die platonische Modelltheorie ist seither auch die Unterlage geblieben für alle
hermeneutischen Unterscheidungen zwischen vordergründigem Literal-Sinn und
Hintersinn in den interpretierenden Geisteswissenschaften. Aber auch davon gilt,
daß jeder metaphorische Hintersinn sich nur als anschaulicher Sachverhalt wirk-
lich verstehen läßt. Ebenso liegt diese Modelltheorie noch allem semantischen
Verständnis von logischen und mathematischen Formalismen zugrunde, insofern
die Formalismen als sinnlich-metaphorische Veranschaulichung eines nur zu
denkenden eigentlichen „Ideengehaltes“ aufgefaßt werden.
Hier ist die Lage jetzt dadurch verunklart worden, als man gewöhnlich den
Sachverhalt, auf den ein Formalismus „angewendet“ werden soll, als Modell
bezeichnet, welches den angeblich „unanschaulichen Formalismus“ veranschau-
liche bzw. „erfülle“ oder gar „verifiziere“. Abgesehen davon, daß auch Forma-
lismen keine leeren Denkformen sein können (da es dergleichen nicht geben
kann), die erst durch Anwendung auf Sachverhalte einen Inhalt gewinnen
könnten, sind sie gerade besonders hartnäckige Anschauungsevokationen von
Laut- und Bildgestalten, die sich bei Anwendungen mit deren Anschauungsgehalt
verknüpfen.
115
Platon, Sophistes 219 d - 221 a. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a.,
Band 4, Hamburg 1958, S. 189 – 191.
205
realisiert worden, insofern man auf ihnen nur stehende Zahlen (für Stunden,
Minuten und ggf. Sekunden) sieht. In diesen stehenden Zahlen aber sieht man
keinen Hinweis auf vergangene oder zukünftige Zu-Stände. Auf den klassischen
Analoguhren, die das aristotelische Prinzip der Anschaulichkeit der Zeit als Bewe-
gung des Früheren über das Jetzt zum Späteren hin zugrundelegen, sieht man auf
dem Ziffernblatt die Bewegung der Zeit selbst an den Zeigern. Und man sieht
jederzeit hinter den Zeigern eine Vergangenheitsfläche und vor den Zeigern eine
Zukunftsfläche auf dem Zifferblatt.
An Platons Zeitkonzept zeigt sich zweierlei: einerseits die „Nichtigkeit“ der je-
weiligen phänomenalen Gegenwärtigkeit - insofern sie sich auf einen unausge-
dehnten (Null-)Punkt einschränkt, und andererseits das wahre (ideelle) Sein alles
ins phänomenale Nichts hinabgeglittenen Vergangenen, insofern es durch die
zahlenmäßige (chronologische) Wiedererinnerung zu einer geistigen Präsenz ge-
bracht wird. Entsprechendes - bei Platon allerdings unthematisiert - muß für alles
phänomenal Nichtige der Zukunft gelten, das in der denkenden und planenden
Antizipation ebenfalls zu einer ideellen Präsenz gebracht wird.
Man wird bemerken, daß dieser platonische Zeitbegriff die logische Struktur
eines heraklitischen Logos besitzt. Er ist die Einheit der Gegensätze von Sein und
Nichts und damit der ruhende Begriff des Werdens und der Veränderung selbst.
Er liegt auch jetzt noch - undurchschaut in seiner logischen widersprüchlichen
Struktur - dem Verfahren der physikalischen Mechanik und überhaupt der Na-
turwissenschaft zugrunde, die mittels des Zeitbegriffs grundsätzlich unerfahrbare
Vergangenheiten und Zukünfte vergegenwärtigt (als ob sie vor Augen lägen) und
zugleich die jeweils beobachtbaren gegenwärtigen Naturphänomene in der zeit-
lichen Bestimmung selbst „vernichtet“, indem sie sie in „Zeit-Punkten“ zu berech-
nen versucht.
Über den Kult der Erinnerung in den historischen Geisteswissenschaften ist dies
Verfahren auch zur Grundlage der Geisteswissenschaften geworden, insofern hier
die chronologisch bestimmten Daten und Fakten, denen ja ontisch-phänomenal
Nichts entspricht, zur geistigen „Realität“ aller Sinngebilde gemacht wurden. Um
dies zu bemerken, muß man aber die abendländischen Denkgewohnheiten anhand
der in anderen Kulturen entwickelten Denkmuster zu relativieren gelernt haben.
208
Aristoteles ist der große Systematiker, der alle vorsokratischen Motive in sorg-
fältiger Sichtung und Kritik zusammenfaßt. Da er zwanzig Jahre lang Schüler
Platons war, wiegt dessen Einfluß bei weitem am meisten. Dies so sehr, daß man
bis ins hohe Mittelalter, ja noch in der Renaissance die Unterschiede zwischen
beiden Anschauungen kaum zu unterscheiden wußte und sich umso mehr ihrer
„concordantia“ widmete. Und gewiß sind auch die Ähnlichkeiten und Gemein-
samkeiten ihrer Philosophien größer, als man annehmen möchte, wenn man Pla-
ton zum Begründer des Idealismus, Aristoteles zum Begründer des Realismus
stilisiert.
Soviel ist freilich wahr und von ausschlaggebender Bedeutung: daß Aristoteles
das Auseinanderreißen von Vernunft und Sinnlichkeit, von Idee und Erscheinung
nicht billigt und somit die beiden Reiche wieder zusammenführt, ohne sie jedoch
zu verschmelzen. Er „rettet die Phänomene”, indem er dem Sinnlichen und den
Dingen ihr Recht einräumt, Etwas, Seiendes, Realität zu sein und nicht nur
bildhafter Abglanz höherer eigentlicher Wirklichkeit. Er nennt sie Substanzen,
genauer erste Substanzen. Was Platon die Idee genannt hatte, die Bilder und
Formen solcher substanziellen Dinge, die ihr Wesen ausmachen, nennt er zweite
Substanzen.
So wird die Zwei-Substanzen-Lehre des Aristoteles die Theorie, in welcher der
platonische Dualismus überwunden erscheint, während er doch zugleich peren-
niert ist. Nur gewinnen dabei die ersten Substanzen, die sinnlich erfahrbaren
Dinge, an ontologischem Rang, was die zweiten Substanzen, die „bloßen“ Ideen
und Begriffe vom „Wesen” der Dinge einbüßen. Auch die Sinnlichkeit als Er-
kenntniskraft gewinnt dabei an Schätzung. Sie wird Grundlage aller wissen-
schaftlichen Empirie, nicht mehr nur Medium des Meinens und der Vermutung
wie bei Platon.
Historia (Historie ἱζηορίη). Die Entfaltung von Empirie und Historie als Wis-
senschaft ist Faktenkunde und Geschichte. Ihre gemeinsame Methode ist die sorg-
fältige und genaue Beschreibung dessen, was sich sinnlich beobachten und ge-
dächtnismäßig behalten läßt.
Was sich so beschreiben läßt, sind die ersten Substanzen. Die Beschreibung
beruht, wie gesagt, auf sinnlicher Beobachtung und Erinnerung an Beobachtetes.
Aristoteles bringt das in die Definition der Substanz ein: Die Substanz (Ousia,
ủíeigentlich: „Seiendheit“) ist ein „To ti en einai“ (òíἦἶ), „etwas,
das war und (noch) seiend ist“. Wir können es mit „Ge-Wesen“ übersetzen. Es ist
ein in der Zeit von der erinnerten Vergangenheit her in die Gegenwart identisch
Durchständiges.
Zur vollständigen Beschreibung gehören aber auch die Eigenschaften und
Verhältnisse, die die Substanzen aufweisen und in denen sie stehen. Für die
vollständige Deskription hat Aristoteles eine ingeniöse Methode entwickelt. Sie
besteht darin, sich am Leitfaden aller möglichen Fragen über das vor Augen
Liegende zu orientieren und diese Fragen jeweils durch die Beschreibung zu be-
antworten.
Die Fragenliste liefert das, was man seither seine Kategorienlehre genannt hat.
Kategorien sind, wie Aristoteles in der Kategorienschrift des Organons ausführt,
allgemeinste Begriffe. Er macht in seiner Kategorienlehre allgemeinste Fragen
selbst zu solchen obersten Begriffen und behält die Fragewörter als Begriffs-
namen bei. Seine Liste variiert in den bezüglichen Texten, und er wird selbst
bemerkt haben, daß sich manche möglichen Fragen überschneiden. Als Haupt-
kategorien stehen jedoch folgende im Vordergrund, und sie wurden nachmals
auch die Grundlage aller weiteren Kategorienlehren, nicht zuletzt bei Kant. Wir
geben sie in doppelter Reihe als Fragen und (allgemeine) Antworten wieder:
Frage Antwort
Was als vor Augen liegend beschrieben werden soll, wird demnach zunächst
gemäß der ersten Frage als „Gegenstand“ (eine Substanz) benannt. Alle mög-
lichen Antworten können nur in der Angabe einer sprachlich verfügbaren Benen-
nung des Gegenstandes bestehen. Die anschließenden Fragemöglichkeiten faßt
Aristoteles als Fragen nach den „hinzukommenden“ (symbebekota,
όlat.akzidentellen) Bestimmungen (daher der Ausdruck „zufällig“) zusam-
men. Sie werden durch Prädikationen in beschreibenden Urteilen mit dem Subjekt
verknüpft.
210
doch führt sie nicht über den Bereich der Dinge, die ersten Substanzen hinaus,
sondern stiftet nur zwischen ihnen Zusammenhänge.
Auch zur Auffindung dessen, was als Erklärung gelten kann, verwendet Aristo-
teles die Fragemethode. Hier ist sein Leitfaden die Frage nach dem „Warum” (di„
hoti ҅ὅ Und auch diese Erklärungsfrage wird nach vier speziellen Frage-
möglichkeiten „kategorisiert“. Es sind die Fragen nach den berühmten „Vier Ur-
sachen“ (aitiai αỉí, causae): nach der (begrifflichen) Form (eidos ἶ causa
formalis), nach dem (materiellen) Stoff (hyle ὕ causa materialis), nach der
Wirkursache i. e. S. (causa efficiens) und nach dem Zweck bzw. Ziel (telos
écausa finalis). Wir können ins Deutsche übersetzen: es geht um das Wo-
durch (Formbestimmung), das Woraus (materielle Verkörperung), das Woher (das
Aristoteles sehr genau mit: „Woher der Ursprung der Bewegung bzw. Verände-
rung“ ὅἡἀὴῆήumschreibt und das Weshalb bzw. das Wo-
rumwillen (bei Aristoteles hou heneka ὗἕoder auch telos έge-
nannt).117
Durch jede der in diesen vier Fragerichtungen erstrebten Antworten wird eine
Ursache für das vorher beschriebene und dadurch gegebene Ding bzw. eine
Substanz angegeben. Jede dieser Ursachen aber muß vorher schon selber als
beschriebene Substanz festgestellt sein. Dies ist „Episteme“ (lat.: scientia), Wis-
senschaft im eigentlichen und engeren Sinne. In ihr findet die vorsokratische
„Archelogie” ihre fortwirkende Ausgestaltung, und sie gibt zugleich die vier Di-
mensionen weiterer Ursachenforschung bezüglich der Ursachen von Ursachen bis
auf erste (oder letzte) Ursachen vor.
Im Zentrum dieser Wissenschaftslehre steht somit das aristotelische Vier-Ursa-
chen-Erklärungsschema. In ihm werden die Richtungen der vorsokratischen und
platonischen Ursachenforschung wie in einem Fadenkreuz vereinigt. Ursachen-
(„Kausal-“) Forschung bleibt nicht eindimensional, sondern wird vierdimensional.
Erklärende und ableitende Forschung heißt: das durch historisch-empirische
Kenntnis gesicherte Faktum mit vier Arten ebenso und schon vorgängig ge-
sicherter Fakten in einen Zusammenhang zu bringen. Dieser Zusammenhang
„erklärt” das je Einzelne und Besondere aus anderem Einzelnen und Besonderen.
So ergibt sich folgendes Schema:
Formursache
Eidos
Hyle
Materieursache
117
Aristoteles, Metaphysik 983 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 15.
212
Es ist gegenüber einer späteren und üblich gewordenen Neigung zur Mysti-
fizierung dieser Ursachen von größter Wichtigkeit zu bemerken, daß diese Erklä-
rung durch die vier Ursachen ihrerseits die Kenntnis und Gesichertheit derjenigen
Fakten und Substanzen, die als Ursache in Frage kommen, voraussetzt. Diese aber
bedürfen, wie gesagt, zu ihrer eigenen Erklärung selber der kausalen Ableitung
von wieder anderen Fakten. So ist in jeder Forschung weitere Forschung angelegt,
die das je Erkannte in weitere Netze der Erkenntnis einbettet.
Geben wir ein Beispiel, das Aristoteles selbst in seiner „Metaphysik“ vorführt:
Wir sehen (sinnlich gesichert) ein Etwas vor uns stehen. Seine Form erinnert uns
an ein Haus (wir wissen schon, was ein Haus ist, oder wir müssen es uns erklären
lassen). Dies ist seine Formbestimmung durch seine Bezeichnung bzw. durch
einen Begriff. Wir prüfen (sinnlich), woraus es besteht und sehen Steine und Holz.
Dies ist seine Materie (wir geben uns damit zufrieden oder lassen uns weiter
erklären, was Holz und Steine sind). Wir fragen weiter, woher es stammt, und
erfahren (durch Berichte von Augenzeugen, oder wir erinnern uns, gesehen zu
haben), daß es von Bauleuten errichtet worden ist. Dies ist sein „Woher der Ent-
stehung”, bzw. die causa efficiens. Und wir vollenden die kausale Erkenntnis
dieses Hauses, wenn wir auch seinen Zweck – es ist ein Wohnhaus, ein Stall, ein
Tempel, ein Universitätsgebäude – erkundet haben, und falls wir nicht wissen,
was das ist, müssen wir uns das ebenso weiter erklären lassen.
Die Beispiele, die Aristoteles für das Weitererklären der Ursachen aus deren
Ursachen gibt, entstammen den Vorschlägen anderer Philosophen. Daß „Fleisch
aus Erde, und Erde aus Wasser, und Wasser aus Feuer“ als Materieursachen, oder
„daß der Mensch von der Luft bewegt werde, diese von der Sonne, die Sonne vom
Streite“ als Wirkursachen; daß die Zweckursache des Gehens „um der Gesundheit
willen, diese um der Glückseligkeit, diese wieder um eines anderen willen“
geschehe, und entsprechend auch bei der Formursache des „Wesenswas“ (To ti en
einai òíἦἶ), 118 gibt ersichtlich nicht des Aristoteles„ eigene Meinung
wieder. Die Beispiele dienen ihm aber zur Begründung der These, daß die Vier-
Ursachen-Erklärungen nicht ins Unendliche fortgeführt werden können, sondern
jeweils zu einer letzten bzw. ersten Ursache führen. Dies ist sein Thema für das,
was man seither seine Metaphysik nennt, was Aristoteles selbst aber als eine gött-
liche Wissenschaft und als Ontologie (theologike episteme ὴἐή-
ὀíbezeichnet
Aber diese Leistungsfähigkeit des Erklärungsschemas nach den vier Ursachen
hätte sicher nicht genügt, ihm im Abendland auf Jahrhunderte kanonische Geltung
zu verschaffen, wenn Aristoteles ihm nicht durch weitere Ausgestaltung versucht
hätte, gerade das mitzuerklären, was seit Heraklit, Zenon von Eleia und besonders
Platon als Wesensmerkmal der Phänomene und sinnlichen Dinge galt: Verän-
derung, Wandelbarkeit, Bewegung. Wer die Phänomene retten wollte, mußte sich
mit Zenons Paradoxien der Bewegung („der fliegende Pfeil ruht!“), mit dem
118
Aristoteles, Metaphysik 994 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 41f.
213
nicht in derjenigen Form und Gestalt, die sie aufnehmen kann aber noch nicht auf-
genommen hat.
Damit erweist sich die intrinsische Kraft oder Potenz als eine Ursache, die nur
als heraklitischer Logos, also als widersprüchlich vorgestellt werden kann, wie
das auch schon vorn in § 5 gezeigt wurde.
Dasselbe Enthaltensein im zu erklärenden Gegenstand muß nun aber auch für
die Wirk- und Zweck-Ursachen gelten, die man später nur als getrennte („extrin-
sische“) ansah.
Die intrinsische Zweckursache wird, wie es Aristoteles mit dem von ihm ge-
prägten Terminus klar ausdrückt, als „Entelechie“ (ἐέentelechia, Ten-
denz zu …, „das Ziel bzw. den Zweck in sich habend“) bezeichnet. Um mittels
der Entelechie etwas zu erklären, muß man die Zwecke und Ziele schon kennen,
z. B. beim Hausbau, welchem Zweck es dienen soll. Vermutlich hat Aristoteles
diesen technischen Begriff nach dem Beispiel des „Strebens“ (ὁή, hormé, Nei-
gung zu…, Bestreben bei beseelten Lebewesen, deutsch noch in „Sehnsucht“
erhaltengebildet. Bei den beseelten Körpern, die sich „von selbst“ bewegen
können, wird die Hormé selbst als „Anfang der Bewegung“ (arché tes kineseos
ἀὴῆήdefiniert.
Daß die Wirkursache außen vor (extrinsisch) bleibt, dürfte auf der Hand liegen
und ist in allen späteren Kausaltheorien festgehalten worden. Aristoteles nennt
ihre Wirkung „Schlag“ bzw. „Stoß“ (plegé ήDer Schlag oder Stoß ist eine
äußere Berührung durch einen bewegten Körper, die man sinnlich wahrnimmt. Er
bewirktdie Bewegung (kinesis íals Ortsbewegung oder als innere Ver-
änderung der Sache. Erst diese Bewegung oder Veränderung ist die intrinsische
Wirkung, z. B. daß ein Steinblock durch Behauen die Form und einer Statue an-
nimmt. Dazu muß man die Arbeiter und ihre Handwerke (technai, artes) kennen,
um zu erklären, was sie durch ihre Arbeit intrinsisch bewirken. Im Hinblick auf
die erwünschte Form und Gestalt beschlagen und behauen sie Steine und bewegen
sie zu ihren vorgesehenen Örtern. Der Schlag oder Stoß einer Waffe mag eine
Verwundung verursachen, die den lebendigen Organismus gänzlich verändert.
Alle Substanzen stehen nach Aristoteles in steter Berührung untereinander, denn
es gibt keinen „leeren Raum“ zwischen ihnen, wie sein Argument vom „horror
vacui“ gegen die demokritische Lehre vom „Leeren“ (kenón ó) der ganzen
Natur zeigt. Ein Schlag ändert deshalb alle vorher bestehenden Kontakte der
Substanz mit ihrer Umwelt. Das zeigt Aristoteles bei seinem Paradebeispiel des
Steinwurfs, bei dem nicht nur der Stein, sondern auch die ihn umgebende Luft in
Bewegung versetzt wird.
Bei den Bewegungen der vier materiellen Elemente Erde, Wasser, Luft und
Feuer unterscheidet Aristoteles grundsätzlich die „natürlichen“ und die „erzwun-
genen“ Bewegungen. Die natürlichen Bewegungen sind jederzeit am Fallen von
Erdhaftem und von Flüssigkeiten in gerader Richtung auf den Erdmittelpunkt hin
zu beobachten. Ebenso bewegen sich Luft und Feuer in gerader Richtung nach
oben. Das hatte schon Empedokles gesehen und die vier Elemente durch „Liebe“
215
und „Haß“ sich gegenseitig anziehen und abstoßen lassen. Es war eine Verall-
gemeinerung der Erfahrungen mit Magneten. Von ihm hat Aristoteles sowohl die
Theorie der vier Elemente wie auch die Theorie, daß Gleiches zu gleichem strebt,
übernommen.
Aristoteles hat wohl deswegen Leichtigkeit und Schwere (koupha oῦ und
baria ί) als „natürlich“ angesehen. Schwere und Leichtigkeit sind bei ihm
Bezeichnungen für ihre spezifischen „Entelechien“, die sie auf geradem Wege zu
ihrem „heimatlichen Ort“ (oikeios topos ἰĩó) hinführen. Z. B. Erd-
haftes und Flüssiges zum Erdmittelpunkt hin, Luft und Feuer in entgegengesetzter
Richtung nach oben. Ebenso wächst ein Lebewesen durch seine Entelechie zur
vollendeten Gestalt etwa der ausgereiften Pflanze oder des erwachsenen Tieres
und des Menschen.
Erzwungene Bewegung zeigen sich in allen Bewegungsrichtungen, die von den
natürlichen abweichen. Das bedeutet in erster Linie, daß sie die vier Elemente
daran hindern, ihren natürlichen Bewegungsrichtungen zu folgen. Der Stein auf
dem Tisch und das Wasser im Krug fällt nicht nach unten (und natürlich auch
nicht nach oben!), sondern es wird zum Liegenbleiben bzw. zur Ruhe gezwungen.
Aufsteigender Luft und dem Feuer wird an der Zimmerdecke eine Ausweich-
richtung aufgezwungen. Und nur diese Abweichungen sind es, die durch die
Wirkursache (causa efficiens) erklärt werden sollen. Es wird also nicht eine Be-
wegung oder Veränderung selbst erklärt, sondern die von den natürlichen abwei-
chenden Richtungen dieser erzwungenen Bewegungen.
Aristoteles diskutiert das beispielhaft an der Wurfbewegung.
Der Wurf eines Steines durch eine werfende Hand bewegt nicht nur den Stein,
sondern auch das umgebende Medium der Luft in die aufgezwungene Richtung.
Wie die Erfahrung lehrt, verwirbelt sich die mitgeführte Luft alsbald in alle an-
deren Richtungen. Wäre das nicht der Fall, würde sie den Stein weiter mit sich
nach oben führen. Die Erfahrung zeigt, daß der geworfene Stein die ihm „aufge-
zwungene“ Richtung nicht beibehält, sondern allmählich in einer ballistischen
Kurve (die der damaligen Geometrie als Parabel-Kegelschnitt längst bekannt
war), zur natürlichen Richtung auf den Erdmittelpunkt zurückkehrt. Hätte es
Aristoteles schon mit befeuerten Ballonen zu tun gehabt, hätte er wohl erklärt, daß
das Feuer den luftgefüllten Ballon durch und über die Luft zu den Sternen ent-
führen würde.
Wie wird nun dieses komplexere Vier-Ursachen-Schema zur Erklärung von
Bewegungen und Veränderung der beobachtbaren Dinge in der Welt eingesetzt?
Aus dem Schematismus der vier Ursachen ergibt sich, daß Potenz und aktuelle
Wirklichkeit (dynamis und energeia) in umgekehrt proportionalem Verhältnis zu-
einander stehen müssen. Je mehr Potenz, Dynamis, Möglichkeit, Kraft, Macht,
Anlage (zu Beginn einer Bewegung oder Entwicklung), desto weniger Akt, Ener-
gie, Wirklichkeit. Und umgekehrt: je mehr Wirklichkeit, Energie, „Reife” (gegen
Ende einer Entwicklung), desto weniger Potenz, Möglichkeit, Kraft. Aristoteles
hat auch einen Begriff für den „Abstand”, die „Beraubung” (steresis έ,
216
privatio), der die jeweilig erreichte Form und Gestalt vom vollendeten Zustand
oder Ziel trennt. Dieser „Abstand” muß gemäß der Proportionalität eine negative
Größe für die Energie (deshalb der negative Ausdruck „Beraubung”) und eine
positive Größe für die Potenz sein. Denn bei großem Abstand von Ziel ist die
Dynamis bzw. Potenz, dahin zu gelangen, noch größer als bei jeder weiteren
Annäherung.
Aristoteles hat es vermieden, bei seinen Erklärungen mittels der vier Ursachen
die auch von seinen Vorgängern, erst recht aber von den Nachfolgern ins Spiel
gebrachten Begriffe von Raum und Zeit und von quantifizierten Strecken und
Längen oder zeitlichen Dauern zu verwenden. Und so stellten sich in seiner Be-
wegungslehre auch keine zenonischen Paradoxien ein, die sich erst in der Be-
ziehung von Bewegungen auf quantifizierte Strecken und Punkte und ihre zeit-
liche Bemessung ergeben, wie sie für die neuzeitliche mathematische Physik kon-
stitutiv geworden sind.
Fügen wir hinzu, daß für den Bereich mechanischer Ortsbewegungen diese Ter-
minologie trotz aller antiaristotelischen Purgatorien der neuzeitlichen Physik
speziell in der Mechanik und „Dynamik” erhalten geblieben ist. Man kann es noch
an den physikalischen Begriffen „Impuls“ (als Wirkursache) und „Entropie“ (als
richtungsgebende Finalursache von physikalischen Prozessen in abgeschlossenen
Systemen, Vorgängerbegriff war der von Joh. Buridan eingeführte Begriff im-
petus, d. h. „inneres Streben“) erkennen. Für den Bereich der Organismen und für
das Wachstums hat sich die Rede von den „entelechialen” Kräften und Tendenzen
und aristotelischer Teleologismus fast bis zur Gegenwart erhalten. Um die Jahr-
hundertwende erhielt die entelechiale Theorie durch die evolutionsgenetischen
Befunde großen Auftrieb (wie z. B. bei Hans Driesch).
Fassen wir auch diese Modifikationen des Vier-Ursachen-Schemas zur Erklä-
rung bewegter und sich verändernder Dinge zu einem Schema zusammen, so
ergibt sich folgende Figur:
Form
eidos
informatio Wesens-Begriff
Wirkursache plegé Bewegung Veränderung Substanz hormé u. entelechia Tendenz Telos
Dynamis, Potentia, Anlage
hyle
Materie
Es ist hervorzuheben, daß diese Theorie der Bewegung und Veränderung ihrem
teleologischen Charakter gemäß jeweils die reife Gestalt bzw. die Ruhe als Ziel
einer Bewegung privilegiert. Jede Bewegung kommt zur Ruhe, wenn sich ihre
Entelechie erschöpft hat, wenn also ihr Ziel erreicht ist. Die Relativität von
Bewegung und Ruhe ist in diesem Schema undenkbar. Erst recht ist es der
217
c. Die metaphysische Letztbegründung. Es dürfte klar sein, daß die Frage nach
den letzten Ursachen nicht mehr im Bereich erklärender Forschung liegen kann,
die von solchen Ursachen zur Erklärung des Einzelnen Gebrauch macht. Letzte
Ursachen haben definitionsgemäß keine Ursachen, wenn es überhaupt letzte
Ursachen gibt. Ihre Behandlung ist das Thema der Metaphysik bzw. Theologie)
oder einer „ersten Philosophie”. Sie stellt die Frage, ob es in den vier Kausaldi-
mensionen letzte Ursachen geben könnte, die für die von ihnen verursachten Sub-
stanzen „erste Gründe“ sein müßten, für den forschenden Wissenschaftler und die
Wissenschaft insgesamt aber nur als „letzte Ursachen“ erkennbar sein könnten.
Die aristotelische Metaphysik postuliert bekanntlich gemäß den vier Kausaldi-
mensionen vier letzte Ursachen. Es muß einen „ersten Beweger” geben, der selbst
unbewegt ist und bleibt, ebenso ein letztes Ziel, einen Endzweck der Welt, was
Aristoteles (mit Platon) das höchste Gute nennt. Die Reihe der Formen als
allgemeiner Begriffe kann nur durch einen allgemeinsten und höchsten Begriff
abgeschlossen werden, den Aristoteles Sein (On ὄ) nennt. „Sein“ bezeichnet die
allgemeinste Form ohne jede Beimischung von Materie und wird deshalb auch
reine Energie (ἐέlat.actus purus) genannt.
Diese drei ersten Ursachen sind das, was alle den „Gott“ nennen.
Ebenso muß jedoch die Stufung der Materien mit einer letzten gänzlich form-
losen Materie enden. Aristoteles nennt sie „prima materia“ (óὕoder
auch „Nichts“ (bzw. Nicht-Sein ὴὄ)..
d. Schließlich ist ein Blick auf die Wirkungsgeschichte des aristotelischen Vier-
Ursachen-Schemas zu werfen. Die ersten drei Letztursachen haben der aristote-
218
lischen Theologie der Hochscholastik als metaphysische Argumente für den trini-
tarischen Gottesbegriff gedient. Die vierte Letztursache der reinen (formlosen)
Materie (als Nichts) erlangte in der sogenannten negativen Theologie, dann aber
auch bei allen Satans- und Teufelsvorstellungen eine bedeutende Nachwirkung.
Die moderne Naturwissenschaft seit Galilei bleibt auch dann noch im Rahmen
des aristotelischen Vier-Ursachen-Schemas, wenn sie Erklärungen aus Ziel- und
Form-Ursachen ablehnt und die Natur ausschließlich aus Wirkursachen (causae
efficientes) als Kräften im modernen Sinne und Materie (Masse) erklärt. Damit
überließ sie die Form- und Ziel-Ursachen dem nicht-natürlichen Bereich der
Wirklichkeit, der Kultur- und Geisteswelt, als Erklärungsprinzipien, dessen sich
die modernen Geisteswissenschaften angenommen haben.
Diese, konservativer als die Naturwissenschaften, verzichten zwar nicht darauf,
ihre Gegenstände auch aus Materie und Wirkursachen zu erklären und sich so der
naturwissenschaftlichen Erklärungsmuster zu bedienen, ihr Schwerpunkt liegt
jedoch in der Erklärung aus Formen („Sinn“, Ideen, Begriffen, Gestalten) und
Zielen bzw. Zwecken („Bedeutung“). Und dies grenzen sie methodologisch als
„Verstehen” gegen das „kausale” Erklären der Naturwissenschaften ab. Will man
also verstehen, was hier geschieht, so ist der Rückgriff auf das aristotelische Vier-
Ursachen-Schema noch immer von großer Bedeutung. Es ist selbst eine Form, in
welcher wissenschaftliche Tätigkeit, Forschung als Erklären und Verstehen, Ge-
stalt gewonnen hat. Darauf ist später nochmals genauer einzugehen.
119
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 16 a. in: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 86.
220
satz her vorgegeben. Wahrheit wird mit dem Denken des Seins und Falschheit mit
dem Denken des Nichts identifiziert.
Für Aristoteles ergibt sich Wahrheit, wenn über Seiendes behauptet wird, daß es
ist, und über Nichtseiendes, daß es nicht ist. Und umgekehrt ergibt sich Falsch-
heit, wenn über Seiendes behauptet wird, daß es nicht ist, und über Nichtseiendes,
daß es ist. Diese etwas schlichte Bestimmung (aus der Hermeneutikschrift) wurde
zur Grundlage des seither berühmten „aristotelisch-realistischen Wahrheitskon-
zeptes der Korrespondenz“ oder kurz zum „Korrespondenzprinzip der Wahrheit“.
In der Scholastik wurde es als „Adäquationstheorie der Wahrheit“ formuliert.
Man versteht dies so, daß im wahren Denken die Realität (der seienden Dinge und
ihrer Verhältnisse) abgebildet werde. Das wahre Denkbild „entspreche bzw. kor-
respondiere“ dem Sein schlechthin („adaequatio rei et intellectus“ bei Thomas von
Aquin). Dann muß das falsche Denken dem Nichts entsprechen, und falsche
Behauptungen sind grundsätzlich Reden über Nichts, die das Nichts als ein Seien-
des „erscheinen“ lassen.
Das setzt nun allerdings voraus, daß man vor und unabhängig vom Behaupten
jeweils schon weiß, was Sache ist und wie die Realität beschaffen ist, um das
wahre Denkbild mit dem realen Vorbild vergleichen zu können. Wie derartiges
möglich sein könnte, hat weder Aristoteles erörtert, noch ist es von den „rea-
listischen“ Vertretern dieser Wahrheitskonzeption jemals befriedigend gezeigt
worden.
Eine Reaktion auf diese Lage war die Weiterentwicklung des „idealistischen“
platonischen Ansatzes zur sogenannten Kohärenztheorie der Wahrheit, in der alle
Wahrheit auf den inneren Zusammenhang (Kohärenz) des Denkens selbst und alle
Falschheit auf Inkohärenzen, gleichsam Brüche, im Denken zurückgeführt wer-
den. Inkohärent war und bleibt es, die sogenannte objektive Realität bzw. Kants
„Dinge an sich“ (in der 2. Auflage der Kritik der reinen Vernunft) realistisch als
etwas ganz anderes (aber „wie anders“ konnte nie erklärt werden!) zu behandeln
denn als sinnlich wahrgenommene und gedanklich verarbeitete Erfahrung. Und
kohärent war und bleibt es, diese sinnlich erfaßte Erfahrungswelt und ihre gedank-
liche Vereinheitlichung im Idealismus auszuarbeiten (so in Berkeleys Esse =
Percipi-Prinzip und in Kants Lehre vom „Ding an sich als Noumenon“ in der
ersten Auflage der Kritik der reinen Vernunft).
Als Schüler Platons hat auch Aristoteles diesen kohärentistischen Ansatz für die
Ausgestaltung seiner Logik weiterverfolgt. Das zeigt sich darin, daß er sich
bemühte, rein logisch-formale Kriterien für die Auszeichnung von Wahrheit und
Falschheit aufzustellen - gewissermaßen ohne Hinblick auf die Realität. Er fand
sie in dem, was man seither als die drei Grundprinzipien - „Axiome“ - der forma-
len Logik herausstellt: Identität, Widerspruch und Drittes.
Auch auf sie stieß er sicherlich durch genaue Beobachtung der Sprachgebräuche
und ihrer Folgen für wahre und falsche Überzeugungen: Man denkt nicht dasselbe
(Identische), wenn man sich durch gleichlautende (homonyme) Wörter verführen
läßt, Unterschiedliches als dasselbe zu denken. Und man soll sich auch nicht
222
a. Die Begriffslehre. Begriffe sind - abgesehen von dem, was durch sie und mit
ihnen gedacht und vorgestellt wird (nämlich erste Substanzen und ihre Eigen-
schaften, auf die die „formale“ Logik anzuwenden ist) – mehr oder weniger
komplexe Denkformen, die wir schon als „zweite Substanzen“ kennengelernt
haben. Aristoteles hat die Begriffe grundsätzlich als Einheiten behandelt und sie
deshalb in seiner Formalisierung durch einfache Zeichen (griechische Buchstaben,
die zugleich auch Zahlzeichen sind) dargestellt.
Es liegt auf der Hand, daß er dadurch eine wesentliche Einsicht Platons für die
Formalisierung ungenutzt läßt, nämlich gerade die Einsicht in die Zusammen-
setzung der Begriffe aus Merkmalen und Umfängen. Man kann hier schon darauf
hinweisen, daß der große Aufwand, den er mit der formalen Syllogistik treibt, nur
eine Kompensation dieses Defizits an Durchschaubarkeit der Komplexionsver-
hältnisse der in den Urteilen und Schlüssen verwendeten Begriffe ist. Diese wird
durch eine formale Notation dieser „internen“ Begriffsstrukturen in Begriffspyra-
miden überflüssig. Wohl aber hat er von Platon gelernt und vorausgesetzt, daß die
Merkmale von allgemeinen Begriffen voll und ganz (d. h. identisch) auch zu
sogenannten generischen Merkmalen aller unter sie fallenden Art- und Unter-
artbegriffen werden, wobei bei den Art- und Unterartbegriffen zusätzliche Merk-
male, die sogenannten spezifischen Differenzen, hinzutreten. Aber auch diese Ein-
sicht hat er nicht für die Formalisierung genutzt, wohl aber für sein Definitions-
schema der Begriffe.
Durch die von den Allgemeinbegriffen zu den „spezielleren“ Begriffen zuneh-
mende Komplexheit der Merkmale ergibt sich nun auch das, was man das
Allgemeinheitsgefälle der Begriffe nennen kann. Je allgemeiner ein Begriff, desto
weniger Merkmale weist er auf. Umgekehrt vergrößert sich sein Anwendungsbe-
reich, der sogenannte Umfang. Diese umgekehrte Proportionalität von Merkmalen
(Begriffsgehalt, Intensionen) und Umfängen (Anwendungsbereiche, Extensionen)
der Begriffe wurde erst im 17. Jahrhundert (in der Logik von Port-Royal) klar
herausgestellt. Aristoteles hat sie nicht durchschaut. Wohl aber hat er es für
selbstverständlich gehalten, daß von einem Begriff nur die Rede sein kann, wenn
223
Logik ist ihm darin bis heute gefolgt, wenn sie etwa die „spezifischen Diffe-
renzen“ (oder das sog. „Proprium“, d. h. eine individuelle Eigentümlichkeit) als
ganze Begriffe zu fassen sucht.
Verdeutlichen wir dies durch einige Hinweise auf Voraussetzungen, die auch
von erfahrenen Logikern leicht übersehen und vernachlässigt werden.
1. Die Angabe der „nächsthöheren Gattung“ besteht im Hinweis auf einen
allgemeineren Begriff, unter den der zu definierende Begriff fällt. Das ist aber
zugleich das Mittel, alle Merkmale sämtlicher über einem zu definierenden
Begriff stehenden Allgemeinbegriffe mitanzugeben, da sie alle als „generische
Merkmale“ in die Merkmale auch aller Unterbegriffe eingehen. Ließe man die
„nächsthöhere“ Gattung aus und würde die über-nächsthöhere Gattung angeben,
so würde man nur einen Teil der generischen Merkmale benennen können. Wer z.
B. erläutern wollte: „Hunde, d. h. lebendige Geschöpfe“, der hätte nicht deutlich
gemacht, daß Hunde zunächst Tiere - und nicht etwa Pflanzen - sind, wobei
„Tiere“ ihrerseits als bestimmte lebendige Geschöpfe zu definieren wären.
2. Da man die generischen Merkmale in der Definition durch den zugehörigen
Gattungsbegriff erläutert, hat man fast immer angenommen, auch die spezifischen
Differenzen seien als eigenständige Begriffe anzuführen, und Begriffe seien
insgesamt daher so etwas wie „Durchschnitte“ oder gemeinsame Knotenpunkte
verschiedener sonst eigenständiger anderer Begriffe. In der Tat hätte Aristoteles
auch schon von Platons Umgang mit Ideen lernen können, daß sich Merkmale
bzw. spezifische Differenzen ganz ohne Umfänge handhaben lassen, wie er es in
der Tat auch praktizierte, ohne sich davon Rechenschaft zu geben. Dies läßt die
Frage nach den Umfängen solcher vermeintlicher „Begriffe“ von spezifischen
Differenzen gar nicht erst aufkommen. Wichtig ist allerdings die Bemerkung, daß
die Wortbezeichnungen der Begriffe in der Regel nur diese spezifische Differenz
benennen bzw. von daher gebildet sind, während sie auf den nächsthöheren Gat-
tungsbegriff keinen Bezug nehmen. Aus dem Wort „Tier“ selbst kann man nicht
entnehmen, daß in dem dadurch Bezeichneten das Merkmal des Lebewesenhaften
mitzudenken ist. Hat man allerdings einen Begriff vom „Tier“, so denkt man es
immer schon mit.
3. Da nun Aristoteles die formgerechte Definition auf diesen Typ der Angabe
der nächsthöheren Gattung nebst der spezifischen Differenz beschränkte, mußte er
grundsätzlich die Definierbarkeit der Begriffe auf einen Begriffsbereich zwischen
den höchsten Gattungen (Kategorien) und den untersten Arten (Eigennamen)
beschränken. Oberste Gattungen haben naturgemäß keine Gattungen über sich,
aus denen ihre Merkmale erläutert werden könnten. Und unterste Arten, die durch
Eigennamen bezeichnet werden, haben unüberschaubar viele (wie der scholasti-
sche Satz behauptet: unendlich viele) Merkmale, die nicht alle erläuternd an-
geführt werden können. Dieser Sachverhalt wurde in der späteren Logik kano-
nisiert mit der Folge, daß man Kategorien und „Individuen“ grundsätzlich für
undefinierbar hielt und ihre Behandlung aus der Logik weitgehend ausschloß.
226
4. Gleichwohl ist dies falsch, wie schon vorn in § 9 gezeigt wurde. Denn
ersichtlich lassen sich die in einem Begriff implizierten Merkmale auch auf andere
Weise angeben. Und erst recht kann man die Begriffe auch durch extensionale
Erläuterungen sehr klar definieren. So lassen sich höchste Gattungen (Kategorien)
sehr wohl durch Aufweis des gemeinsamen generischen Merkmals ihrer Arten
(und zusätzlich durch die extensionale Festlegung ihres Umfangs) definieren.
Ebenso kann man sich bei der Definition von untersten Artbegriffen (die für
Individuen stehen sollen), auf die Angabe der „wesentlichen“ spezifischen Diffe-
renzen beschränken, wie es in der Praxis (und auch in Beispielen des Aristoteles)
immer wieder geschieht.
5. Nicht definiert und auch nicht durchschaut hat Aristoteles diejenige Begriffs-
art, die wir vorn als heraklitischen Logos bzw. als kontradiktorischen Begriff
(contradictio in adiecto bzw. contradictio in terminis) erwähnt haben, und die
Aristoteles in seiner Modallogik faktisch verwendet.
Es handelt sich hierbei um einen Begriff, der zusätzlich zu einer spezifischen
Differenz auch deren Negation als Merkmal enthält, welches seinerseits als „posi-
tive“ spezifische Differenz eine dihäretische Nebenart unter derselben Gattung
defniert.
Was z. B. mit „Raucher“ und mit „Nicht-Raucher“ gemeint ist, dürfte bekannt
und verständlich sein. Der „nichtrauchende Raucher“ ist dann ein widersprüch-
licher Begriff. Damit meint man Personen, die man jetzt häufig in öffentlichen
Räumen antrifft, wo den Rauchern das Rauchen verboten ist. Er besagt aber (we-
gen der Symmetrie der Negationen) nichts anderes als „rauchender Nichtraucher“.
Und erst in dieser Formulierung „spürt“ man die Widersprüchlichkeit dieses Be-
griffs. Gleichwohl ergab sich aus diesem widersprüchlichen Begriff die Haupt-
begründung für die neue Anti-Rauchergesetzgebung. Gemeint war nämlich der-
jenige Nichtraucher, der in verrauchten Kneipen zum Mitrauchen gezwungen
wurde. Wir erwähnen das Beispiel, um darauf aufmerksam zu machen, daß wider-
sprüchliche Begriffe keineswegs „unsinnig“, „sinn- und bedeutungslos“ und Aus-
druck des „Absurden“ sein können, wie man gewöhnlich voraussetzt.
Ersichtlich ist Aristoteles„ Begriff der „Möglichkeit“ auf diese Weise aus den
spezifischen Differenzen „seiend“ und „nichtseiend“ und einem von ihm für nicht
angebbar gehaltenen generischen Gattungsmerkmal einer gemeinsamen Gattung
über dem Seienden und dem Nichtseienden konstruiert. Da er dies selbst nicht
durchschaute, hat er den Begriff der „Möglichkeit“ (als Prototyp aller späteren
Begriffe von Kraft, Anlage, Disposition, Vermögen) als dritte höchste Gattung
neben „Sein“ und „Nichtsein“ behandelt, worin ihm die meisten Logiker bis heute
gefolgt sind (vgl. dazu § 10 über den Möglichkeitsbegriff).
Dazu ist nun kritisch einiges zu sagen. Hierbei sei auf das schon vorn im § 9
Ausgeführte hingewiesen.
Nimmt man die drei Axiome als oberste Grundsätze im Sinne behauptender Ur-
teile über Wahrheit und Falschheit, so müßten sie formuliert werden: a. Alles
Identische ist wahr; b. alles Widersprüchliche ist falsch; c. alles Dritte ist weder
wahr noch falsch (und gehört daher nicht zur Logik).
1. Das ist Grundlage für eine herrschende Tendenz der ganzen Logikgeschichte
geworden Auf a gründet sich die Meinung, es gäbe überhaupt nur eine Wahrheit
(vgl. z. B. bei G. Frege), und alles genuin Logische sei tautologisch (vgl. z. B. L.
Wittgensteins „Tractatus logico-philosophicus“). Auf b beruft sich die entspre-
chende Meinung von der Falschheit. Daß es nämlich nur eine einzige und einheit-
liche logische Falschheit gebe, die sich ausschließlich im Widerspruch mani-
festiere. Dies begründet wiederum die Unterscheidung von formaler Logik im
Gegensatz zu inhaltlicher Argumentation, da man inhaltliche (und nicht-wider-
sprüchliche) Falschheiten (Lügen, Irrtümer, falsche Sätze) überhaupt nicht logisch
kennzeichnen könne. Auf c wird einerseits der Ausschluß der fiktiven Literatur
(Dichtung, oft auch der „metaphysischen Erörterungen“) aus der logischen Be-
handlung begründet. Andererseits aber auch die Erweiterung der klassisch-aristo-
telischen Logik um eine „dreiwertige“ Logik, in welcher nun das Dritte gerade
zugelassen wird. Dreiwertige Logiken sind - wozu freilich Aristoteles schon
Ansätze geliefert hat - spezielle Modallogiken, insbesondere die sog. Wahrschein-
lichkeitslogik.
Nun ist es allerdings die Frage, wie solche Axiome das leisten könnten, was
man von ihnen verlangt: Wenn jede Wahrheit mit sich selbst identisch sein soll,
(mit Leibniz und Frege wird auch behauptet, alle logischen Wahrheiten seien
untereinander identisch), so müßte das auch von der Falschheit gelten. Daß der
Widerspruch als solcher falsch wäre, hat nicht einmal Aristoteles behauptet. Er
behauptete nur, die in einem widersprüchlichen Satz verknüpften gegenteiligen
Behauptungen könnten weder zugleich und in gleicher Hinsicht wahr noch auch
zugleich und in gleicher Hinsicht falsch sein! Er sagt an einer Stelle sogar aus-
drücklich: „Notwendig muß das eine Glied des Widerspruches wahr sein. Ferner:
wenn man notwendig jedes bejahen oder verneinen muß, so kann unmöglich
beides falsch sein; denn nur das eine Glied des Widerspruchs ist falsch“.120
Was das sog. Dritte betrifft, so kann man darunter - wie oben erwähnt - das-
jenige verstehen, was weder wahr noch falsch ist. Man kann und sollte aber
darunter gerade auch dasjenige verstehen, was zugleich wahr und falsch ist. Dann
aber ist das Dritte selbst der Widerspruch. So gesehen, ist das Dritte eigentlich das
Zweite und es gibt daneben kein besonderes Drittes. Nimmt man das ernst, so
müssen sich die sog. dreiwertigen Logiken sämtlich als Logikkonzepte mit Zulas-
sung des Widerspruchs (als vermeintlichem Dritten) erweisen lassen. Und das
120
Aristoteles, Metaphysik IV. Buch 8, 1012b 10-13. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966,
S. 90. Vgl. dazu auch J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg i. Br.-München 1956, S. 73.
229
denen er annahm (s. u.), daß sie falsch seien, sofern mindestens ein Bestandteil
falsch sei. Der Widerspruch im Urteil ist daher im aristotelischen Sinne ein
Spezialfall eines falschen konjunktiven Urteils, und so wurde er seither in der
Logik auch behandelt und immer als formale Gestalt eines falschen Behauptungs-
satzes eingeschätzt. Diese Einschätzung ist aber selbst - als eine offensichtliche
Petitio principii - die Folge der aristotelischen Voraussetzung, daß Behauptungs-
sätze nur entweder wahr oder falsch sein könnten, und daß ein „Drittes“ in der
Logik nicht zugelassen sei.
Ohne diese Voraussetzung würde man derartige Behauptungen mit dem Volks-
mund schlicht „Halbwahrheiten“ oder auch „Halbfalschheiten“ nennen. Man hat
sicher auch ein entsprechendes Bewußtsein davon, daß es eine „logische Zumu-
tung“ darstellt, gemäß dieser Zweiwertigkeitsvoraussetzung den offensichtlichen
wahren Teilgehalt solcher Und-Sätze und Widersprüche einfach zu unterdrücken,
wegzuleugnen und das Ganze für falsch zu erklären.
Die Sache wird auch nicht besser durch den Hinweis auf (neuere) Meta-Theo-
rien der Semantik, die zwischen einer „objektiven Bedeutung“ (1. Semantische
Stufe) eines Prädikats und einer „Meta-Bedeutung“ (2. semantische Stufe) eines
aus zwei „objektiven Bedeutungen“ mittels Junktoren zusammengesetzten Prädi-
kates unterscheiden und den eigentlichen Sinn eines solchen komplexen Urteils
dann nur an der Behauptung der Meta-Bedeutung festmacht. Denn offensichtlich
ist auch diese Meta-Bedeutung nur zu verstehen und zu denken, wenn die
„objektive Bedeutung“ ihrer Bestandteile (der 1. semantischen Stufe) ebenfalls
verstanden und gedacht wird. Und das erfüllt genau den Tatbestand, daß man
sowohl die Wahrheit wie auch die Falschheit zugleich und in gleicher Hinsicht
denken muß, also genau das von Aristoteles ausgeschlossene „Dritte“ vorstellt.
Natürlich gilt das alles - spiegelbildlich - auch von einer Oder-Verbindung von
Prädikatsbestandteilen mit einem Subjekt, die unter denselben Voraussetzungen
immer für wahr gehalten werden, wenn einer der Bestandteile wahr, und der
andere falsch ist. Darauf wurde schon in § 9 bei der Urteilslehre kritisch einge-
gangen. Definieren wir nun den Widerspruch im Sinne des Aristoteles, so müssen
wir formulieren: Widerspruch, d. h. ein Urteil mit einem Prädikatsausdruck, der
aus einem Prädikatsbegriff und seiner Negation in Und-Verknüpfung besteht, und
das zugleich wahr und falsch ist.
Da dieser Sachverhalt eindeutig ist, aber selber nur in widersprüchlicher Weise
definiert werden kann, versteht man, warum so viele Logiker dem ausweichen
möchten und den Widerspruch lieber als konventionelle logische Norm formu-
lieren: Man soll ein (wie beschrieben komponiertes) Urteil, das zugleich wahr und
falsch ist, als falsches Urteil behandeln!
Wir entgehen allen diesen Schwierigkeiten, wenn wir uns erinnern, daß der
Widerspruch keineswegs nur an Urteilen mit Wahrheits- oder Falschheitsanspruch
auftritt, sondern auch an Begriffen. Aristoteles selbst hat dies wegen seiner
Annahme, Begriffe seien Einheiten, nicht bemerkt, wohl aber widersprüchliche
231
Begriffe verwendet und sogar formuliert. Aber heute gehören die „contradictiones
in adiecto bzw. in terminis“ zum festen Bestand logischer Elemente.
Niemand wird Begriffe als solche für wahr oder falsch halten, also auch nicht
widersprüchliche. Will man aber die Widersprüchlichkeit so allgemein definieren,
daß sie auch für Begriffe paßt, so muß man die Wahrheits- bzw. Falschheits-
relevanz dabei ganz aus dem Spiel lassen und zusehen, was sich daraus für die
Urteile ergibt. Wir können allgemein definieren: Widerspruch. d. h. logisches
Element, in welchem im bestimmten Negationsverhältnis zueinander stehende Be-
griffsmerkmale zu einem Begriff oder entsprechende Prädikationsbestandteile mit
einem Subjektsbegriff zu einem Urteil verknüpft werden.
Über das Dritte bräuchte eigentlich nichts mehr gesagt zu werden, wenn es mit
dem Widerspruch identifiziert bzw. gleichgesetzt wird. Identität und Widerspruch
beschreiben gewissermaßen binnenlogische Verhältnisse. Das Dritte könnte dann
allenfalls auf die ausdrückliche Abgrenzung der Logik von allem, was nicht der
logischen Betrachtung zugänglich ist, bezogen werden.
Der Spielraum dafür ist weiter, als man gewöhnlich denkt. Wenn die Logik sich
auf die Analyse von Wahrheit und Falschheit bezieht, so würde ersichtlich das,
was immer und nur wahr wäre und niemals falsch sein kann, nicht zur Logik
gehören. Und unterdrücken wir nicht die Feststellung, daß die meisten Logiker es
so mit den logischen Axiomen selbst gehalten haben, von denen sie seither
annehmen, sie seien immer wahr (und nach Kant „apriori“, was dasselbe bedeuten
soll), so daß sie weder logisch analysiert noch auch nur logisch diskutiert werden
könnten.
Ebenso würde das Immer-Falsche aus der Logik auszuscheiden haben. Und das
würde erklären, warum man „lauter Lügen“ und einem Lügengeflecht nicht allein
auf logische Weise beikommen kann. Auch ein so scharfsinniger Denker wie
Descartes hielt den „allmächtigen Lügengeist“ für ein Argument, das logisch nicht
zu hinterfragen sei. Im platonischen Sinne würden auch alle Dichtung und fiktive
Literatur (als Lügengeflecht) aus der Logik herausfallen, wenn sie nicht - wie
Aristoteles gelegentlich von der Dichtung sagte - als „höhere“ (und exempla-
rische) Wahrheit schon herausgefallen wäre. Aber dies Verdikt träfe die Dichtung
natürlich auch, wenn sie weder wahr noch falsch sein wollte oder sollte. Der
interessante Fall ist daher nur derjenige, der wiederum „wahr und falsch zugleich“
ist, der ja in widersprüchlichen Urteilen realisiert ist, wie gezeigt wurde.
Nun behauptet Aristoteles an einer Stelle in der Hermeneutikschrift (9, 19 a 39
- b 4), es sei klar, „daß es keineswegs notwendig ist, daß von den Gliedern eines
Widerspruchs gerade das eine wahr, das andere falsch sein müsse. Denn es verhält
sich bei dem, was schon ist, nicht ebenso, wie bei dem, was noch nicht ist“.121
Aristoteles begründet das damit, daß sonst alles „kausal“ determiniert sein
müsse. Z. B. müsse jetzt und heute schon feststehen, ob morgen eine Seeschlacht
bei Salamis stattfinden werde oder nicht. Diese „prognostische“ Determiniertheit
121
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 19 b. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 99.
232
lehnt Aristoteles ab, während die Stoiker im Anschluß an die Logikerschule von
Megara und insbesondere Diodoros Kronos - und in gewissen Grenzen auch
heutige Wissenschaft - sie behaupten. Es handelt sich in diesen Fällen um „Mög-
lichkeiten“, und insbesondere in der Zukunft liegende (scholastisch „possibilia
futura“ benannt).
Man hat in dieser Behauptung des Aristoteles eine beschränkte Zulassung des
sonst ausgeschlossenen Dritten gesehen und darauf seine Begründung einer über
die grundsätzlich von ihm vertretene zweiwertige Logik hinausgehende drei-
wertige Logik gestützt. Genau besehen handelt es sich aber um ein weiteres Argu-
ment des Aristoteles dafür, alle Aussagen über Möglichkeiten und insbesondere
die Prognosen über Zukünftiges aus der logischen Behandlung auszuschließen, da
sie nicht auf Wahrheit oder Falschheit hin entschieden werden könnten. Solche
Aussagen, das hat er sicher klar gesehen, sind zwar strukturell logische Wider-
sprüche, aber in ihnen, so meinte er gleichwohl, könnten beide Teilaussagen
zugleich wahr oder auch zugleich falsch sein (eine These, die Kant für die Be-
handlung der „Antinomien der reinen Vernunft“ übernommen hat, und die in der
modernen „Paralogik“ wieder aufgenommen wurde).
Betonen wir, daß Aristoteles offenbar genau gesehen hat, daß dieses „Dritte“
auch die Struktur des Widerspruches hat. Nur meint er, daß es nicht dessen Wahr-
heits- und Falschheitsbedingungen unterliege. Das ist nachmals nicht festgehalten
worden. Vielmehr bildeten sich gegenläufige logische Traditionen des Umgang
mit diesem „Dritten“ aus. Die einen hielten sich daran, daß das „Dritte“ immer
falsch sei, nannten eine es verwendende Logik „Dialektik“ und verstärkten da-
durch auch die Überzeugung derjenigen, die den Widerspruch überhaupt für
„immer falsch“ hielten. Sie versuchten seither, die Dialektik aus der Logik als
eine „Un-Logik“ auszuscheiden. Andere hielten sich daran, daß das Reden über
„Möglichkeiten“ und insbesondere eine Prognose „immer wahr“ sei (falsch nur
dann, wenn sie nicht logisch zünftig aus den wahren Prämissen abgeleitet wäre
und somit gar keine echte Prognose sei). Noch Kants Konzeption von den
„Möglichkeiten a priori“ zeugt von dieser Einstellung, und alle Transzen-
dentalphilosophie setzt seither noch deren „apriorische Wahrheit“ voraus.
Daß es sich bei den Möglichkeitsbegriffen und den „modalen“ Möglichkeitsur-
teilen (Wahrscheinlichkeitsurteilen, statistischen Prognosen) um echte Wider-
sprüche handelt, das wurde im Lauf der Zeit vergessen und verdient es heute
umso mehr, wieder in Erinnerung gebracht zu werden, um so manche Ungereim-
theit in den logischen Grundlagentheorien, insbesondere den Wahrscheinlich-
keitstheorien, aufzudecken (vgl. dazu das in § 10 und § 11 Gesagte).
Die Hauptverbindung stellen die Kopula „ist” (oder die Negation „ist nicht” im
Verhältnis eines Subjekts- zum Prädikatsbegriff) und das von Aristoteles bevor-
zugt verwendete „kommt zu“ (tygchanei ά, nämlich ein Prädikatsbegriff
kommt einem Subjektsbegriff zu) oder „kommt nicht zu“, her. Diese Art der
Begriffsverbindung macht diese im Unterschied und Gegensatz zu den Merk-
malsverknüpfungen in Begriffen selber „wahrheits- bzw. falschheitsfähig”.
Da alle Wissenschaft darin besteht, wahre Urteile zu fällen und falsche Urteile
auszuscheiden, ist die Urteilslehre gleichsam das Zentrum wissenschaftlicher
Methodologie. Wahrheit von Urteilen besteht für Aristoteles darin, daß in ihnen
bejaht wird, was ist (der Fall ist, Sein hat) oder verneint wird, was nicht ist.
Ersichtlich folgt er gerade in der Urteilslehre dem parmenideischen Forschungs-
programm: den Weg der Wahrheit und des Seins zu bahnen, und den Weg der
Täuschung und des Nichts kenntlich zu machen und zu vermeiden.
Um wahre oder falsche Behauptungen aufstellen zu können, muß man nach
Aristoteles wissen, was in der Wirklichkeit der Fall ist. Die Wirklichkeit wird, wie
oben schon gesagt, durch wahre Sätze „abgebildet“. Falsche Sätze aber stellen
Nichtwirkliches im Bilde des Wirklichen (täuschend, d. h. Abbilder vertauschend)
dar. Die Begriffe bilden selbst schon Substanzen und ihre Eigenschaften und
Verhältnisse ab, ohne daß damit eine Wahrheits- oder Falschheitsbehauptung
verbunden wäre. Diese kommt erst durch die verknüpfenden (satzbildenden)
Junktoren zustande. Wie dies geschieht, ist sowohl für Aristoteles wie für die
meisten Logiker seither rätselhaft oder gar ein mystisch zu nennendes Geschehen
geblieben. Denn die Junktoren sollen, wie Aristoteles ja meint, selber keine eigene
Bedeutung haben, vielmehr eine solche erst im Behauptungssatz erhalten.
Es dürfte dieses Mysterium der Junktoren gewesen sein, das moderne Logiker
wie Frege und Wittgenstein dazu geführt hat, sogar auch den Begriffen selbst jede
Bedeutung abzusprechen und zu behaupten, sie erhielten auch ihrerseits erst eine
Bedeutung durch den Satz, in dem sie vorkommen. Daß das blanker Unsinn ist
und die Logik mit schwersten Irrtumshypotheken belastet hat, dürfte auf der Hand
liegen. Wir sagten schon, Sinn und Bedeutung der Junktoren hat Aristoteles aus
dem sprachlichen Sinn dieser Sprachpartikel mit in die Logik übernommen. Nur
hat er nicht erkannt, worauf sie sich in den logischen Verhältnissen tatsächlich
beziehen. Und dies hängt wiederum mit seiner Behandlung der Begriffe als Ein-
heiten und der Verkennung ihres regulären Aufbaus aus Merkmalen und Um-
fängen zusammen.
Die Junktoren bedeuten in der Logik nichts anderes als die Verhältnisse, die
zwischen Merkmalen und Umfängen der Begriffe in Behauptungssätzen bestehen,
so wie sie mutatis mutandis auch die Verhältnisse zwischen sonstigen sprachlich
ausgedrückten Verhältnissen bedeuten. Aber diese Verhältnisse lassen sich in der
von Aristoteles erfundenen Formalisierung der logischen Verhältnisse nicht dar-
stellen (wohl aber in der eingangs vorgestellten pyramidalen logischen Notation,
in der sich zeigt, daß auch unter den Junktoren einige Synonymien und Homony-
mien bestehen).
234
dem Widerspruch. Formal kann man die konjunktiven Urteile auch leicht als
Widersprüche konstruieren, wenn man ein Ausdrucksglied mit seiner Negation
verbindet. In diesem Falle wird zwar rein formal darstellbar, daß der falsche
Bestandteil des Urteils entweder im positiven oder negativen Glied (aber auch hier
ist logisch nicht entscheidbar, in welchem) liegt, gleichwohl gilt es insgesamt als
falsch.
Alles Gesagte aber setzt wiederum voraus, daß ein konjunktives Urteil sicher
dann wahr ist, wenn alle Glieder in gleichem Sinne als „wahr gelten“, und das
wiederum muß empirisch gewußt werden, so daß auch sein formales Notat als
wahres Urteil gilt. Und ebenso wird allgemein vorausgesetzt, daß ein konjunktives
Urteil falsch ist, wenn alle seine Glieder in gleichem Sinne als „falsch gelten“.
β. Die distributiven bzw. disjunktiven Urteile verbinden zwei oder mehrere
Glieder im Subjekt oder Prädikat mittels des „oder“ zu komplexen Ausdrücken.
Wie in der üblichen Sprache hat das „oder“ in vielen Fällen dieselbe Bedeutung
wie das „und“ und ist insofern mit ihm synonym. Deshalb kann man sehr oft
Sätze mit der Verbindungsfloskel „und/oder“ bilden. Die Sinnidentität bezieht
sich auf die Fälle, wo alle Glieder gemeinsam zutreffen und dann Wahres
ausdrücken, und wo alle Glieder gemeinsam nicht zutreffen und dann Falsches
ausdrücken. Spitzt man nun aber das einfache „oder“ (später lateinisch als „vel“
bezeichnet) zum „entweder ... oder“ (lateinisch „aut“) zu, so ergibt sich eine Sinn-
differenz zum „und“.
Diese Art der Disjunktion nannte man später vollständige Disjunktion oder
Alternative. Alternativen sind Ausdrücke, die nur aus zwei gegensätzlichen (in
„vollständiger Disjunktion“ bzw. im Negationsverhältnis zu einander stehenden)
Gliedern zusammengesetzt sind, die ihrerseits einen Widerspruch bilden. Von die-
ser Art des „alternativen Widerspruchs“ dekretierte Aristoteles nun gerade das
Gegenteil des durch „und“ gebildeten Widerspruchs, und dies möglicherweise der
schönen Symmetrie wegen.
Ein alternatives Urteil sei demgemäß insgesamt wahr, wenn das eine Glied als
wahr und das andere als falsch gelte. Auch dieses aristotelische Dekret von der
Wahrheit der Alternative wurde in der Logik zu einem Dogma. Und ersichtlich
sind die Folgen ebenso verheerend wie diejenigen der dekretierten Falschheit des
Widerspruches. Denn wenn eine Alternative mit einem falschem Glied wahr ist,
werden die falschen Satzbestandteile, wenn man nicht weiß, welches Glied der
Alternative wahr und welches falsch ist, leicht unbesehen ebenfalls zu Wahrheiten
erklärt.
Auch die Alternative hat unter den logischen Urteilsformen eine seither bevor-
zugte Stellung gefunden, weil sie nach aristotelischer Festsetzung eine Notation
aus rein logischen Gründen immer wahrer Urteile erlaubt, die man ohne Hinblick
auf und ohne Kenntnis der Wirklichkeit behaupten könne, ebenso wie der
Widerspruch aus rein logischen Gründen als immer falsch gilt.
Dazu muß allerdings bemerkt werden, daß die Stoiker später auch für die Alter-
nativen falsche Wahrheitswerte feststellten: sie seien dann falsche Urteile, wenn
238
beide Glieder zusammen wahr und auch wenn beide zusammen falsch seien (und
diese Festlegung ist in der neueren Logik kanonisch geworden). Abgesehen
davon, daß man dies wiederum empirisch am Beispiel wissen muß und die Alter-
native dadurch wieder ihren rein logischen Wahrheitsstatus verliert, wird man sich
fragen, ob das, was man hier für eine falsche Alternative hält, nicht vielmehr
keine Alternative ist.
Aristoteles hätte allenfalls den ersten Fall, daß beide Glieder zugleich wahr sind,
als möglichen Grenzfall zugelassen (man kann die oben zitierte Passage aus der
Hermeneutikschrift darauf beziehen), z. B. wiederum im Falle einer partikulären
Alternative: „Einige Lebewesen sind entweder Tiere oder nicht Tiere“, was offen-
sichtlich beides wahr ist. Aber in diesem Falle würde es sich nach unserem Vor-
schlag wiederum nicht um ein behauptendes Urteil, sondern um eine Definition
handeln: „Einige Lebewesen, d. h. entweder die Tiere oder die Nicht-Tiere (Pflan-
zen)“.
γ. Die sogenannten hypothetischen Urteile verbinden Subjekt und Prädikat
durch „wenn ... dann...“. Dies kann auch zusammen mit der Kopula (oder mit „es
gibt“, welches Aristoteles als Kopula ohne Prädikat behandelte: „A ist“) oder mit
dem „Zukommen“ geschehen und stellt eigentlich dann erst klar heraus, daß es
sich um behauptende Urteile handeln soll. Man bemerke aber, daß in diesem Falle
nicht ein Urteil gebildet wird, sondern zwei Urteile miteinander verbunden wer-
den, was dann schon zur Schlußlehre überleitet. Aristoteles hat reichlich davon
Gebrauch gemacht und wohl am meisten in dieser Urteils- bzw. Schlußform
argumentiert.
Werden nur Subjekts- und Prädikatsbegriff so verknüpft, so kann man sehr in
Zweifel sein, ob es sich um ein gemeintes Urteil oder um einen Ausdruck handelt,
der keinen Wahrheitswert hat. Wir sagten schon, daß Aristoteles selber logische
Ausdrücke als Begriffsverknüpfungen nicht thematisiert hat, und zwar, weil er das
Ineinandergreifen der Intensionen und Extensionen im Gattungs-Art-Unterart-
gefälle der Begriffe nicht durchschaut hat. In pyramidaler Notation wird dieses
sichtbar und erklärt unmittelbar anschaulich die Bedeutung der so gebildeten
Ausdrücke: „Wenn Gattung dann Art“ (Subsumption eines Artbegriffs unter seine
Gattung, formale Implikation), „Wenn Art, dann Gattung“ (Implikation des ge-
nerischen Gattungsmerkmals im Artbegriff, materiale Implikation) und „Wenn
Art dann Nebenart“ (Korrelation von Artbegriffen unter gemeinsamer Gattung
oder auch unter verschiedenen Gattungen). Man sieht hier, daß das „wenn ...
dann...“ dreierlei Bedeutung annehmen kann, die jeweils die Verbindung von Gat-
tung zur Art, von der Art zur Gattung und von einer Art zu einer Nebenart, d. h
die überhaupt möglichen Verhältnisse zwischen Begriffen, bezeichnen. Da
Aristoteles durch seine Formalisierung ganzer Begriffe (Wenn A dann B) diese
Strukturen geradezu verdeckt, erkannte er den logischen Grund dieser verschie-
denen Bedeutungen des „wenn ... dann“ nicht.
Ein weiteres kommt hinzu. Da er das „wenn ... dann“ als Urteilsverknüpfung be-
handelte, bemerkte er auch nicht den Unterschied zwischen grammatisch behaup-
239
tender Form des „(immer) wenn ... dann“ und grammatisch nichtbehauptender
Konjunktivform „falls ... so wäre...“. Diese Nichtunterscheidung hat ihren Grund
in seiner Modallehre von den „Möglichkeiten“. Denn hier redete er ja selber stän-
dig in hypothetischen Sätzen des „irrealen“ Typs: „Gesetzt den Fall daß..., so
wäre...“.
Erinnern wir uns nun daran, daß Aristoteles‟ Urteilslehre darauf abgestellt war,
durch wahre behauptende Urteile die Wirklichkeit abzubilden und falsche Urteile
als Abbildung von Scheinwirklichkeit (d. h. eigentlichem Nichts) kenntlich zu
machen und von den wahren Urteilen zu unterscheiden. Und das hätte dazu führen
müssen, die konjunktivischen Sätze, mit denen man Vermutungen formuliert, aus
der Logik auszuscheiden. Nur die (echten, behauptenden) Wenn ... dann-Urteile
(in Verbindung mit Kopula, Existenzjunktor „es gibt“ und „Zukommen“) kann
man auf ihre Wahrheit und Falschheit hin prüfen und unterscheiden.
Es ist klar, daß jede der oben unterschiedenen drei Implikationsformen jede für
sich in der geschilderten Anwendung wahre Urteile liefert, in jeder anderen aber
falsche. Aber diese Unterscheidung konnte Aristoteles nicht machen. Die unech-
ten (eigentlich im grammatischen Konjunktiv zu formulierenden) „hypothetischen
Urteile“ (mit: „falls ... so wäre ...“) sind aber in allen Gestalten als falsche Urteile
einzuordnen. Denn man weiß ja, wenn man sie als Sätze formuliert und gebraucht,
daß die Wirklichkeit sich gerade nicht so verhält, wie sie es darstellen. („Falls
Sokrates Flügel hätte, dann würde er fliegen“ lautet ein in der Antike verbreitetes
Beispiel). Es wird jedoch in logischen Lehrbücher meist in der Behauptungsform:
„Wenn Sokrates Flügel hat, denn fliegt er“ kolportiert. Aristoteles ließ die Ver-
mutungsform auch, ohne diesen grammatischen Unterschied zu beachten, als
falsche Urteile zu und übernahm von Philon von Megara (nicht mit dem späteren
Neuplatoniker Philon von Alexandria zu verwechseln) die Festlegung, „hypo-
thetische Urteile“ mit zwei falschen Teilsätzen seien wahr.
Das kann man einen der erstaunlichsten Vorschläge nennen, die in der Logik je
gemacht wurden. Er ist umso erstaunlicher, als er nachmals undiskutiert als
Dogma festgehalten wurde. Er erlaubte es seither, in der Logik über alles und
jedes als „logische Möglichkeiten“ zu spekulieren und sich zugleich bewußt zu
bleiben, daß man sich dabei über alle Wirklichkeit in luftige „mögliche Welten“
begab, die aus lauter „kontrafaktischen“ Falschheiten gesponnen waren. Die Ak-
zeptanz fiel den Logikern offenbar deshalb so leicht, als sie ja mit Aristoteles auch
den Widerspruch als falsch, wenn ein Teilsatz wahr, und die Alternative als wahr,
wenn ein Teilsatz falsch sei, angenommen haben. Warum also nicht auch die
implikative Urteilsform, in der beide Teilsätze falsch sind?
Da Aristoteles nun sowohl die aus wahren wie die aus falschen Teilsätzen zu-
sammengesetzten hypothetischen Urteile für wahr hielt, blieb die Suche nach der
Form falscher hypothetischer Urteile bei ihm auf die Kombinationsform von
wahren und falschen Teilsätzen beschränkt. Man kann nur feststellen: er entschied
sich dafür, die Form mit falschem Vordersatz und wahrem Hintersatz ebenfalls für
wahr zu halten. Aus Falschem läßt sich in der Logik seither auf beliebige Wahr-
240
heiten schließen! Einzig die Form mit wahrem Vordersatz und falschem Hinter-
satz erklärte er – wiederum mit den Megarikern - für falsch. Auf Falsches kann
man seither aus beliebigen Wahrheiten schließen! Daß es sich auch dabei um
Dogmen der Logik handelt, die von Aristoteles und auch von Späteren in keiner
Weise begründet wurden, dürfte auf der Hand liegen. Sie erlauben es seither den
Logikern, ganze Bücher voller „hypothetischer“ Lügen für pure logische Wahr-
heiten zu erklären, gleichgültig, ob nun auch der einzige Endsatz (als Resultat
bzw. Konklusion) falsch oder zufällig wahr ist (Vgl. dazu die Interpretation des
„ex falso sequitur quodlibet“ und „verum sequitur ex quolibet“ in § 9).
In den Überlegungen zu den Urteilen finden sich auch die Ausgangspunkte für
das, was später als Modallehre ausgestaltet wurde und in der modernen Logik
geradezu als selbständige Disziplin auftritt. In der Hermeneutikschrift bemerkt
Aristoteles – vorangegangene Überlegungen zusammenfassend – „Bei gegenwär-
tigen und vergangenen Dingen muß also Bejahung oder Verneinung immer ent-
weder wahr oder falsch sein ... Bei Einzelfällen ist es aber auch dann nicht mehr
ebenso, wenn sie in der Zukunft liegen. Denn wenn hier jede Bejahung oder
Verneinung entweder wahr oder falsch sein müßte, dann müßte auch alles mit
Notwendigkeit entweder eintreten oder nicht eintreten“.122
Man kann daraus entnehmen, daß Aristoteles die prognostischen Aussagen über
Zukünftiges (die possibilia futura) hinsichtlich ihrer Wahrheit oder Falschheit für
unentscheidbar gehalten hat. Das wäre eigentlich ein Grund gewesen, Prognosen
ebenso wie die konjunktivischen Vermutungen (was Prognosen in der Regel sind)
nicht für behauptende Aussagen zu halten und sie deswegen aus der Urteilslehre
auszuscheiden. Erst die Stoiker haben aber auf Grund ihres Universaldetermi-
nismus auch Prognosen für echte Urteile mit Notwendigkeitscharakter gehalten
und in den Chrysippischen „Indemonstrablen“, den Schlußformeln (besonders der
ersten als „modus ponens“ und in der zweiten als „modus tollens“) dargestellt.
Und so dürften sie es gewesen sein, die die Unterscheidung von Notwendigkeits-
und Möglichkeitsurteilen (sowie die Wirklichkeitsurteile als Beispielsfälle) zu
einer besonderen Modallogik ausgearbeitet haben.
Halten wir noch einmal fest, worauf es Aristoteles in der logischen Urteilslehre
ankam und womit er auch einige falsche Weichenstellungen in der Logikge-
schichte initiierte.
1. wollte er diejenigen sprachlichen Satzformen feststellen, die durch ihren Be-
hauptungscharakter Wahrheit und Falschheit - und nur diese - darzustellen er-
lauben. Das ist ihm nur teilweise gelungen. Zum einen blieb der Unterschied zwi-
schen nichtbehauptender Definition (später als Äquivalenz meistens als behaup-
tendes Urteil behandelt, so vor allem in der Mathematik der Gleichungen) und
eigentlichem Behauptungsurteil ungeklärt. Zum andern hat er unter der Form der
hypothetischen bzw. implikativen Urteile auch nichtbehauptende (im gramma-
122
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 18 a. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 94f.
241
die Definitionen bzw. die mathematischen Gleichungen) als Gestalten rein logi-
scher Wahrheit angesehen hat, denn sie kommen als Prämissen oder Schlußsätze
in seinen Syllogismen vor.
Offensichtlich verstand er selbst den Übergang von der Empirie der Beispiele zu
den rein logischen Urteilsformen als genügende Begründung dafür, die logische
Falschheit des Widerspruchs und die logische Wahrheit der Alternative grund-
sätzlich von der (durch Negation gebildeten) inhaltlichen Wahr-Falschheit der
Teilsätze zu unterscheiden und abzugrenzen.
Die Logiker sind ihm mit den Stoikern darin auch durchweg gefolgt, und in der
neueren Logik wurde die semantische Meta-Theorie der Sinnebenen geradezu da-
zu erfunden, diesen Unterschied herauszustellen. Sie erlaubt seither den Logikern
zu argumentieren, daß so manches inhaltliche Satzbeispiel sachlich falsch, aber
seine formale Gestalt rein logisch wahr und umgekehrt sein könne. Wir haben
unsere Bedenken gegen diese Sicht der Dinge (und somit gegen die Homonymität
der Wahrheitswertbegriffe) schon in § 9 deutlich gemacht.
d. Die Schlußlehre. In der Lehre vom Schluß gipfelt die aristotelische Logik.
Sie ist zugleich Beweistheorie für die Wahrheit von Urteilen (oder für ihre Falsch-
heit). So ist sie auch die Hauptmethodologie für die kritische Überprüfung sprach-
licher Kontexte und für die Gewinnung neuer Urteile aus dem Kontext schon
vorhandener.
Ein Schluß (syllogismos ó, lat.: ratiocinatio, ratiocinium, discursus)
ist eine Verbindung von Urteilen derart, daß daraus ein neues Urteil gebildet wer-
den kann.
Im einfachsten Fall gewinnt man nach Aristoteles aus allgemeinen Urteilen
durch Subalternation spezielle „partikuläre“ Urteile. Das hat man bis heutzutage
als „logisches Theorem der partikulären Urteile“ festgehalte. Es lautet: „Aus
einem allgemeinen Satz läßt sich ein partikulärer Satz ableiten, der dieselbe Quali-
tät sowie dasselbe Subjekt und Prädikat hat.“ 123 Ein Beispiel dafür wäre: “alle
Menschen sind sterblich”, daraus folge: “einige Menschen sind sterblich” (und
„Sokrates ist sterblich”).
Wenn die Partikularisierungen jedoch tatsächlich wahre Urteile wären, müßte
man (als Gegenprobe) ebenso „wahr“ schließen können: „einige Menschen sind
unsterblich bzw. nicht sterblich“ (und auch: „alle Menschen außer Sokrates sind
unsterblich“). Aber abgesehen davon, daß die „Sterblichkeit“ in Logiklehrbüchern
noch nie als „dialektisches Prädikat“ erkannt worden ist (die Tote und Lebendige
zugleich umfaßt), zeigt sich an der „Gegenprobe“, die bei einer Partikularisierung
ebenfalls gefolgert werden kann, daß es sich nicht um Urteile, sondern um Defini-
tionen dessen handelt, was als „einige“ und „ein“ nur unbestimmt ausgedrückt
wird und deshalb genauerer Bestimmung bedarf.
123
K. Ajdukiewicz, Abriß der Logik, Berlin 1958,S. 117. – „Qualität des Urteils“ bedeutet bejahend oder verneinend.
243
Eine einfache Schlußform ist auch schon das hypothetische wenn … dann …-
Urteil. Wie oben dargelegt, erlaubt es einen einfachen Schluß von einem wahren
Satz auf einen anderen wahren Satz, und (die kontrafaktischen Vermutungen
einschließend) auch von einem falschen Satz auf einen falschen Satz, ja sogar von
einem falschen Satz auf einen wahren Satz. Nur der Übergang vom Wahren zum
Falschen wird dadurch als „unwahr“ bzw. unzulässig ausgeschieden.
Auch dazu ist zu bemerken, daß solche einfachen Schlüsse für praktische
Anwendungen gänzlich abwegig sind, wohl aber zu allen Zeiten einer phantasti-
schen Spekulation Tür und Tor geöffnet haben, weil durch Aristoteles dazu eben
eine logische Schlußform als „wahrheitsverbürgend“ zur Verfügung stand. Was
davon zu halten ist, wurde schon in § 9 bei Gelegenheit der Kritik der „Aussagen-
logik“ behandelt.
Interessanter und exemplarisch sind die syllogistischen Regelfälle, in denen aus
je zwei Urteilen ein neues drittes gebildet wird. Diese hat Aristoteles zum Gegen-
stand seiner Analysen gemacht und die Regel aufgestellt, nach de