Sie sind auf Seite 1von 20

Weitere Vertiefungen zu:

KUNSTLICHE
INTELLIGENZ
und Bernhard Nebel
Gunther
Gorz

3. November 2003

Kognition
Mit Kognition werden die geistigen Leistungen des Wahrnehmens, Denkens und
Vorstellens bezeichnet, in Abgrenzung von anderen mentalen Bereichen etwa
des Fuhlens,
der Affekte oder des Wollens. Diese psychischen Prozesse entspre

chen der ersten der drei geistigen Vermogen


(Erkenntnis, Gefuhl
und Wille) der
traditionellen Psychologie. Aufgrund ihrer Orientierung an der naturwissenschaftlichen Methodik wird in der kognitiven Psychologie die Frage des Bewutseins i.d.R.
nicht thematisiert.

In der zweiten Halfte


des 20. Jahrhunderts hat sich die Kognitionswissenschaft
Disziplin etabliert, in der Philosophen, Psycholoals eine neue interdisziplinare
gen, Sprachwissenschaftler, Neurowissenschaftler und Informatiker zusammenar Vorgehensweise wird als unumganglich

beit; eine interdisziplinare


fur
eine adaqua
te Beschreibung und Erklarung
mentaler Prozesse angesehen. In Anlehnung an
die Konzeption kognitiver Theorien in der Psychologie versteht sich die Kognitionswissenschaft als nicht behavioristisch. Kognitive Theorien betonen die Bedeutung der nicht ausschlielich auf rein physiologische dem behavioristischen
Reiz-ReaktionsSchema entsprechende Mechanismen zuruckf
sprach uhrbaren

lich symbolischen Vermittlung beim Erkennen und Verstehen einer Situation und
bei der Bildung der auf sie gerichteten Intentionen, d.h. Erwartungen und Zwecksetzungen.
Zusammenarbeit ist eine
Voraussetzung fur
eine fruchtbare interdisziplinare

gemeinsame methodische Basis und Ubereinstimmung


in gewissen Grundannahmen. Eine zentrale Arbeitshypothese ist die von Newell sogenannte Physical Symbol Systems Hypothesis. Sie postuliert einen Typ von formalen Verarbeitungsmodellen, die physisch als kognitive Systeme realisiert sind und die ihrerseits aus
zwei Komponenten bestehen: symbolischen Strukturen, die untereinander in Beziehung stehen, und Methoden, die auf symbolischen Ausdrucken
operieren.

Letztere dienen zur Generierung neuer und zur Modifikation, Reproduktion und

Loschung
vorhandener Strukturen. Solche Systeme, so Newell, besitzen notwendige und hinreichende Mittel fur
intelligente Aktion. Hierdurch hat die Kognitionswissenschaft eine gemeinsame Basis mit der klassischen KI und deshalb sind die
beiden Disziplinen auch besonders eng und intensiv aufeinander bezogen.
Aufbauend auf der Konzeption des abstrakten Universalrechners ( Computer

paradigma) wird in der Kognitionswissenschaft eine eigene Reprasentationsebe


ne postuliert (vgl. Wissensreprasentation),
auf der kognitive Prozesse operieren.
Damit ist der Rahmen abgesteckt, innerhalb dessen die methodischen Prinzipien
der Kognitionswissenschaft entwickelt wurden. Von besonderer Bedeutung sind

hier Explizitheit und empirische Fundierung. Erstere verlangt eine vollstandige


Operationalisierung bei der Modellbildung, die ihrerseits eine unverzichtbare Vor
aussetzung fur
ufung
kognitionswissenschaftlicher Theorien
die empirische Uberpr

ist. Neben die lebensweltlich beobachtende und durch Laborbedingungen be


stimmte experimentelle Datenerhebung tritt die durch computergestutzte
Simulati

on, welche sich gegenseitig erganzen.


Die wichtigsten Bereiche der kognitiven Modellierung und damit Untersuchungsgegenstand der Kognitionswissenschaft sind Prozesse
der visuellen und akustischen Wahrnehmung und des Erkennens,

der Kodierung, Speicherung und des Erinnerns, also der Gedachtnisorgani-

sation
des Lernens und des Wissens,

des Problemlosens
und des Schlieens,
des Sprachverstehens und
der motorischen Steuerung.
Dabei kommt der Wechselwirkung dieser Prozesse untereinander und mit der Umwelt im Sinne einer Gesamtschau besondere Bedeutung zu.
Kognitive Prozesse entwickeln und ereignen sich im sozialen Kontext und stehen mit ihm in unmittelbarer Wechselwirkung. So lag es nahe, Entscheidungsprozesse in komplexen Organisationen als Schlufolgerungsprozesse zu verstehen,
so dass die Analyse der von Personen an unterschiedlichen Positionen innerhalb

einer Organisation zugrundegelegten Pramissensysteme


Prognosen uber
die an
stehenden Entscheidungen erlaubt (Administrative Behavior von H.A. Simon, Nobelpreis fur
Wirtschaftswissenschaften 1978). Damit ist die Kognitionswissenschaft
auch unmittelbar relevant fur
den Entwurf und Einsatz entscheidungsunterstutzen
der sowie kommunikations- und handlungsunterstutzender
Systeme der Informati
onsverarbeitung.

Das Leib-Seele-Problem
Das Leib-Seele-Problem ist ein Beispiel fur
ein klassisches philosophisches Problem, das im Zusammenhang mit dem Computermodell des Geistes in der KI und
der Kognitionswissenschaft aufgegriffen und intensiv diskutiert wurde. Es geht dabei um die Frage nach der Wechselwirkung zwischen leiblichen und seelischen

Vorgangen,
weshalb man auch vom psychophysischen Problem spricht. Wahrend
man in Antike und Mittelalter Leib und Seele als eine Einheit verstand, hatte Des
cartes eine Tennung in zwei Substanzen, die korperliche
(res extensa) und die
seelische (res cogitans) vorgenommen. Wenn wir ubrigens
im Folgenden vom

Korper-Geist-Problem
sprechen, wie es heutzutage ublich
ist, mussen
wir uns

vor Augen halten, dass damit eine Verengung erfolgt, denn weder bezeichnen Leib

und Korper
dasselbe, noch Seele und Geist.

Descartes Dualismus wirft in verscharfter


Form die Frage nach der Interaktion

des ausgedehnten Korpers


mit dem nicht ausgedehnten Geist auf, die er als Kau
salbeziehung postuliert, jedoch in keiner Weise befriedigend erklaren
konnte. Als
Schnittstelle sah er die Zirbeldruse
im Gehirn an: Der Geist wird nur von diesem

Teil des Korpers


unmittelbar beeinflut. Fur
ihn bestehen alle Empfindungen aus

Bewegungen im Korper,
die uber
die Nerven in die Zirbeldruse

gelangen und dort


dem Geist ein Signal geben, das ein bestimmtes Ereignis hervorruft.
Wie auch immer man den dualistischen Ansatz weiterzudenken versucht, landet man entweder bei Widerspruchen
oder bei einem unendlichen Regress was

wir hier jedoch nicht weiter vertiefen konnen


, dennoch hat er unser alltagspsy
chologisches Reden und Erklaren
zutieft beeinflut.
In unserem Zusammenhang ist interessant, inwieweit der kognitionswissenschaftliche Diskurs neues Licht auf das psychophysische Problem werfen konnte.

Der am ehesten einschlagige


unter den neuen Ansatzen
ist der Funktionalismus

von Hilary Putnam u.a. Fur


die funktionalen Zustande
ihn sind mentale Zustande
eines Systems. Sie werden durch ihre kausale Rolle bestimmt, durch ihre Ver
netzung mit anderen Zustanden
und mit den Ein- und Ausgaben des Systems.
Beispielsweise bedeutet Schmerzen zu haben nicht, ein bestimmtes Verhalten zu
zeigen oder in einem bestimmten organischen Zustand zu sein, sondern einen
funktionalen Zustand, mit dem das Ziel verbunden ist, ihn loszuwerden. Was auch
immer diese kausale Rolle spielt, gilt als Schmerz (vgl. [1]).

Mentale Zustande
konnen
wie die Zustande
einer Turing-Maschine in verschiedenen Organismen auf unterschiedliche Weise realisiert sein. Insofern ist
der Funktionalismus kompatibel mit dem Computermodell des Geistes. Andere

Autoren gehen noch weiter, indem sie mentale Zustande


als solche funktionalen

Zustande
definieren, denen eine bestimmte, z.B. biologische, Funktion fur
das Sy
stem zugeschrieben werden kann. Da in diesem Zusammenhang der Korper
zu
meist auf das Gehirn reduziert wird (!), ergibt sich ein Verhaltnis
von Gehirn zu
Geist wie das von Hardware zu Software, und geistige Eigenschaften werden zu
abstrakten Informationsverarbeitungs-Eigenschaften des Gehirns. Verknupft
man

diese Position mit der These des sog. reduktiven Materialismus, namlich
dass gei

stige Zustande
Hirnzustande
und nichts anderes sind, hat man lediglich eine Va
riante der starken KI-Hypothese formuliert. Eine Erklarung,
wie Wahrnehmungen,

Gefuhle,
Uberzeugungen,
Wunsche,
Absichten unser Verhalten lenken konnen,

wenn zugleich wahr ist, da dieses Verhalten luckenlos


physisch verursacht ist, ist

damit nicht gewonnen.

Nun mag man einwenden, das Computermodell des Geistes solle gar nicht

eine solche Erklarung


liefern, sondern es ginge im Hinblick auf die Mensch
Maschine-Interaktion um eine Analogie: Maschinen mentale Zustande
zuzuschrei

ben hiee dann nicht, zu behaupten, sie hatten


mentale Zustande.
Die Maschinen

verhielten sich aber so, als ob sie sich in entsprechenden mentalen Zustanden

befanden;
tatsachlich
haben sie aber keine mentalen Zustande,
weil sie nichts
bewut erleben oder nicht das bewut erleben, was ein Mensch dabei bewut
erlebt. In diesem Sinne verhielte sich die KI als empirisches Forschungsprojekt

neutral. Sie machte keine Aussagen daruber,


wie ahnlich
uns ein anderes Lebe
wesen oder ein kunstliches
System in seinem Verhalten, in seinen physikalischen

und chemischen Eigenschaften sein muss, damit wir von ihm sagen, es habe men
tale Zustande.

Mit einer derart abgeschwachten


Position geben sich aber zumindest einige
Hirnforscher nicht zufrieden doch ist gegenuber
vorschnellen Schlussen
Vor

sicht geboten. Inzwischen kann als unbestritten gelten, dass kognitive Prozesse

der Wahrnehmung und des Denkens stets mit messbaren Gehirnaktivitaten


korreliert sind, was Messungen mit bildgebenden Verfahren wie z.B. der PositronenEmissions-Tomographie (PET) belegen. Die Feststellung einer Korrelation ist allerdings etwas ganz anderes als die einer Kausalbeziehung. Zur Aufstellung eines
Kausalgesetzes bedarf es einer theoretischen Begrundung,
die bestenfalls durch

eine beobachtete Korrelation gestutzt


werden kann. Und es ist keineswegs klar,

ob dies mit endlichen Mitteln erreichbar ist. So hat der Hirnforscher Gerhard Roth
in einem Artikel (Die Zeit Nr. 14 vom 29.3.1996, s.a. [2]) ausgefuhrt:
Die Hirn

forschung steckt, sofern sie sich auf das Geist-Gehirn-Problem einlat,


in einem
tiefen Dilemma: Sie muss in einer mentalistischen Sprache reden, sonst entge

hen ihr genau die Phanomene,


die es zu erklaren
gilt. Gleichzeitig muss sie sich
in naturwissenschaftlichen Begriffen ausdrucken,
denn im Gehirn geht es nun ein
mal physikalisch-physiologisch zu. . . . In der Psychologie . . . glaubt man, kognitive

Prozesse ohne Ansehen des materiellen Substrats beschreiben zu konnen.


Dies
entspricht genau
ist jedoch ein schwerwiegender Irrtum. Jeder geistigen Aktivitat

ein neuronaler Prozess . . . , und jeder Veranderung


des Gedankens entsprechen

strukturelle und funktionelle Veranderungen


im Verschaltungsmuster von Nervenzellen. Die Architektur des Gehirns bestimmt seine kognitiven Leistungen, und ko
gnitive Leistungen durch das limbische System bewertet verandern
die Architektur des Gehirns. Fur
diese Nichtabtrennbarkeit von Geist eine gemeinsame

psychoneuronale Begriffs- und Erklarungssprache


zu finden ist die grote
Herausforderung an beide Disziplinen. Sie wurde
den eigentlichen Schritt uber
Decartes

hinaus darstellen. . .

Zur Entwicklung der Logik


Traditionell umfasst die Logik die Lehre vom Begriff (wie wird korrekt definiert?),
die Lehre vom Urteil (wie werden Aussagen gebildet?) und die Lehre vom Schluss
(was ist eine korrekte Folgerung?); die moderne formale Logik hat i.W. den dritten

Aspekt in den Fokus genommen, wahrend,


wie wir noch sehen werden, fur
die KI
die beiden anderen ebenso wichtig sind. Aristoteles, der Vater der Logik, geht von

Schlussen
folgender Art aus: Alle Griechen sind Menschen und Alle Menschen

sind sterblich, folglich Alle Griechen sind sterblich und nennt einen derartigen

Schluss einen logischen Schluss, weil es bei ihm nicht auf den Inhalt der Worter
Grieche, Mensch und sterblich ankommt, sondern nur auf die Form der Aussa

gen. Wenn wir die Worter


Grieche durch die Aussagenvariable P, Mensch durch

Q und sterblich durch R ersetzen, erhalten wir das Schema des Schlusses:

Alle P sind Q und Alle Q sind R


folglich Alle P sind R
Aristoteles fragt dann allgemein nach solchen Aussageformen und nach den

Moglichkeiten,
von (wahren) Aussagen auf andere (wahre) Aussagen allein aufgrund der Form zu schliessen. Insgesamt kann er fur
Schlusse
vier
die gultigen

Formen identifizieren, die sog. Syllogismen. Uneingedenk der historisch uberra


genden Bedeutung der aristotelischen Syllogistik knupft
die moderne Logik sach

lich aber eher an die der Stoiker an. Diese hatten die Moglichkeiten
der Zusammensetzung beliebiger Aussagen und die Beziehungen zwischen solcherart zu
sammengesetzten Aussagen untersucht. Aus gegebenen Aussagen konnen
mit
den Junktoren nicht, und, oder und wenndann zusammengesetzte Aussa

gen gebildet werden. Die Logik dieser Junktoren (heute auch Aussagenlogik ge
nannt) befasst sich mit der Frage, wann aus so gebildeten komplexen Aussagen
auf Grund der Form allein auf andere Zusammensetzungen geschlossen werden

kann. Die aristotelische Logik bzw. zunachst


nur der von Boethius (um 500 n.Chr.)

uberlieferte
Teil fuhrte
dann zu einer selbstandigen
und sehr reichhaltigen Weiter

entwicklung der Logik ab ca. 1150. Erst im 20. Jahrhundert hatte man erkannt,
dass sehr viele in der modernen Logik und Sprachphilosophie untersuchten Fra
gen bereits in der Scholastik intensiv diskutiert worden waren; hierzu gehoren
u.a.
Erweiterungen der Logik um modale und temporale Aussagen und logische Paradoxien.
Dies war aber mit dem Verfall der Scholastik in Vergessenheit geraten. An die
Stelle der Logik trat in der Neuzeit die Mathematik und diese kummerte
sich

nicht um die ihr selbst zugrundeliegende Logik, bis erst im 19.Jh. ein Wechsel
einsetzte. Die neuzeitliche Mathematik ist vor allem Analysis; der Analytiker deduziert nicht nach logischen Regeln, sondern er operiert mit seinen Formeln nach
den Regeln der Analysis selbst. Das war jedenfalls die Auffassung des 17. und
18.Jahrhunderts. Dass ein Mathematiker bemerkt, dass die Logik fur
sein eigenes
Denken entscheidend ist, ist die Ausnahme, z.B. bei Leibniz.
Das sog. Leibnizprogramm zur Schaffung neuen Wissens hat folgende Bestandteile: In dem von einer universellen Wissenschaftssprache aufgespannten
Rahmen soll es mit Hilfe einer characteristica universalis, einer universellen Zei
chenlehre, moglich
werden, einfache Begriffe eineindeutig auf Zeichen abzubilden.

Dadurch sollen Denkstrukturen in einem Zeichensystem reprasentiert


und Denk
prozesse durch Veranderung von Zeichenreihen ausgedruckt
werden. Die logica

inventiva oder Erfindungslogik soll ausgehend von einfachen Relationsaussagen


Schritt fur
Schritt alle Wahrheiten liefern. Der calculus ratiocinator ist ein Kalkul,
in
dem alle Folgerungsschritte durch syntaktische Umformungen von Zeichenreihen
erfolgen. In der Wissenschaft werden diese Mittel fur
die ars iudicandi und die ars
inveniendi eingesetzt. Die ars iudicandi oder Beurteilungskunst erlaubt, sachliche
Meinungsverschiedenheiten durch Ableitungen im Kalkul
beizulegen. Schlielich
dient die ars inveniendi dazu, neue Wahrheiten auf rechnerischem Wege zu ermitteln, eine Kunst, die mit der auf den mittelalterlichen Gelehrten Raymundus Lullus
zuruckgef
uhrten
Kombinatorik verbunden ist. Mit Leibnizens Konzeption der cogi

tatio symbolica wird die Rechenprozedur zu einem erkenntnistheoretischen Ideal


und fuhrt
zu einem Forschungsprogramm, das auch heute noch eine Leitlinie in

der KI und daruberhinaus


ist.

Erst Mitte des 19.Jh. beschaftigten


sich englische Mathematiker wie De Morgan und Boole aus Interesse an formalen Gesetzen der Algebra mit der tradierten
Syllogistik. Boole entwickelte zum dritten Mal in der Geschichte (er wusste weder
von der stoischen noch der scholastischen Logik etwas) die Logik der Junktoren
diesmal in algebraischer Form, die uns als Boolesche Algebra bekannt ist ( An In

vestigation of the Laws of Thought..., London, 1854). Den entscheidenden Schritt


zur modernen Logik machte dann Gottlob Frege mit seiner Begriffsschrift, eine der

arithmetischen nachgebildete Formelsprache des reinen Denkens (1879), in der


er neben den Junktoren erstmalig die Quantoren ( fur
alle, fur
einige) als logi

sche Partikeln zur Zusammensetzung von Aussagen in Betracht zieht. Diese neue

Quantorenlogik oft auch etwas missverstandlich


als Pradikatenlogik
bezeich
die Junktorenlogik und die aristotelische Syllogistik als Teilgebiete.
net enthalt
Sie kennt nicht nur Variablen fur
Aussagen, sondern auch Formeln, in denen Variablen fur
beliebige Individuen vorkommen, also parametrisierte Aussagen (Aussa

geformen). Allerdings ist die Frage nach der logischen Aquivalenz


solcher Formeln
im Unterschied zur Junktorenlogik und der Syllogistik nicht mehr allgemein
entscheidbar.
Der Mathematiker David Hilbert hatte 1900 in seiner beruhmten
Rede vor dem

Mathematikerkongress in Paris ein Forschungsprogramm der reinen Mathema


tik entwickelt, das auf eine vollstandige
Axiomatisierung und damit einen abge
schlossenen Kalkul
zielte. Dieses formalistische
fur
alle mathematischen Satze

Programm, das das Leibniz-Programm zumindest innerhalb der Mathematik realisieren wollte, stie auf heftige Kritik der Konstruktivisten und Intuitionisten un

ter den Logikern, die von aussermathematischen Grundbegriffen wie Konstruktion


oder Berechenbarkeit ausgingen. Die Formalisten hingegegen suchten nach einer
innermathematischen formalen Definition des Zahl- und Funktionsbegriffs, so beispielsweise in den beruhmten
Principia Mathematica (191013) von Russell und

Whitehead. Ein Ergebnis dieses heftig gefuhrten


Grundlagenstreits war das Schei
tern des formalistischen Programms einer umfassenden Axiomatisierung der Ma
thematik, was Kurt Godel
in zwei bahnbrechenden Arbeiten aufzeigte. In der ersten

Arbeit ( Die Vollstandigkeit


der Axiome des logischen Funktionenkalkuls,
1930)

hatte Godel
einen wesentlichen Baustein zum Hilbert-Programm geleistet, indem

er bewies, dass die Quantorenlogik (Pradikatenlogik


erster Stufe) vollstandig
und
widerspruchsfrei ist. Jeder logisch wahre Satz ist auch im Kalkul
ableitbar, also
formal beweisbar, und jede ableitbare Formel ist auch semantisch wahr. Bedauer
licherweise sind die damit erfaten Kalkulsprachen
nicht ausdruckskraftig
genug,

um etwa die Zahlentheorie zu formalisieren, was aber eine Voraussetzung zur For-

malisierung groer Teile der Mathematik ware.


In der zweiten Arbeit ( Uber
for

mal unentscheidbare Satze


der Principia Mathematica und verwandter Systeme

I, 1931) zeigte Godel,


dass ein vollstandiger
und widerspruchsfreier Abschluss

solcher Kalkule
ist. Jede derartige
im Hilbertschen Sinn prinzipiell nicht moglich

Kalkulsprache
lasst
stets Aussagen zu, die in dem vom Kalkul

modellierten Zahlenbereich inhaltlich wahr sind, aber nicht im Kalkul


abgeleitet und damit in ihm

nicht formal bewiesen werden konnen.


Wahrheit und Beweisbarkeit sind also zwei
verschiedene Begriffe, die sich zwar uberschneiden,
aber nicht zusammenfallen.

Turing-Maschine
Alan Turing entwarf einen abstrakten Computer, der jede Operation ausfuhren

kann, die ein Mensch mit Bleistift und Papier bewerkstelligen kann: Die TuringMaschine. Sie hatte statt eines Schreibblockes ein unbegrenzt langes Papierband, das in Schreibfelder unterteilt war, die je ein Zeichen (einschlielich des

Leerzeichens) aufnehmen konnen.


Die Maschine kann immer nur ein Feld des
Bandes bearbeiten, aber zum Bearbeiten der anderen Felder kann sie das Band
nach links oder nach rechts verschieben. Das gerade zur Bearbeitung anstehende Feld kann entweder mit einem Zeichen beschrieben werden, oder sein Inhalt

kann geloscht
werden, oder die Maschine geht zur Bearbeitung eines des Nachbarfelder uber.
Die Maschine selbst hat eine sehr einfache Struktur. Sie hat nur

ein Speicherfeld, das eine von endlich vielen, verschiedenen Zustandsnummern


speichern kann, und einem Programm, das aus einer Folge von elementaren Operationen besteht. Diese Operationen sind: Wenn im Zustand i das Zeichen x auf

dem betrachteten Feld steht, dann gehe zum Nachbarfeld nach links und speiche
re den Zustand j oder . . . gehe zum Nachbarfeld nach rechts . . . oder . . . losche

das Zeichen x und schreibe y . . . .. Turing hat gezeigt, dass seine Maschine ein
mathematisches Modell einer universellen Rechenmaschine ist, die bei geeignetem Programm jede auch mit Bleistift und Papier durchzufuhrende
Berechnung

ausfuhren
kann. Wir sprechen hier von Berechnung zunachst
in einem sehr all

gemeinen intuitiven Sinn, der alle Tatigkeiten


einschliet, die sich als schriftliche
Arbeit, also als Handlungen mit Zeichensystemen, ausfuhren
lassen. In der Fol
gezeit wurde bewiesen, dass das mathematische Modell der Turing-Maschine zu

allen bekannten Kalkulen


der Berechenbarkeit aquivalent
ist.

Der Turing-Test und das chinesische Zimmer


Turing hat mit seinem Imitationsspiel [4, 5] versucht, eine operationale Bestimmung der Intelligenz vorzulegen. In einem rein behavioristischen Versuchsaufbau
werden nur die Eingaben in eine Black Box und die Ausgaben aus ihr betrachtet.

Kann aufgrund der (fur


den Beobachter sinnvollen) Ausgaben nicht entschieden
werden, ob es sich um Resultate menschlicher oder maschineller Aktion handelt,
so soll der Black Box Intelligenz zugeschrieben werden, ganz gleich, ob hinter
ihr ein menschlicher Dialogpartner oder ein geeignet programmierter Computer
steckt. Dass dies nicht unbestritten bleiben wurde,
hat Turing bereits vorausgeahnt,

da er einige mogliche
Einwande
bereits selbst vorwegnahm und diskutierte. Doch
besteht bis heute keine Einigkeit uber
Sinn und Angemessenheit dieses Tests,

m.a.W., was denn gezeigt ware,


wenn er mit einer Maschine erfolgreich verliefe

wie eine umfangreiche Literatur belegt. Haufig


wird gesagt, dass das Turingsche Imitationsspiel ein geeignetes empirisches Verfahren sei, um die funktionale

Aquivalenz
eines Simulationsprogramms mit dem Original, dem menschlichen

Dialogpartner, zu zeigen. Dabei heien zwei Systeme funktional aquivalent,


wenn
sie wenn sie im mathematischen Sinn dieselbe Funktion realisieren, d.h. dieselbe
Abbildung von Eingaben auf Ausgaben zeigen. Als Verfahren zur Beurteilung von

Simulationsmodellen ist der Turing-Test zweifelsohne geeignet. Tests konnen


kein

Modell verifizeren, es aber auf seine Starken


und Schwachen
prufen.
Ist der Test

erfolgreich, spricht dies bestenfalls fur


die Simulationsmethode, kann aber keinesfalls die zugrundgelegte Theorie begrunden.
Dies ist aber etwas ganz anderes als

eine operationale Definition maschineller Intelligenz.

Eine naheliegende Frage ware,


ob es denn nur darauf ankommt, dass plausible Ausgaben vorliegen und nicht auch, wie sie zustande kommen. An dieser
Stelle hakt u.a. der Philosoph John Searle mit seiner Geschichte vom Chinesischen Zimmer ein, das eine Variante des Turingschen Szenarios ist. Gegeben ist

ein Zimmer, in das Blatter


hineingereicht werden, die Nachrichten in chinesischer

Sprache enthalten, und aus dem Zimmer werden werden wiederum Blatter
mit Antworten in chinesischer Sprache herausgereicht. Sind die Antworten bezuglich
der

hineingegebenen Nachrichten fur


einen Sprecher der chinesischen Sprache plausibel, kann man dann sagen, es liege ein System vor, das Chinesisch versteht?

Searle meint nein, denn es konnte


in dem Zimmer ein Mensch sitzen, der ohne
jede Kenntnis der chinesischen Sprache einfach anhand einer Tabelle, die fur
jede

mogliche
Eingabe eine passende Ausgabe angibt, ohne weiteres korrekte Antworten erzeugen. Diese Aufgabe kann auch von einem entsprechend programmierten
Computer wahrgenommen werden, denn es handelt sich um eine rein syntaktische Interaktion: Die Eingabezeichen mussen
nur ihrer Form nach richtig erkannt

werden, um passende Ausgabezeichen zu wahlen


auf ihren Sinn muss hierbei

keinerlei Bezug genommen werden. Selbst wenn es also gelange,


so Searle, ein
Programm zu schreiben, das sprachliche Interaktion perfekt simuliert, kann noch
lange nicht daraus geschlossen werden, dass damit inhaltliches Verstehen konstituiert wird. Liegt nicht mit der Tabelle, die im Zentrum des chinesischen Zimmers
steht, das in Regeln geronnene Chinesisch-Verstehen ihres Autors vor? Wohl ja,
aber die Ausfuhrung
der Regeln ist nur eine notwendige Bedingung fur

das Erbringen der Verstehensleistung. Nun wurde eingewandt, dass Searle stillschweigend
voraussetzt, dass ein System, das aus Teilen aufgebaut ist, deren jedes kein Chinesisch versteht, auch im Ganzen nicht Chinesisch verstehen kann. Zwar ist dieser

10

Einwand formal berechtigt, aber inhaltlich unbegrundet:


Die negative Behauptung,

namlich
einer Regel die Eigenschaft des Verstehens abzusprechen, ist unproblematisch im Unterschied zur positiven Behauptung. Denn fur
das Zusprechen
ein begrundetes
einer solchen Eigenschaft ware
Verfahren anzugeben, und das
selbe gilt fur
Systeme von Regeln. Hinter der Behauptung der Emergenz einer
Eigenschaft fur
ein System von Objekten, deren Teilen diese Eigenschaft nicht zukommt, steht eine Analogie aus der Systemtheorie. Es mussten
in unserem Fall

aber gute Grunde


notwendige und hinreichende Bedinungen namhaft ge
macht werden, inwiefern dies fur
die Eigenschaft des Verstehens gilt, und die sind
bis heute ungenannt geblieben.
Die Sache ist also nicht einfacher geworden: Sowohl Searle als auch die meisten seiner Kritiker haben sich in den Fallstricken der Sprache in der wir uber

das Gedankenexperiment sprechen verfangen. Das Problem der verschiedenen


Sprachebenen, der rein syntaktischen im Regelsystem und der semantischen, in
Searle hat einen
der wir uber
das bewute Verstehen sprechen, wird nicht gelost.

Ausweg versucht durch die empirische Behauptung, dass nur das Gehirn, das neuronale Medium, in der Lage ist, Bewutsein als emergente Systemeigenschaft zu
erzeugen. Damit tappt er aber in dieselbe Falle: Mit einer Verschiebung des Pro
blems in einen naturalistischen Erklarungsversuch,
der seinerseits noch komplexer

ist und viele neue ungeklarte


Fragen aufwirft, konnte
er erst uberzeugen,
wenn er

seine Behauptung durch ein nachvollziehbares Verfahren stutzt.

Gibt es Alternativen? Wir meinen ja: Gerade der Vorschlag einer pragmatischen
Verankerung des Verstehensproblems, also im lebensweltlichen Handeln (s. Kapitel Sprachverarbeitung), erlaubt uns eine kritische Sichtweise auf den Turing-Test
und schliet den Kreis zur These am Ende des Einleitungskapitels. Es geht nicht
darum, einer Black Box Intelligenz zu- oder abzusprechen, sondern Intelligenz konstituiert sich wenn uberhaupt
in der Interaktion.

11

Sprechakttheorie

Die Sprechakttheorie postuliert eine kommunikative Kompetenz, die die Fahigkeit

zur Verwendung von Auerungen


in Sprechhandlungen zum Gegenstand hat und
fragt nach einem fundamentalen System von Prinzipien und Regeln, uber
das

Sprecher und Horer verfugen,


soweit sie die Bedingungen fur

eine erfolgreiche Ver


wendung von Auerungen
in Sprechhandlungen erfullen.
So unterscheidet Aus

tin konstative Auerungen


(Behauptungsauerungen),
die wahr oder falsch sein

konnen,
und performative Auerungen,
welche gelingen konnen
oder auch nicht,
wobei die Frage der Wahrheit bei ihnen keine Rolle spielt. Diese Unterscheidung
rekonstruiert er als verschiedene Aspekte ein und derselben Sprechhandlung:

Akte: das Auern

lokutionare
von Wortern
und Satzen;
propositionale Akte: Bezugnahme (Referenz) auf Objekte und Beziehungen

zwischen Objekten (Pradikation);


Akte: z.B. Behaupten, Fragen, Versprechen, Informieren etc. als
illokutionare
Intention oder Redeabsicht;
Akte: Konsequenzen des illokutionaren

perlokutionare
Aktes beim Horer,
die
Wirkungen auf ihn haben, d.h. das, was er versteht und im Ergebnis tut.
In der Betrachtung des Sprechakts als Grundeinheit der Kommunikation versucht Searle, analytische Beziehungen herzustellen zwischen dem Sinn von

Sprechakten, dem was der Sprecher meint, dem, was der geauerte
Satz be
deutet, dem, was der Sprecher intendiert, dem, was der Zuhorer
versteht, und
den Regeln, die fur
die sprachlichen Elemente bestimmend sind [3]. Er formuliert

notwendige und hinreichende Bedingungen fur


bestimmter Satze
als
das Auern

regelgeleitete Ausfuhrung
illokutionarer
Akte und betont dabei besonders den in
tentionalen Charakter der Sprache. Indem man spricht, verfolgt man die Intention,

sich anderen verstandlich


zu machen. Solches Sprechen ist ohne vorgangig
ihm

zugehorende
normative Konventionen und Institutionen nicht moglich.
Die
Sprachtheorie ist damit Teil einer allgemeinen Handlungstheorie.
Dies steht im Einklang mit Erkenntnissen der Soziolinguistik, dass sich der
Gebrauch der Sprache mit der Situation, den Beziehungen und Absichten der

Kommunikationspartner verandert.
Die Redepartner sind in der Lage, die Intentio

nen und die spezifischen Fahigkeiten


ihres Gegenuber
einzuschatzen
und danach

ihr kommunikatives Handeln zu differenzieren. Wenn auch unterschiedlich ausge


pragt,
so besitzt doch jeder Teilnehmer an der Sprachgemeinschaft uber
ein Re

pertoire an Ausdrucksmoglichkeiten,
sich an die jeweilige Situation anzupassen.
Damit wird aber auch eine Grenze fur
die maschinelle Sprachverarbeitung deutlich, denn sie sieht sich vor die Aufgabe gestellt, die Erfahrungen der Mitglieder
der menschlichen Sprachgemeinschaft mit formalen Mitteln zu approximieren.

12

Syntaxanalyse
Bisher ist noch offen geblieben, wie die grammatische Zerlegung sprachlicher

Auerungen
algorithmisch durchgefuhrt
werden kann. Die Grundlagen hierfur

liefert die Theorie der formalen Sprachen, in der Bildungsgesetze fur


Zeichenketten untersucht werden. Der Linguist Noam Chomsky hat, ausgehend von unbe

schrankten
Regelsystemen, durch immer starkere
Einschrankung
der Form der

Regeln eine Hierarchie von Klassen formaler Sprachen definiert: als machtigste

Turing-aquivalente
(mit Turing-Maschinen berechenbare), dann kontextsensitive,
Sprachen. Von besonderer Bedeutung fur
kontextfreie und regulare
die Anwendung auf naturliche
Sprachen ist die kontextfreie Familie, da der uberwiegende
Teil

der Strukturen naturlicher


Sprachen mit kontextfreien Mitteln elegant und hinrei
chend effizient beschrieben werden kann. Dies hat einen offensichtlichen Grund:

Die einfachste uniforme Moglichkeit


zur Beschreibung von Konstituentenstrukturen besteht darin, zuzulassen, dass die Muster, welche die Aufeinanderfolge von
Elementen beschreiben, selbst rekursiv sind genau dadurch ist aber die Klasse der kontextfreien formalen Sprachen konstituiert. Die Elemente derartiger Mu

ster sind also nicht auf Worter


oder Wortkategorien beschrankt,
sondern konnen
selbst Namen anderer Muster, d.h. Kategoriennamen, sein. Das System der Kategorien selbst beruht ausschlielich auf der Form immer wiederkehrender Muster;

als Randbedingung fur


der
seine Festlegung wird lediglich das Okonomieprinzip
und Redundanzfreiheit gefordert.
Minimalitat
Jedes Verfahren, das zu einer Zeichenkette mindestens einen korrespondierenden Strukturbaum bestimmt, muss die Regeln in einer vorgegebenen Reihenfolge
anwenden. Die Folge dieser Schritte wird Ableitung der Zeichenkette genannt. Beginnt man die Ableitung mit dem sog. Startsymbol der Grammatik in unserem
Fall S fur
Satz und wendet dann die entsprechenden Regeln fur
die davon

abhangigen
Kategoriensymbole an, bis man bei den terminalen Symbolen, den

Wortern,
angelangt ist, so bezeichnet man eine solche Ableitung als top-down.

Beginnt man die Ableitung bei den terminalen Symbolen, also ganz unten im

Baum bei den Wortern


und wendet die Regeln von rechts nach links an, so spricht
man von einer bottom-up-Ableitung. Orthogonal dazu unterscheidet man Tiefe

zuerst- (depth first) und Breite-zuerst- (breadth first) Ableitungen, je nachdem,

ob die Expansion (Ableitung) in Teilbaume


in die Tiefe jeweils ein Pfad im Baum
uber
mehrere Niveaus oder in die Breite zuerst alle Knoten auf einem Niveau

erfolgt. Durch Kombination dieser Dimensionen sind auch andere Ordnungen

der Ableitungsschritte moglich;


im Strukturbaum selbst wird uber
die Reihenfolge

abstrahiert.
Beispiel: In der folgenden einfachen kontextfreien Grammatik bedeuten die Zeichen S: Satz, NP: Nominalphrase, VP: Verbalphrase, V: Verb, Art: Artikel, N: Nomen.
S
VP
NP

NP VP
V NP
Art N

Die Lexikoneintrage
seien der Einfachkeit halber auch in Regelform notiert; der
senkrechte Strich steht fur
oder:

N
Katze | Maus

V
fangt
Det die | eine

13

Fur
eine Maus wird der folgende Konstituentenstruktur den Satz Die Katze fangt
baum abgeleitet:
S

b




b
bb

NP

VP

@
@

@
Art

NP

@
@
Art
die

Katze

eine
fangt

N
Maus

Mit kontextfreien Grammatiken tritt jedoch das Problem auf, dass fur
jede Kombination von Merkmalen linguistischer Objekte im Prinzip jeweils eigene Kategoriensymbole und mit diesen entsprechende Regeln definiert werden muten,

was die Ubersichtlichkeit


und Handhabbarkeit von Grammatiken sehr schnell begrenzt. Unter dem Begriff des Merkmals werden linguistisch relevante Eigenschaften von phonologischen, morphologischen, syntaktischen oder semantischen Ein
heiten verstanden; in unserem Beispiel waren
das z.B. fur
das Nomen Katze,

dass es das Genus Feminin hat, und den Artikel die, dass er (im vorliegenden

Fall) das Genus Feminin, den Numerus Singular, den Kasus Nominativ hat und in
der dritten Person steht. Erst dann kann unterschieden werden, dass die Katze

eine zulassige
NP ist, das Katze aber nicht. Im Falle der Ubereinstimmung
( die

Katze) kann man diese Eigenschaften an die ganze NP vererben. Wir brauchten
dann aber statt eines NP-Symbols mehrere, in unserem Fall also ein Symbol fur

NP-feminin-singular, etc., wodurch auch die Anzahl der Regeln drastisch erhoht
wurde.

Eine elegante Losung


dieses Problems bieten die sog. constraint-basierten
oder Unifikations-Grammatikformalismen. In diesen treten an die Stelle atomarer
Kategoriensymbole komplexe Merkmalsstrukturen. Merkmalsstrukturen sind endliche Mengen von Merkmalen, deren jedes aus einem Merkmalsnamen und einem
Merkmalswert besteht, wobei letzterer entweder ein atomares Symbol oder selbst

wieder eine Merkmalsstruktur ist. Darauf konnen


wir an dieser Stelle nicht weiter
eingehen, wollen aber festhalten, dass in nahezu allen modernen Sprachverarbeitungssystemen mit constraint-basierten Grammatikformalismen gearbeitet wird.

14

Entwicklung der Neuronalen Netze


McCulloch und Pitts hatten mit ihren bahnbrechenden Vorarbeiten die Grundlage

fur
sei aber an dieser Stelle eine
ein wichtiges Teilgebiet der KI gelegt. Zunachst

grundsatzliche
Bemerkung zur Idee der formalen Neuronen angebracht. Die neurophysiologische Forschung der jungsten
Vergangenheit konnte immer mehr Klar
der Struktur und Funktionsweise bioloheit uber
die ausserordentliche Komplexitat

gischer Neuronen herausfinden, doch selbst gegen den Kenntnisstand der 1940er
Jahre nehmen McCulloch und Pitts eine extreme Vereinfachung durch die Reduk
tion auf Wahrheitsfunktionen vor. Auch die spateren
Erweiterungen der Funktio formaler Neuronen sind noch weit von der biologischen Realitat
entfernt.
nalitat

Zu solchen Erweiterungen gehoren


statistische Regeln zur Aktivierung in Netz
werken lokal interagierender Einheiten lernfahige
Netzwerke mit kontinuierlichen

Veranderungen
der Aktivierungs-Schwellwerte der Einheiten und mit anregenden

oder hemmenden Gewichten ihrer Verbindungen. Dies besagt selbstverstandlich

nicht, dass unter gewissen Fragestellungen Vereinfachungen unzulassig


sind. Man
muss sich nur dessen bewusst sein, was damit noch erfasst werden kann und was
nicht, und man sollte eine nuchterne
Skepsis gegenuber
Behauptungen der Art

bewahren, neuronale Netze realisierten Computer, die wie das Gehirn funktio
nieren.
Dennoch gingen die theoretischen Ambitionen von McCulloch und Pitts sehr
weit: Wahrnehmung, Schlufolgerung, Lernen, Introspektion, Motivation, Psychopathologie und Werturteile im Allgemeinen sollten im Prinzip mit ihrem Ansatz

erklarbar
sein. Die ganze Psychologie wurde
kunftig
auf die Definition bestimm

ter Netzwerke hinauslaufen, die alle Funktionen des Geistes realisieren. Dies ist
eine der Wurzeln der sog. Rechnertheorie des Geistes ( computational theory of

mind): Die Arbeitsweise des Computers wird auf den Geist ubertragen.
Diese Auf
fassung war nicht unumstritten; so neigte etwa der Mathematiker John von Neu zum klassischen Universalrechnerkonzept
mann, dem u.a. grundlegende Beitrage

zu verdanken sind, zu einer gewissen Skepsis, mit einem Computer die Aktivitaten
des menschlichen Gehirns zu duplizieren.
Auch wenn ihr Anspruch uberzogenen
war, hatte die Arbeit von McCulloch

und Pitts wegen der Ruckf


aller Berechnungen auf elementare logische
uhrung

Operationen auch auf die Entwicklung der konventionellen, auf dem Dualsystem
basierenden digitalen Universalrechner Einfluss. Zudem zeigte sie auf, dass auf
diese Weise auch symbolische im Unterschied zu numerischen Berechnun
gen, wie z.B. das junktorenlogische Schlieen, modelliert werden konnen.
Und sie
gab einen entscheidenden Impuls zu weitergehenden Forschungen an neuronalen
Netzwerken bis hinein in die Neurologie. In einem weiteren Aufsatz von 1947 wie
sen sie auf den grundsatzlich
parallelverarbeitenden Charakter neuronaler Netzwerke hin, was sie vom sequentiell arbeitenden Universalrechner unterscheidet.
Daruberhinaus
zeigten sie, dass neuronalen Netzen eine gewisse Robustheit ei

gen ist, denn sie konnen


auch dann noch akzeptable Ergebnisse liefern, wenn einige formale Neuronen fehlerhaft arbeiten oder ausfallen oder das Eingabesignal
verrauscht ist. Sie benutzten dazu ein statistisches Verfahren auf der Basis von
Differentialgleichungen in Analogie zur Thermodynamik. Mit diesen Erweiterungen
konnte die in ihrer ersten Arbeit vorausgesetzte, aber biologisch unrealistische Annahme der perfekten Daten aufgegeben werden.
Vor einigen Jahren wurden ubrigens
im Nachlass Alan Turings Aufzeichnungen

15

gefunden, aus denen hervorgeht, dass er schon vor McCulloch und Pitts an der
Idee der neuronalen Netzwerke arbeitete, so dass eigentlich ihm der Primat dieser

Erfindung zukommt nur hatte er sie leider nicht veroffentlicht.

16

Kunstliche
und Biologische Neuronale Netze

Forschungen zur Architektur Kunstlicher


Neuronaler Netze haben entscheidende

Anregungen von Ergebnissen der Neurophysiologie erfahren. So hat sich gezeigt,


dass uber
90% der menschlichen Grohrinrinde sehr homogen aus sechs Schich

ten aufgebaut sind, innerhalb derer die Neuronen saulenf


ormig
gekoppelt sind. Im

Groen ergibt sich folgendes Bild: Neuronen in einer Saule


erregen sich gegen

seitig, erregen schwacher


diejenigen in Nachbarsaulen
und hemmen die Neuro
nen in weiter entfernten Saulen.
Diese Eigenschaften werden in sog. KohonenNetzwerken simuliert, die in der Lage sind, Eingabemuster wie auf einer Karte

zu reprasentieren.
Die Struktur der Karten bildet sich dabei nach Ahnlichkeit
und

aus; die selbstorganisierenden KohonenHaufigkeit


der Eigabemuster selbsttatig
karten sind also ein Beispiel fur
Lernen. Beim Menschen sind
das unuberwachte

solche Karten im Kortex bekannt, die u.a. die Korperoberfl


ache
des Menschen ab
bilden, wobei sensorisch sensibleren Teilen wie z.B. Handen
und Lippen eine ent

sprechend groere
Flache
korrespondiert. Die Informationsverarbeitung mit diesen
Karten erfolgt in modularer Weise: Eine Karte bildet ein Modul in einer Gruppe von
Modulen, die miteinander zusammenarbeiten. Dies hat offensichtlich Effizienzvorteile.
In diesem Zusammenhang sei noch eine weitere Besonderheit des menschli
Anhand der Untechen Kortex erwahnt:
Was ihn auszeichnet, ist seine Plastizitat.
ruchung behinderter Menschen konnte bei verschiedenen Behinderungen nachgewiesen werden, dass offensichtlich erhebliche Reorganisationsprozesse im Kortex
stattfinden. So etwa im Gefolge der Amputation von Gliedmassen oder bei Blinden,

bei denen sich die Kortexflache


fur
den lesenden Zeigefinger mit dem Erlernen

der Blindenschrift nachweisbar vergoert.


Es wird vermutet, dass aufgrund der

gleichformigen
Organsiation des Kortex dies nicht nur fur
sensorische Kortexarea
le gilt, sondern auch fur
die fur
hohere,
weitere kognitive Prozesse massgeblich

sind.
Kunstliche
Neuronale Netzwerke, in denen jedes Neuron mit allen anderen

Neuronen verbunden ist, wurden 1982 zuerst von dem Physiker John Hopfield
entworfen. Diese autoassoziativen Netzwerke werden deshalb auch als HopfieldNetzwerke bezeichnet. Sie haben in Verbindung mit der Hebbschen Lernregel die

folgenden Eigenschaften: (1) Ein Eingangssignal in Form eines raumlich


verteilten
Musters von Aktivierung und Nicht-Aktivierung kann als Aktivierungsmuster aktivierter und inaktivierter Neuronen gespeichert werden. Werden einige Neuronen
angeregt, geben sie diese Anregung weiter und empfangen ihrerseits Anregungen

von anderen Neuronen. Mit der korrespondierenden Veranderung


der Synapsengewichte kann sich ein solches Netzwerk in einen stabilen Zustand entwickeln,
der als assoziatives Speicherabbild interpretierbar ist. In der Sprache der dynamischen Systeme wird ein solcher Zustand auch Attraktor genannt. (2) Hopfield
Netze konnen
mehr als einen Attraktor ausbilden. Es wurde gezeigt, dass die maximale Anzahl speicherbarer Muster bei ca. 13% der Gesamtzahl der Neuronen
liegt. (3) Der Zugriff auf die gespeicherten Muster kann uber
die die Vorlage ei
nes Teils des gspeicherten Musters erfolgen. Sind etwa Bilder von menschlichen
Gesichtern gespeichert, so genugt
ein Teilbild oder ein verrauschtes Bild eines

Gesichts, um es anhand der gespeicherten Muster zu vervollstandigen.


(4) Entspricht das vorgelegte Muster nicht exakt einem der gespeicherten, sondern ist

es einem solchen nur hinsichtlich bestimmter Merkmalsauspragungen


ahnlich,
so

17

konvergiert der Aktivierungszustand des Netzwerks in Richtung dieses Musters.

Man spricht in diesem Zusammenhang auch von der Generalisierungsfahigkeit


von
Hopfield-Netzen. Mit ihnen kann also die Ausbildung neuronaler Verbindungsstrukturen in biologischen Neuronennetzen simuliert werden. Versucht man, ruckgekop
pelte Netzwerke im Schema von Reiz und Rekation zu charakterisieren, so kann
man sagen, dass ihr Verhalten, dargestellt durch den Wechsel ihrer Aktivierungs

zustande
in der Zeit, nicht nur von den Eingabemustern abhangt,
sondern auch
von den unmittelbar vorangegangenen Aktivierungen die ja auch ein Teil der

Eingabe sind. Damit konnen


solche Netzwerke grundsatzlich
zeitliche Muster, d.h.

Regelmaigkeiten
in Folgen verarbeiten. Nicht mehr einzelne Muster, sondern ihre

Abfolge ist fur


die Verarbeitung entscheidend. Damit ist eine neue Qualitatsstufe

erreicht: Es wurde der Ubergang


von der statischen, isolierten Musterklassifikation
zur Musterklassifikation im zeitlichen Kontext vollzogen.
Sofern die Gehirnanalogie Kunstlicher
Neuronaler Netze nicht nur auf ei

ne oberflachliche
Ahnlichkeit
rekurriert, sondern trotz ihres hohen Abstraktionsgrads und damit einhergehender erheblicher Vereinfachungen wenn man an die
physikalisch-chemischen Detailprozesse biologischer Neuronen denkt als Paradigma der Netzwerkforschung gesehen wird, ergeben sich fur
die Zukunft enorm

spannende, aber auch hochst


komplizierte Herausforderungen.
Wir hatten gesehen, dass jede Synapse zwei Arten der Verarbeitung leistet. In
einfacher Weise gesehen, verarbeitet sie Signale, indem sie diese uber
die Zeit

summiert. Das heit, sie ist fahig,


erst dann eine Ausgabe zu erzeugen, wenn

mehrere Impulse kurz aufeinander folgend eintreffen. Synapsen konnen


aber auch

raumlich
summieren: Eine Eingabe an einer Synapse muss noch keine Ausgabe
bewirken, sondern diese erfolgt erst dann, wenn mehrere Signale zu etwa der gleichen Zeit bei verschiedenen Synapsen desselben Neurons eintreffen. Die zweite

Art der Verarbeitung neben der zeitlichen und raumlichen


Summation besteht
also Qualitat,
als Ergebnis
darin, dass eine Synapse ihre Verarbeitungskapazitat,

ihrer Erfahrungen verandern


kann, wodurch sie die Verschaltung und damit das

Verhalten des Gehirns verandert.


Darin, so glaubt man, liegt die Voraussetzung fur

adaptives Lernen.
Weiterhin hat man detaillierte Kenntnisse uber
die Zuordnung bestimmter Re

gionen der Grohirnrinde zu bestimmten kognitiven Leistungen wie Sehen, Horen

und Sprechen sowie uber


die hauptsachlichen
Charakteristika der linken und

rechten Gehirnhalfte.
Seit den Untersuchungen von Broca und Wernicke im 19.

Jahrhundert weiss man, dass die menschliche Sprachfahigkeit


von der Funk
tionstuchtigkeit
bestimmter Regionen der Grohirnrinde der linken Gehirnhalfte

abhangt.
Detaillierten Aufschluss gaben Versuche mit elektrischen Reizungen bestimmter Partien durch Penfield u.a. um 1959. Auch uber
die Aufgabenteilung bei

der kognitiven Verarbeitung hat man detailliertes Wissen aufgrund der Erkennt
nis, dass das Zentralnervensystem hierarchisch organisiert ist, ableiten konnen,
z.B., dass ein bestimmtes Muster der kortikalen Organisation allgemein zu sein

scheint: Interpretierende Regionen der Gehirnrinde liegen in unmittelbarer Nahe


zu den Zonen, die Sinnesreize empfangen, und dieses Organisationsprinzip gilt

fur
ist hochgradig
alle Formen der Wahrnehmung. Jede der beiden Gehirnhalften

parallel organisiert, doch ist jede in anderer Weise was durchaus okonomisch

erscheint spezialisiert: Offenbar weisen sie unterschiedliche Modalitaten


des

ist primar
das analytische, systematische
Denkens auf. Der linken Hemisphare

Denken eigen, wahrend


die rechte eher ganzheitlich, holistisch arbeitet. So ge

18

schieht die Sprachverarbeitung uberwiegend


im Zentrum der linken, die raumli
che Orientierung und die Produktion und Aufnahme von Musik uberwiegend
in

der rechten Hemisphare.


Beide Halften
sind durch eine Brucke,
das sog. corpus

callosum verbunden, das aus ca. 200 Millionen Nervenfasern besteht und uber

das beide Hemispharen


mit ca. vier Milliarden Impulsen pro Sekunde kommuni

zieren. Da die Reize korperlicher


Empfindungen jeder Korperseite
in die jeweils

gegenuberliegende
Gehirnhalfte
geleitet werden, ist diese Verbindung auch fur

die
menschliche Sprachverarbeitung von auerordentlicher Bedeutung, denn die rech hat nicht dasselbe Potential fur
te Hemisphare
Sprachverarbeitung wie die linke.
Was schon fur
normale Rechner gilt, muss erst recht auf die kognitive Verarbeitung zutreffen: Aus einer Untersuchung des Verlaufs der Signale in einer Schaltung
kann nicht auf Sinn und Bedeutung des ablaufenden Programms geschlossen werden. Ob es je gelingen wird, diese Lucke
zu schliessen, ist sicher nicht nur eine

empirische Frage der Neurophysiologie, sondern ebenso auch eine methodische.

19

LITERATUR

Literatur
[1] Lenzen, M.: Naturliche
und Kunstliche
Intelligenz: Einfuhrung
in die Kogniti

onswissenschaft, Einfuhrungen,
Campus, Frankfurt/Main, New York, 2002.

[2] Roth, G.: Das Gehirn und seine Wirklichkeit,


2. Ausg., 1995.

Suhrkamp, Frankfurt/Main,

[3] Searle, J.: Sprechakte, Suhrkamp, Frankfurt/M., 1971.


[4] Turing, A.: Computing Machinery and Intelligence, Mind, Bd. 59, 1950, S.
433460.
[5] Turing, A.: Kann eine Maschine denken? (dt.: Computing Machinery and Intelligence), in Zimmerli, W. C.; Wolf, S. (Hrsgb.): Kunstliche
Intelligenz: Philoso
phische Probleme, Reclam, Stuttgart, 1997, S. 3978.