Sie sind auf Seite 1von 264

Dieter Hillert

Die Natur
der Sprache
Evolution, Paradigmen
und Schaltkreise
Die Natur der Sprache
Dieter Hillert

Die Natur der Sprache


Evolution, Paradigmen
und Schaltkreise
Dieter Hillert
San Diego, La Jolla, USA

Hillert, D. (2014). The Nature of Language. Evolution, Paradigms and Circuits.


New York, NY: Springer.

ISBN 978-3-658-20112-8 ISBN 978-3-658-20113-5  (eBook)


https://doi.org/10.1007/978-3-658-20113-5

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National­


bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© Springer Fachmedien Wiesbaden GmbH 2018


Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die
nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung
des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen,
Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informa­
tionen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind.
Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder
implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt
im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten
und Institutionsadressen neutral.

Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier

Springer ist Teil von Springer Nature


Die eingetragene Gesellschaft ist Springer Fachmedien Wiesbaden GmbH
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Für meine Eltern:
Charlotte Hillert, geb. Holland-Cunz
Guido H. J. Hillert
Inhalt

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX

Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Teil I Evolution

1 Die Abstammung des Menschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7


1.1 Ein Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Fossilien-Belege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Protomusik und Sprechen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25


2.1 Der Beitrag der Protomusik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Evolutionäre Meilensteine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Genetische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1 Sprachrelevante Gene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Die Funktion der Basalganglien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4 Der Aufstieg der Kognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55


4.1 Komparative Studien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2 Protokognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

VII
VIII Inhalt

Teil II Paradigmen

5 Das Sprachsystem des Menschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97


5.1 Biologische Disposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.2 Linguistische Verschaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

6 Semantik und Syntax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109


6.1 Satzstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.2 Neuronale Netze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

7 Lexikalische Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127


7.1 Konstruktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.2 Mentaler Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

8 Figurative Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139


8.1 Lexikalisch dunkle Materie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8.2 Idiome und Metaphern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

Teil III Schaltkreise

9 Generierung von Sätzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153


9.1 Strukturelle Komplexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
9.2 Die Funktion des Arbeitsspeichers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

10 Zugriff auf Wortbedeutungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177


10.1 Lexikalische Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
10.2 Sprachbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

11 Atypische Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217


11.1 Aphasie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
11.2 Kommunikationsstörungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

12 Spracherwerb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
12.1 Das genetische Programm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
12.2 Das multilinguale Gehirn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Vorwort

Als Student der Biologie und Philosophie der Johannes Gutenberg-Universität


Mainz interessierte ich mich vor allem für Themenbereiche, die kognitive und
biologische Prozesse miteinander in Bezug setzen. Inspiriert wurde ich vor allem
durch die wissenschaftlichen Arbeiten von Derek Bickerton, Noam Chomsky,
Charles Darwin, Hoimar von Ditfurth, Paul Feyerabend, Jerry Fodor, Eric Len-
neberg, Karl Popper und William van O. Quine. Nach weiteren Studien an der
Johann Wolfgang Goethe-Universität und der RWTH Aachen veröffentlichte ich
mein erstes Buch mit dem Titel „Zur mentalen Repräsentation von Wortbedeutun-
gen“. Danach arbeitete ich als Postdoc in Paris am Centre Paul Broca und an der
EHESS sowie in Massachusetts an der Boston University und am MIT. Kurz vor der
deutschen Wiedervereinigung veröffentlichte ich mein zweites Buch mit dem Titel
„Sprachstrukturen und Wissensrepräsentationen“. An der englischen „University
of Manchester, Science and Technology“ und an der amerikanischen „University of
California in San Diego“ setzte ich meine wissenschaftlichen Arbeiten zur Sprache
fort. Im Rahmen des hier vorgestellten autobiographischen Fragments danke ich
diesen Einrichtungen für die Unterstützung meiner Forschungen.
Die neurobiologischen Grundlagen der Sprache spielen eine zentrale Rolle bei
der wissenschaftlichen Untersuchung des menschlichen Sprachvermögens. Das
vorliegende Buch soll diesem anspruchsvollen und zugleich spannenden interdizip-
linären Forschungsfeld eine größere Aufmerksamkeit verschaffen. Neue empirische
Forschungsergebnisse werden schneller denn je produziert. Ich muss daher gestehen,
dass die Themen subjektiv gewählt wurden und nicht alle für die Fragestellungen und
Annahmen relevanten Ergebnisse berücksichtigt werden konnten. Ein vollständiger
Literaturüberblick, der sich auf die Natur der Sprache bezieht, wird sicherlich nicht
annähernd geliefert. Ich hoffe jedoch, hiermit ausreichend Informationen zur Ver-
fügung zu stellen, die die Vorzüge dieser verschiedenen interdisziplinären Ansätze
veranschaulichen und zeigen, warum das gesamte Thema in der Tat faszinierend ist.
Vor diesem Hintergrund möchte ich Die Natur der Sprache mit einem von Hoimar
IX
X Vorwort

von Ditfurth (1972, S. 245) formulierten Aphorismus vorstellen: „Wir sind, um es


einmal so zu formulieren, eigentlich nur der *H. erectus von morgen.“1

San Diego, CA, Juli 2017 Dieter Hillert

1 In: H. v. Ditfurth (1972). Im Anfang war der Wasserstoff. Hamburg. Das urprüngliche
Zitat verwendet den Begriff „Neandertaler“ anstelle von „H. erectus“.
Einleitung
Einleitung
Einleitung

Der Forschungsbereich „Natur der Sprache“ wird zunehmend komplexer, indem


immer neue Methoden und Kenntnisse aus verschiedenen Disziplinen integriert und
neue spezialisierte Teilbereiche berücksichtigt werden. Die drei Hauptabschnitte,
die das vorliegende Buch unterteilen, können als wichtige thematische Eckpunkte
angesehen werden. Nicht alle wichtigen Themen können angesprochen werden,
aber die getroffene Auswahl stellt sicherlich einen geeigneten Ausgangspunkt für
weiterführende Literatur dar, die außerhalb des gegenwärtigen Spektrums liegt.
Die thematische Auswahl beleuchtet anhand unterschiedlicher Sichtweisen grund-
legende Forschungsfragen. Diese beinhalten folgende Stichpunkte, jedoch sind sie
nicht ausschließlich darauf beschränkt:

t Wie hat sich das menschliche Sprachvermögen evolutionär entwickelt?


t Was sind die neurogenetischen Grundlagen der menschlichen Sprache?
t Wie können wir sprachliche und neuronale Berechnungen aufeinander abbilden?
t Wie erwerben und lernen wir Sprache und Einzelsprachen?

Der erste Hauptabschnitt „Evolution“ diskutiert die Evidenz zur menschlichen


Abstammungsgeschichte und legt dar, wie diese Geschichte im Zusammenhang
mit der Entwicklung von Sprache und Kognition steht. Wir nehmen an, dass
„Protomusik“ eine besondere Rolle bei der evolutionären Entwicklung von Spre-
chen und Sprache spielte, und vermuten weiterhin, dass Vokalisierung der pri-
märe Auslöser für Sprachevolution gewesen ist. Verschiedene Stadien, ausgehend
von grundlegenden kognitiven Fähigkeiten bis zur modernen Sprache, werden
vorgestellt, wobei unsere frühen Vorfahren – insbesondere Homo (H.) erectus –
Kommunikationsformen verwendet haben, die noch heute in modernen Sprachen
aufgefunden werden können. Zudem werden einige biochemische Mechanismen,
die Entwicklung, die Regulierung und der Bestand der mit der Sprachverarbeitung
verbundenen neuralen Strukturen besprochen. Der Nucleus cuneatus und die
1
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_1
2 Einleitung

Basalganglien spielen beispielsweise eine zentrale Rolle beim Sprechen und stehen
im Zusammenhang mit dem Transkriptionsfaktor Forkhead-Box-P2, auch als
Foxp2 bekannt. Vergleichsstudien zwischen dem kommunikativen Verhalten von
nicht-menschlichen, vokalisierenden Spezies wie Vögeln oder Walen verdeutlichen
aussagekräftige Einzelheiten zu den Vokalisationsmechanismen, die sich evolutionär
in verschiedenen Arten entwickelt haben, und lassen Rückschlüsse auf die Evo-
lution des menschlichen Sprachvermögens zu. Demgemäß wird ein evolutionäres
Szenario beschrieben, das eine graduelle kognitive Entwicklung von einfachen zu
komplexeren Kommunikationssystemen annimmt.
Der zweite Hauptabschnitt „Paradigmen“ führt das Konzept „biologische
Disposition der menschlichen Sprache“ ein. In den meisten Fällen befinden sich
die Funktionen des menschlichen Sprachsystems in linksseitigen frontotempo-
ralen Schaltkreisen. Spezifische corticale Regionen sowie spezifische dorsale und
ventrale Faserbahnen sind für die Sprachverarbeitung verantwortlich. Wir disku-
tieren weiterhin unsere theoretischen Annahmen darüber, wie das menschliche
Sprachvermögen strukturiert sein könnte. Verschiedene kognitive und linguisti-
sche Ansätze und Modelle werden vorgestellt, die spezifische Annahmen zu den
Repräsentationen und Berechnungen semantischer, syntaktischer, lexikalischer
und figurativer Informationen postulieren. Eine Brücke zwischen theoretischen
Konzeptionen linguistischer Kognition und Konzeptionen neurobiologischer
Netzwerke herzustellen oder der Versuch einer Unifizierung dieser Ansätze sind
gleichermaßen anspruchsvolle wie faszinierende Aufgaben. Konzeptionen wie na-
türliche Semantik, Bindungstheorie, Dependenzgrammatik, künstliche neuronale
Netzwerkmodelle, lexikalische Konzepte und Konstruktionen sowie universelle
semantische Kategorien werden vorgestellt und besprochen. Auch beschäftigen wir
uns mit der Grammatik der figurativen Sprache sowie mit anderen Idiosynkrasien,
die eine untergeordnete (oder keine) Rolle bei den entsprechenden repräsentativen
linguistischen Modellen spielen.
Der dritte Hauptabschnitt „Schaltkreise“ bezieht sich auf die neuronalen Regionen
und Schaltkreise, die mit der Satzverarbeitung und/oder den lexikalischen Berech-
nungen verbunden sind. Elektrophysiologische (z. B. ereigniskorrelierte Potentiale,
Magnetoencephalographie) und durch Bildgebung gewonnene Daten (z. B. struk-
turelle und funktionelle Magnetresonanztomographie) werden vorgestellt. In dem
vorliegenden Kontext diskutieren wir die Funktion der unteren Stirnhirnwindung
(Gyrus frontalis inferior) sowie sprachliche Arbeitsspeicherfunktionen während
der Satzverarbeitung und legen dar, wie verschiedene Daten durch unterschiedliche
Satzkomplexität und andere kontextabhängige Faktoren vorhergesagt werden kön-
nen. Lexikalische Konzepte werden demgegenüber im gesamten Cortex abgerufen.
Einige lexikalische Konzepte sind eng mit sensorisch-motorischen Repräsentationen
Einleitung 3

verbunden, andere beruhen eher auf abstrakten konzeptuellen Repräsentationen.


Wir beschäftigen uns hier auch mit der Frage, wie unser Cortex figurative Sprache
im Vergleich zur wörtlichen Sprache verarbeitet. Die durch Bildgebungsverfahren
gewonnenen Daten weisen darauf hin, dass die Aktivierung von bestimmten
corticalen Regionen nicht nur von der linguistischen Struktur eines Ausdrucks
abhängig ist (vergleichbar mit wörtlichen Sprachstrukturen), sondern auch von
domänübergreifender Wissensintegration. Spezifische Anteile des Parietallappens,
die zum Spiegelneuronensystem gehören, spielten vermutlich eine wichtige Rolle
bei der Evolution von Konzeptualisierung, Bewusstsein und Sprache.
Das abschließende Kapitel behandelt Annahmen zum Erwerb und zum (Neu-)
Lernen einer oder mehrerer Sprachen und Erkenntnisse darüber, wie die Funk-
tionsweise des Sprachsystems unter bestimmten pathologischen Bedingungen
beschädigt wird. Wir besprechen hier drei verschiedene Störformen, die sich
auf die Sprachverarbeitung auswirken: Aphasie, Alzheimer’sche Krankheit und
Autismus-Spektrum-Störung. Die häufigste Ursache aphasischer Syndrome oder
Symptome ist der Schlaganfall. Der nach dem Schlaganfall beobachtbare spontane
Genesungsprozess beinhaltet die Umstrukturierung relevanter neuronaler Schalt-
kreise, und normalerweise verdeutlicht das Gehirn hierbei bis zu einem bestimmten
Punkt eine unerwartete Plastizität. Demgegenüber sind sprachliche und kognitive
Fähigkeiten bei „leichter kognitiver Störung“ und Alzheimer-Krankheit gleicher-
maßen betroffen. Dies gilt für die Verarbeitungsprozesse auf syntaktischer und auf
lexikalischer Ebene ebenso wie für die Funktionen des Arbeitsspeichers. Studien
mit bildgebenden Verfahren verdeutlichen, dass das Gehirn versucht, gestörte
Prozesse durch die Aktivierung größerer und weiter entfernt liegender Regionen
zu kompensieren. Schließlich behandeln wir die Autismus-Spektrum-Störung, die
unsere Fähigkeit, zu mentalisieren und uns sozial zu verhalten, beeinträchtigt. Ob-
wohl die Autismus-Spektrum-Störung nicht als eine homogene Störung angesehen
werden kann, verdeutlichen die meisten Personen ein atypisches Verhalten in Bezug
auf figurative und pragmatische Aspekte der Sprache, aber auch auf Aufgaben, die
die Theorie des Geistes in Anspruch nehmen. Die bildgebenden Verfahrensdaten
können diesbezüglich als nicht konklusiv angesehen werden. Eine Untergruppe
von Kindern mit Autismus weist eine ungewöhnliche Gehirnentwicklung auf, was
vermutlich zu atypischer Konnektivität und Synapseneliminierung führt. Hirnto-
mographische Studien belegen ebenso eine verminderte Aktivierung in verschiede-
nen corticalen Regionen wie dem präfrontalen Cortex. Der Versuch zu verstehen,
wie unser Sprachsystem funktioniert, hilft, diese und andere neuropsychologisch
bedingten Störungen, von denen unsere Sprache und Kommunikationsfähigkeit
betroffen ist, besser zu behandeln. Zusammenfassend: „Die Natur der Sprache“ mit
dem Untertitel „Evolution, Paradigmen und Schaltkreise“ beabsichtigt, Aufschluss

3
4 Einleitung

über diese Fragestellungen, Hypothesen und Ergebnisse aus der Sicht verschiedener
Disziplinen und Ansätze zu liefern. Die Kapitel inspirieren hoffentlich dazu, dieses
faszinierende Forschungsgebiet zu erweitern und voranzutreiben.

Über den Autor

Priv.-Doz. Dr. Dieter Hillert ist Kognitionswissenschaftler und untersucht das


menschliche Sprachvermögen insbesondere aus kognitiver, neurobiologischer und
evolutionärer Sicht. In den USA ist er mit der UC San Diego affiliiert und arbeitet
zudem als Wissenschaftsjournalist im Bereich „Kognition, Sprache und Evolution“
und im Bereich der „Wissenschaftspolitik“.
Teil I
EVOLUTION

5
Die Abstammung des Menschen
1 Die Abstammung des Menschen 1

Zusammenfassung

Hominiden-Fossilien sowie genetische Daten verdeutlichen, dass die Evolution


von kognitiven und sprachlichen Kapazitäten beim modernen Menschen nicht
auf eine einzelne massive Mutation zurückgeführt werden kann. Seitdem sich
die Gattung Homo von der Gattung Pan abgespalten hat, trat offensichtlich eine
graduelle Evolution kognitiver und sprachlicher Fähigkeiten ein. Die kraniale
Kapazität, die vermutlich mit der kognitiven Kapazität korreliert, erhöhte sich
systematisch im Verlauf der menschlichen Abstammungsgeschichte, wenn die
Arten H. floresensis und Paranthropus nicht berücksichtigt werden. Zahlreiche
externe und intrinsische Faktoren dürften die kognitive Evolution ausgelöst
haben, wobei soziale Faktoren offensichtlich eine entscheidende Rolle gespielt
haben. Entsprechend wird geschlussfolgert, dass die Evolution der „biologischen
Disposition für Sprache“ im Einklang mit der Evolution anderer kognitiver
Kapazitäten erfolgte und auf graduellen Mutationen beruht.

Stichwörter

Anzestrale Migration, Biologische Disposition, Kraniale Kapazität, Homini-


denfossilien, mtDNA, Multiregionale Hypothese, Out-of-Africa-Hypothese,
Pan-Hom-Abspaltung, Primatenevolution.

7
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_2
8 1 Die Abstammung des Menschen

1.1 Ein Überblick


1.1 Ein Überblick
Wie hat sich das Sprachvermögen entwickelt? Um sich dieser offensichtlich mysteri-
ösen Fragestellung annähern zu können, müssen wir uns mit der Abstammung des
Homo (H.) sapiens – bzw. modernen Menschen – auseinandersetzen. Das Gehirn des
modernen Menschen spielt hierbei eine zentrale Rolle. Es ist mit einem kognitiven
Berechnungssystem ausgestattet, das über ein beträchtliches und außergewöhn-
liches Leistungsvermögen verfügt. Das Sprachsystem kann als Teilsystem dieses
Berechnungssystems angesehen werden. Der moderne Mensch ist der einzige biolo-
gische Organismus, der aufgrund seiner kognitiven und sprachlichen Fähigkeiten,
die sich wiederum durch prosodische lexikalische, semantische und syntaktische
Berechnungen auszeichnen, in der Lage ist, über innere Befindlichkeiten, Gefühle,
Gedanken und Ideen zu berichten und Informationen auszutauschen. Wir implizie-
ren hierbei nicht, dass die biologischen Vorfahren des modernen Menschen nicht
über sprachliche Kapazitäten verfügten. Gerade im Gegenteil vermuten wir, dass
sich die biologischen Grundlagen unseres Sprachsystems über mehrere Millionen
Jahre hinweg allmählich entwickelten. Um den Bauplan der Sprachevolution besser
zu verstehen, ist es wichtig, ein genaues Bild über die Faktoren zu erhalten, die diese
an den sprachlichen Berechnungen beteiligten neurobiologischen Prozesse stützen.
Mit dem Begriff „Sprache“ beziehen wir uns auf alle natürlichen Sprachen, sowohl
die, die aktuell gesprochen werden, als auch solche, die bereits ausgestorben sind.
Das Vermögen oder die Kapazität, eine Sprache zu sprechen, basiert auf universellen
Berechnungen der menschlichen Kognition und dieses Vermögen ermöglicht uns,
unendliche viele neue Bedeutungen zu kreieren und auszudrücken. Die Menge der
linguistischen Regeln, die auf universellen Parametern beruhen, sind dagegen finit
und werden durch einen art-spezifischen neurobiologischen Bauplan vorgegeben.
Moderne Menschen besitzen eine gemeinsame Abstammung mit anderen Pri-
maten. Millionen von Jahren trennen verschiedene Arten, und deren Evolution ist
das Ergebnis von vermutlich graduellen genetischen Mutationen, die durch Faktoren
bestimmt wurden, über die wir zum gegenwärtigen Zeitpunkt nur spekulieren
können. Obwohl das Sprachvermögen auf dem Genotyp des modernen Menschen
(H. sapiens) beruht, können wir keine Evidenz zur Unterstützung der Annahme
finden, dass dieser Genotyp sich durch Merkmale auszeichnet, die spezifisch für
Sprache sind. Der moderne Mensch ist mit einer „biologischen Disposition für
Sprache“ ausgestattet, aber diese ist nicht das Ergebnis einer einzigen, massiven
Mutation. Der Genotyp des modernen Menschen unterstützt bestimmte kognitive
Eigenschaften, die für den Spracherwerb und für andere kognitive Fähigkeiten
grundlegend sind. In diesem Zusammenhang weisen wir auf verschiedene Hy-
pothesen über Ereignisse hin, die wahrscheinlich relativ kleine Mutationen im
1.1 Ein Überblick 9

Rahmen der natürlichen Selektion auslösten. Viele Faktoren haben vermutlich


über einen längeren Zeitraum hinweg die neurobiologischen Prozesse geformt,
die es uns heute ermöglichen, Informationen über die wahrgenommene Welt und
darüber, wie gewisse Dinge funktionieren, auszutauschen, aber wir können auch,
wie bereits erwähnt, innere Zustände, Emotionen, Überzeugungen oder Ansichten
ausdrücken. Vor allem ermöglicht die menschliche Sprache soziale Stabilität unter
den Mitgliedern einer Gruppe oder Gemeinschaft und es ist möglich, gemeinsame
Ziele und Absichten abzusprechen.
Ein einflussreicher philosophischer Standpunkt des 20. Jahrhunderts postuliert,
dass nur H. sapiens mit einer angeborenen linguistischen Universalgrammatik
ausgestattet seien, und weist implizit die Annahme einer graduellen Evolution der
„biologischen Disposition für Sprache“ zurück (Chomsky, 1965; Bickerton, 2009). Das
Modell der Sprachevolution abzulehnen ist ein irrationaler Standpunkt und übergeht
den zwischenzeitlich in den Naturwissenschaften erzielten Erkenntnisstand. Diese
kreationistische Position war (und ist teilweise) populär, da sie größtenteils gegen
empirische Daten immun ist. Demgegenüber spiegelt sie die Schwierigkeit wider, ein
plausibles Kognitionsmodell der Primatenevolution zu entwickeln. Beispielsweise
kann das Alter eines Primatenfossils mit radiometrischen oder inkrementellen
Messungen ungefähr bestimmt werden, aber es bleibt unklar, in welchem Verhält-
nis diese Fossilien zueinander stehen und wie sie im Rahmen eines Stammbaums
abgebildet werden sollen. Auch ist die Isolierung von mitochondrialer (mt)DNA
in den Knochen von Fossilien ziemlich schwierig, weil DNA mit der Zeit degra-
diert und Gewebe oder Knochen absterben. Im Allgemeinen wird angenommen,
dass Fossilien, die älter als 40.000 Jahre sind, keine DNA mehr enthalten. Die
„biologische Disposition der Sprache“ (BDS) kann jedoch als das Ergebnis eines
langen evolutionären Prozesses angesehen werden und unsere kognitiven Fähig-
keiten sind nicht unbedingt derart einzigartig, wie es teilweise behauptet wird:
Jede kommunikative Kapazität kann einer bestimmten Art spezifisch zugeordnet
werden, aber die Interpretationen werden oft anthropomorphisiert und gegenüber
der BDS als inferior angesehen. Ein besseres Verstehen unseres Sprachvermögens
erfordert, dass Vergleiche zu anderen, nicht-menschlichen Kommunikationsformen
gezogen werden, weil die BDS durch natürliche Selektion entstanden ist und nicht
aufgrund eines metaphysischen Beschlusses. Paul Broca hatte einmal in diesem
Zusammenhang kundgetan: „Ich möchte lieber ein transformierter Affe sein als ein
degenerierter Sohn von Adam“ (zitiert von Sagan, 1979). Bevor wir einige mögliche
Szenarien vorstellen, die die kognitive Evolution ausgelöst und unterstützt hat,
soll zunächst zusammenfassend dargestellt werden, was wir zum gegenwärtigen
Zeitpunkt über die Entwicklungsgeschichte der Menschheit wissen.

9
10 1 Die Abstammung des Menschen

Einer der ersten Ansätze zur systematischen Untersuchung des Verhältnisses


zwischen einzelnen Sprachen und deren Ursprung beruht darauf, natürliche
Sprache analog zum Abstammungsmodell der Arten zu beschreiben. Der Sprach-
wissenschaftler August Schleicher (1861) verwendete einen Stammbaum, der die
botanische Taxonomie widerspiegelte, um die Geschichte der Sprachen als natürliche
Entwicklungsstadien in Form von Auf- und Abstieg zu beschreiben. Zur gleichen
Zeit war er ein Vertreter eines polygenetischen Modells. Er vermutete, dass der
Ursprung verschiedener Sprachgruppen auf einem sprachlosen Urmenschen mit
affenähnlichen Vorfahren beruht. Schleicher glaubte, dass die große Vielfalt der
Sprachen, die sich unabhängig voneinander entwickelt hätten, gegen die Annahme
einer Protosprache spricht, die Ausgangspunkt für die Entwicklung moderner
Sprachen sei. In diesem Zusammenhang argumentierte der Zoologe und Generalist
Ernst Haeckel (1868), dass verschiedene Arten und Rassen sowie deren sprachliche
Vielfalt von einem Affenmenschen abstammen. Vor dem Hintergrund der Annahme,
dass es verschiedene Abstammungslinien gibt, glaubten viele Sprachwissenschaft-
ler des 19. und 20. Jahrhunderts an einen engen Zusammenhang zwischen einer
bestimmten menschlicher Rasse und einer einzelnen Sprache. Alfredo Trombetti
(1905), ein italienischer Sprachwissenschaftler, verteidigte jedoch in Anlehnung
an Charles Darwins (1871) Überzeugungen ein monogenetisches Modell, indem
er vermutete, dass alle Einzelsprachen auf eine Sprache zurückgeführt werden
können, die etwa vor 100.000-200.000 Jahren gesprochen wurde. Mit dem An-
spruch, linguistische Universalien zu finden, versuchte Joseph Greenberg (1963) in
jüngerer Zeit alle menschlichen Sprachen zu klassifizieren. Er teilte diesen Ansatz
mit Noam Chomsky (1956), dessen Vorgehensweise allerdings nicht empirisch
ist, sondern deduktiv und theoriegeleitet. Die Schwierigkeiten, diese Ergebnisse
in Bezug auf die neurobiologische Architektur zu deuten, konnten damit jedoch
nicht überbrückt werden. Beispielsweise werden einige universelle linguistische
Eigenschaften als absolut angesehen (z. B. besitzen alle Sprachen Pronomen). Zudem
tendieren die meisten Sprachen zu bestimmten Strukturen: Sprachen mit einer
SVO (Subjekt-Verb-Objekt)-Wortordnung verwenden meistens Präpositionen und
SOV-Sprachen Postpositionen (in dem englischen Beispiel „He gave the book to
her“ befindet sich das Verbpartikel „to“ vor dem indirekten Objekt; in der japani-
schen Version des gleichen Satzes „Kare wa kanojo ni hon o ageta“ (wörtlich: „Er
ihr Buch gab“) werden die Partikel bzw. Kasus-Marker „wa“, „ni“ und „o“ jeweilig
nach den entsprechen Pronomen bzw. Nomen platziert.
1.2 Fossilien-Belege 11

1.2 Fossilien-Belege
1.2 Fossilien-Belege
Die heutigen Evolutionsforscher, die aus unterschiedlichen Disziplinen kommen,
vergleichen entsprechend den Pionieren Charles Darwin (1871) und später Eric
Lenneberg (1964) biologische, kognitive und verhaltenspsychologische Aspekte
zwischen verschiedenen Arten, um die Evolution der Eigenschaften zu verstehen,
die die „biologische Disposition für Sprache“ (BDS) ausmachen. Spekulationen und
Überzeugungen beruhen oftmals auf unzureichenden empirischen Daten und sind
von unseren Vorstellungen über mögliche Ereignisse, die während einer Epoche
von mehreren 100.000 Jahren oder sogar Millionen von Jahren stattgefunden
haben, abhängig. Ein möglicher Ansatz besteht darin, externe Hinweise näher zu
untersuchen. Die zeitlich parallelen Entdeckungen von besonderen Werkzeugen
und Fossilien, die mit einem bestimmten kulturellen Verhalten und symbolischen
Bedeutungen einhergehen, weisen auf komplexere Formen der Kommunikation
hin. Neben der sprachlichen Kommunikation entwickelte der moderne Mensch
ein bestimmtes Kulturverhalten wie Werkzeuge und Kleidungsstücke anzufertigen,
Fischfang und Tauschhandel zu betreiben, Objekte zu verzieren und sich selbst
zu schmücken, symbolische Kunst zu schaffen, sich mit Spielen und Musik zu
unterhalten oder der Toten zu gedenken. Sollte die BDS mit modernem Verhalten
zusammenfallen, würde der zeitliche Rahmen für die Entwicklung der modernen
Sprache bei etwa 40.000-50.000 Jahren liegen. Allerdings bleibt hierbei unberück-
sichtigt, dass modernes Verhalten und komplexe Formen der Kommunikation
nicht aus dem Nichts entstanden sein können. Relevante Komponenten der BDS
können bis zu unseren engsten lebenden Verwandten zurückverfolgt werden und
vielleicht sogar noch ein Stück weiter (siehe Abb. 1.1).
Nach dem gegenwärtigen Stand der Erkenntnis trennten sich die Gattung Pan1
und die Tribus (Gattungsgruppe) Hominini (einschließlich Gattung Homo sowie die
Vorfahren dieser Gattung) vor etwa 4-7 Mio. Jahren. Archäologische Daten stützen
die Annahme, dass sich stammesgeschichtlich die Vorfahren der Gattung Homo
von den Schimpansen vor 6,5-7,4 Mio. Jahren abspalteten, und die DNA-Analyse
verdeutlicht, dass diese Trennung vor ungefähr 4-5 Mio. Jahren endgültig abge-
schlossen war. Eine interessante Beobachtung ist, dass Sahelanthropus tchadensis,
ein 7 Mio. Jahre altes Fossil mit einem Gehirnvolumen von 320-380 cm3, menschen-
ähnlichere Eigenschaften aufwies als ein 3-4 Mio. Jahre alter humaner Hominid
(z. B. Wood, 2002). Die Speziation oder Artenbildung „Schimpanse-Mensch“ war

1 Der Gemeine Schimpanse (Pan troglodytes) ist ein Menschenaffe (Gattung Hominidae)
und gehört der Gattung Panini an, genauso wie der Bonobo (Pan paniscus), der auch
Zwergschimpanse genannt wird.
11
12 1 Die Abstammung des Menschen

Strepsirhini Haplorhini

Bushbabies New World Old World


Lemurs and Lorises Tarsiers Monkeys Monkeys Apes

Modern
species

PLEISTOCENE
1.8
PLIOCENE
5

MIOCENE

23
OLIGOCENE
million years ago

34
Omomyiforms
EOCENE
Adapiforms Oldest known fossil primates
55
PALEOCENE
65 K/T Boundary

LATE CRETACEOUS
Inferred age of last common ancestor of living primates

98

Abb. 1.1 Evolution der Primaten. (Adaptiert, © C. Soligo, UCl Anthropologie.)

ein relativ langer evolutionärer Prozess, und es ist anzunehmen, dass Kreuzun-
gen stattgefunden haben, bevor sich die Vorfahren des Menschen endgültig vom
Stammbaum der Gattung Pan abgespalten hatten. Dies ist eine plausible Hypothese,
denn der Gemeine Schimpanse und der Bonobo können zusammen Nachwuchs
zeugen, obwohl sich beide Arten vor 1 Million Jahren voneinander abspalteten. Ein
direkter Vergleich zwischen verschiedenen Formen der Speziation hat begrenzten
Wert, aber weist kritisch darauf hin, dass das von Ernst Mayr (1942) entwickelte
Artenkonzept weitere Differenzierungen erfordert. Wir stellen in diesem Zusam-
menhang fest, dass bislang unbekannte Faktoren die Evolution der BDS im Verlauf
der menschlichen Abstammungsgeschichte auslösten und dass diese Faktoren in
der Abstammungsgeschichte anderer Menschenaffen, einschließlich der Gattung
1.2 Fossilien-Belege 13

Pan, keine Rolle spielten. Die geographische Dissoziation von Hominini und „Pro-
to-Schimpansen“ wird oft als Grund für die unterschiedlichen Abstammungslinien
angeführt. Es könnte sein, dass die Formation des Großen Afrikanischen Graben-
bruchs (Great Rift Valley) im Osten Afrikas, der eine trockene Savanne darstellt,
zu einer spezifischen Evolution der Hominini geführt hat, da die Schimpansen im
feuchten Dschungel von West- und Zentralafrika gelebt haben. Das erste Schim-
pansenfossil, drei 500.000 Jahre alte Zähne, wurde jedoch in Ostafrika in der
Nähe des Sees Baringo in Kenia gefunden und nicht in West- oder Zentralafrika
(McBreathy und Jablonski, 2005). Daher kann bezweifelt werden, dass das Rift Valley
eine Schlüsselrolle bei der Abspaltung von Hominini und Schimpansen gespielt
hat. Entsprechend ist Formation einer Savannenlandschaft nur ein schwaches
Argument für die Entwicklung des aufrechten Gangs.2
Aufgrund des Vergleichs von Genen, die der moderne Mensch und der Gemeine
Schimpanse miteinander teilen, hat das Konsortium der Schimpansen-Sequenzie-
rung und -Analyse festgestellt, dass sich das „Forkhead-Box-Protein P2“ (Foxp2)
schneller in der menschlichen Abstammungslinie entwickelte. Bei dem Foxp2
handelt es sich um einen an Sprechen und Sprache beteiligten Transkriptionsfak-
tor. Schimpansen vokalisieren, benutzen Gesten und Gesichtsausdrücke, um zu
kommunizieren. Im Laufe der menschlichen Abstammungsgeschichte entwickelte
sich diese grundlegende kommunikative Prädisposition unter natürlichem Selekti-
onsdruck weiter und ermöglichte komplexere Vokalisierungen. Die Evolution des
modernen Menschen dauerte etwa 4 Mio. Jahre nach der endgültigen Abspaltung
vom Schimpansen. Anthropologen sind insbesondere an Übergangsformen inte-
ressiert, d. h. Arten, die affen- und menschenähnliche Eigenschaften aufweisen,
um Evidenz für ein bestimmtes Klassifikationsschema zu erhalten. Obwohl die
Liste der Fossilien relativ klein ist, wurden sogenannte Übergangsarten gefunden.
Im Jahr 1974 wurden 40 Prozent des Skeletts eines Australopithecus afarensis (AL
288-1) in Äthiopien gefunden (Johanson und BeEdey, 1981). Sie ist auch unter dem
Spitznamen „Lucy“ bekannt – benannt nach dem Beatle-Song „Lucy in the Sky with
Diamonds“. Lucy war nur 1,1 m groß und ihr Schädelvolumen betrug etwa 400-
500 cm3, was etwa 35 % des Schädelvolumens des modernen Menschen entspricht.
Sie hatte einen aufrechten Gang, da ihr Becken und ihre Beinknochen denen des

2 Die klassische Annahme, dass Ostafrika die Wiege der Menschheit ist, wird durch
neuesten Fossilienfunde des Hominiden Graecopithecus freybergi in Griechenland und
Bulgarien in Frage gestellt. Die Fossilien (Unterkiefer: 7,175 Mio. Jahre; Zahn: 7,24 Mio.
Jahre) sind offenbar älter als die ältesten „Vormensch-Fossilien“ (Sahelanthropus), die
in Afrika gefunden wurden (6-7 Mio. Jahre). Möglicherweise erfolgte die vormensch-
liche Abspaltung vom Genus Pan in Nordafrika oder im Mittelmeerraum und nicht in
Ostafrika (Fuss et al., 2017).
13
14 1 Die Abstammung des Menschen

modernen Menschen entsprechen. Demgegenüber waren Lucys Arme deutlich


länger und wahrscheinlich wurden Bäume als Unterkunft bevorzugt. Diese 3,2 Mio.
Jahre alte Spezies ist ein Beispiel für die Entwicklung von Bipedalismus, obwohl die
Größe ihres Gehirns etwa der des Schimpansen entsprach. Das Schädelvolumen
allein ist kein Hinweis auf bestimmte kognitive Fähigkeiten. Bestimmte kognitive
Funktion erfordern eine spezifische neuronale Vernetzung und die Gehirngröße
an sich informiert nicht über die für Kommunikation zur Verfügung stehenden
neuralen Schaltkreise. Wir können jedoch ausschließen, dass Lucy bereits über
ein sprachfertiges Gehirn verfügte, aber wir können nicht ausschließen, dass sie
einfache Gesten und Vokalisierungen verwendete, um mit ihren Artgenossen zu
kommunizieren.

Abb. 1.2 Kraniale Kapazitäten erwachsener Homininen. Wenn der Genus


„Paranthropus“ und „H. floresiensis“ nicht berücksichtigt werden, stieg die
kraniale Kapazität in der menschlichen Abstammungsgeschichte systematisch
an. (Daten von Falk, 2007)
1.2 Fossilien-Belege 15

Aus evolutionärer Sicht illustriert Abb. 1.2, dass signifikante Veränderungen vor etwa
2 Mio. Jahren mit dem Erscheinen des H. erectus aufgetreten sind: ein Anstieg des
Hirnvolumens von 800 auf 1.400 cm3 im Spätpleistozän, während die Körpergröße
sich nicht deutlich veränderte (Falk, 2007).3 Das obige Diagramm zeigt jedoch auch,
dass das Schädelvolumen zwischen der Gruppe „Australeoitheous“ und der Gruppe
„später H. erectus“ kontinuierlich anstieg, wenn die Gruppen „Paranthropus“ und
„H. floresiensis“ unberücksichtigt bleiben (siehe Fußnote 4). Der evolutionäre Pro-
zess, der zur Kapazität der komplexen Sprachverarbeitung führte, erfordert nicht
nur neurologische Neuvernetzungen und eine Vergrößerung des Hirnvolumens,
sondern auch positionale Veränderungen des mit den im Brustkorb befindlichen
Lungen verbundenen Vokaltrakts. Der Bedarf an komplexerer Vokalisation hat
vermutlich diese neurologische Umstrukturierung sowie die Veränderungen der
Larynx-Position ausgelöst. Corticale Neuvernetzung ist eine Voraussetzung, um
eine komplexe kognitive Verarbeitung zu ermöglichen. Diese adaptive Umstruk-
turierung wurde vermutlich durch verschiedene Faktoren ausgelöst, nicht nur
durch intrinsische Faktoren wie einen größeren Bedarf an Vokalisation, sondern
auch Umweltbedingungen haben die kognitive und linguistische Evolution in eine
bestimmte Richtung geführt. Lassen Sie uns zu der Frage zurückkehren, warum die
Hirngröße insbesondere beim H. erectus deutlich zunahm. Hierzu werden verschie-
dene Hypothesen diskutiert. Beispielsweise behauptet die Klimawandelhypothese,
dass unsere Vorfahren durch plötzliche Veränderungen der Wetterbedingungen
und einen dramatischen Klimawandel gezwungen wurden, vorauszuplanen und
Vorkehrungen in Bezug auf drastische Veränderungen von Umweltbedingungen
zu treffen. Eine Erhöhung der neurokognitiven Neuvernetzung geschah, um sich
rauen und schwierigen Lebensbedingungen anzupassen. Ein anderes Modell ist die
Ökologiehypothese, die an einem bestimmten Punkt mit der Klimawandelhypothese
assoziiert ist. Da sich die Migration unserer biologischen Vorfahren von C weg
entfernte, erforderten die ökologischen Bedingungen ein adaptives Verhalten in
Bezug auf weniger Nahrungsquellen. Entsprechend wird auch angenommen, dass
ausgehend vom Äquator die nördliche und südliche Migration weniger Pathogene
bekämpfen musste, wovon die Hirnentwicklung wieder profitierte. Die Ökologiehy-
pothese nimmt implizit an: Je mehr unser Immunsystem Energie in Form von
Kalorien benötigt, um Parasiten zu bekämpfen, desto weniger Energie kann für die

3 Der Anstieg des Gehirnvolumens hatte jedoch auch einige Nachteile. Babies werden of-
fensichtlich frühreif geboren, wenn die typische Korrelation zwischen Gehirngröße und
Schwangerschaftszeitraum berücksichtigt wird. Im Vergleich zu anderen Primaten würde
die Tragezeit 17 Monate und nicht 9 Monate betragen. Bei Kleinkindern verlangsamt
sich das Gehirnwachstum postnatal erst nach einem Jahr, d. h., der Hirnreifungsprozess
dauert insgesamt 21 Monate.
15
16 1 Die Abstammung des Menschen

Hirnentwicklung verwendet werden. Dies ist sicherlich eine interessante Hypothe-


se, aber impliziert auch, dass die Hirnentwicklung vor der Migration unterdrückt
wurde. Dies ist eine Annahme, die nur schwer aufrechterhalten werden kann.
Eine plausible Hypothese ist, dass soziale Konkurrenz die dramatische Zunahme
des Hirnvolumens beeinflusst hat (Geary, 2002). Soziale Rivalität löste ein kognitives
Verhalten aus, um kleinere und mittelgroße Gruppen oder sogar größere Popula-
tionen zu managen und zu organisieren. Die Vorteile von strukturierten, intimen
Gemeinschaften bestehen darin, dass jedes Mitglied einer solchen Gemeinschaft
seinem Ego gerecht werden kann, indem er oder sie von diesen geteilten Ressourcen
und Kenntnissen profitiertt. Die kulturelle Entwicklung geht daher mit der biolo-
gischen einher und entwickelt sich von Generation zu Generation. Linguistische
Kommunikation ist die Spitze des Eisbergs der sozialen Kommunikation. Soziale
und biologische Fitness sind zwei Seiten derselben Medaille und deren gleichzeitige
Existenz erhöht die Wahrscheinlichkeit, sich erfolgreich gegen biologische Feinde
und schwierige Klimabedingungen durchzusetzen. Ein relativ schneller Anstieg
des Hirnvolumens wie im Fall von H. erectus kann vielleicht auf eine Verbesserung
der sozialen Interaktion zurückgeführt werden.
In einem engen Zusammenhang mit dieser sozialen Komplexitätshypothese
steht Dunbars Plauder-Annahme, die besagt, dass Sprache durch das Sammeln
von Neuigkeiten über andere Leute entstanden sei. Die soziale Funktion besteht
demnach darin, Allianzen und Glaubenskonzepte bezüglich der Wahrheit von
Aussagen zu schaffen, die nicht mit eigenen Augen bestätigt werden können.
Aufgrund von Studien mit Tieren, die sich sozial verhalten, konnte Dunbar eine
hohe Korrelation zwischen der typischen Frontallappen-Kapazität eines einzelnen
Mitglieds einer Tierart und der maximalen Größe der Gruppe, in der es lebt, fest-
stellen. Entsprechend ist die Anzahl der Beziehungen zu anderen Mitgliedern bei
menschlichen Gemeinschaften begrenzt. Intime Gemeinschaften umfassen kaum
mehr als 150 Mitglieder, die sich untereinander kennen. Kommunikation unter
Einzelpersonen in größeren Gemeinschaften wie Nachbarschaft, Schulsystemen
oder Unternehmen geschieht nicht von Angesicht zu Angesicht, sondern basiert
auf Bestimmungen und Hierarchien und umfasst Untergruppen, die die Rolle ei-
nes einzelnen Individuums einer größeren Gemeinschaft managen. Der deutliche
Anstieg des Neocortex geschah ungefähr vor 1,8 Mio. Jahren während der Epoche
des H. erectus. Bei Schimpansen umfasst der Neocortex 50 % des Gehirns, aber
beim modernen Menschen 80 %. Der Neocortex ist für höhergradige kognitive
Funktionen wie Emotionen, Ichbewusstsein, Überzeugungen, Sprache, Musik,
Planungen, Glaubenskonzepte und komplexe Ideen verantwortlich.
Abb. 1.3 bietet einen differenzierten Überblick über die menschliche Abstam-
mungsgeschichte. Die bipedale Gruppe „Ardipithecus“ besteht aus zwei Unterarten:
1.2 Fossilien-Belege 17

Ar. ramidus und Ar. kadabba. Deren Mitglieder verfügten sogar über ein noch
kleineres Gehirn (etwa 300-350 cm3) als Lucy, aber werden als biologische Vorfahren
des modernen Menschen angesehen. In Bezug auf die Gruppe Paranthropus stellt
sich die Frage, ob der robuste Australopithecus (Au. oder P. robustus) vom grazilen
(Au. garhi) abstammt. Im Allgemeinen bezieht sich der Begriff „Australopithecus“
auf beide Gattungen. Erst vor wenigen Jahren wurde ein Hominini-Fußskelett
in der äthiopischen Region Afar (BRTVP-2/73) gefunden, das nach Schätzungen
3,4 Mio. Jahre alt ist (Haile-Selassie et al., 2012). Diese Art unterscheidet sich von
A. afarensis (Lucy) und ist eher mit dem frühen Ar. ramidus zu vergleichen. Die
Koexistenz der verschiedenen Hominini-Arten während der Pilozän-Epoche (PO)
weist auf multiple bipedale Adaptionen hin. Die Fossilien-Nachweise verdeutlichen,
dass Bipedalismus bereits vorhanden war, bevor Hominini in der Lage waren, kom-
plexe Vokalisierungen zu benutzen oder Werkzeuge herzustellen und einzusetzen.
Es kann jedoch nicht ausgeschlossen werden, dass einige Hominini bereits über
ein einfaches Kommunikationssystem verfügten, was sich allerdings deutlich von
den Kommunikationsformen Gemeiner Schimpansen abhob. Die menschliche
Abstammung umfasst im Paläolithikum (Altsteinzeit) H. habilis (1,44-2,4 Mio.
Jahre), H. erectus (0,3-1,9 Mio. Jahre), H. antecessor (500.000-800.000 Jahre), H.
heidelbergensis (250.000-600.000 Jahre), H. neanderthalensis (30.000-250.000
Jahre), H. rhodesiensis (125.000-300.000 Jahre), H. floresiensis (10.000-100.000
Jahre)4 und H. sapiens (250.000 Jahre).

4 Heute ist es immer noch ungewiss, ob die Spezies „Hobbit“, die über ein Hirnvolumen
von etwa 400 cm3 verfügte, als eine neue Art angesehen werden sollte oder als eine pa-
thologische Abweichung im Sinne einer Mikrocephalie (z. B. Brown et al., 2004; Falk et
al., 2005; Holloway et al., 2006). Obwohl es wie eine Form von Mikrocephalie aussieht,
scheint das kleine Hobbit-Gehirn unter Berücksichtigung der heutigen Definition nicht
in die Kategorie einer Mikrocephalie zu fallen. Diese Annahme wird dadurch unter-
stützt, dass deren Body-Mass-Index (BMI) mit dem des modernen Menschen verglichen
werden kann. Auch der Vergleich des LB1-Endokast mit den Arten von Menschenaffen
wie H. erectus, Australopithecus, moderner Mensch, Pygmäe und moderner Mensch mit
Mikrocephalie deutet darauf hin, dass die Form des LB1-Gehirns dem eines H. erectus
ähnelt (erweiterter Frontal- und Temporallappen), obwohl die Größe des Gehirns eher
mit der eines Australopithecus verglichen werden kann. H. floresiensis scheint eine
andere Spezies zu sein, die jedoch mit dem H. erectus verwandt ist. Vermutlich waren
trotz des relativ kleinen Hirnvolumens die corticalen Vernetzungen vergleichbar denen
des H. erectus entwickelt.
17
18 1 Die Abstammung des Menschen

Abb. 1.3 Rekonstruierte Abstammung des modernen Menschen anhand von


Fossilienfunden (adaptiert und modifiziert, Wikipedia)

Der Fundort der Fossilien und deren Alter geben einige Hinweise auf die Migrati-
onsbewegungen der verschiedenen Hominini und somit auf die mögliche Koexis-
tenz verschiedener Arten während eines bestimmten Zeitabschnitts. Es ist daher
plausibel, dass der rekonstruierte Stammbaum des modernen Menschen nur einen
kleinen Teil der Hominini berücksichtigt, die in einem Zeitraum von 4 Mio. Jahren
gelebt haben. Aber wie verbreitete sich die Gattung Homo auf der ganzen Welt?
Paläoanthropologen haben in der Vergangenheit insbesondere zwei Hypothesen
kontrastiert: die „multiregionale Hypothese“ und die „Out-of-Africa Hypothese“.5
Beide Hypothesen nehmen an, dass die genetische Vielfalt innerhalb der Gattung
Homo in Afrika entstanden ist, doch die „multiregionale Hypothese“ vermutet
vielfältige Kreuzungen, um regionale Kontinuität zu erklären (Wolpoff et al., 2000).
Entsprechend wird vermutet, dass sich die Menschenarten zu Beginn der jüngsten
Gletscherbildungen im Paläolithikum entwickelten (etwa vor 2,5 Mio. - 1.700 Jah-
re). Die Evolution der Menschenarten hätte sich in verschiedenen geographischen
Regionen fortgesetzt, und zwar durch lateralen Gen-Austausch vom H. erectus
bis zum modernen Menschen. In jeder Region hätte es lokale Adaptionen gegeben

5 Andere Begriffe sind „Recent-African-Origin-Modell“ oder „Replacement-Hypothese“.


1.2 Fossilien-Belege 19

und gleichzeitig hätten sich in allen Regionen allgemeine genetische Eigenschaften


durchgesetzt. Wolpoff und Mitarbeiter (2001) beziehen sich auf die Eigenschaften
der menschlichen Schädelfossilien in Australien und Mitteleuropa und vermuten
getrennte Stammlinien, d. h., der Java H. erectus entwickelte sich in Australien und
der Neandertaler in Mitteleuropa. Die „Out-of-Africa Hypothese“ nimmt dagegen
an, dass sich der moderne Mensch in Afrika vor etwa 100.000-200.000 Jahren als eine
neue Art der Gattung Homo entwickelt und etwa vor 50.000-60.000 Jahren Afrika
verlassen habe. Hierbei wurden in den neu entdeckten Regionen die bereits dort
lebenden Menschenarten vom H. sapiens verdrängt (Weaver und Roseman, 2008).
Die Debatte über die Migration von Menscharten kann nicht als abgeschlossen
angesehen werden. Trinkhaus (2007) analysierte verschiedene Fossilienmerkmale
(z. B. Eigenschaften des Schädels und Form des Unterkiefers, Form und Größe der
Zähne und anderer Knochen) von späteren Europäern, die nicht in afrikanischen
Proben, aber in denen der Neandertaler gefunden wurden. Er vermutet eine „de-
zente Assimilation von dem Neandertaler bis zum modernen Menschen, da sich
der moderne Mensch in ganz Europa verbreitete“ (lateraler Gen-Austausch). Die
ersten H. sapiens sind stumme Zeugen, da sie Knochen und Werkzeuge überliefern,
spätere Individuen können anhand der weiblich-spezifischen mtDNA und des
männlich-spezifischen Y-Chromosoms biologisch genauer bestimmt wird. Zufällige
Mutationen in beiden Fällen ermöglichen, den Grad der Verwandtschaft und die
Abstammung zu bestimmen. Alle Menschen dieser Welt sind sehr eng miteinander
verwandt, wenn die DNA-Analysen zum Beispiel mit Schimpansen verschiedener
afrikanischer Gruppen verglichen werden. Die mitochondriale Eva, belegt durch
die Analyse der mtDNA und die auch afrikanische Eva genannt wird, ist die letzte
gemeinsame Vorfahrin (MRCA, „most recent common ancestor“), eine Frau, die
etwa vor 200.000 Jahren in Afrika lebte und von der heute alle lebenden H. sapiens
abstammen (Cann et al., 1987). Die Daten zu den Y-Chromosomen unterstützen
auch die Out-of-Africa Hypothese und weisen auf eine Ausbreitung von Asien
zurück nach Afrika (Hammer et al., 1998). Neuere DNA-Untersuchungen von
Neandertaler-Knochen konnten einige Probleme bei der Analyse (insbesondere
Kontaminationen mit DNA des modernen Menschen) vermeiden und zeigen, dass
Neandertaler 1-4 % mehr genetische Varianten mit Nicht-Afrikanern teilten als mit
afrikanischen Bevölkerungsgruppen der Subsahara – die San aus Südafrika und die
Yoruba aus Westafrika (Green et al., 2010). Auch unterscheidet sich die Menschenart
Denisova, die im sibirischen Altaigebirge gefunden wurde, laut mtDNA-Analyse
vom Neandertaler und vom modernen Mensch, obwohl diese Arten der Gattung
Homo zur gleichen Zeit, etwa vor 41.000 Jahren, existierten (Reich et al., 2010).
Weitere Analysen zeigen, dass 4-6 % des Genoms mit den heute lebenden Mela-
nesiern und den australischen Aborigines in Ozeanien geteilt werden, aber nicht

19
20 1 Die Abstammung des Menschen

mit einer anderen Bevölkerungsgruppe. Es ist daher begründet anzunehmen, dass


ein lateraler Genfluss zwischen zwei Regionen außerhalb von Afrika stattgefunden
hat (Reich et al., 2011).6
Zusammenfassend lässt sich die Stammesgeschichte des modernen Menschen
wie folgt darstellen: Unter Berücksichtigung molekularer Uhrberechnungen trenn-
ten sich die Abstammungslinien des Menschen und des Schimpansen endgültig
vor etwa 4 Mio. Jahren. Verschiedene Modelle werden diskutiert, wann und wie
sich die Abspaltung des Schimpansen von der menschlichen Abstammungslinie
vollzog. Der Genom-Analyse zufolge spalteten sich, wie oben erwähnt, Hominiden
und Schimpansen zunächst voneinander ab, aber kreuzten sich zu einem späteren
Zeitpunkt (z. B. Bower, 2006). Der genetische Unterschied zwischen beiden Spezies
beträgt nur etwa 1,6 %, ein Unterschied, der kleiner ist als der zwischen Schim-
pansen und Gorillas (2,3 %).7 Aus genetischer Sicht kann der moderne Mensch als
eine dritte Spezies oder Schwester-Spezies des (Gemeinen) Schimpansen und des
Bonobos angesehen werden.
Die Argon-Datierung lässt vermuten, dass sich das bipedische Gehen etwa vor
4 Mio. Jahren entwickelte, die ältesten Steinwerkzeuge werden auf 2,6 Mio. Jahre
datiert und der H. erectus dispergierte vor ungefähr 1,8 Mio. Jahren aus Afrika
zunächst nach dem heutigen Israel und anschließend nach Asien und Europa. Die
ersten Fossilien des H. erectus wurden 1891 auf Java von dem holländischen Arzt
Eugène Dubois gefunden, und er vermutete, dass es sich um eine „Übergangsspe-
zies“ zwischen Affen und modernem Menschen handelt. Ein anderes oft zitiertes
Fosssil des H. erectus wurde in der Nähe von Peking (Peking-Mensch) entdeckt
und wird auf ein Alter von 680.000-780.000 Jahren geschätzt (Shen et al., 2009).
Gegenwärtig stellt sich die Frage, ob die frühe Periode (vor 1,24-1,8 Mio. Jahren)
einer anderen Spezies zuzuordnen ist, H. ergaster. Einige Anthropologen ver-
muten, dass H. ergaster der direkte afrikanische Vorfahre des H. erectus ist und

6 Wie schnell die DNA zerfällt, ist extrem temperaturabhängig. Nach neueren Berech-
nungen kann allerdings DNA länger erhalten bleiben, als zuvor angenommen. Allentoft
und Mitarbeiter (2012) berichten, dass gefrorene DNA (–5°C) eine Halbwertzeit von bis
zu 158.000 Jahren hat, d. h., sie würde etwa 6,8 Mio. Jahre erhalten bleiben. Bei 13°C
wurde eine Halbwertzeit von 521 Jahren für Moa-Knochen entdeckt – 400-mal länger,
als Laborexperimente es vorausgesagt hatten. (Moa ist ein ausgestorbener flügelloser
Vogel, der in Neuseeland bis 1400 n. Chr. lebte.)
7 Natürlich vergleichen wir den heutigen Schimpansen (einschließlich Genen und Schä-
delvolumen) mit Arten der menschlichen Abstammungslinie, jedoch nicht mit denen
von Schimpasen, die vor etwa 4 Mio. Jahren lebten. Es wird implizit angenommen, dass
die Evolution des Schimpansen relativ überschaubar war, obwohl diese Schlußfolgerung
verfrüht sein könnte.
1.2 Fossilien-Belege 21

nach Asien migrierte.8 Es gibt keinen Zweifel daran, dass diese Spezies tatsächlich
einen aufrechten Gang hatte, wie das Sperren der Knie und die veränderte Positi-
on des Foramen magnum (großes Hinterhauptloch) belegen.9 Die Vorfahren des
anatomisch modernen Menschen (AMH) waren offensichtlich erstmalig im Gra-
benbruch Ostafrikas (Rift Valley) ansässig; von dort aus migrierten sie in andere
Himmelsrichtungen – nach Norden, Westen und Süden. Es wird angenommen,
dass eine Abstammungslinie vor 700.000 Jahren im heutigen Europa und im
Mittleren Osten zum Neandertaler und eine andere Abstammungslinie in Afrika
zum modernen Menschen evolvierte. Da vor ungefähr 100.000 Jahren die Eiszeit
endete, verbesserten sich die Klimabedingungen in Afrika und führten vermutlich
zu einem Bevölkerungswachstum unter den Frühmenschen. Bei den ältesten Fossi-
lien unserer direkten Vorfahren handelt es sich um 160.000 Jahre alte Schädel von
zwei erwachsenen Männern und einem Kind, die in der Nähe des Dorfes Herto in
Äthiopien gefunden wurden. Der Herto-Schädel ist mit 1,450 m3 etwas größer als
das durchschnittliche Schädelvolumen des modernen Menschen (1,350-1,400 m3),
daher werden diese Fossilien oftmals der Unterspezies H. sapiens idaltu zugeordnet.
Der AMH lebte vor den meisten Neandertalern und kann daher nicht von dieser
Homo-Spezies abstammen. H. sapiens idaltu besaß eine komplexe Steinkultur, da
im gleichen Sediment einige hunderttausend Steinwerkzeuge existierten. Weitere
Migrationen fanden im Zeitraum zwischen 90.000 und 180.000 Jahren vor unse-
rer Zeit statt. AMH verbreiteten sich schnell in der gesamten eurasischen Region
und scheinen sich gegenüber anderen Hominiden durchgesetzt zu haben. Es wird
angenommen, dass sie China vor etwa 68.000 Jahren erreichten, Australien vor
60.000, Europa vor 36.000 und Amerika10 und Ozeanien vor etwa 12.000 Jahren
(Cann et al., 1987). Mit Ausnahme der Antarktika und einiger Inseln wie Neusee-

8 Die 1891 von dem niederländischen Anthropologen Eugène Dubois auf Java gemachten
Fossilienfunde stimmen damit überein. Er bezeichnete die Überreste des Schädels als
„Pithecanthropus erectus“ (aufrechter Affenmensch). Es besteht heute kein Zweifel
darüber, dass der Java-Mensch zum Genus Homo gehört und einige Anthropogene
beziehen sich mit der Bezeichnung „Homo erectus“ ausschließlich auf Hominide, die
auf Java gefunden wurden. Unter Berücksichtigung der geographischen Regionen, in
denen die Fossilien gefunden wurden, werden die Begriffe wie Homo georgicus (Dma-
nisi, Georgien), Homo soloensins (Ngandong, Java), Homo pekinensis (Peking, China)
verwendet. Die afrikanische Variante des Homo erectus wird normalerweise als H.
ergaster bezeichnet.
9 Das „große Hinterhauptloch“ bezieht sich auf die Öffnung im Schädel, durch die das
Gehirn mit der Wirbelsäule verbunden ist.
10 Eine jüngst veröffentlichte Studie behauptet, Indizien dafür gefunden zu haben, dass
die menschlichen Vorfahren bereits vor etwa 130.000 Jahren den nordamerikanischen
Kontinent besiedelt haben. Die Indizien sind sogenannte „Hammer-Steine“, die in
21
22 1 Die Abstammung des Menschen

land und Hawaii migrierte der moderne Mensch vor etwa 10.000 Jahren in alle
Regionen der Erde. Eine genaue Bestimmung des Ursprungs der Sprache scheint in
Anbetracht der wenigen Hinweise und Belege nicht möglich zu sein. Der Gebrauch
einer Lautsprache scheint jedoch mit dem Auftreten bestimmter Kulturformen,
die abstrakte und symbolische Bedeutungen ausdrücken, im Zusammenhang
zu stehen. Wir werden in den weiteren Ausführungen mögliche Szenarien oder
Schlüsselereignisse in Bezug auf die Sprachentstehung beim modernen Menschen
untersuchen. Ein komplexes natürliches Kommunikationssystem unterstützt die
Entwicklung kultureller Formen, ermöglicht, sofort Informationen auszutauschen
und gemeinsame Ziele zu formulieren, Erwartungen auszudrücken und Pläne
zu schmieden und vor allem soziale Beziehungen unter den Mitgliedern einer
Gruppe oder eines Stammes aufzubauen und zu pflegen. Arnold Schleicher und
Ernst Haeckel nahmen an, dass verschiedene Sprachen zu verschiedenen Spezies
oder Rassen gehören. Im 18. und 19. Jahrhundert war dies die Standardauffassung.
Heute nehmen wir zur Kenntnis, dass linguistische Typologien, ethnische oder
charakterliche Gesichtspunkte in keinem Zusammenhang mit der BDS stehen.
In den vorliegenden Betrachtungen beziehen wir uns auf die zugrunde liegenden
kognitiven und neurobiologischen Prinzipien, die es uns ermöglichen, eine oder
mehrere Sprachen zu erwerben oder zu lernen. Eine Frage, die sich immer wieder
stellt, ist, wie sich die biologische Disposition entwickelt haben könnte. Verfügten die
Vorfahren des modernen Menschen bereits über eine oder eine partielle biologische
Sprachdisposition, und welche Faktoren bestimmten die relevanten biologischen
Mutationen und die kognitiv-linguistischen Adaptionen, die die Verarbeitung
der modernen Lautsprache ermöglichten? Der vorliegende Ansatz untersucht die
Evolution der BDS nicht als einen isolierten Prozess, sondern als einen Prozess, der
wechselseitig mit der Entwicklung anderer kognitiver, für den modernen Menschen
charakteristischer Kapazitäten einhergegangen ist.

Kalifornien gefunden wurden. Die Funde werden gegenwärtig kontrovers diskutiert


(Holen, 2017; siehe Kommentare von Callaway, 2017; Hovers, 2017).
Literatur 23

Literatur
Literatur
Allentoft, M. E., Collins, M., Harker, D., Haile, JOskam, C. L., Hale, M. L., Campos P. F.,
Samaniego, J. A., Gilbert, M. T., Willerslev, E., Zhang, G., Scofield, R. P., Holdaway, R. N.,
Bunce, M. (2012). The half-life of DNA in bone: measuring decay kinetics in 158 dated
fossils. Proceedings of the Royal Society B: Biological Sciences, 279(1748), 4724–33.
Bickerton, D. (2009). Adam’s tongue. Hill and Wang.
Bower, B. (2006). Hybrid-driven evolution: Genomes show complexity of human-chimp
split. Science News, 169(20), 308–9.
Brown, P., Sutikna, T., Morwood, M. J., Soejono, R. P., & Jatmiko, W. (2004). A new small-bo-
died hominid from the late Pleistocene of Flores, Indonesia. Nature, 441, 624–28.
Callaway, E. (2017). Controversial study claims humans reached Americas 100,000 years
earlier than thought. Nature, doi:10.1038/nature.2017.21886.
Cann, R. L., Stoneking, M., & Wilson, A. C. (1987). Mitochondrial DNA and human evolu-
tion. Nature, 325(6099), 31–6.
Chomsky, N. (1956). Three models for the description of language. Information Theory, IRE
Trans, 2(3), 113–24.
Chomsky, N. (1995). The minimalist program. Cambridge, MA: MIT Press.
Darwin, C. (1871). The descent of man, and selection in relation to sex. London: John Murray.
Falk, D. (2007). Evolution of the primate brain. In W. Henke & I. Tattersall (eds.), Handbook of
palaeoanthropology, vol. 2: Primate evolution and human origins. Springer Press, 1133–62.
Falk, D., Hildebolt, C., Smith, K., Morwood, M. J., Sutikna, T., Brown, P., Jatmiko, Sapto-
mo, E. W., Brunsden, B., & Prior, F. (2005). The brain of LB, Homo floresiensis. Science,
308(5719), 242–5.
Fuss, J., Spassov, N., Begun, D. R., & Böhme, M. (2017). Potential hominin affinities of
Graecopithecus from the Late Miocene of Europe. PLOS, https://doi.org/10.1371/journal.
pone.0177127.
Geary, D. (2002). Principles of evolutionary educational psychology. Learning and Individual
Differences, 12, 317–45.
Greenberg, J. (1963). Universals of language. Cambridge: MIT Press.
Green, R. E., et al. (2010). A Draft Sequence of the Neandertal Genome. Science, 328 (5979),
710–722.
Haeckel, E. (1868). The history of creation. London: Kegan Paul, Trench & Co.
Haile-Selassie, Y., Saylor, B. Z., Deino, A., Levin, N. E., Alene, M., & Latimer, B. M. (2012).
Anew hominin foot from Ethiopia shows multiple Pliocene bipedal adaptations. Nature,
483, 565–569.
Hammer, M. F., Karafet, T., Rasanayagam, A., Wood, E. T., Altheide, T. K., Jenkins, T.,
Griffiths, R. C., Templeton, A. R., & Zegura, S. L. (1998). Out of Africa and back again:
Nested cladistic analysis of human y chromosome variation. Molecular Biology and
Evolution, 15(4), 427–41.
Holen, S. R., Deméré, T. A., Fisher, D. C., Fullagar, R., Paces, J. B., Jefferson, G. T., Beeton,
J. M., Cerutti, R. A., Rountrey, A. N., Vescera, L., & Holen, K. A. (2017). A 130,000-year-old
archaeological site in southern California, Nature, 544. 479–85. doi:10.1038/nature22065.
Holloway, R. L., Brown, P., Schoenemann, P. T., & Monge, J. (2006). The brain endocast of
Homo floresiensis: microcephaly and other issues. American Journal of Physical Anth-
ropology, 129 (supplement 105).

23
24 1 Die Abstammung des Menschen

Hovers, E. (2017). Unexpectedly early signs of Americans. Nature, 544, 420–21.


Johanson, D., & Edey, M. (1981). Lucy, the beginnings of humankind. St Albans: Granada.
Lenneberg, E. H. (1967). Biological foundations of language. New York, NY: Wiley.
Mayr, E. (1942). Systematics and the Origin of Species. New York, NY: Columbia University
Press.
McBrearty, S., & Jablonski, N. G. (2005). First fossil chimpanzee. Nature, 437, 105–8.
Reich, D., et al. (2010). Genetic history of an archaic hominin group from Denisova Cave in
Siberia. Nature, 468(7327), 1053–1060.
Reich, D. et al. (2011). Denisova Admixture and the First Modern Human Dispersals into
Southeast Asia and Oceania. American Journal of Human Genetics, 89(4), 516–28.
Sagan, C. (1979). Broca’s Brain. New York: Random House.
Schleicher, A. (1861). Compendium der vergleichenden Grammatik der indogermanischen
Sprachen [German]. Weimar: H. Böhlau. [English version: Schleicher (1874). A Compen-
dium of the comparative grammar of the Indo-European, Sanskrit, Greek, and Latin
languages (translated an abridged version from the 3rd German edition by Herbert
Bendall). London: Trübner and Co.]
Shen, G., Gao, X., Gao, B., & Granger, D. (2009). Age of Zhoukoudian Homo erectus deter-
mined with (26) Al/(10)Be burial dating. Nature, 458(7235), 198–200.
Trinkaus, E. (2007). European early modern humans and the fate of the Neandertals. Pro-
ceedings National Academy of Science, 104(18), 7367–72.
Trombetti, A. (1905). L’unit d’origine del linguaggio [Italian]. Bologna: Luigi Beltrami.
Weaver, T. D., & Roseman, C. C. (2008). New developments in the genetic evidence for modern
human origins. Evolutionary Anthropology: Issues, News, and Reviews, 17(1), 69–80.
Wolpoff, M. H., Hawks, J., & Caspari, R. (2000). Multiregional, not multiple origins. American
Journal of Physiological Anthropology, 112(1), 129–36.
Wolpoff, M. H., Hawks, J., David, W., Frayer, D. W., & Hunley, K. (2001). Modern Human
Ancestry at the Peripheries: A Test of the Replacement Theory. Science, 291(5502),293–297..
Wood, B. (2002). Hominid revelations from Chad. Nature, 418, 133–5.
Protomusik und Sprechen
2 Protomusik und Sprechen 2

Zusammenfassung

Im Sinne der Tradition von Charles Darwin behaupten wir hier, dass der Ur-
sprung der Sprache auf der Entwicklung von Kognition und Protomusik beruht.
Durch sexuelle Selektion und andere Faktoren wie Belohnung ist Vokalisierung
der Ausgangspunkt für die Entwicklung von Sprechen und Sprache. Gesten
und körperliche Signale oder Reaktionen haben vermutlich die Entwicklung
komplexer Vokalisation unterstützt. In einem Zeitraum von etwa 4 Mio. Jahren,
vermuten wir, dass es verschiedene Protostadien bei der Entwicklung von Kog-
nition und Sprechen gegeben haben muss. H. erectus könnte der erste Hominid
gewesen sein, der Protosprechen verwendete, um abstrakte und symbolische
Konzepte in Form von diskreten linguistischen Einheiten auszudrücken. Wir
vermuten weiterhin, dass komplexe Silbenstrukturen nachgeahmt wurden, um
eine sprachliche Syntax zu entwickeln.

Stichwörter

Broca Region, H. erectus, Nucleus accumbens, NAcc, Ursprung der Sprache,


Protomusik, Protosprechen, Belohnungssystem, Vokalisation, Wernicke-Region.

25
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_3
26 2 Protomusik und Sprechen

2.1 Der Beitrag der Protomusik


2.1 Der Beitrag der Protomusik
Darwin (1859) diskutierte in seinem ersten Werk „Origin of Species“ evolutionäre
Ansätze des menschlichen Geistes und vermied dadurch, eine anti-evolutionäre
Position einzunehmen, die beispielsweise explizit von dem Linguisten Friedrich
Max Müller (1866) eingenommen wurde. Im Sinne von Müller ist Sprache das
Hauptmerkmal, das den Menschen von den Tieren unterscheidet. Darwin disku-
tierte das Konzept einer „musikalischen Protosprache“, das auch noch heute eine
wichtige Rolle spielt. Darwin verweist in diesem Zusammenhang auf vergleichbare
Ideen, die bereits im 17. Jahrhundert formuliert wurden. Beispielsweise wurde
angenommen, dass Vogelgesang durch männliche Rivalisierungen und territoriale
Kämpfe entstanden ist (Thomas, 1995). Obwohl er einen Multikomponentenansatz
zur Sprachevolution vertrat, hob Darwin die Bedeutung von komplexer Vokalisation
hervor, indem er diesen Aspekt im Rahmen einer allgemeinen Evolutionstheorie
untersuchte (z. B. Fitch, 2000; Egnor und Hauser, 2004). Darwin (1871, S. 880)
erwähnte in seinem zweiten Werk „The descent of man and selection in relation to
sex“ einige Aspekte, die sich auf die Evolution von Sprache beziehen: „… it appears
probable that the progenitors of man, either the males or females or both sexes,
before acquiring the power of expressing their mutual love in articulate language,
endeavoured to charm each other with musical notes and rhythm.“
Insbesondere teilten Evolutionisten und ihre Gegner die Meinung, dass Emo-
tionen und Gedächtnis von Mensch und Tier geteilt werden. Darwins Ansatz
kann kurz folgendermaßen zusammengenfasst werden: Zunächst hebt er hervor,
dass der „sprachliche Instinkt“ kein wahrer Instinkt ist, jedoch einen Lernpro-
zess beinhaltet. Er verwendet den Ausdruck „instinctive tendency to acquire an
art“; damit bezieht es sich nicht nur auf den sprachlichen Instinkt, sondern auf
einen Instinkt, der mit komplexen Kuturformen und Kognition einhergeht. Auch
hat Darwin bereits erkannt, dass die sprachliche Kapazität eine Eigenschaft des
menschlichen Gehirns ist. Der menschliche Vokaltrakt an sich sei unzureichend,
um den modernen Menschen mit Sprache auszustatten. Schließlich zieht Darwin
eine Parallele zwischen der Vokalisation des Menschen und der von Singvögeln:
Ein Singvogel besitzt einen Instinkt für das Singen, der moderne Mensch hat einen
Instinkt für das Sprechen (zusätzlich zum Singen) und der Erwerb von regionalen
Dialekten ist sowohl für den Vogelgesang als auch für das Sprechen des Menschen
charakteristisch (siehe Fitch, 2013). Sowohl diese allgemeinen Beobachtungen
als auch seine Betrachtungen zur „musikalischen Protosprache“, die wir hier als
„Protomusik“ bezeichnen, sind auch heute noch aktuell.
Zunächst vermutet Darwin, dass die Entwicklung der Kognition und der sozialen
Intelligenz die Grundlage für die Entwicklung von Protomusik und Protosprache
2.1 Der Beitrag der Protomusik 27

darstelle (Hewes, 1973; Bickerton, 1990). Einige wichtige Eigenschaften der Proto-
musik seien das Ergebnis der sexuellen Selektion. Sie würden beim Balzverhalten,
bei territorialem Verhalten und bei Emotionen wie Liebe, Eifersucht und Triumph
auftreten. Darwin hebt insbesondere hervor, dass vokale Imitation eine kognitive
Eigenschaft von Singvögeln ist, die mit dem Menschen geteilt wird. Die ersten Kom-
munikationsformen könnten vokale Emotionen gewesen sein, indem Vokalisationen
mit Objekten, Zuständen, Aktionen oder Emotionen assoziiert wurden (Holloway,
1992). Diese imitierten Naturlaute hätten sich wahrscheinlich auf Onomatopoesie
(z. B. das Nachahmen von Tierlauten, emotionale Lautgeräusche oder Geräusche
natürlicher Ereignisse) oder auf instinktive Laute unserer direkten Vorfahren, die
durch Gesten und Zeichen unterstützt wurden, bezogen.
Darwin vermutet, dass Vokalisation der primäre Auslöser für die Sprachevo-
lution ist und nicht Gesten, wie heute teilweise angenommen wird (z. B. Corballis,
2003; Arbib, 2005; Call und Tomasello, 2007). Er nimmt ebenso an, dass sich durch
verstärkte Vokalisation der Vokaltrakt funktionell graduell ausdifferenzierte, so
dass sich die Bandbreite diskreter Äußerungen vergrößerte. Sein Ansatz ist aus der
Sicht komparativer Daten vergleichbar: Ohne Bezug auf symbolische Bedeutungen
entwickelte sich vokales Lernen bei den Säugetieren in verschiedenen Kladen (z. B.
Fledermäuse, Zetazeen und Flossenfüßer) und bei Vögeln (z. B. Singvögel, Koli-
bris, Papageien). Die genaue Entwicklung von Symbolen und Propositionen, die
Bedeutungen auf der Satzebene ausdrücken, bleibt zum heutigen Zeitpunkt sehr
spekulativ. Allerdings spielte vermutlich eine komplexere Kognition eine wichtige
Rolle bei der Entwicklung kommunikativer Fähigkeiten unserer Vorfahren. Es ist
zu vermuten, dass die Entwicklung sozialer Kompetenz und strategischer Planung,
einschließlich Werkzeuggebrauch, an der Entwicklung komplexer Sprachkompe-
tenz beteiligt war.
Es bleibt jedoch fraglich, wie das Konzept von Phrasen oder Sätzen entstand.
Basieren diese Strukturen auf einzelnen Wörtern, wurden sie direkt aus Protomusik
abgeleitet oder wurden beide kognitiven Prozesse miteinander kombiniert? Diese
Fragestellung spiegelt sich in der heutigen Debatte über die Möglichkeit einer ho-
listischen Protosprache wider. Der Linguist Otto Jesperson (1922) ging von einem
holistischen Ansatz aus. Zum Beispiel wären propositionale Bedeutungen aus
gesungenen Phrasen abgeleitet worden. (Multi-)Silben der musikalischen Phrasen
wären mit Referenz auf einzelne lexikalische Bedeutungen, die sich wiederum auf
verschiedene syntaktische Kategorien bezogen, diskret segmentiert worden. Dieser
holistische Ansatz wurde im Rahmen gegenwärtiger Diskussionen zum Ursprung
von Sprache einerseits verteidigt (Wray, 1998; Arbib, 2005), aber andererseits durch
solche Ansätze heftig kritisiert, bei denen syntaktische Prozesse gelernt werden,
um Wörter bzw. diskrete Einheiten miteinander zu kombinieren (Bickerton, 2007;

27
28 2 Protomusik und Sprechen

Tallerman, 2007). Bestimmte Modelle spiegeln oftmals extreme Positionen wider


und ein „realistischeres“ Bild lässt sich dadurch gewinnen, dass relevante Eigen-
schaften verschiedener Ansätze herangezogen werden. Unter der Annahme, dass
Protomusik der Ausgangspunkt für die Sprachevolution gewesen sei, ist die Hypo-
these von globalen oder holistischen Bedeutungen, die mittels vokaler Sequenzen
komplexe Ereignisse ausdrücken, von besonderer Relevanz. Der graduelle Prozess
der Fraktionierung erzeugte dadurch im Lauf der Zeit diskrete tonale Einheiten
und/oder Phrasen. Bevor wir etwas genauer ein mögliches Szenario zum Ursprung
von Protokommunikation und zur Sprachevolution diskutieren, verdeutlichen
wir, dass vermutlich Vokalisation per se den Ausgangspunkt für die Entwicklung
komplexer Kommunikation beim modernen Menschen darstellte.

2.2 Evolutionäre Meilensteine


2.2 Evolutionäre Meilensteine
Die primäre Kommunikationsform unter unseren biologischen Verwandten, den
Affen, ist Vokalisation, wobei Gesten und andere nicht-vokale Signale nur eine
unterstützende Funktion zu haben scheinen. Wie zuvor erwähnt, bevorzugen auch
andere Säugetiere die Vokalisation, einschließlich Ultraschall-Kommunikation bei
Walen, Delphinen, Nagetieren, aber auch bei Insekten, Vögeln, Amphibien und
Fischen. Die Vokalisierung stellt eine Hauptform der sozialen Kommunikation
bei einer großen Anzahl verschiedener Spezien dar. Das erste Stadium der Vo-
kalisation, das Babbel-Stadium, verdeutlicht überraschend parallele Muster bei
Menschen, Singvögeln und anderen Tieren. Das menschliche Kleinkind babbelt
spontan im ersten Jahr, und danach folgen verschiedene systematische Stadien des
Spracherwerbs. Ein Jungvogel beginnt ebenso in Form eines unvollständigen Liedes
zu babbeln. Ein junger Zebrafink lernt das Singen durch die Wahrnehmung des
Tutorgesangs (typischerweise des Vaters). Etwa einen Monat nach dem Schlüpfen
babbeln diese Vögel kreischende Tonsequenzen und üben stundenlang. Nach einer
dreimonatigen Lernphase kann der Jungvogel den Tutorsong exakt imitieren. Es
gibt bei verschiedenen Spezies erstaunliche Parallelen hinsichtlich des vokalen
Lernens und der Produktion. Komparative Studien informieren uns detailliert
über die phylogenetische Entwicklung der (sub)corticalen Systeme, die komplexe
Vokalisation, einschließlich gesprochener Sprache, unterstützen. Der Ursprung
der Vokalisation im Rahmen der menschlichen Evolution bleibt jedoch weiterhin
spekulativ. Wir diskutieren in den folgenden Ausführungen einige mögliche Szena-
rien, wobei jedoch auch andere, alternative Positionen denkbar sind. Lassen Sie uns
2.2 Evolutionäre Meilensteine 29

einige aufeinander aufbauende Meilensteine, die vermutlich an der Sprachevolution


beteiligt waren, ausführen:

Protostadien:
t Kognition: sensorische Erfahrung, Instinktrufe
t Musik: Rhythmus, Prosodie, Silben
t Phrasen: verkörperte Konzepte, Basisphrasen
t Sprechen: diskrete Töne, symbolische Konzepte, Basissyntax

Der graduelle Anstieg der kranialen Kapazität und somit vermutlich auch der
kognitiven Kapazität könnte bereits mit dem Erscheinen des Australopithecus vor
etwa 4 Mio. Jahren einhergehen. Es wird angenommen, dass ungefähr vor 2 Mio.
Jahren in Ostafrika eine der Australopithecinen-Spezien, Aus. sediba, in eine Spezies
des Genus Homo evolvierte. Wir behaupten deshalb an dieser Stelle, dass unsere
prä-humanen Vorfahren im Vergleich zu Spezien des Genus Homo Generalisten
gewesen sind. Sie haben vermutlich eine Reihe verschiedener kommunikativer
Signale in verschiedenen sensorisch-motorischen Modalitäten verwendet (z. B.
Instinktrufe, Gesten und Grimassen), um über Gefahrensituationen und Vorteile
zu informieren oder um Gefühle auszudrücken. Die multi-sensorische Interaktion
verschiedener Signale wie Töne, Geräusche, Licht, Gerüche und Tastempfindun-
gen haben vermutlich zu einem größeren sensorisch-spezifischen Arbeitsspeicher
geführt, aber auch zu mehr assoziativen Verbindungen und konzeptuellen Reprä-
sentationen. Die Klimaveränderungen und/oder der Versuch, neue ökologische
Nischen in der Savanne zu entdecken, hat vermutlich zu komplexeren kognitiven
Prozessen geführt, was wiederum die Evolution einer größeren kranialen Kapazität
bewirkt haben könnte.11 Wir nehmen daher an, dass die durch Klimawandel und
soziale Planung motivierte multi-sensorische Integration das Hauptkriterium
für die Entwicklung von komplexen corticalen Strukturen gewesen ist. Weitere
Spezialisierungen wurden wahrscheinlich durch verschiedene Faktoren ausgelöst,
inbesondere das Auftreten von verbesserten Kommunikationsformen.
Die Anwendung von Protomusik, d. h. von melodisch-rhythmischen Strukturen
und Harmonien könnte im Sinne von Darwin (1871) durch sexuelle Selektion,
Elternfürsorge und Gruppenkohäsion ausgelöst worden sein. Sexuelle Selektion

11 Neuere Studien weisen darauf hin, dass unsere distanten Vorfahren nicht gezwungen
waren, den Regenwald im Nordosten Afrikas zu verlassen, da die Savannenausdehnung
den Regenwald allmählich ersetzte. Es sei tatsächlich unwahrscheinlich, dass es im
Nordosten Afrikas in den letzten 12 Mio. Jahren einen üppigen Regenwald gab (Feakins
et al., 2013). Daher sei anzunehmen, dass sich unsere Vorfahren darum bemühten, sich
neuen ökologischen Nischen anzupassen.
29
30 2 Protomusik und Sprechen

ist ein komplexer Wesenszug und beim Wettbewerb um die Braut von Vorteil
(Miller, 2000). Auch die sogenannte Babysprache (von einem Säugling verwendete
melodische und rhythmische Äußerungen) stellt ein wichtiges Instrument für die
Versorgung des Säuglings bzw. Kleinkindes dar. Protomusik könnte zudem in dem
Sinne von Vorteil sein, dass die soziale Kohäsion innerhalb einer Gruppe geför-
dert wird (Brown, 2000). Auch wenn wir hier für einen adaptionistischen Ansatz
plädieren, sollte hervorgehoben werden, dass es eine Reihe allternativer Ansichten
gibt, einschließlich eines nicht-adaptionistischen Standpunkts in Bezug auf die
Evolution von Musik. Ein nicht-adaptionistischer Ansatz geht davon aus, dass
nicht natürliche Selektion die Entwicklung von Musik bewirkt hat. Entsprechend
wurde zum Beispiel behauptet, dass Musik durch leidenschaftliches Sprechen ent-
standen ist (Spencer, 1857) oder es sich hierbei um eine zufällige Besonderheit des
menschlichen Gehirns handele (James, 1890; sieh auch Pinker, 1997). Im Sinne einer
evolutionistisch-neurobiologischen Position bleibt die Hypothese recht plausibel,
dass moderne Musik und moderne Sprache sich durch natürliche Selektion auf der
Grundlage von protomusikalischem Verhalten entwickelt hat.
Während es sicherlich möglich ist, für die Relevanz von protomusikalischem
Verhalten zu argumentieren, ist es jedoch schwierig, eine graduelle Spezifikation
in Bezug auf Sprache zu modellieren. Hierbei wird nicht in Frage gestellt, dass
der evolutionäre Prozess graduell erfolgte, aber es stellt sich die Frage nach dem
Zusammenhang zwischen kulturellem Verhalten und Genen und vice versa. Wir
nehmen an, dass unsere entfernten Verwandten ihren Vokaltrakt benutzten, um
eine Reihe verschiedener Tonlagen und Tonstärken zu erzeugen – vielleicht auch
von Tanzschritten begleitet. Es ist schwierig, darüber zu spekulieren, woher die
Konzepte Harmonie und Melodie kommen, aber das Konzept Timing scheint
hierbei von wesentlicher Bedeutung zu sein. Timing, das biologisch verankert
ist, involviert die Koordination von Ereignissen und die Synchronisierung von
Prozessen. Leben bedeutet Timing und jeder Organismus besitzt eine innere Uhr,
die nach bestimmten Sequenzen operieren muss. Dies betrifft alle Aspekte eines
Organismus, vom Herzschlag, Aktionspotential bis hin zur Sprechkoordination.
Unsere entfernten Vorfahren müssen Rhythmen und Harmonien entdeckt haben,
vielleicht durch Wahrnehmung des eigenen Herzschlags und durch ritualisiertes
Verhalten. Die angeborene Kapazität, harmonische Muster und Melodien wahr-
zunehmen, kann in der Tat eine Reflexion oder ein Ausdruck der Prinzipien der
Mutter Natur sein, die Leben schafft. Auf der Grundlage dieser biologischen
Prinzipien werden biologische Strukturen auf kognitives Verhalten abgebildet.
Wir vermuten weiterhin, dass kognitive Spezialisierung in verschiedenen Domä-
nen stattgefunden hat, was zu einer kognitiven Kapazität führte, die heute unter
dem Begriff menschliche Intelligenz bekannt ist. Die moderne Sprache kann als
2.2 Evolutionäre Meilensteine 31

Ergebnis dieser kognitiven Entwicklung verstanden werden. Aber spekulieren


wir einmal weiter darüber, wie sich moderne Sprache auf der Grundlage von
Protomusik entwickelte.
Das nächste Stadium bezieht sich auf die postulierten Protophrasen. Proto-
phrasen sind vokale, von Protomusik abgeleitete Sequenzen, wobei Prosodie und
Intonation zumindest teilweise zum Einsatz kommen. Im Unterschied zu Melodien
des Gesangs stellen Protophrasen diskrete Sequenzen oder Ikone dar, um sich auf
Objekte zu beziehen. Unsere entfernten Vorfahren haben vermutlich andere Tiere
sowie in der Umgebung wahrgenommene Geräusche vokal imitiert und/oder sie
artikulierten zufällige Silbenstrukturen, um Gefühle auszudrücken. Wir vermuten,
dass phrasale und syntaktische Strukturen bereits vor der Einführung von symbo-
lischen Konzepten verwendet wurden. Diese Protophasen könnten aus einer oder
mehreren Einheiten bestanden haben und waren ikonischer, synthetischer und
nicht-holophrastischer Natur. Wir vermuten im Sinne von Bickerton (2003), dass
es nicht notwendig ist, phonologisch komplexe Holophrasen zu postulieren. Die
postulierten Phrasen könnten auch Ausdrücke umfasst haben, die wir heute als
Eigennamen bezeichnen. Sogar Affen können zwischen verschiedenen Mitgliedern
einer Gruppe unterscheiden, und sie besitzen eine Idee von Verwandtschaftsbe-
ziehungen. Primär sensorisch-verkörperte, einzelne Objekte wurden vermutlich
als Erstes benannt.
Aus Mangel an Belegen ist eine genaue Datierung dieser verschiedenen Stadien
nicht möglich, aber wir nehmen an, dass die Entdeckung und Entwicklung von
Symbolverhalten mit dem deutlichen Anstieg des corticalen Volumens korrelliert.
Insbesondere stellt H. erectus bzw. H. ergaster, der ein Hirnvolumen von bis zu
1.100 cm3 hatte, ein Kandidat für diese Entwicklung dar, da diese Homo-Spezies
komplexere soziale Strukturen aufwies, vergleichbar mit dem modernen Menschen,
und gelegentlich zusammen mit Fossilien durchdachte Werkzeuge gefunden
wurden. Wir behaupten, dass Protophasen im nächsten Schritt als diskrete und
symbolische Einheiten verwendet wurden. Die Einheiten, die sich auf konzeptuelle
Kategorien beziehen, bilden unter sich ein konzeptuelles Cluster. Diese Cluster
werden heute als syntaktische Strukturen bezeichnet und wurden (und werden
auch heute) rekursiv verwendet, um untergeordnete Phrasen (z. B. Nebensätze)
zu bilden. Die Entwicklung von diskreten Einheiten auf der basalen lexikalischen
und syntaktischen Ebene entspricht dem Stadium, welches in der Regel als Proto-
sprache bezeichnet wird. Wir verwenden hier den Begriff „Protosprechen“, da die
Kommunikation bei unseren direkten Vorfahren vermutlich primär vokal mit Hilfe
von Vokal-Konsonant-Clustern erfolgte. Es handelt sich hierbei um ein Stadium, in
dem Sprache geboren wurde – eine kognitive Fähigkeit mit musikalischen Eigen-
schaften als Residual. Die verbleibende Entwicklung beinhaltet alles das, was heute

31
32 2 Protomusik und Sprechen

die moderne Sprache auszeichnet. Zusätzlich zu komplexeren phonologischen und


syntaktischen Strukturen, eingeschränkt durch den limitierten Arbeitsspeicher,
wurde ein umfangreiches konzeptuelles Lexikon erworben und kontinuierlich
von Generation zu Generation gelehrt. Die Evolution des Sprachsystems, die
auch heute noch ein fortlaufender Prozess ist, erreichte vermutlich das moderne
Stadium nicht vor dem Erscheinen des H. sapiens. Graduell wurden spezifische
linguistische Eigenschaften hinzugefügt, da sie für die Expressivität spezifischer
Bedeutungen sehr nützlich gewesen sind. Die Elemente der geschlossenen Klassen
wie Artikel, Pronomen, Konjunktionen oder Partikel, die nur eine Bedeutung
im Satzkontext haben, dürften zum Beispiel erstmalig in einem späten Stadium
verwendet worden sein und dies trifft gleichermaßen für Inflektionen, Derivati-
onen und Verb-Argumentstrukturen zu. Wir wissen heute, dass alle (möglichen)
menschlichen Sprachen gemäß bestimmter Parameter strukturiert sind, die sich
vermutlich auf angeborene Prinzipien abbilden lassen. Es gibt eine Diskussion da-
rüber, wie strikt der Parameter-Set sein sollte, aber es gibt keinen Zweifel darüber,
dass biologische Bedingungen den Erwerb und Gebrauch der modernen Sprache
des H. sapiens bestimmen.
Es stellt sich in diesem Zusammenhang die Frage, welche Spezies des Tribus
Hominini sich bereits durch Eigenschaften der modernen Sprache aus zeichnete(n).
Insgesamt gehen wir hier von einer kontinuierlichen biologischen und kulturellen
Evolution aus, wobei einzelne und spontane Mutationen nicht auszuschließen sind,
jedoch komplexe und langfristige Veränderungen damit eher nicht begründet
werden können. Unsere Beschreibungen der verschiedenen Stadien können als eine
vorläufige und vorsichtige Annäherung an ein mögliches Sprachevolutionsmodell
angesehen werden. Die menschliche Sprache ist nicht nur das Ergebnis eines kultu-
rellen Prozesses, bei dem lexikalische und grammatische Kenntnisse über zahlreiche
Generationen modifiziert wurden, es handelt sich vielmehr um eine biologisch
adaptierte kognitive Kapazität, die über Millionen von Jahren evolvierte. Tabelle
2.1 verdeutlicht die oben beschriebenen evolutionären Meilensteine. Es wäre sicher
nicht überraschend, wenn diese Ideen kritisch betrachtet würden, aber angesichts
nur unzureichend zur Verfügung stehender Belege erscheint der gewählte Ansatz
nicht unplausibel zu sein.
2.2 Evolutionäre Meilensteine 33

Tab. 2.1 Mögliche Meilensteine der menschlichen Sprachevolution


Kategorie Funktion Struktur Zeitraum (Mio. Jahre)
4
Kognition Multi-Modalität t Sensorische Erfah- Aus. sediba
rungen, Instinktrufe
Protomusik Lautnachahmung t Rhythmus,
Prosodie, Silben
2
Protophrasen Ikonische Referenz t Verkörperte Konzep- H. erectus
te, einfache Phrasen
Protosprechen Symbolische t Abstrakte Konzepte,
Referenz Phoneme
0,2
Sprache Sätze t Komplexe
H. spaiens
grammatische
Dependenzen
t Bildhafte Sprache
Anm.: Funktionen und Strukturen bauen aufeinander auf. Es wird hier angenommen, dass
Protomusik die Grundlage für die Entwicklung von Sprache und Musik bei H. sapiens gewe-
sen ist. Andere nicht-sprachliche Fähigkeiten wie Gestik oder Tanz ergänzen Vokalisation
und Artikulation.

Die Evolution der Kognition basiert auf der Verarbeitung und Integration senso-
risch-motorischer Erfahrungen. Die okzipital-temporal-parietalen Verbindungen
des zerebralen Cortex integrieren diese Daten. Beim modernen Mensch befindet
sich insbesondere die Wernicke-Region in der temporal-parietalen Schnittstelle,
die auch für die Wahrnehmung und das Verstehen von Sprache verantwortlich
ist. Das Planum temporale ist normalerweise in der linken Gehirnhälfte größer
(insbesondere bei Rechtshändern). Diese linksseitige Asymmetrie wurde auch bei
dem homologen Region Tpt des Schimpansen gefunden. Bei den Makaken ist die
Region Tpt für multi-sensorische Prozesse verantwortlich und verarbeitet audi-
torische Signale wie bei der Diskriminierung der Tonortung (Smiley et al., 2007,
Hackett et al., 2007). Ebenso ist bekannt, dass Tpt bei der Spezie-Spezie-Vokalisation
(Schimpansen und Schmalnasenaffen) beteiligt ist (Taglialatela et al., 2009). Die
Wernicke-Region dürfte aus phylogenetischer Sicht eine ältere Region sein als die
Broca-Region (POp, Pars opercularis; PTr, Pars triangularis). Die Broca-Region
scheint sich in Abhängigkeit von komplexeren grammatischen Dependenzen ent-
wickelt zu haben, um die sprachliche Produktion (einschließlich des Sprechens)
differenziert steuern zu können. Es ist durchaus möglich, dass Au. Sedipa – die
Spezies, die vor ungefähr 2 Mio. Jahren der direkte Vorfahre von H. ergaster / H.
erectus gewesen war – in der Lage war, sich mittels bestimmter Laute auf einzelne
wahrgenommene Objekte zu beziehen. Während das Objektverstehen durch mul-
33
34 2 Protomusik und Sprechen

ti-sensorische Konzeptbildung unterstützt wurde, kann die Fähigkeit, über diese


Erfahrungen zu kommunizieren, wahrscheinlich dem Stadium der Lautimitation
zugeordnet werden. Mit anderen Worten: Lautimitationen ersetzen instinktive
Rufe. Dieser Ansatz impliziert, dass das Vorsingen der Mütter vermutlich aus
imitierten Lauten bestand. Diese Lautimitationen wurden dann sukzessive durch
Konsonant-Vokal-Muster verfeinert (z. B. „ma-ma, ah-ah“). Diese Muster waren
ein Bestandteil rhythmischer Melodien, um den Nachwuchs zu trösten und zu
beruhigen. Inwieweit andere Ausdrucksformen (z. B. Gesten und Tanzen) im Zu-
sammenhang mit Vokalisation verwendet wurden, um die ausgedrückte Bedeutung
zu präzisieren, bleibt ungewiss. Das Konzept „Protomusik“ ist hier unser zentraler
Ansatz und wir gehen daher davon aus, dass Silbenkombinationen benutzt wurden,
um sich auf einzelne Objekte mit bestimmten Eigenschaften zu beziehen (z. B.
„he-he ro-ro“ >> „Gefahr Löwe“). Die angeführten Beispiele dienen ausschließlich
illustrativen Zwecken und stellen nicht den Versuch dar, eine realistische Annä-
herung der verwendeten Lautstrukturen zu vermitteln. Der nächste Meilenstein
betrifft die Protophrasen. Sie beziehen sich auf die Fähigkeit, diskrete Einheiten
durch bestimmten Strukturen wie allgemeine ikonische Attribute für verschiedene
Objekte zu verwenden; „he-he“ zum Beispiel könnte in Bezug auf verschiedene
Objekte verwendet worden sein, um Gefahr auszudrücken (z. B. „he-he na-na“ >>
„Gefahr Fremder“). Obwohl diese Protophasen auf protomusikalischen Strukturen
aufbauen, sind ihre Einheiten diskret. Sie können infinit kombiniert werden und
stellen die Grundlage für syntaktische Strukturen dar. Allerdings behaupten wir
nicht, dass in diesem Stadium verschiedene Einheiten systematisch kombiniert
wurden, um hierarische syntaktische Strukturen zu bilden. Diese Fähigkeit, die
oftmals in der Linguistik als „Merge“ bezeichnet wird, könnte zeitlich erstmals in
der Epoche des H. erectus aufgetreten sein.
H. erectus wird als direkter Vorfahre der Spezies Au. Sediba angesehen, eine
Spezie, die vielleicht bereits diese Silbenkombinationen benutzte. Auf der Grundlage
von verkörperten Konzepten wurde vermutlich ein relativ großes Phrasen-Repertoire
entwickelt, was wiederum zu einer Verbesserung der Arbeitsspeicherkapazitäten im
präfrontalen Cortex (PFC) geführt hatte. Weiterhin wird die Annahme diskutiert,
inwieweit die Funktion Merge auf der Entwicklung von Silbenstrukturen beruht.
Carstairs-McCarthy (1999) stellt ein evolutionäres Modell für Silbenstrukuren vor.
Diese Silbenstrukuren seien die Grundlage für die ersten syntaktischen Operati-
onen. Auch wenn dieses Modell kritisiert wurde (z. B. Tallerman, 2005), scheinen
einige Aspekte dieses Ansatzes recht plausibel in Bezug auf die Entwicklung lin-
guistischer Strukturen.
2.2 Evolutionäre Meilensteine 35

   

     

  

 


  
  
     

Abb. 2.1 Möglicher Transfer von Lautstruktur zu Phrasenstruktur

Zunächst entwickelte H. erectus in einer Zeitspanne von ungefähr 1,8 Mio. Jahren
dieses vokale Kommunikationssystem. Hierbei ging es um ein elaboriertes kon-
zeptuelles System mit abstrakten und symbolischen Bedeutungen, bei dem eine
Referenz zu allgemeinen Konzepten bzw. Ideen hergestellt wurde und, zwar ohne
direkten Bezug zu sensorischen Erfahrungen. Ein wichtiger Gesichtspunkt dieser
Entwicklung bezieht sich auf die Fähigkeit, diskrete Einheiten nicht nur auf der
linguistischen Ebene zu verwenden. Die Funktion „Merge“, die die Generierung
von hierarchischen Strukturen bewirkt, ermöglicht, komplexe Berechnungen zu
gruppieren. Diese Entwicklung kann ausschließlich kognitiver Natur sein. Ein
plausibles Szenario könnte sein, dass Merge nicht das Ergebnis von Silbenbe-
rechnungen war, auf deren Grundlagen dann syntaktische Strukturen abgeleitet
wurden, wie in Abb. 2.1 verdeutlicht, sondern eine zugrunde liegende biologisch
verankerte Kapazität darstellt, die auf verschiedenen linguistischen und nicht-lin-
guistischen Ebenen umgesetzt wird. Unabhängig von der Frage nach dem Ursprung
wurden Silbenstrukturen komplexer, so dass ein möglicher Transfer zur Bildung
von syntaktischen Strukturen stattfand. Wir nehmen an, dass bereits H. erectus
über Protosprechen verfügte, um Informationen und Gefühle auszutauschen. Da
vermutlich die Phrasen nicht mehr als drei diskrete Einheiten umfassten, wie wir
noch ausführen werden, war die syntaktische Berechnungskapazität im Vergleich
zu modernen Sprachen begrenzt. Es gibt jedoch keinen Grund anzunehmen, dass
die Anzahl diskreter lexikalischer Einheiten begrenzt war.
Das Silbenstrukturmodell stellt ein plausibles Szenario dar, aber es macht keine
Vorhersagen zu den neurokognitiven Veränderungen, die möglicherweise mit der
Entwicklung der Wortordnung (linguistische Syntax) verbunden sind. Insbesondere
die Broca-Region und assoziierte subcorticale Strukturen sind an der Verarbeitung
syntaktischer Strukturen im Bereich Sprache beteiligt. Allerdings zeichnet sich die
Broca-Region ebenso durch die Verarbeitung musikalischer Syntax aus (Patel, 2003).
In der Frühgeschichte, noch vor der Entwicklung von Protosprechen und moderner

35
36 2 Protomusik und Sprechen

Sprache, war die Broca-Region an der effizienten Berechnung von Motorsequenzen


beteiligt. Diese Region ist nicht nur mit den parietal-temporal-okzipitalen Regionen
verbunden, sondern auch mit subcorticalen Strukturen (z. B. Belohnungsschaltkreis).
Im Fall von Musik weisen Studien darauf hin, dass die auditorisch-sensorischen
Hirnrinden mit der mesolimbischen Region zusammenarbeiten (insbesondere
mit dem Nucleus accumbens, NAcc), um einen Belohnungsstimulus zu generie-
ren. Bevorzugte Stimuli erzeugen eine verbesserte NAcc-Konnektivität mit den
Regionen des Gyrus inferior frontalis (IFG). Mit Hilfe des diffusionsgewichteten
Bildgebungsverfahrens (DWI), das aufgabenabhängige Faser-Funktionen unter-
suchen kann, wurde in vivo Evidenz für eine strukturelle Konnektivität zwischen
der Broca-Region und den Basalganglien/Thalamus gefunden (Ford et al., 2013;
Salimpoor et al., 2013). Der NAcc, das Belohnungssystem, ist ein Bestandteil der
Basalganglien, und wenn eine angenehme Empfindung im Zusammenhang mit zum
Beispiel schmackhafter Nahrung, angenehmer Musik, Liebes- oder Siegesgefühlen
auftritt, wird vermehrt Dopamin in die ventrale tegmentale Region, in den NAcc
und in den präfrontalen Cortex zugeführt. Die neuralen Schaltkreise, die die Basal-
ganglien mit dem präfrontalen Cortex verbinden, einschließlich der Broca-Region,
stellen beim modernen Menschen eine wichtige Schnittstelle für das Genießen
und Verarbeiten von Musik dar. Zudem haben die meisten Broca-Aphasiker, die
primär unter syntaktischen Verarbeitungsstörungen leiden, nicht nur Läsionen in
der Broca-Region, sondern auch Läsionen in subcorticalen Bereichen. Läsionen,
die nur in der Broca-Region auftreten, verursachen keine Broca-Aphasie, sondern
die mit der Broca-Region verbundenen neuralen Schaltkreise. Wir diskutieren
hier nicht die neuronalen Strukturen, die Sprache und Musik miteinander teilen,
können jedoch festhalten, dass musikalische und linguistische Syntax die gleichen
neuralen Schaltkreise involvieren.
Vergleichbar mit der Evolution von H. erectus zu H. sapiens erfolgte die Evolu-
tion von Protosprechen zu moderner Sprache graduell – zumindest gibt es keinen
plausiblen Grund, einen anderen Ansatz zu verfolgen (Hillert, 2015, 2016). Neben
anderen wichtigen Veränderungen stellt eine verbesserte Arbeitsspeicherkapazität
im präfrontalen Cortex eine wichtige Bedingung für die Verarbeitung komplexer
Syntax wie nicht-kanonische Satz- oder Dependenzstrukturen. Zudem entwickel-
ten sich sub-lexikalische Berechnungen (lexikalische Morphologie), um weitere
Bedeutungsunterscheidungen vorzunehmen. Die heutigen modernen Sprachen
verwenden folgende morphologischen Strukturen, die vermutlich nicht Bestandteil
des Protosprechens gewesen sind: Affixe (z. B. Kasus, Genu, Numerus, Tempus),
lexikalische Derivationen (z. B. Veränderung der Wortkategorie: Verb nach Nomen),
irreguläre Verben (z. B. getrennter lexikalischer Eintrag anstelle von Regeln zur
Vergangenheitsform bei regulären Verben), Unterscheidung zwischen Funktions-
Literatur 37

wörtern (z. B. Artikel, Pronomen, Konjunktionen, Prä- und Post-Positionen) und


Inhaltswörtern (z. B. Nomen, Verben, Adjektive, Adverbien). Auch entwickelten
sich figurative Sprachformen wie Metaphern, fixe Sprachwendungen (einschließlich
Idiomen), Witz, Humor, Ironie, Neologismen, Hyperbel, Satire usw.
Protomusik entwickelte sich weiter zu modernen musikalischen Fähigkeiten,
und es ist anzunehmen, dass sich gleichzeitig andere spezifische kognitive Kapa-
zitäten des H. sapiens wie differenzierte Motorsteuerung von Händen und Füßen
weiterentwickelten. Es bleibt allerdings fraglich, welche Fähigkeiten biologisch durch
Mutationen zu begründen sind und welche Verhaltensweisen sich ausschließlich
kulturell weiterentwickelten. Literatur über den Zusammenhang zwischen der
Sprachverarbeitung und dem Belohnungssystem ist virtuell nicht vorhanden,
aber diese thematische Nische erfordert sicherlich experimentelle Studien. Ohne
in diesem Kontext den Begriff „erfolgreiche Kommunikation“ im Detail zu hin-
terfragen, kann dieses kognitive Verhalten wie jede andere mentale Berechnung
belohnend sein. Es handelt sich inter alia um eine emotive Handlung, insbesondere
wenn der Dialogpartner erwartungsgemäß antwortet. Eine nähere Bestimmung
unseres frühzeitlichen Belohnungs- und Motivationssystems könnte Antworten
zu der Frage liefern, wie ursprüngliche harmonische Lautmuster graduell eine
linguistische Transformation erfahren haben.

Literatur
Literatur
Arbib, M. A. (2005). From monkey-like action recognition to human language: an evolutio-
nary framework for neurolinguistics. The Behavioral and Brain Sciences, 28(2), 105–124
and discussion 125–167.
Bickerton, D. (1990). Language and species. Chicago: Chicago University Press.
Bickerton, D. (2003). Symbol and structure: a comprehensive framework for language evo-
lution. In M. H. Christiansen & S. Kirby (eds.), Language evolution, 77–93.
Bickerton, D. (2007). Language evolution: A brief guide for linguists. Lingua, 117(3), 510–526.
Brown, S. (2000). Evolutionary models of music: From sexual selection to group selection.
In F. Tonneau & N. S. Thompson (eds.) Perspectives in ethology, 13: Behavior, evolution
and culture. New York, NY: Plenum Publishers, 231–281.
Call, J., & Tomasello, M. (eds. 2007). The gestural communication of apes and monkeys.
Hillsdale, NJ: Lawrence Erlbaum.
Carstairs-McCarthy, A. (1999). The origins of complex language: an inquiry into the evolu-
tionary origins of sentences, syllables and truth. Oxford: OUP.
Corballis, M. C. (2003). From mouth to hand: Gesture, speech, and the evolution of right-han-
dedness. Behavioral and Brain Sciences, 23, 199–260.
Darwin, C. (1859). On the origin of species by means of natural selection, or the preservation
of favoured races in the struggle for life. London: John Murray.

37
38 2 Protomusik und Sprechen

Darwin, C. (1871). The descent of man, and selection in relation to sex. London: John Murray.
Egnor, S. E. R., & Hauser, M. D. (2004). A paradox in the evolution of primate vocal learning.
Trends in Neurosciences, 27(11), 649–54.
Feakins, S. J., Levin, N. E., Liddy, H. M., Sieracki, A., Eglinton, T. I., & Bonnefille, R. (2013).
Northeast African vegetation change over 12 m.y. Geology, 41(3), 295–98.
Feakins, S. J., Levin, N. E., Liddy, H. M., Sieracki, A., Eglinton, T. I., & Bonnefille, R. (2013).
Northeast African vegetation change over 12 m.y. Geology, 41(3), 295–98.
Fitch, W. T. (2013). Musical protolanguage: Darwin’s theory of language evolution revisted.
In Birdsong, speech, and language: Exploring the evolution of mind and brain. Cam-
bridge, MA: MIT Press.
Fitch, W. T. (2000). The phonetic potential of nonhuman vocal tracts: Comparative cinera-
diographic observations of vocalizing animals. Phonetic, 57, 205–18.
Ford, A. A., Triplett, W., Sudhyadhom, A., Gullett, J., McGregor, K., Fitzgerald, D. B., Mareci,
T., White, K., & Crosson, B. (2013). Broca’s area and its striatal and thalamic connections:
a diffusion-MRI tractography study. Frontiers in Neuroanatomy, 7(8).
Hackett, T. A., De La Mothe, L. A., Ulbert, I., Karmos, G., Smiley, J., & Schroeder, C. E. (2007).
Multisensory convergence in auditory cortex, II. Thalamocortical connections of the
caudal superior temporal plane. The Journal of Comparative Neurology, 502(6), 924–52.
Hewes, G. W. (1973). Primate communication and the gestural origin of language. Current
Anthropology, 14, 5–24.
Hillert, D. (2015). On the evolving biology of language. Frontiers in Psychology 6, https://
doi.org/10.3389/ fpsyg.2015.01796.
Hillert, D. (2016). Neurobiology of Language. In T. K. Shackelford & V. A. Weekes-Shackel-
ford (eds.), Encyclopedia of Evolutionary Psychological Science, DOI 10.1007/978-3-
319-16999-6_3334-1.
Holloway, R. L. (1969). Culture: A human domain [reprint 1992]. Current Anthropology,
10(4), 47–64.
James, W. (1890). The principles of psychology, vol. 1. New York: Henry Holt [reprint 1999:
Bristol: Thoemmes Press].
Jespersen, O. (1922). Language: Its nature, development and origin. New York, NY: W. W.
Norton & Co.
Miller, G. (2000). Evolution of human music through sexual selection. In N. L. Wallin, B.
Merker & S. Brown (eds.), The Origins of Music (pp. 329–360). Cambridge MA: MIT Press.
Müller, F. M. (1866). Lectures on the science of language: Delivered at the Royal Institution
of Great Britain in April, May, & June 1861. Longmans, Green.
Patel, A. D. (2003). Language, music, syntax and the brain. Nature Neuroscience, 6(7), 674–681.
Pinker, S. (1997). How the mind works. W. W. Norton & Co Inc.
Salimpoor, V. N., Bosch, I. van den, Kovacevic, N., McIntosh, A. R., Dagher, A., & Zatorre,
R. J. (2013). Interactions between the nucleus accumbens and auditory cortices predict
music reward value. Science, 340(6129), 216–19.
Smiley, J. F., Hackett, T. A., Ulbert, I., Karmas, G., Lakatos, P., Javitt, D. C., & Schroeder,
C. E. (2007). Multisensory convergence in auditory cortex, I. Cortical connections of
the caudal superior temporal plane in macaque monkeys. The Journal of Comparative
Neurology, 502(6), 894–923.
Spencer, H. (1857). On the origin and function of music. Essays on education and kindred
subjects Fraser’s Magazine.
Literatur 39

Taglialatela, J. P., Russell, J. L., Schaeffer, J. A., & Hopkins, W. D. (2009). Visualizing vocal
perception in the chimpanzee brain. Cerebral Cortex, 19(5), 1151–57.
Tallerman, M. (2005). Initial syntax and modern syntax: Did the clause evolve from the
syllable? In M. Tallerman (ed.) Language origins. Perspectives on evolution. Oxford:
OUP, 133–52.
Tallerman, M. (2007). Did our ancestors speak a holistic protolanguage? Lingua, 117(3),
579–604.
Thomas, D. A. (1995). Music and the origins of language: Theories from the French enligh-
tenment. Cambridge MA: Cambridge Univ. Press.
Wray, A. (1998). Protolanguage as a holistic system for social interaction. Language &
Communication, 18(1), 47–67.

39
Genetische Grundlagen
3 Genetische Grundlagen 3

Zusammenfassung

Bei dem Versuch, einen Zusammenhang zwischen spezifischen Aspekten


des menschlichen Genoms und dem Phänotyp Sprechen und/oder Sprache
herzustellen, wurden deutliche Fortschritte gemacht. Der vorliegende Über-
blick verdeutlicht aber auch, dass wir erst am Anfang sind, die angeborenen
Mechanismen, die dem sprachlichen und kognitiven Verhalten zugrunde
liegen, besser zu verstehen. Verschiedene Genom-Projekte zum modernen
Menschen (einschließlich Variationen), Neandertaler und Schimpansen wur-
den erfolgreich durchgeführt. Unter Berücksichtigung von Verhaltensdaten ist
uns bekannt, dass es sich bei dem Foxp2-Transkriptionsfaktor um ein mit der
Lautartikulation verbundenes Gen handelt und dass Alpha-Tectorin eine Rolle
bei der Hörfunktion spielt. Andere Gene wie ASPM und GLUD2 werden auch
mit Sprache in Verbindung gebracht und GNPTAB und NAGPA mit Stottern.
Komparative Studien sowie Studien mit der KE-Familie weisen darauf hin,
dass Foxp2 einen Gen-Satz steuert, der für die Entwicklung (sub)corticaler
Strukturen, die für das Sprechen zuständig sind, verantwortlich ist. Die Suche
nach den genetischen Grundlagen eines „symbolischen Erwerbsalgorithmus“
(SAA), mit dem Kleinkinder sich instinktiv eine Sprache in wenigen Jahren
aneignen können, bleibt bestehen.

Stichwörter

ASPM, Basalganglien, DNA, Foxp2, Gene, Genome, GLUD2, Sprechen, KE-Fa-


milie, Mikrocephalie, NAGPA, R553H.

41
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_4
42 3 Genetische Grundlagen

3.1 Sprachrelevante Gene


3.1 Sprachrelevante Gene
Gene transportieren Informationen, um Zellen eines Organismus zu bilden und zu
warten. Diese Daten werden an die Nachkommen weitergegeben. Gene beziehen sich
auf einen bestimmten Abschnitt der DNA (Desoxyribonukleinsäure) und der RNA
(Ribonukleinsäure). Gewöhnlich reist die Information von der DNA zur RNA und
dann zu den Proteinen (Aminosäureketten), was die Struktur und Funktion eines
Organismus bestimmt. Hierbei spielt der sogenannte Transkriptionsfaktor eine
wichtige Rolle bei den Entwicklungsprozessen und bei den interzellularen Prozessen.
Ein Transkriptionsfaktor ist ein Protein, das sich an bestimmte DNA-Sequenzen
bindet und die genetischen Transkriptionsprozesse von der DNA an die mRNA
(Messenger-RNA) reguliert. Die Geburt eines neuen Lebens besteht aus einem
biochemischen Paket, das u. a. Informationen über Entwicklung, Regulierung und
Wartung der zellulären Strukturen enthält und somit auch die Beschaffung der
neuralen Schaltkreise festlegen, die für die Sprachverarbeitung verantwortlich sind.
Einige Störungen stehen im Zusammenhang mit Mutationen der Transkriptions-
faktoren. Es ist hervorzuheben, dass die gesamte Genzahl, die ein einzelner Orga-
nismus besitzt, nicht für den Unterschied zwischen den Organismen verantwortlich
ist. Zum Beispiel besitzt der in Bier und Brot verwendete Einzeller Hefe nicht viel
weniger Gene als ein Mehrzeller wie der Mensch. Ein einziges Gen erzeugt nicht
nur zahlreiche Proteine, es wird auch durch Sequenzen organismus-spezifisch an-
und ausgeschaltet. Schimpansen und Menschen teilen ungefähr 99 % ihrer Gene.
Es ist allerdings zu berücksichtigen, dass eine 1 %-ige DNA-Sequenz aus etwa drei
Milliarden (10^9) Kodierungen (Buchstaben) besteht. Seit der phylogenetischen
Trennung von Affen und Menschen (vor etwa 5-7 Mio. Jahren) haben sich etwa 15
Millionen Buchstaben verändertet, die für den Menschen spezifisch sind.
Im Jahr 2004 wurde das Genomprojekt des Menschen (HGP) abgeschlossen.
Der moderne Mensch besitzt etwa 23.000 Gene (3,2 Basispaare lang). Wie diese
Gene ausgedrückt werden, informiert über Genotyp und Phänotyp – einschließ-
lich der biologischen Disposition für Sprache. HGP-2004 stellt ein kombiniertes
Referenzgenom mit einer kleinen Anzahl von Spendern dar. Im Jahr 2012 wurde
das 1000-Genomprojekt abgeschlossen, welches auch genetische Variationen des
Menschen berücksichtigt. Diese und verwandte Genomanalysen werden sicherlich
unser Wissen über unsere biologischen Dispositionen zur Kognition bereichern. Das
Neandertal-Genomprojekt (NGP) wurde beispielsweise in 2010 abgeschlossen. Der
moderne Mensch und der Neandertaler teilen 99,7 % der Basispaare. Der artikulato-
risch relevante Foxp2-Transkriptionsfaktor, den wir unten detaillierter beschreiben
werden, zeigt die gleichen Mutationen in den Neandertal-Spezien 1253 und 1351c
wie im modernen Mensch (Foxp2neander = Foxp2hum; Krause, Lalueza-Fox, Orlando,
3.1 Sprachrelevante Gene 43

Enard et al., 2007).12 Diese Ergebnisse scheinen valide zu sein, da unterschiedliche


Methoden angewendet wurden, um mögliche Kontaminationen mit unserer DNA
auszuschließen. Die Analyse des Gemeinen Schimpansengenoms wurde 2005 vom
Schimpansen Sequenzing und Analyse Konsortium veröffentlicht. Der moderne
Mensch besitzt 23 Chromosomenpaare, Menschenaffen haben 24 Paare. Chromosom
2 evolvierte beim Menschen auf der Grundlage von zwei kleinen Chromosomen (2A
und 2B). Einige Anteile von Chromosom 2 sind daher bei Vertebraten (Wirbeltie-
ren) vorhanden, obwohl diese nur entfernt mit dem Menschen verwandt sind (z. B.
Nagetiere). Ungefähr 2,7 % der Genom-Unterschiede zwischen Mensch und Affe
beruhen auf genetischer Duplikation oder Löschung. Nicht nur der bereits erwähnte
Transkriptionsfaktor Foxp2 ist beim Menschen anders, sondern auch das für das
Gehör zuständige Gen Alpha-Tektorin. Das Alpha-Tektorin des Schimpansen scheint
weniger sensitiv hinsichtlich akustischer Nuancen der menschlichen Lautsprache
zu sein (Clark et al., 2003). Neben Foxp2 werden die Gene ASPM (abnormales
Spindel-Proteinhomolog), MCPH1 (Microcephalin) und GLUD2 (Glutamatdehy-
drogenase) mit Sprache verbunden und GNPTAB, GNPTAG und NAGPA, die die
Transferase-Enzyme sind, mit dem Stottern. Gegenwärtig wird vermutet, dass
GLUD2 vor 23 Mio. Jahren auftrat, als sich die Hominiden von den Schmalna-
senaffen (Altweltaffen) trennten. GLUD2 scheint an der Entwicklung kognitiver
und sprachlicher Fähigkeiten beteiligt zu sein. Dieses Gen kommt nur beim Affen
und Menschen vor. Es reguliert die Glutaminsäure, die auch für die Kommunika-
tion zwischen den Neuronen verantwortlich ist. Weiter wird angenommen, dass
ASPM und MCPH an der Entwicklung corticaler Strukturen beteiligt sind. Beide
Gene gibt es beim Menschen und Schimpansen und eine Mutation führt zu kleinen
Gehirnen und beim Menschen zu mentalen Störungen. Eine spezifische Funktion
der Varianten ASPM-D und MCPH-D hinsichtlich des Erwerbs einer bestimmten
linguistischen Typologie wurde von Dediu und Ladd (2007) untersucht. Zunächst
korrelierten sie 983 genetische Varianten, einschließlich der oben genannten Vari-
anten, mit 26 typologischen Varianten (z. B. Anzahl von Konsonanten, Inflexionen
und Töne), die in den Sprachen von 49 verschiedenen Bevölkerungsgruppen vor-
kommen. Die Korrelationen waren negativ. Allerdings korrelierten ASPM-D und
MCPH-D signifikant mit nicht-tonalen Sprachen.13 Die Autoren vermuten, dass
diese genetischen Varianten für subtile corticale Strukturen verantwortlich sind,

12 Das Foxp2 der Spezies El Sidrón 1253 und 1351c zeigt die gleichen Mutationen an den
Positionen A-911 und G-977 in Exon 7 wie beim modernen Menschen.
13 Tonsprachen verwenden Toneme (Tonhöhe oder Tonverlauf), um zwischen Wörtern
oder Inflektionen zu unterscheiden (z. B. Bantu-Sprachen, chinesische Sprachen, Viet-
namesisch, Thai, Litauisch, Schwedisch).
43
44 3 Genetische Grundlagen

welche die tonale Wahrnehmung steuern. Diejenigen Bevölkerungsgruppen, die


diese Varianten sehr häufig aufweisen, würden wahrscheinlich eher dazu neigen,
nicht-tonale Sprache zu entwickeln. Diese Interpretation bleibt jedoch spekulativ,
u. a. auch weil Korrelationen keine kausalen Beziehungen widerspiegeln. Zudem
sollte berücksichtigt werden, dass der Erwerb bestimmter linguistischer Eigen-
schaften nicht durch genetische Variationen eingeschränkt oder bestimmt wird.
Das Stottern, das eine Störung der Sprechflüssigkeit darstellt, kann unterschied-
liche Ursachen haben. Die Mutationen, die mit GNPTAB, GNPTAG und NAGPA in
Verbindung stehen, scheinen nur für 9 % der Fälle zuzutreffen (Kang et al., 2010). Diese
Mutationen scheinen sich insbesondere auf die lysosomalen Enzyme zu beziehen und
können den Erwerb von persistentem Stottern (Stammeln) verursachen. Falls es einen
genetischen Zusammenhang gibt, dann tritt das Stottern in Familien auf. Kang und
Mitarbeiter verweisen auf eine große Familie aus Pakistan mit 46 Mitgliedern, bei
denen GNPTAB verändert vorlag. Einige andere Gene, die mit GNPTAB verbunden
sind, waren ebenfalls defekt. Diese Form der Mutation traf auch bei 77 nichtverwandten
Pakistani zu und bei einer Gruppe von amerikanischen und britischen Stotterern.
Unter Bezugnahme auf diese Ergebnisse sei die Bedeutung von bildgebenden Ver-
fahren besonders relevant, um die Ursachen dieser Stotterkategorie zu finden (Büchel
und Watkins, 2010). Mutationen in GNPTAB (Alpha- und Beta-Untereinheiten)
und GNPTAG (Gamma-Untereinheit) der GlcNAc-1-Phosphotransferase sowie bei
betroffenen lysosomalen Funktionen seien die neurochemischen Grundlagen für
die mit Diffusions-Tensorbildgebung (DTI14) festgestellten atypischen Strukturen
der weißen Substanz. Eine weiße Substanzanomalie führe zu einem Diskonnek-
tionssyndrom, das wiederum die Ursache für das Stottern sei.

3.2 Die Funktion der Basalganglien


3.2 Die Funktion der Basalganglien
In den 90er Jahren wurden Studien mit der britischen Familie KE, die seit drei
Generationen unter relativ schweren Sprech- und Sprachstörungen litt (z. B.,
Hurst et al., 1990; Fisher et al., 1998, 2003). Das Sprechen ist nicht flüssig und die
Satzproduktion ist ungrammatisch. Demgegenüber scheint das Sprachverständnis

14 Die weißen Substanzverbindungen lassen sich besser mit DTI und Faser-Traktographie
untersuchen als mit dem Standard-MRT. Die DT-MRT-Methode misst in 3D und in
Echtzeit nicht-invasive Zufallsbewegungen (Diffusion) von Wasserstoffatomen inner-
halb des Wassermoleküls. Mittels des Wassers, das sich im aus umfangreichen Fasern
bestehenden Gewebe (z. B. weiße Substanz des Gehirns) befindet, und des DT-MRT
kann im 3D-Format verdeutlicht werden, wie sich Wasser im Gewebe ausbreitet.
3.2 Die Funktion der Basalganglien 45

nicht gestört zu sein. Der IO liegt etwas unterhalb der Norm (e. g., Vargha-Khadem,
Watkins et al., 1995). Im Allgemeinen wird diese Auffälligkeit als eine Sprechstörung
angesehen, jedoch nicht als eine grammatische oder umfassende Sprachstörung
(aber siehe Gopnik, 1990). Auch wurde von einem Einzelfall (CS) berichtet, bei dem
die gleichen Sprechstörungen auftraten wie bei den Mitgliedern der KE-Familie. Es
wurde festgestellt, dass die Mutation durch einen Arginin-zu-Histidin-Ersatz an
Position 553, was als R553H bezeichnet wird, entsteht (Lai et al., 2001). R553H ist
Teil des Foxp2-Transkriptionsfaktors und stellt eine Verlust-von-Funktion-Muta-
tion dar. Diese Mutation ist innerhalb der KE-Familie erhalten geblieben. Die
Hauptstörung bezieht sich auf die Schwierigkeit, komplexe Muskelbewegungen
und Lautkombinationen in Wörtern und Sätzen auszuführen. Dies hat aber auch
zur Folge, dass die Sprachverarbeitung und andere sprachlich-relevante kognitive
Prozesse betroffen sind. Die mit MRT (Magnetresonanztomographie) durchge-
führten Studien verdeutlichen bei den KE-Familienmitgliedern eine bilaterale
25 %ige Volumenreduktion des Caudate nucleus und der Basalganglien. Beide
neuroanatomischen Strukturen steuern motorische Funktionen. Der Nucleus
cuneatus korreliert signifikant mit oralen Apraxie-Tests.15 Der Nucleus cuneatus
ist eng mit dem Thalamus verbunden, der wiederum die Schaltstelle für multiple
Funktionen darstellt. Beispielsweise wird hier das Umschalten zwischen zwei
Sprachen artikulatorisch gesteuert. Eine Reduktion der grauen Substanz wurde
ebenso in der Broca-Region gefunden und der Gyrus temporalis verdeutlichte einen
Anstieg des grauen Substanzvolumens. Die somatosensorischen und okzipitalen
Hirnrinden waren ebenfalls betroffen, obwohl diese Strukturen nicht direkt für
motorische, artikulatorische und sprachliche Funktionen zuständig sind. Allerdings
zeigte sich auch, dass die KE-Familienmitglieder in der Lage sind, die Verarbeitung
von morphologisch-komplexen Wörtern zu kompensieren, indem sie lexikalische
Formen als Ganzes erinnern oder spezielle, ihnen beigebrachte Regeln anwenden.
Obwohl die Störung genetisch bedingt ist, kann sie behandelt werden.
Verschiedene komparative Studien wurden durchgeführt, um die spezifische
Funktion von Foxp2 bei anderen Spezies zu bestimmen und um somit weitere
Schlussfolgerungen über die Funktion dieses Transkriptionsfaktors in Bezug auf
die Artikulation und Sprachverarbeitung ziehen zu können. Zum Beispiel zeigten
die mit Foxp2hum gentechnisch veränderten Mäuse ein anderes Verhalten. Die
Foxp2hum-Mäuse produzierten ein verändertes Ultraschall-Piepsen, waren weniger
ängstlich und lernten schneller, visuelle und taktile Signale zu verwenden, um eine

15 Eine Beschädigung der Basalganglien kann zu motorischen Störungen führen (Parkin-


son- und Huntington-Krankheit, Tourette-Syndrom, Zwangsstörung). Der Nucleus
cuneatus befindet sich innerhalb der Basalganglien.
45
46 3 Genetische Grundlagen

Labyrinth-Aufgabe zu lösen. Deren Hirnrinden zeigten eine größere Anzahl an


Dendriten (afferente biochemische Verbindungen zwischen den Neuronen), die
wiederum auch länger waren, und wiesen eine höhere synaptische Plastizität auf
als die nicht-gentechnisch veränderten Mäuse (Enard et al., 2009). Der schnellere
Lerneffekt beruhte nur auf einer von zwei Veränderungen der Aminosäuren in
Foxp2hum. Die anderen Mutationen scheinen keine Auswirkungen gehabt zu haben.
In einer weiteren Studie wurden zwei verschiedene Foxp2-Versionen in vitro in
menschliche Gehirnzellen eingesetzt, um Informationen über deren Expressionen zu
erhalten. Im Vergleich zu Foxp2chim erhöhte Foxp2hum die Expression von 61 Genen
und reduzierte die Expression von 51 Genen (Konopka et al., 2009). Die Autoren
nehmen daher an, dass die Daten auf unterschiedliche Transkriptionsregulationen
hinweisen. Einige Gene können mit motorischen Aspekten des Sprechens und mit
corticalen und kraniofazialen Entwicklungen in Verbindung gebracht werden. Foxp2
reguliert offenbar die Entwicklung neuraler Strukturen, die beim Sprechen beteiligt
sind. Bei fötalen Makaken wird Foxp2 in den Basalganglien (wie bei Mitgliedern
der KE-Familie) ausgedrückt und bei Mäusen in verschiedenen neuroanatomischen
Strukturen wie Thalamus, Hypothalamus und Cerebellum.

Abb. 3.1 Die Basalganglien bestehen aus dem Nucleus caudatus, Putamen und
Globus pallidus. Die corticobasalen Ganglien-Schaltkreise unterstützen die
Motorsequenzen für Laufen, Sprechen und Sprachwahrnehmung. (Adaptiert
und modifiziert, Lieberman 2009; © Elsevier Limited.)
3.2 Die Funktion der Basalganglien 47

Die Funktion der Basalganglien bei der Sprachverarbeitung ist gut bekannt.
Beispielsweise liegt bei Aphasie stets eine Störung der Basalganglien vor und bei
Morbus Parkinson ist bei einer Störung der Basalganglien die laryngeale Steuerung
beeinträchtigt. Verschiedene Studien sprechen gegen Fitchs (2006) Hypothese, dass
nur die direkten corticolaryngealen Hirnstammschaltkreise (sofern es sie gibt) für
die laryngeale Steuerung verantwortlich sind, da die Sprachproduktion auch von
der Koordinierung der Lippen, der Zunge und der Atmung abhängig ist.
Im Allgemeinen gibt es eine deutliche evolutionäre Diversität bei der Foxp2-Se-
quenz. Diese wird orthologisch in den Hirnen der Amphibien, Fische und Vögel
ausgedrückt. Beispielsweise passt der männliche Zebrafink graduell seinen Gesang
an den des Tutors an – gewöhnlich der Vater. Foxp2 scheint an der Entwicklung
des Gesangsystems des Zebrafinken beteiligt zu sein. Foxp2 wurde auch bei Spezies
sequenziert, die vokalisieren und echoloten (z. B. Fledermäuse, Elefanten, Wale,
Delphine). Es ist allerdings gegenwärtig schwierig, eine direkte Verbindung zwischen
Sequenzveränderungen und vokalen Lernfähigkeiten herzustellen. Auch bleibt die
spezifische Funktion von Foxp2 beim Menschen relativ vage. Es gibt keinen Zweifel
daran, dass dieser Transkriptionsfaktor an der Fähigkeit der Artikulation und des
Sprechens beteiligt ist, aber die spezifischen Aminosäure-Ersetzungen können nicht
im Hinblick auf Sprechen und/oder Sprache bestimmt werden. Es ist denkbar, dass
Foxp2 ein Gen-Set reguliert, das für die Entwicklung bestimmter für Sprechen und
Sprache relevanter Gehirnstrukturen verantwortlich ist.
Foxp2 ist kein neues human-spezifisches Gen. Foxp2hum unterscheidet sich vom
Foxp2 der Schimpansen und Gorillas in Bezug auf zwei Aminosäuren (von 740
insgesamt) und vom Foxp2 des Orang-Utans und der Maus in Bezug auf drei bzw.
vier Residuen. Beide Ersetzungen (T303N und N325S), die vermutlich auf positiver
Selektion beruhen, fanden im Exon 7 statt: T303N ist eine Threonin-zu-Aspara-
gin-Ersetzung an Position 303 und N325S stellt eine Asparagin-zu-Serin-Ersetzung
an Position 325 dar (Abb. 3.2). Beide Ersetzungen scheinen beim Menschen fixiert
zu sein, da sie in 226 humanen Chromosomen vorkommen.

47
48 3 Genetische Grundlagen

Abb. 3.2 Die Skalenstriche verdeutlichen die Veränderungen bei den Nucleotiden und
die grauen Balken die Veränderungen bei den Aminosäuren. Die Zahlen
weisen darauf hin, wie viele nicht-synonyme/synonyme Veränderungen in
den einzelnen Abstammungslinien aufgetreten sind. (Adaptiert, Enard et al.
2002; © Elsevier Limited)

Es ist möglich, dass die beiden Ersetzungen, die in der menschlichen Abstammungs-
linie aufgetreten sind, für die biologische Disposition von Sprache verantwortlich
sind. Wie bereits erwähnt, handelt es sich jedoch bei Foxp2 um einen umfangreichen
Transkriptionsfaktor und neben nicht-kodierten regulatorischen Sequenzen gibt
es > 2.000 Unterschiede zwischen Foxp2hum und Foxp2chimp. Es gibt keinen Zweifel
daran, dass Foxp2 nur ein (mögliches) Gen darstellt, das für die Sprachfähigkeit
relevant ist. Mutationen, die beispielsweise beim Menschen in Bezug auf Foxp2,
ASPM oder MCPH aufgetreten sind, basieren auf positiven Selektionen (Darwin’sche
Selektion). Es handelt sich um phylogenetische Prozesse, die die Prävalenz einer
vorteilhaften Eigenschaft wie Sprechen, Sprache und Kognition begünstigen.
Foxp2 ist kein spezifisches Gen, das für sprachliche Prozesse verantwortlich ist,
aber es unterstützt die vokale Muskelkoordination und andere von Wirbeltieren
verwendete motorische Funktionen. Zukünftige Studien werden weiter untersuchen,
was den Unterschied zwischen Foxp2hum und Foxp2non-hum hinsichtlich der corticalen
Entwicklung ausmacht. Der Unterschied kann sich auf viele Faktoren beziehen,
einschließlich des Wechselspiels zwischen verschiedenen Genen und/oder der
spezifischen Funktionen der Aminosäuren-Ersetzungen. Obwohl wir gerade erst
das Buch aufgeschlagen haben, um die Geschichte der sprachlich-relevanten Gene
zu lesen, ist es durchaus möglich, dass die Foxp2-Unterschiede entscheidend zur
sprachlichen Disposition beigetragen haben, während die sprachlichen Fähigkei-
3.2 Die Funktion der Basalganglien 49

ten von Genus Pan im Vergleich zum modernen Menschen sehr limitiert sind. In
diesem Zusammenhang sollte nicht unerwähnt bleiben, dass der Bonobo Kanzi
mit Hilfe einer Bonobo-angepassten Tastatur in der Lage war, 500 Lexigramme zu
lernen, um Fragen zu stellen, Wünsche zu äußern oder kurze Phrasen abfassen zu
können. Er verstand ebenso etwa 3.000 Wörter. Allerdings sind diese Fähigkeiten
nicht mit der menschlichen Sprache zu vergleichen. Zum Beispiel stellen Bonobos
oder Schimpansen niemals Fragen, obwohl der Unterschied zwischen Wer, Was
und Wo offensichtlich verstanden wird (Premack und Premack, 1983). Motiviert
durch Belohnung können Affen lernen, ikonische Zeichen mit Objekten zu asso-
ziieren. Komparative Kognitionsforschung wird weniger human-zentriert, indem
neue Methoden entwickelt werden, die den Fähigkeiten einer Spezies entgegen-
kommen. Zum Beispiel ist Ayumi ein am Primaten-Forschungsinstitut in Kyoto
trainierter Jung-Schimpanse, der bei der Nachstellung einer Sequenz mit fünf
Zahlen (zwischen eins und neun), die 210 ms angezeigt wurde, besser abschnitt als
untrainierte erwachsene Menschen (Inoue und Matsuzawa, 2007). Ayumu hatte eine
Treffsicherheit von 79 %. Wurden die menschlichen Probanden trainiert, schnitten
diese ebenso gut oder sogar besser ab als Ayumu (Silberberg und Kearns, 2009;
Cook und Wilson, 2010). Diese Ergebnisse weisen darauf hin, dass das räumliche
Arbeitsgedächtnis bei Schimpansen gut entwickelt ist. In der freien Natur brechen
Schimpansen die Enden eines Astes ab, spitzen den Knüppel an und stechen ihn
in die Hohlräume von Baumstämmen, um an Buschbabies zu gelangen. Bonobos,
Schimpansen, Orang-Utans, Gorillas, Tümmler, Orcas, Elefanten und Europäische
Elstern16 bestehen den Spiegeltest, der auf die mögliche Bewusstseinsebene hinweist;
das menschliche Kleinkind kann sich normalerweise im Alter von 18 Monaten
selbst erkennen. Neue Ergebnisse zeigen , dass die kognitive Leistungsfähigkeit bei
einigen Nicht-Menschen größer ist, als bislang angenommen wurde.
Eine Verbindung zwischen bestimmten Genen und Verhaltensmerkmalen
herzustellen, stellt eine extrem schwierige Aufgabe dar. Zum Beispiel bleibt die
sprachrelevante Funktion von Foxp2 unklar. Wir wissen, dass Foxp2-Mutationen
zu Sprechstörungen führen, aber eine direkte Verbindung zu den Aminosäure-Er-
setzungen wurde bislang nicht aufgezeigt. Foxp2-Ersetzungen in der menschlichen
Evolution involvieren T303N und N325S, während die Mutationen, die bei den
Mitgliedern der KE-Familie gefunden wurden, sich auf R553H beziehen. Foxp2

16 Die Europäische Elster (Pica pica) gehört zur Krähenfamilie, und es wird angenom-
men, dass sie eines der intelligentesten Tiere ist. Obwohl die Europäische Elster keinen
Neocortex besitzt, ist die Größe des Neopalliums (eine Region des Vogelhirns, die für
die exekutiven und kognitiven Funktionen zuständig ist) mit dem Neostriatum der
Basalganglien beim Menschen, Schimpansen und Orangutan vergleichbar.
49
50 3 Genetische Grundlagen

könnte ein Set verschiedener Gene regulieren, die für Sprechen und Sprache ver-
antwortlich sind, oder es könnte ein Zellverhalten steuern, das nicht nur für die
Sprachverarbeitung zuständig ist, sondern auch für andere kognitive Funktionen.
Die große Bandbreite der Foxp2-Expressionen weist zumindest darauf hin, dass
andere kognitive Mechanismen durch diesen Transkriptionsfaktor kontrolliert
werden. Mit anderen Worten: Die Prinzipien der Epistase und Pleiotropie scheinen
auch für Sprechen und Sprache zuzutreffen. Das Prinzip der Epistase besagt, dass die
meisten phänotypischen Eigenschaften durch multiple Geninteraktionen zwischen
modifizierenden Genen bewirkt werden; das Prinzip der Pleiotropie impliziert, dass
die meisten Gene verschiedene phänotypische Eigenschaften gleichzeitig regulieren.
Für die meisten Verhaltensmerkmale ist es schwierig, eine direkte Verbindung
zwischen evolutionär bedingten genetischen Veränderungen und neuen Phänoty-
pen herzustellen. In Bezug auf Sprache sind wir insbesondere an der biologischen
Disposition interessiert. Unter Berücksichtigung des komplexen Zusammenhangs
zwischen Gen-Phänotypen, scheint es insbesondere relevant, biochemische und
physiologische Eigenschaften auf der zellularen Ebene zu untersuchen. Es wäre
sicherlich wünschenswert, dass zukünftige Forschungsansätze zu den genetischen
Grundlagen der Sprache nicht nur komparative Genom- und „Microarray-Studien“17
berücksichtigen, sondern auch Simulationsanwendungen, die neuroanatomische
und molekulare Daten integrieren. Ein anderer Grundlagenforschungsansatz
würde mathematisch vorgehen, um Zusammenhänge zwischen biologischen, neu-
rologischen und linguistischen Prinzipien und Regeln erkennen zu können. Mit
mathematischen Beschreibungen, die sich nur auf eine bestimmte Ebene beziehen,
kann kognitives Verhalten in Bezug auf biologische Prozesse nicht erfasst und vor-
hergesagt werden. Mentalistische oder kognitive Linguistik18 versucht, universelle
kognitive Prinzipien auf der syntaktischen und semantischen Ebene zu beschreiben.
In einer idealen Welt würden wir versuchen, die Grenzen, die inhärent mit einem
Einebenen-Ansatz verbunden sind, zu überschreiten. Diese Überschreitung kann
vertikal zwischen verschiedenen Ebenen (z. B. linguistisch-neuronal oder neuron-

17 DNA-Microarrays messen simultan die Expressionsebenen tausender Gene. Die meisten


Microarray-Systeme messen in den Zellenstrukturen verschiedene mRNA-Molekülarten
und messen daher indirekt die Expressionsebenen der Gene, die für die Synthese der
mRNA-Moleküle verantwortlich sind.
18 Der Ansatz der sogenannten Computerlinguistik (Berechnungslinguistik) ist im Unter-
schied zur mentalistischen oder kognitiven Linguistik ausschließlich formalistisch, um
Software-Anwendungen unabhängig von der menschlichen Kognition zu entwickeln.
Dies schließt nicht die Möglichkeit aus, dass einige Formalismen geeignet sein können,
Sprache und Kognition des Menschen adäquat zu beschreiben.
3.2 Die Funktion der Basalganglien 51

al-molekular) erfolgen oder horizontal zwischen zwei oder mehreren Domänen auf
der gleiche Ebene (z. B. Syntax für Sprache und Musik).
Der genetische Ansatz verdeutlicht, wie schwierig es ist, eine direkte Verbin-
dung zwischen Genotyp und Phänotyp herzustellen. Diese Versuche liegen der
motivierenden Idee zugrunde, dass es eine angeborene Struktur (manchmal als
universelle Grammatik bezeichnet) gibt, die jedem Kleinkind die Möglichkeit gibt,
eine Sprache ohne explizite Anleitungen zu erlernen. Zumindest können wir sagen,
dass diese angeborenen Strukturen einen symbolischen Erwerbsalgorithmus (SEA)
ermöglichen. Im Rahmen des SEA können Menschen unendlich viele symbolische
Einzelsysteme entwickeln. Hier stellen wir nicht die Frage nach dem Zusammenhang
zwischen Sprache und anderen kognitiven Domänen wie Mathematik oder Musik,
sondern gehen davon aus, dass SEA in Bezug auf die symbolische Verarbeitung
universell ist. Genetische Informationen triggern den SEA, der es uns ermöglicht,
Sprachen ohne Anstrengungen zu erwerben.19 Der SEA muss die Kriterien eines
bestimmten Suchraums erfüllen und allgemein genug sein, um allgemeine Prinzi-
pen menschlicher Sprachen erfassen zu können (z. B. „Principles and Parameters
Theory“; Chomsky, 1995). Im Sinne dieses Modells ist das Kind mit angeborenen
Prinzipien ausgerüstet, und der einzelsprachliche Input ermöglicht, spezifische
Parameter festzulegen. Das Kind extrahiert unbewusst linguistische Regeln bei
der Verarbeitung sprachlicher Daten. Sprache bzw. Symbolismus ist ein komple-
xer Phänotyp und die positive Selektion dieser Eigenschaft involviert vermutlich
verschiedene inkrementelle Schritte. Im Sinne des Dawin’schen Paradigmas tragen
verbesserte Kommunikationsfähigkeiten zur Fitness bei, und den Nachkommen
werden entsprechende Mutationen vererbt, die die biologische Sprachdisposition
begünstigen und sich daher von Generation zu Generation durchsetzen. Ein bio-
logisches Modell unseres Sprachvermögens sollte die Evolution der genetischen
Grundlagen für den SEA miteinschließen. Inwieweit sich der SEA im Lauf der
Evolution verändert, muss sicherlich berücksichtigt werden, aber gegenwärtig
befinden wir uns noch am Anfang des Versuchs, sowohl phylogenetische als auch
ontogenetische Eigenschaften der Sprachverarbeitung mit Hirnstrukturen und
Verhalten in Beziehung zu setzen.

19 Wie für jede einzelne Spezies zutreffend, gibt es in Bezug auf kognitives Verhalten
bestimmte biologische Voraussetzungen. An dieser Stelle diskutieren wir nicht das
Ausmaß dieser Restriktionen – ob zum Beispiel im Fall des modernen Menschen be-
stimmte biolinguistische Ansätze zu restriktiv sind, indem nur spezifische linguistische
Beschreibungsebenen wie Syntax und/oder Semantik berücksichtigt werden.
51
52 3 Genetische Grundlagen

Literatur
Literatur
Büchel, C., & Watkins, K. E. (2010). Genetic susceptibility to persistent stuttering. New
England Journal of Medicine, 362(23), 2226.
Chomsky, N. (1995). The Minimalist Program. Cambridge, MA: MIT Press.
Clark, A. G., Glanowski, S., Nielsen, R., Thomas, P., Kejariwal, A., Todd, M. J., Tanenbaum,
D. M., Civello, D., Lu, F., Murphy, B., Ferriera, S., Wang, G., Zheng, X., White, T. J.,
Sninsky, J. J., Adams M. D., & Cargill, M. (2003). Positive selection in the human genome
inferred from human-chimp-mouse orthologous gene alignments. Cold Spring Harb
Symposium Quantitative Biology, 68, 471–7.
Cook, P., & Wilson, M. (2010). Do young chimpanzees have extraordinary working memory?
Psychonomic Bulletin & Review, 17(4), 599–600.
Dediu, D. & Ladd, D. (2007). Linguistic tone is related to the population frequency of the
adaptive haplogroups of two brain size genes, ASPM and microcephalin. Proceedings of
the National Academy of Science, 104(26), 10944–9.
Enard, W., Przeworski, M., Fisher, S. E., Lai, C. S., Wiebe, V., Kitano, T., Monaco, A. P., &
Pääbo, S. (2002). Molecular evolution of FOXP2, a gene involved in speech and language.
Nature, 418(6900), 869–72.
Enard, W., Gehre, S., Hammerschmidt, K., Hölter, S. M., Blass, T., Somel, M., Brückner, M. K.,
Schreiweis, C., Winter, C., Sohr, R., Becker, L., Wiebe, V., Nickel, B., Giger, T., Müller,
U., Groszer, M., Adler, T., Aguilar, A., Bolle, I., Calzada-Wack, J., Dalke, C., Ehrhardt,
N., Favor, J., Fuchs, H., Gailus-Durner, V., Hans, W., Hölzlwimmer, G., Javaheri, A.,
Kalaydjiev, S., Kallnik, M., Kling, E., Kunder, S., Mossbrugger, I., Naton, B., Racz, I.,
Rathkolb, B., Rozman, J., Schrewe, A., Busch, D. H., Graw, J., Ivandic, B., Klingenspor,
M., Klopstock, T., Ollert, M., Quintanilla-Martinez, L., Schulz, H., Wolf, E., Wurst,
W., Zimmer, A., Fisher, S. E., Morgenstern, R., Arendt, T., de Angelis, M. H., Fischer,
J., Schwarz, J., & Pääbo, S. (2009). A humanized version of Foxp2 affects cortico-basal
ganglia circuits in mice. Cell, 137(5), 961–71.
Fisher, S. E., Vargha-Khadem, F., Watkins, K. E., Monaco, A. P., & Pembrey, M. E. (1998).
Localisation of a gene implicated in a severe speech and language disorder. Nature
Genetics, 18(3), 298.
Fisher, S. E., Lai, C. S. L., & Monaco, A. P. (2003). Deciphering the genetic basis of speech and
language disorders. Annual Review of Neuroscience, 26(1), 57–80.
Fitch, W. T. (2006). Production of vocalizations in mammals. In: K. Brown (ed.), Encyclopedia
of Language and Linguistics. Oxford: Elsevier, pp. 115–21.
Gopnik, M. (1990). Genetic basis of grammar defect. Nature, 347(6288).
Hurst, J. A., Baraitser, M., Auger, E., Graham, F., & Norell, S. (1990). An extended family
with a dominantly inherited speech disorder. Developmental Medicine & Child Neu-
rology, 32(4), 352–5.
Inoue, S., & Matsuzawa, T. (2007). Working memory of numerals in chimpanzees. Current
Biology, 17, R1004-R1005.
Kang, C., Riazuddin, S., Mundorff, J., Krasnewich, D., Friedman, P., Mullikin, J. C., &
Drayna, D. (2010). Mutations in the lysosomal enzyme-targeting pathway and persistent
stuttering. New England Journal of Medicine, 362(8), 677–85.
Literatur 53

Konopka, G., Bomar, J. M., Winden, K., Coppola, G., Jonsson, Z. O., Gao, F., Peng, S., Preuss,
T. M., Wohlschlegel, J. A., & Geschwind, D. H. (2009). “Human-specific transcriptional
regulation of CNS development genes by FOXP2”. Nature, 462 (7270): 213–217.
Krause, J., Lalueza-Fox, C., Orlando, L., Enard, W., Green, R. E., Burbano, H. A., Hublin,
J. J., Hänni, C., Fortea, J., de la Rasilla, M., Bertranpetit, J., Rosas, A., & Pääbo, S. (2007).
The derived FOXP2 variant of modern humans was shared with Neandertals. Current
Biology, 17(21), 1908–12.
Lai, C. S., Fisher, S. E., Hurst, J. A., Vargha-Khadem, F., & Monaco, A. P. (2001). A forkhead-do-
main gene is mutated in a severe speech and language disorder. Nature, 413, 519–23.
Lieberman, P. (2009). FOXP2 and Human Cognition. Cell, 137(5), 800–2.
Premack, D., & Premack, A. J. (1983). The mind of an ape. New York: Norton.
Silberberg, A., & Kearns, D. (2009). Memory for the order of briefly presented numerals in
humans as a function of practice. Animal Cognition, 12, 405–407.
Vargha-Khadem, F., Watkins, K., Alcock, K., Fletcher, P., Passingham, R. (1995). Praxic
and nonverbal cognitive deficits in a large family with a genetically transmitted speech
and language disorder. Proceedings of the National Academy of Science, 92(3), 930–3.

53
Der Aufstieg der Kognition
4 Der Aufstieg der Kognition 4

Zusammenfassung

Komparative Studien mit Makaken und Schimpansen weisen darauf hin, wie
sich der linksseitige frontotemporale linguistische Schaltkreis beim Menschen
entwickelt haben könnte. Traktographische Untersuchungen verdeutlichen
eine graduelle Adaption in Richtung der Verarbeitung von Lautsprache. Die
Funktionen der Spiegelneuronen werden in diesem Zusammenhang diskutiert.
Komparative Studien zur Vokalisation deuten darauf hin, dass die Fähigkeit,
einfache rekursive hierarchische Strukturen zu berechnen, eine Eigenschaft
ist, die offensichtlich unter den nicht-ausgestorbenen Arten nur der moderne
Mensch besitzt. Wann der Übergang zu intermodalen neuronalen Projektionen
stattgefunden hat, lässt sich schwierig bestimmen, aber der Anstieg der kranialen
Kapazität beim H. erectus zeigt, dass diese Spezies bereits über sprachliche Kom-
munikation (z. B. Protosprache) verfügt haben könnte. Verschiedene kulturelle
Stadien liefern Hinweise auf die zur Verfügung stehende Kognition und auf die
möglichen sprachlichen Fähigkeiten.

Stichwörter

Acheuléen, Schimpanse, Kraniale Kapazität, Faser-Projektionen, DTI, H. erec-


tus, Makake, Spiegelneuronen, Oldowan, Sonogramm, Singvögel, Vokalisation,
Arbeitsspeicher.

55
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_5
56 4 Der Aufstieg der Kognition

4.1 Komparative Studien


4.1 Komparative Studien
Die biologische Sprachdisposition evolvierte graduell von nicht-menschlichen
Primaten, wobei der Ursprung einiger neuraler Strukturen sogar noch außerhalb
der Abstammungslinie der Primaten zurückverfolgt werden kann (Darwin, 1859).
Dies impliziert, dass komparative Hirnstudien sprachlich-relevante homologe Re-
gionen des menschlichen Gehirns aufzeigen und dass diese Regionen auf corticale
Strukturen unserer biologischen Vorfahren zurückgeführt werden können. Es ist
daher nicht überraschend, dass die interdisziplinäre Forschung stärker darum
bemüht ist, den evolutionären Weg der menschlichen Sprachdisposition nachzu-
vollziehen. Diesbezüglich setzt eine Forschungsrichtung Bildgebungsverfahren
ein, um corticale Regionen und Schaltkreise bei verwandten Spezies zu vergleichen
und zu analysieren. Damit können Rückschlüsse auf die Evolution dieser neuralen
Strukturen und auf Sprache und Kognition gezogen werden (Rilling et al., 2008). Ein
anderer Ansatz bezieht sich auf Einzelanalysen von sogenannten Spiegelneuronen
in Makaken (Macaca mulatta), um deren neuronale Funktion bei der Evolution
gesprochener Sprache simulieren zu können (Rizolatti et al., 1996). Schließlich
gibt es Untersuchungen über das neuronale Substrat der Vokalisation primär bei
nicht-humanen Primaten und bei Vögeln, um besser verstehen zu können, wie
gesprochene Sprache beim Menschen funktioniert (Bolhuis et al., 2010). Im vorlie-
genden Kapitel liefern wir wichtige Resultate zu allen drei Forschungsrichtungen.
Abschließend versuchen wird ein kohärentes Bild zu zeichnen, und zwar mit der
Absicht, die Informationen hervorzuheben, die für die Beschreibung der corticalen
Eigenschaften des menschlichen Sprachsystems relevant sind.
Das Broca-Areal20, die klassische motorische Sprachregion, umfasst beim mo-
dernen Menschen den frontalen Cortex (Brodmann-Areal, BA21 44, 45) des linken
IFG. BA 45 scheint vorwiegend afferente Verbindungen vom präfrontalen Cortex,
Gyrus temporalis superior (STG, „superior temporal gyrus“) und Sulkus temporalis

20 Paul P. Broca (1824-1880), ein französischer Chirurg und Anthropologe, präsentierte auf
einem Kongress der Anthropologischen Gesellschaft von Paris den Patienten „Leborgne“,
der nur den Automatismus „Tan“ produzieren konnte. Die Autopsie zeigte eine Läsion
in der 3. Hirnwindung des linken Frontallappens. Moderne Analysemethoden verdeut-
lichten, dass dieser Patient heute als ein „globaler Aphasiker“ klassifiziert werden würde.
Diese Entdeckung wird oftmals als die Geburtsstunde der kognitiven Neuropsychologie
angesehen, obwohl vergleichbare Beobachtungen Generationen zuvor bereits von dem
französischen Neurologen Marc Dax (1836) dokumentiert wurden.
21 Korbinian Brodmann (1868-1918), ein Neurologe aus Deutschland, unterteilte 1909
den Cortex in 52 verschiedene corticale Regionen, wobei hierbei cytoarchitektonische
Merkmale berücksichtigt wurden.
4.1 Komparative Studien 57

superior (STS, „superior temporal gyrus“) zu erhalten und BA 44 von motorischen,
somatosensorischen und inferioren parietalen Regionen. Diese unterschiedliche
Konnektivität und die Cytoarchitektur weisen auf die Hypothese hin, dass BA 44
und 45 verschiedene Funktionen erfüllen. Die klassische rezeptive Sprachregion,
Wernicke-Region22 genannt, befindet sich ebenfalls linksseitig im Planum temporale
(PT) und umfasst BA 22 (STG; Tpt), BA 40 (Gyrus supramarginalis) und eventuell
BA 37. Die Relevanz beider Sprachzentren wurde bereits im 19. Jahrhundert entdeckt,
als aphasische Patienten systematische Sprachstörungen zeigten, wenn eine Läsion in
einer dieser Regionen, in beiden Regionen oder im Fasciculus arcuatus (AF, „arcuate
fasciculus“) vorliegt. AF sind lange Nervenfasern, die beide Regionen miteinander
verbinden.23 Wernicke (1874) sagte bereits voraus, dass eine Läsion im AF ein anderes
Aphasie-Syndrom verursachen würde, das heute unter dem Name Leitungsaphasie
bekannt ist. Aphasische Patienten mit diesem AF-Diskonnektionssyndrom haben
vor allem Schwierigkeiten bei der Verarbeitung von phonologischen Informationen
wie zum Beispiel von Phonemen und Silbenstrukturen.24
Bei Schimpansen ist die Region „fo“ (Sulkus fronto-orbitalis) homolog zu BA 44
des Menschen und dürfte Teile von BA 45 umfassen (Jackson et al., 1969; Sherwood et
al., 2003). Die Broca-Kapsel auf der Höhe des Polus temporalis (Schläfenpols) verhält
sich nicht homolog zu der orbitalen Kapsel beim Schimpansen. Die Broca-Kapsel
beim Menschen umfasst BA 45 und 47, nicht jedoch BA 44. Im Zusammenhang
mit dem Makaken-Hirn wurde vorgeschlagen, dass der inferiore Anteil des Sulkus
arcuatis die homologen Areale BA 44 und 45 umfasst (Deacon, 1992; siehe Abb.
4.1). Eine neuere Endocast-Studie des H. erectus Sambungmacan 3, der in Indone-

22 Carl Wernicke (1848-1905), ein in Breslau (Wrocław) lebender deutscher Arzt, entdeckte
ein aphasisches Syndrom, das durch Läsionen im Lobus temporalis superior mit parie-
talen Anteilen verursacht wurde. Unter Berücksichtigung seiner Entdeckung und der
von Paul Broca sagte er ein drittes aphasisches Syndrom voraus, das heute unter dem
Namen „Leitungsaphasie“ bekannt ist.
23 Die Nervenfasern bestehen aus Axonbündeln, die von den Neuronen in der (sub)cor-
ticalen grauen Substanz stammen. Drei verschiedene Arten von Nervenfasern werden
voneinander unterschieden: (i) Kommissurenfasern, die beide Gehirnhälften miteinander
verbinden; (ii) Projektionsfasern, die entweder den Cortex mit der inneren Kapsel, den
Basalganglien, dem Hirnstamm und der Wirbelsäule (corticofugale Fasern) verbinden,
oder den Cortex mit dem Thalamus (corticopedale Fasern); und (iii) Assoziationsfasern,
die die benachbarten oder entfernten corticalen Regionen innerhalb der gleichen Ge-
hirnhälfte verbinden und entsprechend jeweilig als kurze und lange Assoziationsfaser
bezeichnet werden.
24 Ein Phonem stellt die kleinste diskret-segmentale Lauteinheit dar, um einen bedeutungs-
vollen Unterschied zwischen Äußerungen herzustellen. Neben der Betonung kann die
Einheit weiter in einzelne phonematische Merkmale zerlegt werden.
57
58 4 Der Aufstieg der Kognition

sien gefunden wurde, verdeutlicht eine linksseitige Asymmetrie der Broca-Kapsel


(Broadfield, 2001). Dies wurde als Beleg dafür angesehen, dass H. erectus über
Sprache verfügte. Allerdings gibt es eine extreme Variabilität beim Menschen in
Bezug auf die Asymmetrie der Broca-Kapsel, und eine linksseitige Asymmetrie
für BA 44 wurde auch bei drei Großaffen gefunden: Pan troglodytes (Gemeiner
Schimpanse), Pan paniscus (Bonobo) und Gorilla gorilla (Cantalupo und Hopkins,
2001). Obwohl das Broca-Areal eines der wichtigsten corticalen Regionen ist, das an
der Sprech- und Sprachfunktion beteiligt ist, ist die linksseitige Asymmetrie nicht
für den menschlichen Cortex spezifisch und informiert uns daher nicht über die
mit diesen Regionen verbundenen spezifischen corticalen Funktionen. Vermutlich
diente BA 44 der Aufgabe, Gesten und/oder Vokalisation bei den Menschenaffen
zu steuern. Dies könnte zu einer Expansion von BA 45 geführt haben und zu einer
vermehrten corticalen Faltung im linken IFG.

Abb. 4.1 Die primären linksseitigen Sprachregionen beim modernen Menschen und
homologe Areale beim Gemeinen Schimpansen und Makaken. BA 44 und
45 umfassen Broca-Areal, Tpt (temporoparietal), PT (Planum temporale),
und BA 40 umfasst die Wernicke-Region. BA 40 beim H. sapiens, PF und
PG (inferiorer und mittlerer Parietallappen) beim Schimpansen und Areal
7b beim Makaken werden als Homologe angesehen, aber auch das Tpt-
Areal beim modernen Menschen und Makaken und das TA-Areal beim
Schimpansen; fo, Sulkus fronto-orbital beim Schimpansen (siehe Text für
Details) (adaptiert und modifiziert, Falk, 2007; © Springer Science + Business
Media).

Wenden wir uns nun der zweiten klassischen Sprachregion zu. Die homologe Re-
gion der Wernicke-Region beim Schimpansen ist das PT (Planum temporale). Es
ist in der linken Gehirnhälfte nicht nur beim modernen Menschen umfangreicher,
sondern auch beim Schimpansen (Gannon et al., 1998; Hopkins et al., 1998). Im
Vergleich zum Broca-Areal wird die Wernicke-Region als eine ältere corticale Struk-
tur angesehen. Ein Grund dafür ist, dass Tpt, die temporoparietale Region, auch
4.1 Komparative Studien 59

bei einigen Prosimiae (Halbaffen) gefunden werden (Preuss und Goldman-Rakic,


1991).25 Wie beim modernen Menschen ist bei Makaken die linke Gehirnhälfte
für die Verarbeitung von bedeutungsvoller Vokalisation dominant. Der Gyrus
temporalis superior (STG) und der linke inferiore Parietallappen sind homologe
Regionen der Wernicke-Region (Galaburda und Pandya, 1982).
Heute werden verschiedene Methoden verwendet, um die anatomische Konnek-
tivität zwischen corticalen Regionen abbilden zu können. Ein Grund ist, dass die
Methode der post-mortemen stumpfen Faser-Dissektion seine Grenzen hat, wenn
versucht wird, einzelne Fasersysteme voneinander zu trennen. Die traktographi-
sche Methode wie DTI dient normalerweise dazu, die Bahnen der Nervenfasern
beim Menschen zu verdeutlichen. Bei Hirneingriffen wird auch die Methode
der Elektrostimulation angewendet. Zudem wird bei Tieren die histochemische
Trakt-Tracing-Methode benutzt. Es bleibt jedoch die Frage, inwieweit die Bahnen
und Schaltkreise sprachlicher Verarbeitung durch Untersuchungen der Faserbahnen
bei nicht-humanen Primaten zurückverfolgt werden können. Auch sollte in diesem
Zusammenhang hervorgehoben werden, dass die graue Substanz und nicht die
weiße Substanz der Nervenfasern für kognitive Funktionen zuständig sind. Die
weiße Substanz verbindet und unterstützt die verschiedenen corticalen Areale, sie
selber besitzt jedoch keine kognitiven Funktionen. Diese Methode (und andere)
haben daher ihre Grenzen. Es ist nicht überraschend, dass das Nervenfasersystem
des Menschen kontrovers diskutiert wird (Dick und Tremblay, 2012).
Das typische Sprachmodell sieht analog zur visuellen Verarbeitung eine duales
Stream-Modell vor: Die dorsale Route bildet den auditorischen Input auf moto-
risch-artikulatorische Repräsentationen ab und die ventrale Route auf semantische
Repräsentationen (Ungerleider und Haxby, 1994; Hickok und Poeppel, 2004;
Rauschecker, 2011). Hinsichtlich des dorsalen Streams wurde auch diskutiert, ob
es ein zusätzliches temporoparietal-frontales Segment gibt (Catani et al., 2005).
Glasser und Rilling (2008) schlagen vor, den Stream AF-SLF (Fasciculus arcua-
tus – Fasciculus superior longitudinal) zu unterteilen und zwar zwischen einer
lexikalisch-semantischen Route vom Gyrus temporalis medius (MTG) bis zu den
BA 44, 45 und 9 und einer phonologischen Route vom Gyrus temporalis superior
(STG) bis zu BA 44 und BA 6. Zusätzlich wurde in der rechten Gehirnhälfte ein
kleiner Stream zwischen den STG und BA 44 und BA 6 sowie zwischen den MTG
und BA 44 und BA 6 gefunden. Die Funktion der letztgenannten Route wird
der prosodischen Verarbeitung zugeordnet. Neuere Studien mit nicht-humanen
Primaten unterscheiden zwischen vier verschiedenen Segmenten des AF-SLF-

25 Prosimien sind Primaten und umfassen Lemuren, Plumploris, Buschbabies und Koboldmakis
und sind in Madagaskar heimisch. Zu den Simiformes gehören der Affe und der Mensch.
59
60 4 Der Aufstieg der Kognition

Streams, drei verschiedene SLF-Routen sowie die AF-Bahn (Schmahmann et al.,


2007; Petrides und Pandya, 2006). Insbesondere wird SLF III als ein möglicher
Stream der Sprache angesehen, da er den inferioren Parietallappen mit homologen
Regionen des menschlichen Broca-Areals (BA 44, 45) verbindet. Die Ergebnisse
der mit unterschiedlichen Methoden durchgeführten Studien bestätigen, dass das
Areal Tpt bei den Makaken, welches homolog zur Wernicke-Region interpretiert
wird, auf das dorsale und laterale prämotorische Areal projiziert und nicht auf die
homologen Sprachregionen 9/46d, 6d und 8Ad (Petrides und Pandya, 2006). Die
Unterschiede der neuralen Bahnen zwischen H. sapiens, Schimpansen und Makaken
verdeutlicht eine komparative DTI-Studie (Rilling et al., 2008; siehe Abb. 4.2). Beim
modernen Mensch verbindet der linksseitige AF den Frontallappen mit dem MTG
und mit dem ITG (Gyrus temporalis inferior), einschließlich der Wernicke-Region.
Bei den Makaken entspricht diese Region der sekundären und tertiären visuellen
Rinde (Area extrastriata, V2-V5), die neben dem primären visuellen Cortex liegt.
Der MTG und der ITG vergrößerten sich disproportional in der Abstammungs-
geschichte des Menschen. Die Nervenfaserbahnen sind beim Schimpansen etwas
stärker als beim Makaken entwickelt und spiegeln die prioren Bedingungen wider,
welche die Verbindung zwischen Bedeutung und Motorsequenzen ermöglichen.
Es ist jedoch offensichtlich, dass mit dem Anstieg des Gehirnvolumens in der
Abstammungsgeschichte des Menschen sich auch das Volumen der weißen Substanz
in den frontalen und temporalen Arealen vergrößerte, insbesondere bei der dorsalen
Route. Der temporofrontale Schaltkreis dehnt sich vermutlich auf der Grundlage
des Gebrauchs von Werkzeugen und der sprachlichen Kommunikation aus. Diese
Entwicklung geschah sicherlich graduell, und wir nehmen spekulativ an, dass beim

Abb. 4.2 Schematische durchschnittliche Traktographie-Ergebnisse bei Makaken,


Schimpansen und modernen Menschen. IFS, Sulkus frontalis inferior; IPS,
Sulkus intraparietalis; PrCS, Sulkus precentralis; CS, Sulkus centralis; STS,
Sulkus temporalis superior; PS, Hauptsulcus; AS, Sulkus arcuatus; BA in
rot/orange: Broca-Areal BA 44 und BA 45 mit Zusatz BA 47; BA in blau/
violett: Wernicke-Region BA 22 und BA 40 mit Zusatz BA 37 (adaptiert und
modifiziert, Rilling et al., 2008; © Nature Publishing Group).
4.1 Komparative Studien 61

H. erectus die temporofrontalen Projektionen weniger entwickelt waren als beim


modernen Menschen, aber entwickelter waren als beispielsweise bei Lucy, die dem
Genus Australopithecus angehört.
Wir können allerdings nicht ausschließen, dass die Faserbahnen beim H. erectus
vergleichbar entwickelt waren wie beim modernen Menschen. Die im Laufe der
Evolution entstandenen Veränderungen von AF und SLF weisen auf die graduelle
Entwicklung der neuroanatomischen Struktur, die unsere sprachlichen Kapazitäten
unterstützen. Eine beim Menschen durchgeführte Diffusions-Fasertraktographie
zeigt, dass der AF vom posterioren Gyrus temporalis superior (STG) zum BA 44
führt, manchmal auch zum BA 45. Auch beim Affen wird diese Faserbahn auf BA
6 und 8 projiziert (Frey et al., 2008). Diese Studie berichtete ebenso, dass der SLF in
den meisten Fällen den SMG (Gyrus supramaginalis) mit dem BA 44 verbindet. Der
MLF und der ILF verbinden den STG mit der ventralen posterioren intraparietalen
Region, die wiederum den Schaltkreis vom posterioren auditorischen Cortex zum

Abb. 4.3 Faserverbindungen für mögliche Sprachschaltkreise beim Menschen


(basierend auf der funktionalen Konnektivität im Ruhezustand – „Resting-
State-Funktionalität“) und autoradiographische Daten beim Affen. CS,
Sulkus centralis; IPS, Sulkus intraparietalis; MI, primär-motorisches Areal;
SI, primär-somatosensorisches Areal; M/STG, Gyrus temporalis superior/
medial (adaptiert und modifiziert, Kelly et al., 2010; © Federation of European
Neuroscience Societies and Blackwell Publishing Ltd; Abbildung basiert auf ©
Aboitiz, 2012).

61
62 4 Der Aufstieg der Kognition

BA 44 schließt. Wie beim Affen verbindet das bidirektionale Fasersystem der Capsula
extrema (ECFS) und der Fasciculus uncinate (UF) den anterioren Temporallappen
mit den BA 45 und BA 47. Dieses und andere anatomische Modelle unterscheiden
sich von funktionalen Modellen, die Routen für bestimmte linguistische Verarbei-
tungsprozesse postulieren. Entsprechend wurde vorgeschlagen, dass die ventrale
Route neben anderen Funktionen dafür zuständig ist, Laute mit Bedeutungen zu
verbinden, einfache grammatische Strukturen oder sprachliche Einheiten zu er-
kennen. Die MRT-Daten von Buchsbaum und Mitarbeitern (2005) weisen darauf
hin, dass der ventrale Stream die phonologische Wahrnehmung ausführt und der
dorsale Stream Rehearsal-Prozesse unterstützt.
Ein vergleichbarer Ansatz wurde von Hickok und Poeppel (2007) vorgestellt. Die
Autoren diskutieren zusätzlich einen ventralen Stream in der rechten Gehirnhälfte
und vermuten, dass der rechte ventrale Stream Informationen bei längeren Zeit-
spannen integriert, während kürzere Zeitspannen bilateral repräsentiert seien. Die
wichtigsten, so weit diskutierten Faser-Streams werden in Abb. 4.3 verdeutlicht. Ein
Abschnitt des SFF verbindet den inferioren Parietallappen des Affen-PF (homolog
zu aSMG, Gyrus marginalis anterior superior) mit dem ventralen prämotorischen
Areal BA 6 (in „Grün“ gekennzeichnet). Ein anderer Abschnitt des SLF verbindet
die mittleren inferioren Parietallappen-Areale PFG und PG (homolog zum poste-
rioren SMG und Gyrus angularis, AG) mit dem Broca-Areal (BA 44, 45) und der
AF verbindet die Wernicke-Region (STS, Sulkus superior temporalis) mit dem
Broca-Areal (beide in „Rot“ gekennzeichnet). Es ist allerdings schwierig, diese
Verbindung von der inferioren Verzweigung des SLF zu trennen. Der Fasciculus
longitudinalis medialis (MLF) verbindet die posterioren temporalen Areale mit den
inferioren Parietalregionen PFG und PG (in „Blau“ gekennzeichnet). Schließlich
verbindet eine ventrale Bahn den mittleren und anterioren Temporallappen via
ECFS mit dem Broca-Areal (siehe auch Petrides und Pandya, 2009).
Mittels der Methode der „Resting-State-Funktionskonnektivität“ (RSFC) stellten
Kelly und Mitarbeiter eine robuste Dissoziation zwischen BA 6 und dem Broca-Areal
(BA 44, 45) fest. BA 6 ist primär an der orofazialen Steuerung beteiligt und scheint
am stärksten mit dem inferioren Anteil des Parietallappens verbunden zu sein. Dies
wurde durch RSFC und anhand einiger Affenmodelle bestätigt. Demgegenüber ist
das Broca-Areal mit dem posterioren Anteil des Parietallappens verbunden. Dieser
konnektive Unterschied zwischen BA 6 und Broca-Areal besitzt auch cytoarchi-
tektonische Gründe. BA 6 ist agranulär (beim Affen und Menschen), d. h., es gibt
keine Schicht IV in der corticalen Struktur. BA 44 kann als dysgranulär angesehen
werden, da die Schicht IV nur rudimentär entwickelt ist. BA 45 besitzt allerdings
eine gut entwickelte Schicht IV. Diese Schicht weist efferente Faserverbindungen
mit dem Thalamus auf und besitzt reziproke exzitatorische und inhibitorische
4.1 Komparative Studien 63

Verbindungen zum Thalamus und zu den benachbarten Regionen (Lam und


Sherman, 2010).26 RSFC verdeutlicht, dass BA 44 und 45 strukturell ähnlicher sind
als das ventral liegende BA 6, was auch mittels einiger Konnektivitätsstudien mit
homologen Regionen beim Affen bestätigt wurde (Petrides und Pandya, 2009).
BA 45 und BA 44 scheinen jedoch Konnektivitätsunterschiede aufzuweisen.
Affenstudien belegen, das PG und der ventral-adjazente Temporallappen mit BA
45 stärker verbunden ist als mit BA 44. Auch weist die RSFC-Analyse darauf hin,
dass BA 45 mit AG und mit superioren und mittleren Temporallappen stärker
verbunden ist als mit BA 44. Es gibt allerdings noch viele Fragen bezüglich der
Funktion und der Eigenschaften dieser verschiedenen Nervenfaserverbindungen.
Bezeichnenderweise wird angenommen, dass AF an artikulatorischen, phonolo-
gischen und syntaktischen Verarbeitungsprozessen beteiligt ist und das ECFS an
der semantischen Verarbeitung (z. B. Friederici et al., 2003; Catani et al., 2005; Saur
et al., 2008). Die Daten können allerdings auch anders interpretiert werden: Die
Funktionen der Faserbahnen sind von den kognitiven Anforderungen abhängig
und nicht davon, welche spezifischen linguistischen Informationen verarbeitet
werden (Rolheiser et al., 2011).
Ein spezifisches Neuronen-Set wurde erstmalig bei Makaken entdeckt (Rizzolatti
et al., 1996; Gallese et al., 1996; Rizzolatti und Craighero, 2004). Die Funktionen
einzelner visuomotorischer Neuronen im prämotorischen Makaken-Cortex (Areal
F5) wurden aufgezeichnet. Das homologe Areal F5 beim Makaken entspricht dem
ventralen BA 6 beim Menschen, das sich nach BA 44 und PF ausdehnt (vgl. Abb. 4.3).
Diese prämotorischen Neuronen feuerten, wenn der Makake eine Aktion ausführte
(z. B. Strecken des Arms, um an Nahrung zu gelangen). Einige Neuronen feuern
ebenso, wenn der Makake eine vergleichbare Aktion bei einem anderen Affen oder
beim Menschen beobachtete (z. B. das Aufheben von Nahrung). Diese Neuronen
werden als Spiegelneuronen bezeichnet, da sie nur dann feuern, wenn eine Aktion
ausgeführt wird, nicht aber, wenn ein Objekt ohne Aktion gezeigt wird. Ein Drittel
der F5-Spiegelneuronen wird als „spezifisch-kongruent“ angesehen, d. h., sie feuern,
wenn die beobachteten und ausgeführten Aktionen auch die Absicht der Handlung
erzielen. Zwei Drittel der F5-Spiegelneuronen werden als „allgemein-kongruent“
bezeichnet, da sie während der Beobachtung feuern, ohne dass diese Aktion mo-
torisch umgesetzt werden muss. Wenn ein Makake das Geräusch einer Aktion
hört, das typischerweise mit einem bestimmten Objekt assoziiert wird, feuern
audiovisuelle Spiegelneuronen in F5. Allerdings feuerten in diesem Fall die meisten
Neuronen weniger stark bei der Darbietung innerhalb einer Modalität (Geräusch)

26 Brodmann (1909) unterscheidet die Neuronen des cerebralen Cortex nach sechs ver-
schiedenen Schichten, von der Pia mater bis zur weißen Substanz.
63
64 4 Der Aufstieg der Kognition

als bei der simultanen Darbietung in zwei Modalitäten (Vision und Geräusch;
Kohler et al., 2002). Zudem scheint sich die Funktion von F5 ausschließlich auf
manuelle Aufgaben zu beschränken (Jürgens, 2003). Bei Rhesusaffen zum Beispiel
überlagert sich die corticale Larynx-Repräsentation mit F5; BA 12 und 45 sind bei
der Vokalisation aktiv (Matelli et al., 1985). Diese Einzelzell-Aufzeichnungen bei
Primaten verdeutlichen, dass sich einige Eigenschaften der Spiegelneuronen im
prämotorischen und parietalen Cortex befinden.
Die Rolle der Spiegelneuronen wurde auch allgemein im Rahmen der Sprache-
volution untersucht (Corballis, 2003; Arbib, 2005). Arbib diskutiert im Einzelnen,
wie die Funktionen der Aktionsspiegelneuronen an der evolutionären Sprachent-
wicklung beteiligt gewesen sein könnten. Entsprechend unterscheidet er zwischen
sieben verschiedenen evolutionären Stadien, die voneinander abhängig sein sollen:
(1) Greifen; (2) Spiegelneuronensystem für Greifen, das von den gemeinsamen Vor-
fahren des Menschen und des Affen geteilt wird; (3) Imitationssystem für Greifen,
das von den gemeinsamen Vorfahren des Menschen und des Schimpansen geteilt
wird; die nächsten drei Stadien würden die Hominiden von den Menschenaffen
unterscheiden: (4) ein komplexes Imitationssystem für das Greifen; (5) Protozeichen,
ein manuelles Kommunikationssystem mit einem „offenen“ Lexikon; (6) Protospre-
chen, was auf dem Protozeichensystem beruhen würde; und (7) simultane Evolu-
tion kognitiver und linguistischer Komplexität, indem Aktion-Objekt-Strukturen
sich zu Verb-Argument-Strukturen und zu syntaktisch-semantischen Strukturen
entwickelt haben sollen. Wir sind in diesem Zusammenhang insbesondere an
den letzten vier Stadien interessiert, die eher einen Einblick auf die sprachliche
Disposition geben können. Dennoch sind die vorgeschlagenen Stadien als relativ
spekulativ aufzufassen. Im Unterschied zu Corballis und Arbib vermuten wir hier
insbesondere, dass die Evolution komplexer Vokalisation nicht direkt von Gesten
abhängig gewesen ist. Auch begann die simultane Evolution von Kognition und
Sprache relativ früh. Es ist Kognition und nicht Kommunikation oder Sprache
per se, die, wie wir bereits ausgeführt haben, die Entwicklung der Verarbeitung
modalitätsunabhängiger hierarchischer Strukturen initiiert hat.
Es stellt sich die Frage, woher „plötzlich“ diese komplexen mentalen Berech-
nungen kommen. Eine Vermutung legt nahe, dass Sprache und Kognition sich
simultan entwickelten, d. h., kognitive und linguistische Komplexität hat sich rege-
neriert, indem sich im Kontext der natürlichen Selektion die Lautsprache verfeinert
hat und komplexer wurde. Diesbezüglich ist die Beobachtung interessant, dass
MRT-Studien27 belegen, dass die lautliche Sprachwahrnehmung den superioren

27 Das aktuell wichtigste Bildgebungsverfahren kognitiver Neurowissenschaftler stellt


die Magnetresonanztomographie (auch als Magnetresonanzbildgebung bezeichnet)
4.1 Komparative Studien 65

Anteil des ventralen prämotorischen Cortex aktiviert, der sich mit dem Areal für
die Sprachproduktion überlagert (Wilson et al., 2004). Wir glauben daher, dass sich
das Vokalisationssystem zusammen mit dem Gestensystem entwickelt hat, und es
gibt keinen Grund zu der Annahme, dass die durch das Gestensystem entwickelten
Strukturen schrittweise auf das Vokalisationssystem übertragen wurden (Izumi
und Kojima, 2004). Die meisten Kommunikationsformen der Affen sind vokaler
Natur (neben der Körpersprache). Es gibt keinen Anhaltspunkt dafür, dass ein
Gestenstadium dem Stadium des Protosprechens vorausgegangen ist. Wir können
davon ausgehen, dass es sich um auditorische Spiegelneuronen handelt, die bei der
vokalen Nachahmung eine Rolle spielen. Vergleichbar mit dem Motormodell des
Sprechens simulieren vokale Spiegelneuronen den auditorischen Eingang. Sie können
dem Zweck dienen, den auditorischen Eingang mit der eigenen Artikulation zu
vergleichen (Liberman und Mattingly, 1985). Das vokale Spiegelneuronensystem

dar (MRT). Die Erfindung der MRT geschah nicht in einem Schritt, sondern ist das
Ergebnis einer Reihe von Entdeckungen in der Physik. Eine genaue Beschreibung
der Mechanismen, die der MRT-Methode zugrunde liegen, würde den Rahmen des
vorliegenden Kapitels sprengen. Wir verweisen in diesem Zusammenhang auf eine
entsprechende Einführung (z. B. Pooley, 2005). Dennoch sollten hier einige wesentliche
Fakten zu diesem wichtigen, nicht-invasiven Bildgebungsverfahren, das kontinuierlich
weiterentwickelt wird, erwähnt werden. Die am häufigsten verwendete MRT ist unter
dem Begriff „Blut-Oxygenation-Level-Dependence“ (BOLD) bekannt und beruht auf den
Arbeiten von Ogawa und Mitarbeiter (1990). Die Neuronen empfangen Energie in Form
von Sauerstoff mittels des Hämoglobins in den Kapillaren der roten Blutkörperchen. Ein
Anstieg der neuronalen Aktivität ist mit einem erhöhten Sauerstoffbedarf verbunden,
was wiederum zu einem größeren Blutfluss führt. Das Hämoglobin wird nicht vom
Magnetfeld (diamagnetisch) verändert, wenn es mit Sauerstoff versorgt wird, aber es
ändert sich, wenn es deoxyniert wird (paramagnetisch). Das Magnetfeld wird von einem
Kernspintomographen (MRT-Scanner) erzeugt, der einen starken Elektromagneten
beherbergt. Aus Forschungsgründen beträgt die Stärke des Magnetfelds in den meisten
Fällen 3T (1 Tesla 10.000 Gauss) und diese ist 50.000-mal stärker als das Magnetfeld der
Erde. Es wird geschätzt, dass die räumliche Auflösung auf der zellularen Ebene einen
Hochfeldmagneten (größer als 10T; Wada et al., 2010) erfordert. Die Unterschiede dieser
magnetischen Eigenschaften verursachen in Abhängigkeit von der Oxygenierung kleine
Abweichungen im MR-Signal des Blutes. Der Grad der neuronalen Aktivität variiert
mit dem Ausmaß der Blut-Oxygenierung. Diese hämodynamische Reaktion (HDR) ist
nicht linear. Der Beginn der durch den Stimulus erzeugten HDR wird gewöhnlich um
etwa 2 Sekunden verzögert. Das Blut wandert von den Arterien zu den Kappilaren und
zu den drainierenden Venen. Es gibt gewöhnlich für eine kurze Zeit eine Abnahme der
Blut-Oxygenierung, und zwar unmittelbar nachdem die neuronale Aktivität angestiegen
ist. Dann erhöht sich der Blutfluss nicht nur, um den Sauerstoffbedarf abzudecken, aber
auch um den erhöhten Bedarf zu kompensieren. Der Blutfluss ist bei ca. 6-12 sec am
höchsten, bevor er wieder auf die Baseline zurückgeht. Im Unterschied zu der relativ
guten räumlichen Auflösung von < 1 mm ist die zeitliche Auflösung limitiert.
65
66 4 Der Aufstieg der Kognition

könnte sich im Rahmen der intendierten Steuerung der Vokalisationsmechanis-


men zu einem komplexeren System entwickelt haben. Hierzu hat vermutlich der
Anstieg des auditorischen Arbeitsspeichers im präfrontalen Cortex beigetragen
(Bosman et al., 2004).
Grundsätzliche Fragen zur Sprachevolution stellen sich insbesondere aus der
Sicht komparativer Studien mit Vögeln, Säugetieren und Reptilien. Insbesondere
werden verschiedene Hypothesen zur neurologischen Evolution des vokalen Lernens
untersucht (Jarvis, 2006). Es wird angenommen, dass die Hörbahn bei vokalen
Lernern (z. B. Singvögeln oder den Menschen) auf die Amnioten zurückgeht, die
vor 320 Mio. Jahren lebten.28 Das vokale Lernen involviert einen Prozess, der sich
auf die Fähigkeit bezieht, Lautkombinationen durch Imitation und nicht mittels
Instinkt zu erwerben. Eine solche Spezies kann seine Vokalisation durch Erfahrun-
gen modifizieren. Es ist offensichtlich, dass das vokale Lernen vom auditorischen
Lernen abhängt, aber auditorisches Lernen hängt nicht vom vokalen Lernen ab.
Zum Beispiel kann ein Hund ein gesprochenes Wort verstehen, aber kann er
nicht artikulieren. Zudem müssen beim vokalen Lernen auditorische Perzepte
verwendet werden, um die Artikulation zu steuern und zu korrigieren. Sowohl
die Gruppe der Säugetiere (Fledermäuse, Mäuse, Elefanten, Robben und Wale) als
auch der Vögel (Raben, bestimmte Papageienarten und Spottdrosseln) besitzen
Mitglieder, die als vokale Nicht-Lerner zu bezeichnen sind. Neuere Studie belegen
allerdings, dass Schimpansen und andere Primaten auch vokal Lernen, jedoch in
einem weitaus geringen Maß als beispielsweise Singvögel (z. B. Crockford et al.,
2004; Riede et al., 2004; Levréro und Mathevon, 2012). Die Vermutung liegt daher
nahe, dass das vokale Lernen nicht auf einen einzigen gemeinsamen Vorfahren
dieser beiden Gruppen zurückgeführt werden kann. Es stellt sich jedoch die Frage,
ob beide Gruppen spezifische neurologische Eigenschaften besitzen, die lautliche
Modulation ermöglichen. In diesem Kontext untersuchen wir vor allem die ana-
tomischen und funktionellen Eigenschaften bei Vögeln, da diese sehr produktiv
neue Lautsequenzen lernen können.

28 Amnioten passten sich der terrestrialen Umgebung an, um überleben zu können. Sie
entwickelten eine vielschichtige Umgebung, in der der Nachwuchs heranwachsen kann,
und zwar unabhängig davon, ob Eier gelegt werden oder ob eine Geburt stattfi ndet. Am-
nioten entwickelten sich aus reptiliomorphen Amphibien während der Karbon-Periode
vor etwa 320 Mio. Jahren und umfassen heute alle Reptilien, Vögel und Säugetiere.
4.1 Komparative Studien 67

 
   

  
    

 

 


 

  

  

       

    
 

Abb. 4.4 Phänotypen der vokalen Lernkomplexität (adaptiert und modifiziert; ©


Petkov & Jarvis, 2012)

Der menschliche Spracherwerb und das vokale Lernen bei Singvögeln scheinen
bis zu einem bestimmten Grad vergleichbar zu sein, da beide Arten vor dem
Erwachsenwerden über eine sensitive Periode verfügen, um phonologische bzw.
vokale Sequenzen zu erwerben. Der Mensch ist ein sehr produktiver Vokalisierer,
indem er (nahezu) unendlich neue phonologische Sequenzen während der gesamten
Lebenszeit lernen kann.
Diese Lautsequenzen beziehen sich auf bestimmte Bedeutungen. Vokales Lernen
bei Singvögeln wie zum Beispiel im Fall von männlichen Zebrafinken ist jedoch
nach der Pubertät kaum noch möglich. Deren Lieder sind mit einer emotionalen
Belohnungserfahrung verbunden, vor allem mit Paarung oder mit der Verteidigung
eines Gebiets. Die Komplexitätsstufen des vokalen Lernens, die bei verschiedenen
Spezies verschieden sind, werden in Abb. 4.4 skizziert, wobei die Cetacea nicht
berücksichtigt werden. Diese Daten sollten nur als eine Annäherung verstanden
werden, da immer wieder neue Studien belegen, dass es bei einigen Spezies eine
größere vokale Flexibilität gibt, als zuvor angenommen wurde. Das vokale Lernen
des Menschen basiert auf den neuronalen Bahnen des Vorderhirns (Prosencepha-
lon) und umfasst thalamatische Strukturen und des Großhirns (Telencephalon)
mit dem cerebralen Cortex und den Basalganglien. Im Unterschied zu Vögeln, die
nicht vokal lernen, besitzen Singvögel, Kolibri und Papageien besondere Neuro-
nencluster (Nuclei) im Vorderhirn.

67
68 4 Der Aufstieg der Kognition

Abb. 4.5 Schematische Darstellung des vokalen Subsystems beim Menschen (a), bei
Makaken (b), Mäusen (c), Singvögeln (d) und Hühnern (e) (siehe Text für
Details; adaptiert und modifiziert; © Arriaga et al., 2012; siehe auch Petkov
und Jarvis, 2012).
Anm.: ADSt, anteriores dorsales Striatum; Amb. Nucleus ambiguous; Areal 6V, ventraler
Abschnitt von Areal 6 prämotorischer Abschnitt; Areal X, ein Song-Nucleus des Striatums;
ASt, anteriores Striatum; AT, anteriorer Thalamus; DLM, dorsalateraler Nucleus des Mesen-
cephalons; DM, dorsal-medialer Nucleus des Mittelhirns; H, Rautenhirn; Hp, Hippocampus;
*HVC – höheres Vokalisierungszentrum (siehe Anm.); LMAN, lateraler magnocellularer
Nucleus of the anterior nidopallium; LMC (BA 4), laryngealer Motorcortex; M, Mittelhirn;
M1, primärer Motorcortex; M2, sekundärer Moorcortex; nXIIts, 12th tracheosynringeale
Motorneurone; PAG, periaquäduktales Grau; RA, robuster Nucleus des Archipallium; RF,
Formatio reticularis; T, Thalamus; VL, ventraler lateraler Nucleus des Thalamus. *Die ur-
sprüngliche Bezeichnung ist HVc (Hyperstriatum ventrale pars caudalis). Es wurde jedoch
festgestellt, dass sich das HVc nicht im Hyperpallium (ehemals als Hyperstriatum oder Wulst
bezeichnet) befindet, sondern im Niodpallium. Die Bezeichnung „Higher Vocal Center“
erfolgte in Anlehnung an die ursprünglich verwendete Abkürzung.

Der HVC ist eine telencephale Gesangsregion und wurde 1976 von Nottebohm
und seinen Mitarbeitern (1976) identifiziert, wobei angenommen wurde, dass sich
diese Struktur im Hyperpallium (ehemals Hyperstriatum) befindet, daher der
ursprüngliche Name Hyperstriatum ventrale pars caudalis (HVc). Später wurde
jedoch klar, dass sich der HVc nicht im Hyperpallium, sondern im Nidopallium
befindet (Paton et al. 1981). Um die ursprüngliche Abkürzung erhalten zu können,
schlug Nottebohm 1987 eine Umbenennung in „high(er) vocal center“ (HVC) vor
(Nottebohm 1987). Nach der neu überarbeiteten Nomenklatur wird das Akronym
„HVC“ verwendet (Reiner et al., 2004). Es wird angenommen, dass die Primaten
4.1 Komparative Studien 69

ein angeborenes automatisches Lautproduktionssystem besitzen, das aus Verbin-


dungen von der Amygdala, dem orbitofrontalen Cortex (OFC) und dem anterioren
singulären Cortex (ACC) bis zum periaquäduktalen Grau (PAG) im Mittelhirn
besteht. Auch bilden PAG-Neuronen Synapsen mit den Neuronen der Formatio
reticularis (RF); diese bilden wiederum Synapsen mit den α-Motorneuronen
des Nucleus ambiguous (Amb), die die Larynxmuskeln für die Lautproduktion
steuern. Bei den nichtmenschlichen Primaten projiziert außerdem BA 6 (Areal
6vr) zur RF und von dort zum Amb. Area 6vr und der ACC sind ebenso mit dem
primären Motorcortex, der Amygdala und den thalamatischen Strukturen (nicht
dargestellt) verbunden. Läsionsstudien weisen darauf hin, dass das Areal 6vr nicht
die Vokalisation steuert, sondern die Atmung (z. B. Jurgens, 2009). Dessen genaue
Funktion ist allerdings im Detail nicht bekannt, aber einige Daten weisen darauf
hin, dass das Areal 6vr und benachbarte Regionen des prämotorischen Cortex bei
der angeborenen Vokalisation moduliert werden kann.
Beim Menschen beruht das Sprechen eher auf erworbenen vokalen Bahnen.
Diese projizieren vom Gesichtsareal des primären Motorcortex in BA 4 (LMC) nach
dem Amb (Abb. 4.5: roter Pfeil) und nach dem corticostriatalen Thalamus-Loop
für erworbene Vokalisation (zwei weiße Pfeile). Dem entspricht bei Singvögeln die
direkte Projektion vom Vorderhirn zu den vokalen Motorneuronen im Hirnstamm
(RA bis XIIts). Es wurde behauptet, dass es keine direkte corticobulbare Projek-
tion bei vokalen Nicht-Lernern wie Hühnern und Affen gibt. Sollte eine Läsion
im Bereich des LMC vorliegen, wird die Lautproduktion beim Menschen beein-
trächtigt. Es wurde daher angenommen, dass die Fähigkeit des Sprechens und der
Sprachproduktion beim Menschen auf einer direkten Verbindung zwischen dem
LMC und Amb beruht. Im Allgemeinen können Studien mit nichtmenschlichen
Primaten keine Evidenz für eine direkte Verbindung zwischen den analogen Are-
alen des LMC (z. B. 6vr) und des Amb finden. Eine neuere Studie mit Labormäusen
scheint jedoch eine Region entdeckt zu haben, die homolog ist: Sie ist während der
Vokalisierung aktiv, wobei die Projektion zum Amb als schwach zu bezeichnen
ist (Arriaga, Zhou und Jarvis, 2012; Arriaga und Jarvis, 2013). Die Verbindungen
zwischen dem anterioren Vorderhirn und den posterioren vokalen Motorschalt-
kreisen werden in Abb. 4.5 mit gestrichelten Linien gekennzeichnet. Ähnlich wie
beim Menschen gibt es bei Mäusen zwei Verbindungen, die zum Amb führen, eine
vom PAG (periaquäduktalen Grau) und eine vom M1, dem primären Motorcortex.
Unter Berücksichtigung neuerer Erkenntnisse, dass das Vokalisationssystem
bei der Modulierung oder Imitation von Lautstrukturen insbesondere bei solchen
Spezies flexibler zu sein scheint, die nicht-vokale Lerner sind (z. B. Mäuse und
Affen), schlagen Jarvis und Mitarbeiter eine Kontinuumshypothese des vokalen
Lernens vor. Diese Spezies könnten mit einem auditorischen Feedback-Loop aus-

69
70 4 Der Aufstieg der Kognition

gestattet sein. Nicht alle Strukturen des Sprechens können bei Tieren modelliert
werden und nicht alle Vokalisationsstrukturen bei Tieren können beim Menschen
modelliert werden. Da eine bestimmte Gruppe der Singvögel sowie der Mensch
ausgezeichnete vokale Nachahmer sind, stellt sich die Frage, inwieweit Sprechen
und Gesang bzw. Gezwitscher der Vögel auf der syntaktischen Ebene miteinander
verglichen werden können. Diesbezüglich werden folgende Verarbeitungseinheiten
miteinander verglichen:

Tab. 4.1 Vergleich von lautlichlichen Einheiten beim den vokalen Nachahmern
Singvogel und moderner Mensch
Singvogel Moderner Mensch
Gezwitscher Singen / Sprechen / Lautsprache
Strophe Satz
Motiv Wort
Note / Silbe Phonem

Tab. 4.1 verdeutlicht das Spektrogramm eines Zebrafinken. Das Gezwitscher oder
das Lied beginnt gewöhnlich mit einleitenden Noten, die von einem oder mehrerern
Motiven abgelöst werden. Die Motive stellen sich wiederholende Silbensequenzen
dar. Die Frage stellt sich, inwieweit der Gesang vokal-lernender Vögel mit gespro-
chener Sprache verglichen werden kann. Zunächst setzt sich die menschliche
Sprache aus einem Lexikon und aus syntaktischen Regeln zusammen. Dieses
lexikalisch-syntaktische System ist mit der phonologischen und phonetischen
Ebene sowohl in Produktion als auch in Perzeption extern verbunden und intern
ist es mit der semantischen Ebene verknüpft, die Konzepte, Intentionen und Emo-
tionen beinhaltet. Die Singvögel drücken dagegen keine abstrakten Bedeutungen,
sondern einen intentionalen oder emotiven Zustand aus wie der Versuch, für ein
Weibchen attraktiv zu sein oder Territorien zu verteidigen. Anders ausgedrückt:
Vögel verwenden pragmatische, aber keine semantischen Bedeutungen und sie
verwenden eine phonetische Syntax und keine phonologische Syntax. Der Begriff
„Phonologie“ bezieht sich auf die mentale Repräsentation eines abstrakten tonalen
Systems, mit dem abstrakte Bedeutungen ausgedrückt werden. Im Unterschied
zum Vogelgesang und anderen Kommunikationssystemen im Tierreich werden bei
der menschlichen Sprache distinkte semantische Einheiten und morphosyntak-
tische Regeln verwendet, um neue Bedeutungen zu kreieren (siehe Berwick et al.,
2011). Die Kommunikationssysteme der Insekten wie zum Beispiel bei Bienen und
Ameisen sind veranlagt. Bei den Honigbienen (Genus Apis) verwendet der Jäger ein
4.1 Komparative Studien 71

angeborenes kompositionelles Signalsystem, um seine Nestbewohner über den Ort


der Nahrungsquelle und über andere Ressourcen zu informieren. Die Orientierung
und Dauer des Schwänzeltanzes korreliert mit der Richtung und der seitens des
Jägers bis zur Nahrungsquelle geflogenen Distanz. Der Ausrichtungswinkel des
Schwänzeltanzes im Verhältnis zur vertikalen Orientierung der Wabe korreliert
mit der Flugrichtung in Bezug auf die Sonne. Die Kommunikation erfolgt nicht
nur durch Tanzbewegungen, sondern auch durch Signalstoffe, Töne, Berührungen
und (Waben-)Vibrationen. Sensorische Daten werden durch angeborene Strukturen
verarbeitet, ein Prozess der genetischen Adaption involviert, jedoch nicht Lern-
oder Nachahmungsprozesse. Die biologische Evolution hat die verschiedenen Arten
mit sehr unterschiedlichen Kommunikationssystemen ausgestattet. Im Sinne der
natürlichen Selektion werden dadurch die Überlebenschancen verbessert, und
zwar in einer genussvollen Art und Weise, wenn wir davon ausgehen, dass die
Nahrungsaufnahme ein Akt des Genusses ist. Kehren wir jedoch wieder zu dem
vokalen Nachahmungsverhalten einiger Singvögel zurück.
Der Vogelgesang variiert stark auf der phonetischen Ebene, jedoch nicht auf der
semantischen Ebene. Zum Beispiel kann eine Nachtigall Clusters neu arrangieren,
so dass Hunderte von verschiedenen Liedern geschaffen werden. Diese können dem
Zweck dienen, einen einzelnen Vogel zu identifizieren, aber sie können auch den
Grad der sexuellen Erregung widerspiegeln. Kanarienvögel produzieren sexy Silben,
um die Attraktion für das Weibchen zu erhöhen. Dies verändert allerdings nicht
die Bedeutung des Liedes, es weist nur auf die Motivationsstufe hin wie Berwick
und Mitarbeiter (2011) hervorheben. Der Mensch kann zudem die Dimension
Laute-Bedeutung mit körperlichen Bewegungen (Tanzen und Schauspielern) und/
oder komplexen Musikstrukturen (Takt und Harmonien) synchronisieren, um
eine relativ komplexe Koordination bedeutungsvoller und genussvoller Aktivitäten
umsetzen zu können. Da auf der semantischen Ebene keine Verhaltensanalogien
hergestellt werden können, stellt sich die Frage, inwieweit die syntaktische Struk-
tur des Vogelgesangs mit der syntaktischen Struktur der menschlichen Sprache
verglichen werden kann.

71
72 4 Der Aufstieg der Kognition

Abb. 4.6 Sonogramm eines typischen Liedes eines Zebrafinken. Die einführenden
Noten (mit „i“ markiert) werden von sich wiederholenden Motiven (Silben)
abgelöst. Unter einem Motiv wird ein kontinuierlicher Ton mit einer oder
mehreren kohärenten Zeitfrequenzspuren (Noten) verstanden. Eine Strophe
(Satz) stellt die Wiedergabe von mehreren Motiven dar (adaptiert, Berwick et
al., 2011; © Elsevier Limited).

Die menschliche Sprache besteht aus nichtlinearen Relationen zwischen Wörtern. In


dem Satz „The guitarist who plays bossa nova went on stage“ muss die Nomenphrase
(NP) „the guitarist“ mit der Verbphrase (VP) „went on stage“ verbunden werden,
um die Satzbedeutung zu verstehen, d. h., dass es sich um den Gitarristen handelt,
der auf die Bühne ging. Diese nichtlinearen Relationen werden als nicht-adjazente
Dependenzen bezeichnet, die inhärent als ein Teil der hierarchisch organisierten
Syntaxstruktur der menschlichen Sprache zu verstehen sind. Nicht-adjazente Depen-
denzen sind systematisch strukturiert und erfordern eine simultane Verarbeitung
verschiedener Strukturen, um diese Co-Dependenzen miteinander zu verbinden.
Das oben erwähnte nicht-adjazente Dependenzbeispiel involviert eine verschach-
telte, zentral-eingebettete Dependenz, die allgemein als rekursiv bezeichnet wird.
Entsprechend der Struktur a1a 2a3b3b2b1 … an-1bn-1 (wobei an-1 die Einheit ist, die mit
bn-1 verbunden ist) sind die Dependenzen miteinander verschachtelt (Berwick et
al., 2011). Im Unterschied zu dieser kontextfreien Grammatikversion besitzt die
endliche Version die Struktur a1b1a 2b2a3b3 … (ab)n-1, bei der Iterationen an das Ende
eines Paares angehängt werden.29 Gentner und Mitarbeiter (2006) evaluierten die

29 Es sollte berücksichtigt werden, dass eine eingeschränkte Phrasenstruktur-Grammatik


bis zu einem bestimmten Punkt einer elaborierteren End-Grammatik (z. B. einer aus
dem Gedächntis abgerufenen Liste von Beispielen) entspricht. Es ist daher von Bedeu-
4.1 Komparative Studien 73

akustische Strukturerkennung bei Europäischen Staren in Bezug auf die syntak-


tische Rekursionshypothese, die besagt, dass die Kapazität der Selbst-Einbettung
nur der menschlichen Sprachfakultät eigen ist (Hauser et al., 2002). Die Fähigkeit,
syntaktische Rekursionen zu verarbeiten, scheint jedoch nicht spezifisch menschlich
zu sein, da die trainierten Stare rekursive Strukturen erkennen konnten.

Abb. 4.7 Konditionierte Europäische Star-Sonogramme der (a) Rassel-Triller-


Iterationen und der (b) Rassel-Triller-Verschachtelungen (adapatiert und
modifiziert; Gentner et al., 2006; © Nature Publishing Group).

Jedoch heben Berwick und Kollegen hervor, dass die untersuchten Strukturen nicht
mit den Strukturen zu vergleichen sind, die der Mensch bei der Satzgenerierung
erzeugt. Europäische Stare scheinen in der Lage zu sein, nach einer Trainingsphase
Verschachtelungen wahrzunehmen (eine nicht unbedingt natürliche Situation für
Stare). Allerdings gibt es keinen Nachweis für die Fähigkeit des Vogels, Depen-
denzen wahrzunehmen, die spezifische „as“ mit spezifischen „bs“ verbinden. Die
untersuchten Stare nahmen eine gleiche Anzahl von „as“ und „bs“ wahr in Form
von Rassel- und Triller-Tönen (Rassel3Triller3-Strukturen), aber es wurde nicht
gezeigt, dass diese Rassel-Triller-Strukturen entsprechend gepaart wurden. Mit
anderen Worten, es gibt nicht ausreichend Information darüber, ob Singvögel oder
andere nichtmenschliche Spezies eine strikt nicht-kontextsensitive Grammatik

tung, angemesse Kontrollbedingungen zu verwenden wie zum Beispiel den Unterschied


zwischen ungrammatischen und grammatischen Sequenzen.
73
74 4 Der Aufstieg der Kognition

verwenden können. Der Gesang der Singvögel scheint in der Lage zu sein, hier-
archische Strukturen zu bilden, was ein grundlegendes Prinzip der menschlichen
Syntax darstellt. Die akustischen Merkmale von Rasseln oder Trillern werden
nicht in dem Sinne verwendet, dass die Rassel-Triller-Sequenz als neue Einheit
klassifiziert wird, die dann in komplexeren Strukturen Verwendung findet. Einige
Singvögel wie die Bengalischen Stare scheinen in der Lage zu sein, 3-4 Noten als
eine einzelne Einheit wahrzunehmen (Suge und Okanoya, 2009; siehe auch Berwick
et al., 2011). In dieser Studie wurde die „Klick-Methode“ in Analogie zum klassi-
schen psycholinguistischen Experiment von Fodor und Mitarbeitern angewendet.
In diesem klassischen Experiment zur englischen Sprache wurde ein Klick in der
Mitte einer Phrase präsentiert (z. B. „aß den Apfel“). Die Teilnehmer tendierten
dazu zu berichten, dass der Klick am Anfang oder am Ende der Phrase zu hören sei.
Suge und Okanoya wendeten dieses Klick-Protokoll bei den Bengalischen Staren
an. Diese nahmen die Klicks bei „c“ oder „e“ innerhalb der „cde“-Einheit wahr.
Die Bengalischen Stare können nicht nur solche Einheiten wahrnehmen, jedoch
auch produzieren. Offensichtlich können sie einzelne Noten zu größeren Einheiten
kombinieren, und zwar genauso wie der Mensch Wörter zu NP und VP kombi-
niert, um diese phrasalen Einheiten anderweitig zu verwenden. Im Unterschied
zur menschlichen Satzsyntax scheinen die Bengalischen Stare nicht in der Lage
zu sein, abhängige Verschachtelungen zu schaffen, um die kombinierten Noten
manipulieren zu können. Entsprechend wurde gezeigt, dass der Lisztaffe (Saguinus
oedipus) synthetische Stimulus-Sequenzen, die durch endliche Grammatiken er-
zeugt werden, parsen kann, aber nicht solche Phrasenstrukturen, die eine einfache
rekursive hierarchische Struktur aufweisen (Fitch und Hauser, 2004). Die Syntax
der menschlichen Sprache zeichnet sich dadurch aus, dass nicht eine bestimmte
Sequenz von einzelnen Wörtern erworben wird, sondern eine bestimmte Sequenz
von Wortklassen – dies wird auch als Phrasenstruktur bezeichnet. Jedes einzelne
Wort kann in eine syntaktische Struktur, die für diese bestimmte Wortklasse eine
Leerstelle zu Verfügung stellt, eingesetzt werden.
Auch können neue Wörter gebildet werden oder eine Sequenz mit verschiedenen
Wortklassen kann, wie es bei Metaphern oder Idiomen der Fall ist, als eine Einheit
wahrgenommen werden, so dass die syntaktische Struktur nicht kombinatorisch
auf die semantische Struktur abgebildet wird. Um die Bedeutung Es lief wie am
Schnürchen zu verstehen, muss die Phrase als eine Einheit verarbeitet werden und
erfordert keine kombinatorischen Berechnungen zwischen den einzelnen Wörtern.
Über derartige linguistische Parsing-Optionen, um feine Bedeutungsunterschiede
auszudrücken, verfügt nur der Mensch. Die fehlende syntaktisch-semantische
Schnittstelle bei anderen Spezies (z. B. Schimpansen oder Tümmlern) scheint sich
auch beim Verarbeiten von Verb(V)-Argument-Strukturen widerzuspiegeln (Kako,
4.1 Komparative Studien 75

1999). Sollten im Tierreich V-Argumente zwecks Kommunikation verwendet werden,


ist es erforderlich, Anzahl und Art der Beteiligten (Argumente) zu kennen, die an
einem Ereignis, das mit der Aktion – dem Verb – gekennzeichnet ist, teilnehmen
(Jackendoff, 1987). Hierfür gibt es keine empirische Evidenz. Ein Grund besteht darin,
dass geeignetere Tests entwickelt werden müssen, um einer spezifischen Situation,
in der sich eine Spezies in der freien Naturbahn befindet, gerecht werden zu kön-
nen.30 Im Sinne von Bickerton (1990) vermuten wir, dass sensorische Erfahrungen
als Basiskonzepte, die aus V-Argumenten bestehen, abgespeichert sind. Die ersten
sprachlichen Schritte, die Bedeutungen ausdrücken, jedoch nicht ausschließlich auf
Vokalisierung beruhen, dürften sich darauf bezogen haben, diese Basiskonzepte zu
benennen. Einige universelle linguistische Kategorien wie Nomen und Verben haben
sich wahrscheinlich auf der Grundlage dieser einfachen V-Argumente entwickelt.
Die Entwicklung der Kognition beim Genus Homo könnte auf der Entwicklung
eines V-Argument-Systems beruht haben; mit anderen Worten, es entwickelte
sich die Fähigkeit, das Verhältnis zwischen verschiedenen diskreten Objekten zu
erkennen. In diesem Zusammenhang kehren wir wieder zu einigen komparativen
Studien zurück, um die Konzeptualisierungsfähigkeit nichtmenschlicher Primaten,
die wahrscheinlich die Grundlage für die biologische Kapazität der menschlichen
Sprachfähigkeit darstellt, genauer zu betrachten.
Es gibt keinen Zweifel darüber, dass viele Tiere vokalisieren, um Informationen
an einen Artgenossen weiterzugeben. Die Informationen beziehen sich auf Nah-
rungs- und Gefahrenquellen oder auf territoriale Gesichtspunkte. Meerkatzen
zum Beispiel haben unterschiedliche Ruflaute für verschiedene Prädatoren wie
Leoparden, Adler und Schlangen und sie antworten auf diese Rufe, obwohl sie
die Prädatoren nicht sehen können. Ein ähnliches Verhalten wurde bei anderen
Spezies wie bei Schimpansen, Bonobos, Großen Tümmlern, Seelöwen und Pa-
pageien beobachtet. Die Frage stellt sich, ob die Antworten auf eine spezifische
Vokalisation ausschließlich perzeptueller Natur sind oder ob es sich um eine
internalisierte Erfahrung handelt, ein Konzept, das durch den Ruflaut aktiviert
wird und die Antwort auslöst. Aktuelle Studien weisen darauf hin, dass zumindest
unsere nahen lebenden Verwandten – Genus Pan, Affen und andere Mammalia
– akustische Signale benutzen, um Konzepte zu signalisieren. In der Studie von
Zuberbühler, Cheney und Seyfarth (1999) wurden beispielsweise die Antworten

30 Obwohl der Unterschied zwischen natürlichen und künstlichen Bedingungen von


großer Bedeutung ist, scheint dieser Aspekt für das Verstehen der kognitiven Plastizität
bei Tieren weniger relevant zu sein. Die meisten kognitiven Fähigkeiten des Menschen
erfordern Schulung, um diese als solche erkennen zu können. Man kann davon ausgehen,
dass sich auch bei Tieren die kognitive Kapazität verändert oder erhöht, und zwar als
Ergebnis eines Lernvorgangs, der über Generationen hinweg vermittelt wird.
75
76 4 Der Aufstieg der Kognition

von Dianameerkatzen auf verschiedene Stimulus-Sequenzen aufgezeichnet (Tabelle


4.2). Bei den drei Bedingungen (Baseline, Test und Kontrolle) wurde das Prime
(Stimulus zwecks Voraktivierung) variiert, während die Proben aus Adlerkreischen
und Leopardknurren bestanden. Die Antworten der weiblichen Dianameerkatze
(Äffin) auf die Baseline-Proben waren schwach, da Prime und Probe identisch
waren und die gleichen phonetischen und semantischen Merkmale miteinander
teilten. In der Testbedingung stimmte auf der semantische Ebene das Prime mit
der Probe überein, aber nicht auf der phonetischen Ebene.

Tab. 4.2 Priming-Studie, die die Resonanz von phonetischen und semantischen
Merkmalen bei weiblichen Dianameerkatzen prüft (Zuberbühler et al., 1999)
Prime Probe Attribut Antwort
[A = Adler; L = Leopard; M = Meerkatze; pho = phonetisch; sem = semantisch]
Baseline A-Kreischen A-Kreischen +pho/+sem schwach
L-Knurren L-Knurren +pho/+sem schwach
Test M: A-Alarmruf A-Kreischen -pho/+sem schwach
M: L-Alarmruf L-Knurren -pho/+sem schwach
Kontrolle M: L-Alarmruf A-Kreischen -pho/-sem solide
M: A-Alarmruf L-Knurren -pho/-sem solide

Der Alarmruf der männlichen Dianameerkatze jeweilig in Bezug auf einen Adler oder
einen Leoparden stimmte mit dem aktuellen Ruf des jeweiligen Prädators überein.
Zuberbühler und Mitarbeiter nahmen an, dass wenn die Äffin solide bzw. stark auf
die Probe reagieren würde, würde sie den Prädatorruf auf der semantischen Ebene
nicht mit dem Alarmruf assoziieren, da beide Vokalisierungen keine akustischen
Merkmale miteinander teilen. Da die Antwort der Äffin abgeschwächt war, wurde
angenommen, dass sie in der Tat semantische Informationen berücksichtigte. Die
Kontrollbedingung bestätigte dieses Ergebnis, da sowohl die Prime- als auch die
Probepaare phonetisch und semantisch inkongruent waren. Wir sind möglicher-
weise nicht so weit entfernt davon, das Sprachvermögen des Menschen auf mentale
Repräsentationen bei Primaten zurückzuführen. Die Sprache beruht auf evolutionär
bedingten Dispositionen, wobei einige Subkomponenten wie auditorisch-vokales
Lernen bei verschiedenen Spezies auftreten.
Betrachten wir abschließend die komplexen Vokalisierungsfähigkeiten von
Buckelwalen (Megaptera novaeangliae). Ein Grund für die Entwicklung dieser
Fähigkeiten ist, dass im Wasser Töne viermal schneller sind als in der Luft. Die sehr
ästhetischen Lieder bestehen aus sich wiederholenden Tonsequenzen, offensichtlich
4.2 Protokognition 77

ohne Pause. Jede Sequenzserie dauert 7 bis 30 Minuten an (Payne und McVay, 1971).
Die Lieder der Buckelwale haben eine gewisse Ähnlichkeit mit dem Vogelgesang,
der beim panamaischen Gelbrücken-Stirnvogel (Cacicus cela vitellinus) sowie beim
Indigofink zu hören sind (Vidua chalybeata). Die Ähnlichkeit besteht darin, dass
ein Lied gruppenspezifisch ist und alle Mitglieder einer Gruppe ein vergleichba-
res Repertoire besitzen, das sich im Laufe der Zeit verändert. Dieses Phänomen
wird auch als kulturelle Evolution bezeichnet, wobei modulierte Lieder zwischen
einzelnen Mitgliedern ausgetauscht werden. Im Fall von Buckelwalen singen die
männlichen Artgenossen, um einem weiblichen Sexualpartner zu gefallen und/oder
gegen männliche Rivalen vorzugehen. Noad und Mitarbeiter (2000) berichteten
über eine solche kulturelle Entwicklung. An der Ostküste von Australien änderte
sich innerhalb von zwei Jahren aufgrund von zwei Walen (von insgesamt 82 Walen),
die ein neues Lied einführten, das Lied der gesamten Buckelwalen-Gruppe. Alle
männlichen Artgenossen adaptierten den neuen Hit in weniger als zwei Jahren,
indem sie diese neuen vokalen Muster lernten. Es ist allerdings schwierig, die Gründe
und Motivationen, die diese kulturelle Entwicklung auslöste, zu erforschen. Es ist
bekannt, dass Buckelwale oft ihre Lieder modifizieren; es gibt allerdings keinen
Nachweis dafür, dass diese Modifikationen verschiedene Zwecke haben oder ver-
schiedene Bedeutungen ausdrücken. Die Analyse des Buckelwalgesangs weist auf
eine hierarchische, rekursive Struktur hin, aber im Unterschied zur menschlichen
Sprache gibt es keine konzeptuelle Intention, die mit diesen Liedern verbunden sind
(Payne und McVay, 1971; Suzuki et al., 2006). Falls die Annahme von rekursiven
Mustern bei Buckelwalen bestätigt werden kann, wäre die Rekursionshypothese
(Hauser et al., 2002), die zwischen der Kommunikation bei Tieren und der mensch-
lichen Sprache unterscheidet, falsifiziert. Die hier diskutierte Evidenz verdeutlicht,
dass das Kommunikationssystem einer einzelnen Spezies in seinen Eigenschaften
auf verschiedenen sensorischen Ebenen und falls zutreffend auch auf verschiedenen
konzeptuellen und linguistischen Ebenen einzigartig ist. Zukünftige Forschungen
werden sicherlich weitere Überschneidungen zwischen menschlicher und tierischer
Kommunikation ermitteln, aber auch die gefundenen Unterschiede werden dazu
beitragen, die ökologischen und neurobiologischen Bedingungen herausarbeiten,
die die Evolution von speziesspezifischen Kommunikationssystemen ermöglichten.

4.2 Protokognition
4.2 Protokognition
Eine der grundlegenden Ideen, die hier diskutiert werden, impliziert, dass die Geburt
der Sprache ihre Wurzeln in der Evolution von dem hat, was wir als „Protokognition“
bezeichnen könnten. Wir nehmen an, dass die Vorfahren des modernen Menschen

77
78 4 Der Aufstieg der Kognition

wie H. habilis oder H. erectus mit einer kognitiven Kapazität ausgestattet war, die
weniger entwickelt und komplex war als beim (anzestralen oder modernen) H.
sapiens, aber komplexer als die kognitive Kapazität der Spezies, die dem Genus
Australopithecus zugeordnet werden. Wir nehmen daher an, dass unsere Vor-
fahren, die zum Genus Homo gehörten, nicht nur miteinander kommunizierten,
sondern auch Werkzeuge und kulturelle Formen auf einer „protokognitiven“ Ebene
schufen. Bis zu einem bestimmten Punkt können wir homologe corticale Areale
bei den heute lebenden Spezies Affen, Genus Pan und H. sapiens feststellen. Eine
außerordentliche Sisyphus-Arbeit der Paleoanthroplogen verdeutlicht die anato-
mische Struktur unserer Vorfahren in der Abstammungslinie der Hominiden und
welche Werkzeuge sie herstellten und verwendeten. Genauere Informationen über
das Sozial-, Kultur- und Sprachverhalten sind jedoch nicht bekannt, so dass die
meisten Annahmen diesbezüglich spekulativ bleiben. Einige wichtige Hinweise gibt
es jedoch. Die systematische Vergrößerung des Hirnvolumens in der Abstammungs-
linie des Genus Homo stellt einen Indikator dar. Wir nehmen an, dass der Anstieg
der kranialen Kapazität mit dem Komplexitätsgrad kognitiver und linguistischer
Kapazitäten korreliert. Es ist sicherlich korrekt anzunehmen, dass das Hirnvolumen
alleine nicht die Entwicklung bestimmter kognitiver Fähigkeiten erklären kann,
denn eine spezifische neuronale Neuverschaltung scheint notwendig zu sein. Unter
Berücksichtigung der Komplexität kognitiver und linguistischer Strukturen, die der
moderne Mensch anwendet, erscheint es begründet anzunehmen, dass das corticale
Volumen im Zusammenhang mit den multimodalen Faserprojektionen steht. Wir
nehmen weiterhin an, dass sich die Anfänge des Sprechens (Protosprechen) nicht
unabhängig von anderen kognitive Funktionen entwickelt haben, sondern selber
einen Bestandteil der Kognition darstellen.
Ein gutes Beispiel ist die Larynx-Position bei verschiedenen Abstammungs-
linien. Schimpansen leben zum Beispiel in Gruppen mit etwa 15-20 Mitgliedern
und johlen, schreien, grunzen und trommeln auf Baumhöhlen (im Unterschied zu
Bonobos, die hohe Töne von sich geben). Freilebende Schimpansen beziehen sich
mit ihren Rufen auf Bedeutungen und kombinieren diese Rufe, aber diese Laute
werden offensichtlich nicht vollständig frei kombiniert (Crockford und Boesch,
2005; Slocombe und Zuberbühler, 2007). Sie benutzen relativ umfangreiche und
komplexe Variationen eines einzelnen Ruflauts, wahrscheinlich um in der schlech-
ten einsehbaren Urwaldumgebung miteinander zu kommunzieren. Beispielsweise
produzieren Schimpansen verschiedene Grunzlaute für verschiedene Nahrungs-
mengen und verschiedene Belllaute für verschiedene Prädatorenbedrohungen. Im
Unterschied zum Menschen ist die Bandbreite möglicher Vokalisation aufgrund
anatomischer Eigenschaften begrenzt (Lieberman, 1968).
4.2 Protokognition 79

Bei Kleinkindern und bei erwachsenen Schimpansen (und bei den meisten
Säugetieren, aber nicht bei allen) nimmt der Larynx eine relativ hohe Rachenpo-
sition ein, auf der Höhe C2-C3 der Wirbelsäule. Im Lauf des Reifeprozesses des
Kindes verschiebt sich der Larynx nach unten auf C3-C6 der Wirbelsäule. Diese
ontogenetische Entwicklung spiegelt vermutlich die phylogenetische Entwicklung
wider. Dieser Prozess ist notwendig, damit das Kind das gesamte phonetische
Repertoire, von dem der moderne Mensch Gebrauch macht, einsetzen kann. Ein
niedriger Larynx ist jedoch kein Alleinstellungsmerkmal des menschlichen Vok-
altrakts. Die mit nichthumanen Säugetieren durchgeführten Röntgenaufnahmen
verdeutlichen im Unterschied zu den Interpretationen der postmortalen Untersu-
chungen, dass die Larynx-Position oftmals flexibler und niedriger ist (Fitch, 2000,
2002). Einige aquatische (z. B. Seelöwen, Walrösser) und terrestrische Säugetiere
(z. B. Hunde, Schweine, Ziegen, Affen, Rehe und junge Schimpansen) besitzen eine
permanente oder temporäre niedrige Larynx-Position (Hauser und Fitch, 2003;
Nishimura et al., 2003; McElligott et al., 2006). Die Primatenforschungsgruppe
in Kyoto nimmt entsprechend an, dass die Bedingungen für das Vokalisieren, die
auf dem Abstieg des Larynx beruht, sich bereits während der Evolution des Affen
(gemeinsamer Vorfahre von Genus Pan und Homo) entwickelt haben, und zwar
schrittweise im Lauf der Entwicklung zum modernen Menschen. Das Hirn und
der Nacken von drei (lebenden) Schimpansen wurden mit strukturellem MRT
untersucht. Es stellte sich heraus, dass der Larynx im Lauf der frühen Kindheit
absteigt. Hierbei senkte sich der laryngeale Knochen schnell. Dagegen senkte sich
das Zungenbein (Hyoid-Knochen) nicht. Die Evolution bereitete die menschliche
Vokalisierungsfertigkeit durch zwei verschiedene Entwicklungsphasen vor. Diese
Phasen müssen nicht unbedingt mit der Vokalisationsfähigkeit im Zusammenhang
stehen. Unterschiedliche Nahrungsquellen haben möglicherweise eine Adaptation
an unterschiedliche Schluck- und Atmungstechniken erfordert, was wiederum zur
Zunahme der Körpergröße führte (z. B. Fleagle, 1999; Nishimura, 2003). Wie sich
allerdings die Larynx-Position während der Evolution der Homininden veränderte,
bleibt unklar, denn Fossilergebnisse lassen nur eingeschränkte Rückschlüsse zu.
Aber inwieweit informiert uns die Larynx-Position über die kognitive Kapazität,
eine Sprache zu sprechen. Ein kleinerer phonetischer Variationssatz schließt nicht
die Entwicklung zu einer biologischen Disposition von Sprache aus. Vielleicht hätte
sich in diesem Fall eine weniger komplexe Sprache, eine Mini-Sprache entwickelt,
die mit einfacheren phonologischen, syntaktischen und semantischen Regeln ausge-
kommen wäre. Diese Idee ist in gewisser Weise mit der Annahme einer Protosprache
vereinbar. Es wird zum Beispiel angenommen, dass eine mögliche Protosprache
unserer Vorfahren aus Komponenten (Syntax, Flexionen oder grammatische Wörter)
bestehen würden, die weniger komplex sind (Bickerton, 2009). Es stellt sich daher in

79
80 4 Der Aufstieg der Kognition

diesem Zusammenhang die Frage, inwieweit die Entwicklung der Komplexität der
menschlichen Sprache bzw. der sprachlichen Kognition von der Entwicklung der
Artikulationsorgane und/oder des Gehirnvolumens abhängig gewesen war. Sollte
zunächst eine Protosprache existiert haben, die noch genauer zu definieren wäre,
dann hätten unsere Vorfahren auch nur über eine weniger elaborierte biologische
Sprachdisposition verfügt. Wir nehmen entsprechend in diesem Zusammenhang an,
dass sich diese biologisch bedingte Disposition, die für verschiedene Komponenten
des modernen Sprachsystems verantwortlich ist, graduell entwickelte, möglicher-
weise infolge multipler kleiner Mutationen, aber weniger wahrscheinlich durch
eine einzige, plötzliche Mutation (Dediu und Levinson, 2013; Hillert, 2015; aber
siehe Berwick und Chomsky, 2016, 2017). Zwei Evidenzklassen unterstützen diesen
Ansatz: die Entwicklung des Werkzeuggebrauchs und der systematische Anstieg
des Hirnvolumens in der menschlichen Abstammungsgeschichte. Betrachten wir
zunächst, wie corticale Strukturen inkrementell komplexer wurden.
Wir wissen nicht genau, wann der Übergang von modalitätsspezifischen Projek-
tionen zu multimodalen erfolgte, und ein genaues Bild zur graduellen Entwicklung
des Sprachsystems bleibt bislang relativ spekulativ. Wie bereits zuvor erwähnt,
nehmen wir an, dass ein Anstieg des Hirnvolumens beim H. erectus wahrscheinlich
auf neurobiologische Veränderungen hinweist, die für die Entwicklung von (Proto-
)Sprachfähigkeiten verantwortlich sind. Das Hirnvolumen erhöhte sich insbesondere
beim Übergang vom H. habilis zum H. erectus (850-1.100 cm3). Allerdings ist das
Hirnvolumen alleine nur ein indirekteres Indiz für die neuronalen Strukturen, die
spezifische kognitive Funktionen unterstützen. Es kann daher ebenso der Fall sein,
dass H. rudolfensis (ca. 775 cm3) und H. habilis (ca. 600 cm3 ebenso mit (Proto-)
Sprachfähigkeiten ausgestattet waren. H. erectus kann jedoch aufgrund seines
Hirnvolumens als Hauptkandidat für eine angeborene Sprachfähigkeit angesehen
werden. Unabhängig von dem Anstieg der kranialen Kapazität ist H. erectus die
Spezies, die unter den verschiedenen Homo-Spezies (einschließlich des H. sapiens)
am längsten gelebt hatte. Vor etwa 1-2 Mio. Jahren migrierte der frühe H. ergaster,
indem er das „Great Rift Valley“ im östlichen Teil Afrikas verließ und in andere
Gebiete Afrikas und nach Zentral- und Ostasien wanderte. In diesem Zeitraume
evolvierte H. ergaster zum H. erectus. Die geographischen Distanzen reduzierten
den Genfluss in der Gesamtpopulation der Hominiden und ermöglichten, dass sich
regionale Unterspezies entwickelten (z. B. der östliche H. erectus). Neben Faktoren
wie Klimaveränderungen und fluktuierende Ressourcen gab es Veränderungen in
Bezug auf den Werkzeuggebrauch, die Nahrungsaufnahme und die Kinderaufzucht.
Diese Gesichtspunkte hatten vermutlichen einen großen Einfluss auf die soziale
Gruppenorganisation.
4.2 Protokognition 81

Hinsichtlich der unterschiedlichen kranialen Kapazitäten der einzelnen


Homo-Spezies sollte betont werden, dass diese geschätzten Kapazitäten auf En-
docasten beruhen, die anhand von Fossilienschädeln erstellt wurden. Damit können
allerdings nicht die Gehirnwindungen erfasst werden. Es könnte daher möglich
sein, dass zum Beispiel das Gehirn des modernen Menschen deutlich mehr Win-
dungen aufweist als das Gehirn des H. erectus. Zudem könnte das Gehirn des H.
erectus sogar etwas größer sein, wenn eine Justierung hinsichtlich der Körpergröße
vorgenommen wird. Im Vergleich zu seinen biologischen Vorfahren besaß der H.
erectus eine große Körpergröße, die mit dem relativ großen Gehirn korrelierte.
Abb. 4.8 verdeutlicht, dass sich das Gehirnvolumen in dem Zeitraum von 2 bis 0,7
Mio. Jahren etwa verdoppelte.

Abb. 4.8 Kranialer Kapazitätenanstieg und signifikante Verhaltensänderungen im


Laufe der menschlichen Abstammung (adaptiert und modifiziert, Flinn,
Geary & Ward, 2005; © Elsevier Limited).
Anm.: Australopithecus, Paranthropus; Neandertaler; andere Homo-Spezies;
H. sapiens; Gorilla; Orang-Utan; Schimpanse

81
82 4 Der Aufstieg der Kognition

Der Austausch kommunikativer Signale und die Entwicklung symbolischer Kapa-


zitäten stellt offensichtlich ein sehr vorteilhaftes Verhalten dar, das epigenetische
Prozesse veränderte. Vor allem vergrößerte sich das Volumen des Frontallappens
beim Australopithecus africanus und den nachfolgenden Spezies. Einige Forscher
auf diesem Gebiet vermuten, dass der Frontallappen für die Entwicklung von
Sozialverhalten, Planung und Sprache verantwortlich ist (Deacon, 1997). Die
Fähigkeit, Werkzeuge herzustellen, entwickelte sich vor etwa 2,4 Mio. Jahren und
die Expansion des Frontallappens hatte zu diesem Zeitpunkt bereits stattgefunden.
Wir glauben weiterhin, dass bereits eine grundlegende (Proto-)Sprachfähigkeit
möglich war, d. h., dass eine einfache syntaktische Verarbeitung im Sinne der
Kombination von zwei oder mehreren Zeichen oder symbolischen Einheiten
stattfand. Der Schädel des modernen Menschen besitzt eine rundere Form als der
seiner Vorfahren. Dies könnte darauf hinweisen, dass der mittlere Parietallappen
expandierte. Der Parietallappen spielt eine bedeutende Rolle bei der Integration
verschiedener sensorischer Informationen, insbesondere von visuell-räumlichen
Daten. Die parietale Expansion beim modernen Menschen könnte auch mit dem
differenzierteren Werkzeuggebrauch vor 50.000-100.000 Jahren in Verbindung
stehen, aber auch mit komplexen Denkfähigkeiten. Ob die Expansion des Parie-
tallappens ein weiterer Meilenstein für die Entwicklung der modernen Sprache
gewesen war, können wir zum gegenwärtigen Zeitpunkt nicht beantworten. Es ist
allerdings interessant festzustellen, dass die Frontal- und Parietallappenexpansion
parallel stattgefunden hat, obwohl sie unterschiedliche evolutionäre Stadien wider-
spiegeln. Das Evolutionsmodell unterstützt die Idee einer modularen Architektur
des Gehirns, die allerdings höchst interaktiv funktioniert. Die Annahme, dass
einzelne kognitive Module der Sprachfähigkeit sich unabhängig voneinander
entwickelten, ist ein weiteres Indiz für die graduelle Evolution der Sprache. Der
Ursprung der modernen Sprache beruht vermutlich auf Kommunikationsformen
(z. B. Kombination von Lauten und Gesten), die heute „nur“ Basiseigenschaften
der Sprache darstellen.
Ohne Zweifel vergrößerten sich das Hirnvolumen und der Enzephalisationsquoti-
ent (EQ) im Laufe der Evolution des Menschen in signifikanter Weise.31 Eine neuere
Studie schlägt vor, dass der EQ des präfrontalen Cortex, der für soziale Kompetenzen
und Arbeitsspeicherfunktionen verantwortlich ist, moderat um etwa 10 % anstieg.
Der Anstieg des Neocortex beim Menschen führte im Vergleich zur Gesamtzahl
der Neuronen wie Zellkörper und graue Substanz zu mehr Zwischenverbindungen

31 Der EQ ist ein Maß für die relative Hirngröße. Er spiegelt die Ratio zwischen der ak-
tuellen Hirnmasse und der vorhergesagten Hirnmasse eines Organismus in Bezug auf
den Körperumfang.
4.2 Protokognition 83

unter den Neuronen, Axonen und der weißen Substanz (Holloway, 2002; Zhang
und Sejnowski, 2000). Die evolutionären Veränderungen involvierten insbesondere
einen Anstieg der multimodalen Zwischenverbindungen zwischen verschiedenen
Hirnregionen. Wir können davon ausgehen, dass ein höherer EQ mit einem An-
stieg der Gyrifikation einhergeht, d. h. mit den Wachstumsprozessen von Furchen
(Sulki) und Gyri (Windungen) im vorgegebenen Schädelraum. Diese Gyrierung
führt wiederum zu einem Anstieg neuronaler Spezialisierungen (Modulbildungen)
von kognitiven Funktionen. Der anteriore cinguläre Cortex (ACC) umfasst den
Corpus Callosum in Form eines Halskragens (BA 24, 32, 33) und reguliert neben
dem Blutdruck und der Herzfrequenz kognitive Funktionen wie soziale Kogniti-
on, Entscheidungskompetenz, Empathie und Emotionen. Ein anderer Aspekt des
präfrontalen Cortex wurde im Laufe der menschlichen Abstammungsgeschichte
reorganisiert. Nach Semendeferi und Mitarbeitern (1998) entspricht die relative
Größe von BA 13 beim modernen Mensch etwa nur die Hälfte, wenn das gesamte
Hirnvolumen berücksichtigt wird. Sie nehmen an, dass sich benachbarte Regio-
nen (BA 11, 13) spezialisierten, um sozial-relevante Informationen zu verarbeiten.
Anhand der Analyse von Endocast-Formen berichteten bereits Holloway und de
La Costelareymondie (1982) über spezifische asymmetrische corticale Regionen
in beiden Hemisphären des H. erectus und des modernen Menschen. BA 17 und
BA 18 des linken Okzipitallappens sind kleiner und die linke Parietalregion und
der rechte frontale Cortex sind im Vergleich zu kontralateralen Homologen größer.
Vergleichbar ist bei Rechtshändern (des modernen Menschen) der dorsofrontale
präfrontale Cortex und der frontale Pol (BA 46, 10) in der rechten Gehirnhälfte
größer. Diese Asymmetrie wurde nicht bei Schimpansen gefunden (Zilles et al., 1996).
Eine Sichtweise geht davon aus, dass die asymmetrische corticale Evolution der
rechten präfrontalen Areale für die kognitive Entwicklung von Bewusstsein und
die soziale Kognition verantwortlich ist. Diese corticale Aufteilung steht auch im
Zusammenhang mit der Entwicklung der Theorie des Geistes (ToM: „Theory of
Mind“) und wurde durch andere Studien gestützt (Saxe und Powell, 2006). Das
Konzept ToM bezieht sich auf die Fähigkeit, eigene mentale Zustände und die von
anderen Personen zu verstehen. Anders ausgedrückt: Die Fähigkeit, sich in jemanden
hineinversetzen zu können. Es gibt keine Zweifel darüber, dass Sprache in einem
engen Zusammenhang mit dem Bewusstsein steht, und zwar durch die Generierung
eines mentalen Modells. Es ermöglicht uns (oder sollte uns ermöglichen), unabhän-
gig von Raum und/oder Zeit mit anderen über Ereignisse zu kommunizieren. Der
Sprecher kann symbolische Einheiten verwenden, um sich auf andere Personen,
Objekte, Ereignisse oder auf sich selber zu beziehen. Damit ist er in der Lage, über
seine mentalen Zustände bzw. über die der anderen zu reflektieren, insbesondere
in Bezug auf die sozialen Funktionen. Im Unterschied dazu kann die Mathematik

83
84 4 Der Aufstieg der Kognition

als ein spezieller Fall der linguistischen Kompetenz angesehen werden, bei der die
symbolischen Einheiten entsprechend einem logischen System manipuliert werden.
„Die gesamte Mathematik stellt symbolische Logik dar“ (Bertrand Russel, 1903).
Es kann daher angenommen werden, dass die biologische Kapazität der Sprache
in einem engen Zusammenhang mit verbesserten Arbeitsspeicherkapazitäten
und Aufmerksamkeitsfähigkeiten steht. Linguistische und kognitive Fähigkeiten
evolvierten zusammen, und Arbeitsspeicherkapazitäten sowie andere kognitive
Fähigkeiten (z. B. Fokussierung auf die Lautwahrnehmung) sind von entscheidender
Bedeutung für die moderne Sprachverarbeitung. Die Evolution der Sprache ist ohne
Zweifel an der Entwicklung unserer Bewusstseinsbildung beteiligt. Der nichtlineare
Anstieg des Hirnvolumens im Verhältnis zum Körperumfang ist wahrscheinlich
direkt für die sprachliche und kognitive Evolution verantwortlich.
Wir nehmen weiterhin an, dass die Klimabedingungen entscheidend zum
Sozialverhalten unserer Vorfahren beigetragen haben. Schwierige Lebensbedin-
gungen in Ostafrika wie Trockenheit haben vor etwa 200.000 Jahren zu einem
erhöhten Migrationsdruck geführt. Eine längere Eiszeit (MIS6: Marine-Isotop
Stadium 6) verschlechterte die Bedingungen auf dem afrikanischen Kontinent in
diesem Zeitraum und die Population des Menschen dezimierte sich auf wenige 100
Individuen, so dass der moderne Mensch vom Aussterben bedroht war (Marean,
2010). Dies entspricht dem Flaschenhals-Modell: Genetische Studien belegen, dass
wir alle von einer kleinen afrikanischen Population abstammen, die während des
MIS6 lebte. Es ist durchaus möglich, dass die signifikante Verbesserung kogniti-
ver Fähigkeiten aus der Not geboren wurde, um in der freien Natur überleben zu
können. Hierbei spielte wahrscheinlich auch die Entwicklung von verbesserten
Kommunikationsformen eine Rolle.
Die Herstellung und der Gebrauch von Werkzeugen stellen wichtige Indizien für
die kognitiven Fähigkeiten unserer biologischen Vorfahren dar. Die Spezies Aust-
ralopithecus benutzte beispielsweise vor 1-4 Mio. Jahren unbearbeitete Werkzeuge,
um Tiere zu schlachten. Im Allgemeinen verwendeten sie vermutlich Hilfsmittel, so
wie Schimpansen oder Gorillas in der Lage sind, unbearbeitete natürliche Objekte
als Werkzeuge einzusetzen. Gorillas spalten beispielsweise Nussschalen mit Steinen
oder graben mit langen Stöcken nach Termiten; Schimpansen verwenden speerför-
mige Stöcke, knacken Nüsse, stutzen Blätter und beschneiden Fisch und graben
mit einem Stab nach Ameisen (Alp, 1993). Die Steinzeit ist eine frühgeschichtliche
kulturelle Epoche, die ungefähr 3 Mio. Jahre bis 2.000 v. Chr. andauerte. Sie wird
gewöhnlich in eine paläolithische, mesolithische und neolithische Periode unterteilt,
wobei die Herstellung und der Gebrauch von Werkzeugen zunehmend verfeinert
wurden. Die Entwicklung der Werkzeugherstellung wurde in einem starken Maß
durch klimatische Bedingungen beeinflusst. Die nördlichen Breitengrade waren
4.2 Protokognition 85

viermal von sukzessiv voran- und zurückschreitenden Eisschichten betroffen. Die


erste Steintechnik, die während der altpaläolithischen Periode von Australopithecus
(Au.) garhi, der zur Gattung Australopithecus gehört, verwendet wurde, wird als
Oldowan-Kultur bezeichnet (Modus-1: vor 1,8-2,6 Mio. Jahren)32. Diese Werkzeuge
bestanden aus einem Kern und Abschlägen, wobei die Abschläge mit Hilfe eines
Hammersteins durch Schläge auf den Steinkern erhalten wurden. Die Steinkerne
und die Abschläge dienten zum Beispiel dem Schneiden, Abstreifen und Abkratzen
von Fleischstücken. Die Modus-1 Technik verwendete nicht nur Au. garhi (2,3-2,6
Mio. Jahre; Hirnvolumen ca. 450 cm3), sondern auch H. habilis (1,4-2,3 Mio. Jahre;
Hirnvolumen ca. 600 cm3) und H. ergaster / früher H. erectus (1,3-1,8 Mio. Jahre;
Hirnvolumen, frühe Fossilien: 700-900 cm3, spätere Fossilien: 900-1.100 cm3). Die
Technik wurde jedoch im Lauf der Zeit vor etwa 1,7 Mio. Jahren verfeinert. Diese
zweite Phase wird als Acheuléen-Kultur (Modus-2: 0,1-1,7 Mio. Jahre) bezeichnet.33
Die späte Modus-2 Technik wurde auch von AMH wie H. sapiens idaltu (datiert
auf 150.000-160.000 Jahre; Hirnvolumen 1.450 cm3; der Neandertaler erschien vor
350.000-600.000 Jahren; Hirnvolumen im Durchschnitt 1.450 cm3) und H. heidelber-
gensis (400.000-600.000 Jahre; Hirnvolumen im Durchschnitt 1.350 cm3, entspricht
dem des AMH) angewendet, dem offensichtlichen Vorfahren des Neandertalers und
des AMH. Die Moustérien-Industrie ersetzte in Europa die Acheuléen-Industrie
(Modus 3: vor 30.000-300.000 Jahren), eine lithische Methode, die am häufigsten
von den Neandertalern benutzt wurde. Die Werkzeuge beider Industrien wurden
mit der Levallois-Methode hergestellt. Hierbei werden Stücke von einem größeren
Kieselstein abgeschlagen, bis dieser wie ein Schildkrötenpanzer aussieht.
Indem auf den Kern des Kieselsteins eingeschlagen wird, werden Stücke mit
einem distinktiven plankonvexen Profil abgeschlagen, wobei die Ränder durch das
Trimmen des Kerns gewetzt werden. Die verschiedenen Werkzeugindustrien, die in
der jungpaläolithischen Epoche (Modus 4) entwickelt wurden, benutzten allerdings
nicht nur Kieselsteine, sondern auch Knochen, Elfenbein und Geweihsprossen. Die
Faustkeile und Splitterwerkzeuge wurden durch komplexere und spezialisiertere
Werkzeuge wie Nadeln und Faden, Hautkleidungen, Griffsteine, Knochenwerk-
zeuge, Harpunen, Speerwurfgeräte und spezielle Fischfanggeräte abgelöst. In der
Übergangsphase von der mittelpaläolithischen bis zur jungpaläolithischen Epoche
(etwa vor 30.000-50.000 Jahren) sind offensichtlich erstmalig agrikulturelle und

32 Der Begriff „Oldowan“ (Kieselsteinwerkzeuge) bezieht sich auf Olduvai Gorge in Tan-
zania, wo die ersten Steinwerkzeuge gefunden wurden.
33 Der Begriff „Acheuléen“ bezieht sich auf die Region Amiens in Nordfrankreich, wo
Faustkeile in der Mitte des 19. Jahrhunderts gefunden wurden.
85
86 4 Der Aufstieg der Kognition

zivilisatorische Lebensformen entstanden, aber auch die ersten Kunstobjekte werden


auf diese Epoche datiert.

Oldowan-Kieselsteinwerkzeug Acheuléen-Faustkeil

Abb. 4.9 Beispiel für ein Oldowan-Steinwerkzeug und einen Acheuléen-Faust keil.
Das Oldowan-Werkzeug wurde von Au. garhi, H. habilis und dem frühen
H. erectus verwendet und das Acheuléen-Werkzeug von H. erectus, H.
heidelbergensis, H. neanderthalis und H. sapiens idaltu (adaptiert und
modifiziert, Wikipedia).

Während der mesolithischen Epoche (vor 11.000 Jahren) wichen die Gletscher
zurück (am häufigsten nördlich des 50. Breitengrads in Eurasien und Nordame-
rika) und das Jagen von Herdentiere wurde durch die Waldnutzung ersetzt. Die
neolithische Epoche ist ein Abschnitt der späten Steinzeit und geht dem Bronze-
zeitalter voraus, das wiederum von der paleolithischen Epoche abgelöst wurde.
Die zeitlichen Epochen hängen von den geographischen Regionen ab (z. B. China:
2.000-10.000 v. Chr.; Nordindien: 4.500-8.000 v. Chr.; östlicher Mittelmeerraum
ca. 3.300-10.000 v. Chr. und Ost- und Nordeuropa ca. 1.800-3.000 v. Chr.). Mit
Ausnahme des modernen Menschen waren zu diesem Zeitpunkt alle anderen
Spezies der Gattung Homo ausgestorben. Obwohl der moderne Mensch immer
noch Steinwerkzeuge verwendete, begann er, Pflanzen und Tiere zu domestizieren,
und lebte in permanenten Behausungen und Dörfern.
Es ist schwierig auszumachen, ob die räumlichen Fähigkeiten, die bei der
Herstellung von Werkzeugen (z. B. symmetrische Form der Faustkeile) entwickelt
wurden, in einem Zusammenhang mit dem kommunikativen Verhalten stehen. Die
motorischen Areale für die Feinmotorik liegen allerdings in der gleichen Hirnregion,
die das Sprechen kontrolliert. Einige Studien mit einem bildgebenden Verfahren
4.2 Protokognition 87

weisen darauf hin, dass komplexe motorische Prozesse bei der Bearbeitung von
Steinwerkzeugen und beim Sprechen die Broca-Region aktiviert (Stout et al., 2008,
2011). Im Vergleich zum Oldowan-Modus erhöhte sich die corticale Aktivität
insbesondere beim Acheuléen-Modus. Entsprechend könnte daraus geschlossen
werden, dass die Verfeinerung des Werkzeugs vor etwa 1,7 Mio. Jahren (Modus 2:
Acheuléen-Werkzeuge) auch eine verfeinerte Artikulation widerspiegeln könnte.

Abb. 4.10 Akkumulation paläolithischer Werkzeugarten. Jede Innovation, die ein


Inkrement von 1 und einigen Punkten zeigt (z. B. Hackbeilvarianten),
entspricht mehr als einer Innovation (GSW, großes Schneidewerkzeug)
(adaptiert und modifiziert, Stout 2011; © Elsevier Limited).

Die Entwicklung der Werkzeugherstellung im Altpaläolithikum weist auf eine


kumulative kognitiv-kulturelle Evolution hin und scheint sich vergleichbar mit
dem Anstieg corticaler Strukturen disproportional beschleunigt zu haben (siehe
Abb. 4.10). Stout (2011) entwickelte ein Aktionshierarchiesystem mit ansteigen-
der Komplexität und ausgehend von der Oldowan-Abschlagproduktion bis zur
Acheuléen-Formgebung. Insbesondere stellt die Fähigkeit, hierarchische Strukturen
zu bilden, ein grundlegendes linguistisches Prinzip dar. Die Vermutung scheint
plausibel zu sein, dass H. erectus in der Lage war, einfache hierarchische Struk-
turen übergreifend und modalitätsunabhängig zu bilden. Diese Fähigkeit bezog
sich möglicherweise auch auf musikalisches Verhalten wie Singen oder Tanzen.

87
88 4 Der Aufstieg der Kognition

Ob die neuralen Aktivierungsmuster durch die Werkzeugherstellung und/oder


andere Modalitäten auf das Sprechen übertragen wurden oder ob die Verfeinerung
der Artikulation ein unabhängiger und paralleler evolutionärer Prozess war, kann
zum heutigen Zeitpunkt nicht eindeutig gesagt werden. Aber es ist sicherlich mög-
lich, dass die neurobiologische Kapazität für die Werkzeugherstellung und das
Sprechen bereits während des Modus 1 vorhanden war. In diesem Zeitraum lebten
die Homo-Spezies H. habilis und/oder H. erectus. Eine neue kognitiv-kulturelle
Entwicklungsstufe, die auf der vorausgehenden aufbaut, kann durch Verfeinerung,
Modifikation, Erweiterung und Veränderung charakterisiert werden. Im Allgemei-
nen erfolgt die kognitiv-kulturelle Entwicklung unabhängig von der biologischen
Entwicklung und besitzt eine „Eigen-Dynamik“, obwohl wir auch komplexe
Interaktionen zwischen beiden Entwicklungsprozessen auf verschiedenen Stufen
annehmen können. Die Entwicklung von anspruchsvollen und komplexen Kulturen
einschließlich Computertechnologie, Maschinerien und Architekturen benötigt
Tausende von Generationen und beruht nicht auf biologischen Mutationen. Wenn
wir die Annahme einer Protosprache in der Frühgeschichte des Menschwerdens
unberücksichtigt lassen, so kann die Sprache des modernen Menschen als ein Kunst-
produkt angesehen werden, das sich gemäß kulturellen Bedingungen verändert.
Es gibt unbestreitbar Nachweise für künstlerisches Schaffen, das vor etwa 50.000
Jahren entstand – nach dem Erscheinen des modernen Menschen. Allerdings gibt
es auch ältere Entdeckungen. Der Farbsymbolismus weist auf die Verwendung von
künstlerischen Elementen hin. In der Blombos-Höhle (300 km östlich von Cape
Town) wurde eine Werkstätte gefunden, in der vor 100.000 Jahren ein verflüssig-
tes ockerreiches Farbgemisch hergestellt wurde und in zwei Muscheln (Abalone)
aufbewahrt wurde (Henshilwoo et al., 2011). An gleicher Stelle wurden zuvor 41
Muscheln in der gleichen Höhle gefunden, die mit einem roten Ocker markiert sind
und symmetrisch angelegte Löcher aufweisen. Diese Muscheln, die etwa 75.000
Jahre alt sind, stammen vermutlich von Flüssen, die Dutzende von Kilometern
entfernt sind. Sie werden als die ältesten Schmuckstücke angesehen (siehe Abb. 4.11).
Im Mittelpaläolithikum (vor 50.000-100.000 Jahren) wurden nur wenige Kunst-
produkte wie Muscheln aus der Blombos-Höhle entdeckt. Zweifelsfreie Kunstwerke
stammen aus dem Jungpaläolithikum (vor 10.000-40.000 Jahren) und umfassen
Steinmalereien oder Steingravierungen und transportierbare Skulpturen. Sie
wurden auf verschiedenen Kontinenten in Europa, Afrika, Mittlerer Osten, Asien
und Australien gefunden. Das Gemälde Cooper Bison Skull (vor 12.000 Jahren)
in Nordamerika und die peruanischen Felsmalereien in der Toquepala-Höhle in
Südamerika stellen mit die ältesten Kunstwerke dar. Die meisten frühhistorischen
Malereien spiegeln eine Geschichte über erfahrene Ereignisse wider und zeigen keine
einzelnen Gegenstände. Eine der ersten geographischen Karten (vor etwa 10.000
4.2 Protokognition 89

Abb. 4.11 Beispiele für die ältesten Kunstobjekte und Symbole der Frühgeschichte.
Linke Seite: Muscheln, die in der Blombos-Höhle (Südafrika) gefunden
wurden. Mitte: Höhlenzeichnungen in den Lascaux-Höhlen (Südwest-
Frankreich). Rechte Seite: Symbolische Gravierungen, die auf den Resten
von Tonwaren in Pakistan gefunden wurden und die später wahrscheinlich
zur Indus-Schrift weiterentwickelt wurden (adaptiert und modifiziert,
Wikipedia).

Jahren) verdeutlicht Behausungen entlang eines Flusses und wurde in der Ukraine,
in Mezhirich gefunden. Eines der ersten Musikinstrumente ist eine Knochenflöte,
die in China gefunden wurde (vor 9.000 Jahren). Im Allgemeinen scheinen Malereien
und Zeichnungen anderen symbolischen Kunstobjekten wie Perlen, Skulpturen,
Figürchen, Musikinstrumenten und Textilien zeitlich vorausgegangen zu sein. Das
Schreiben hat sich vor ca. 5.500 Jahren systematisch in zumindest drei verschiedenen
Regionen entwickelt: Ägypten, Mesopotamien und Harappa (Indus-Schrift), das
heute in Punjab, Pakistan liegt. Die Indus-Schriften sind allerdings schwierig zu
decodieren, da diese Sprachen ausgestorben sind. Dagegen ist auf dem berühmten
Stein von Rosette (vor ca. 2.200 Jahren), einer großen Platte aus schwarzem Basalt,
ein Beschluss mit frühgeschichtlichen ägyptischen Hieroglyphen, der demotischen
und der frühgriechischen Schrift eingraviert. Dies ermöglichte zum ersten Mal,
die ägyptischen Hieroglyphen zu entschlüsseln.
Symbolische Ausdrucksformen weisen auf abstraktes Denken hin und entstan-
den einige hunderttausend Jahre vor der Entwicklung der Schrift. Gehen wir an
diesem Punkt davon aus, dass die Acheuléen-Werkzeugherstellung ein Marker
für abstraktes Denken in Form geplanter Handlungen darstellt, dann umfasst
die zeitliche Lücke zwischen Symbolismus und Schrift bis zu einer Million Jahre.
Die bislang diskutierten Belege verdeutlichen zweifellos, dass Bipedie dem Hirn-
wachstum vorausging, das wiederum mit der kognitiv-kulturellen Entwicklung
der Werkzeugherstellung korrespondiert. Aber wann begannen unsere Vorfahren,
Symbole zu benutzen, um zu kommunizieren? An dieser Stelle ist es von Bedeu-

89
90 4 Der Aufstieg der Kognition

tung zwischen dem „sprachbereiten“ Hirn und der tatsächlichen Verwendung von
Kommunikationsformen zu unterscheiden.
Literatur
Literatur
Aboitiz, F. (2012). Gestures, vocalizations, and memory in language origins. Frontiers in
Evolutionary Neuroscience, 4(2).
Alp, R. (1993). Meat eating and ant dipping by wild chimpanzees in Sierra Leone. Primates,
34(4), 463–468.
Arbib, M. A. (2005). From monkey-like action recognition to human language: an evolutio-
nary framework for neurolinguistics. The Behavioral and Brain Sciences, 28(2), 105–124;
discussion 125–167.
Arriaga, G., & Jarvis, E. D. (2013). Mouse vocal communication system: are ultrasounds
learned or innate? Brain and Language, 124(1), 96–116.
Arriaga, G., Zhou, E. P., & Jarvis, E. D. (2012). Of mice, birds, and men: the mouse ultrasonic
song system has some features similar to humans and song-learning birds. PloS One,
7(10), e46610.
Berwick, R. C., & Chomsky, N. (2016). Why only us? Language and evolution. Cambridge,
MA: MIT Press.
Berwick, R. C., & Chomsky, N. (2017). Why Only Us: Recent Questions and Answers. Journal
of Neurolinguistics, 43, Part B, 166–77.
Berwick, R. C., Okanoya, K., Beckers, G. J. L., & Bolhuis, J. J. (2011). Songs to syntax: the
linguistics of birdsong. Trends in Cognitive Sciences, 15(3), 113–21.
Bickerton, D. (1990). Language and Species. Chicago, IL: The University of Chicago Press.
Bickerton, D. (2009). Adam’s Tongue: How Humans made language, how language made
humans. New York: Hill and Wang.
Bolhuis, J. J., Okanoya, K., & Scharff, C. (2010). Twitter evolution: converging mechanisms
in birdsong and human speech. Nature Reviews Neuroscience, 11(11), 747–59.
Bosman, C Garc í a R , & Aboitiz, F (2004) FOXP2 and the language working-memory
system. Trends in Cognitive Sciences, 8(6), 251–252.
Broadfield, D. C., Holloway, R. L., Mowbray, K., Silvers, A., Yuan, M. S., Márquez, S. (2001).
Endocast of Sambungmacan 3 (Sm 3): a new Homo erectus from Indonesia. Anatomical
Record, 262(4), 369–79.
Brodmann, K. (1909). Vergleichende Lokalisationslehre der Grosshirnrinde. Leipzig: Johann
Ambrosius Bart.
Buchsbaum, B. R., Olsen, R. K., Koch, P., & Berman, K. F. (2005). Human dorsal and ventral
auditory streams subserve rehearsal-based and echoic processes during verbal working
memory. Neuron, 48(4), 687–97.
Cantalupo, C., & Hopkins, W. D. (2001). Asymmetric Broca’s area in great apes. Nature,
414(6863), 505.
Catani, M., Jones, D. K., & ffytche, D. H. (2005). Perisylvian language networks of the human
brain. Annals of Neurology, 57(1), 8–16.
Corballis, M. C. (2003). From mouth to hand: gesture, speech and the evolution of right-han-
dedness. The Bhavioral and Brain Sciences, 26(2), 199–208.
Crockford, C., & Boesch, C. (2005). Call combinations in wild chimpanzees. Behaviour,
142, 397–421.
Literatur 91

Crockford, C., Herbinger, I., Vigilant, L., & Boesch, C. (2004). Wild chimpanzees produce
group-specific calls: a case for vocal learning? Ethology, 110(3), 221–43.
Darwin, C. (1859). On the origin of species by means of natural selection, or the preservation
of favoured races in the struggle for life. London: John Murray.
Dax, M. (1836). Lésions de la moitié gauche de l’encéphale coïncident avec l’oubli des signes
de la pensée. Bulletin hebdomadaire de médecine et de chirurgie, 2me série, 2, 259–62.
Deacon, T. W. (1992). Cortical connections of the inferior arcuate sulcus cortex in the ma-
caque brain. Brain Research, 573, 8–26.
Deacon, T. W. (1997). The symbolic species: The coevolution of language and the brain.
New York: Norton.
Dick, A. S., & Tremblay, P. (2012). Beyond the arcuate fasciculus: consensus and controversy
in the connectional anatomy of language. Brain, 135(12), 3529–50.
Falk, D. (2007). Evolution of the primate brain. In W. Henke & I. Tattersall (eds.), Handbook
of palaeoanthropology, vol. 2: Primate evolution and human origins. Berlin:
Falk, D. (2007). Constraints on brain size: the radiator hypothesis. In J. H. Kaas (ed.), The
evolution of nervous systems. Oxford: Academic Press, pp. 347–354.
Fitch, W. T. (2000). The phonetic potential of nonhuman vocal tracts: comparative cinera-
diographic observations of vocalizing animals. Phonetica, 57(2–4), 205–18.
Fitch, W. T. (2002). Comparative vocal production and the evolution of speech: Reinterpreting
the descent of the larynx. In A. Wray (ed.), The transition to language. Oxford: Oxford
University Press, pp. 21–45.
Fitch, W. T., & Hauser, M. D. (2004). Computational constraints on syntactic processing in
a nonhuman primate. Science, 303(5656), 377–80.
Fleagle, J. G. (1999). Primate Adaptation and Evolution. San Diego, CA: Academic Press.
Flinn, M. V., Geary, D. C., & Ward, C. V. (2005). Ecological dominance, social competition,
and coalitionary arms races: Why humans evolved extraordinary intelligence. Evolution
and Human Behavior, 26, 10–46.
Frey, S., Campbell, J. S. W., Pike, G. B., & Petrides, M. (2008). Dissociating the human lan-
guage pathways with high angular resolution diffusion fiber tractography. The Journal
of Neuroscience, 28(45), 11435–44.
Friederici, A. D., & Gierhan, S. M. (2013). The language network. Current Opinion in Neu-
robiology, 23(2), 250–54.
Galaburda, A. M., & Pandya, D. N. (1982). Role of architectonics and connections in the study
of primate brain evolution. In E. Armstrong & D. Falk (eds.), Primate brain evolution:
methods and concepts. New York: Plenum Press, pp. 203–16.
Gallese, V., Fadiga, L., Fogassi, L., & Rizzolatti, G. (1996). Action recognition in the premotor
cortex. Brain: A Journal of Neurology, 119 (2), 593–609.
Gannon, P. J., Holloway, R. L., Broadfield, D. C., & Braun, A. R. (1998). Asymmetry of
chimpanzee planum temporale: Humanlike pattern of Wernicke’s brain language area
homolog. Science, 279(5348), 220–22.
Gentner, T. Q., Fenn, K. M., Margoliash, D., & Nusbaum, H. C. (2006). Recursive syntactic
pattern learning by songbirds. Nature, 440(7088), 1204–07.
Glasser, M. F., & Rilling, J. K. (2008). DTI tractography of the human brain’s language pa-
thways. Cerebral Cortex, 18(11), 2471–82.
Hauser, M. D., Chomsky, N., & Fitch, W. T. (2002). The faculty of language: What is it, who
has it and how did it evolve? Science, 298, 1569–79.

91
92 4 Der Aufstieg der Kognition

Hauser, M. D., & Fitch, W. T. (2003). What are the uniquely human components of the
language faculty? In M. H. Christiansen & S. Kirby (eds.), Language evolution. Oxford:
University Press Scholarship, pp. 158–81.
Henshilwoo, C. S., d’Errico, F., van Niekerk, K. L., Coquinot, Y., Jacobs, Z., Lauritzen, S. E.,
Menu, M., & García-Moreno, R. (2011). 100,000-year-old ochre-processing workshop at
Blombos Cave, South Africa. Science, 334(6053), 219–22.
Hickok, G., & Poeppel, D. (2004). Dorsal and ventral streams: a framework for understanding
aspects of the functional anatomy of language. Cognition, 92(1–2), 67–99.
Hickok, G., & Poeppel, D. (2007). The cortical organization of speech processing. Nature
Reviews Neuroscience, 8(5), 393–402.
Holloway, R. L., & de La Costelareymondie, M. C. (1982). Brain endocast asymmetry in pongids
and hominids: some preliminary findings on the paleontology of cerebral dominance.
American Journal of Physical Anthropology, 58(1), 101–10.
Holloway, R. L. (2002). Brief communication: how much larger is the relative volume of area
10 of the prefrontal cortex in humans? American Journal of Physical Anthropology,
118(4), 339–401.
Hopkins, W. D., Marino, L., Rilling, J. K., & MacGregor, L. A. (1998). Planum temporale
asymmetries in great apes as revealed by magnetic resonance imaging (MRI). NeuroR-
report, 9, 2913–18.
Izumi, A., & Kojima, S. (2004). Matching vocalizations to vocalizing faces in a chimpanzee
(Pan troglodytes). Animal Cognition, 7(3), 179–84.
Jackendoff, R. (1987). The Status of Thematic Relations in Linguistic Theory. Linguistic
Inquiry, 18(3), 369–411.
Jackson, W. J., Reite, M. L., & Buxton, D. F. (1969). The chimpanzee central nervous system:
A comparative review. Primates in Medicine, 4, 1–51.
Jarvis, E. D. (2006). Evolution of vocal learning systems in birds and humans. In: J. Kass
(ed.), Evolution of nervous systems, vol. 2, 213–28.
Jürgens, U. (2003). From mouth to mouth and hand to hand: On language evolution. Be-
havioral and Brain Sciences, 26(2), 229–30.
Jürgens, U. (2009). The neural control of vocalization in mammals: a review. Journal of Voice:
Official Journal of the Voice Foundation, 23(1), 1–10.
Kako, E. (1999). Elements of syntax in the systems of three language-trained animals. Animal
Learning & Behavior, 27(1), 1–14.
Kelly, C., & Uddin, L. Q., Shehzad, Z., Margulies, D. S., Xavier Castellanos, F., Milham, M. P.,
& Petrides, M. (2010). Broca’s region: linking human brain functional connectivity data
and non-human primate tracing anatomy studies. European Journal of Neuroscience,
32, 383–98.
Lam, Y.-W., & Sherman, S. M. (2010). Functional organization of the somatosensory cortical
layer 6 feedback to the thalamus. Cerebral Cortex, 20(1), 13–24.
Levréro, F., & Mathevon, N. (2013). Vocal signature in wild infant chimpanzees. American
Journal of Primatology, 75(4), 324–32.
Liberman, A. M., & Mattingly, I. G. (1985). The motor theory of speech perception revised.
Cognition, 21(1), 1–36.
Lichtheim, L. (1884). Ueber Aphasie. Deutsches Archiv Für Klinische Medicin, 36, 204–68.
Lieberman, P. (1968). Primate vocalizations and human linguistic ability. Journal of the
Acoustic Society of America, 44, 1574–1584.
Literatur 93

Marean, C. W. (2010). Pinnacle Point Cave 13B (Western Cape Province, South Africa) in
context: The Cape Floral kingdom, shellfish, and modern human origins. Journal of
Human Evolution, 59(3–4), 425–43.
Matelli, M., Luppino, G., & Rizzolatti, G. (1985). Patterns of cytochrome oxidase activity in
the frontal agranular cortex of macaque monkey. Patterns of Cytochrome Oxidase Activity
in the Frontal Agranular Cortex of Macaque Monkey, 18, 125–36.
McElligott, A. G., Birrer, M., & Vannoni, E. (2006). Retraction of the mobile descended larynx
during groaning enables fallow bucks (Dama dama) to lower their formant frequencies.
Journal of Zoology, 270(2), 340–45.
Nishimura, T. (2003). Comparative morphology of the hyo-laryngeal complex in anthropoids:
two steps in the evolution of the descent of the larynx. Primates, 44, 41–9.
Nishimura, T., Mikami, A., Suzuki, J., & Matsuzawa, T. (2003). Descent of the larynx in
chimpanzee infants. In Proceedings of the National Academy of Science 100(12), 6930–3.
Noad, M. J., Cato, D. H., Bryden, M. M., Jenner, M.-N., & Jenner, K. C. S. (2000). Cultural
revolution in whale songs. Nature, 408(6812), 537.
Ogawa, S., Lee, T. M., Nayak, A. S., & Glynn, P. (1990). Oxygenation-sensitive contrast in
magnetic resonance image of rodent brain at high magnetic fields. Magnetic Resonance
in Medicine: Official Journal of the Society of Magnetic Resonance in Medicine / Society
of Magnetic Resonance in Medicine, 14(1), 68–78.
Payne, R. S., & McVay, S. (1971). Songs of Humpback Whales. Science, 173(3997), 585–97.
Petkov, C. I., & Jarvis, E. D. (2012). Birds, primates, and spoken language origins: behavioral
phenotypes and neurobiological substrates. Frontiers in Evolutionary Neuroscience, 4.
Petrides, M., & Pandya, D. N. (2006). Efferent association pathways originating in the cau-
dal prefrontal cortex in the macaque monkey. The Journal of Comparative Neurology,
498(2), 227–51.
Petrides, M., & Pandya, D. N. (2009). Distinct Parietal and Temporal Pathways to the Ho-
mologues of Broca’s Area in the Monkey. PLoS Biol, 7(8), e1000170.
Pooley, R. A. (2005). AAPM/RSNA physics tutorial for residents: fundamental physics of
MR imaging. Radiographics: A Review Publication of the Radiological Society of North
America, Inc, 25(4), 1087–99.
Preuss, T. M., & Goldman-Rakic, P. S. (1991). Architectonics of the parietal and temporal
association cortex in the strepsirhine primate Galago compared to the anthropoid primate
Macaca. The Journal of Comparative Neurology, 310(4), 475–506.
Rauschecker, J. P. (2011). An expanded role for the dorsal auditory pathway in sensorimotor
control and integration. Hearing Research, 271, 16–25.
Riede, T., Owren, M. J., & Arcadi, A. C. (2004). Nonlinear acoustics in pant hoots of common
chimpanzees (Pan troglodytes): Frequency jumps, subharmonics, biphonation, and
deterministic chaos. American Journal of Primatology, 64(3), 277–91.
Rilling, J. K., Glasser, M. F., Preuss, T. M., Ma, X., Zhao, T., Hu, X., & Behrens, T. E. J. (2008).
The evolution of the arcuate fasciculus revealed with comparative DTI. Nature Neuros-
cience, 11, 426–28.
Rizzolatti, G., & Craighero, L. (2004). The mirror-neuron system. Annual Review of Neu-
roscience, 27, 169–92.
Rizzolatti, G., Fadiga, L., Gallese, V., & Fogassi, L. (1996). Premotor cortex and the recognition
of motor actions. Brain Research. Cognitive Brain Research, 3(2), 131–41.

93
94 4 Der Aufstieg der Kognition

Rolheiser, T., Stamatakis, E. A., & Tyler, L. K. (2011). Dynamic processing in the human
language system: Synergy between the arcuate fascicle and extreme capsule. The Journal
of Neuroscience, 31(47), 16949–57.
Russel, B. (1903). The principles of mathematics. Cambridge: University Press.
Saur, D., Kreher B. W., Schnell, S., Kümmerer, D., Kellmeyer, P., Vry, M. S., Umarova, R.,
Musso, M., Glauche, V., Abel, S., Huber, W., Rijntjes, M., Hennig, J., & Weiller, C. (2008).
Ventral and dorsal pathways for language. Proceedings of the National Academy of
Science, 105(46), 18035–40.
Saxe, R., & Powell, L. J. (2006). It’s the thought that counts: specific brain regions for one
component of theory of mind. Psychology Science, 17(8), 692–9.
Schmahmann, J. D., Pandya, D. N., Wang, R., Dai, G., D’Arceuil, H. E., Crespigny, A. J. de, &
Wedeen, V. J. (2007). Association fibre pathways of the brain: parallel observations from
diffusion spectrum imaging and autoradiography. Brain, 130(3), 630–53.
Semendeferi, K., Armstrong, E., Schleicher, A., Zilles, K., & Van Hoesen, G. W. (1998).
Limbic frontal cortex in hominoids: A comparative study of area 13. American Journal
of Physical Anthropology, 106, 129–155.
Sherwood, C. C., Broadfield, D. C., Holloway, R. L., Gannon, P. J., & Hof, P. R. (2003). Vari-
ability of Broca’s area homologue in African great apes: implications for language evo-
lution. Anatomical Record A. Discoveries in Molecular Cellular Evolutionary Biology,
271(2), 276–85.
Slocombe, K. E., & Zuberbühler, K. (2007). Chimpanzees modify recruitment screams as a
function of audience composition. In Proceedings of the National Academy of Sciences
of the United States of America, 104, 17228–33
Stout, D. (2008). Technology and Human Brain Evolution. General Anthropology, 15, 1–5.
Stout, D. (2011). Stone toolmaking and the evolution of human culture and cognition. Phil-
osophical Transactions of the Royal Society of London B, 366, 1050–59.
Suge, R., & Okanoya, K. (2009). Perceptual chunking in the self-produced songs of Bengalese
finches (Lonchura striata var. domestica). Animal Cognition, 13(3), 515–23.
Suzuki, R., Buck, J. R., & Tyack, P. L. (2006). Information entropy of humpback whale songs.
The Journal of the Acoustical Society of America, 119(3), 1849–66.
Ungerleider, L. G., & Haxby, J. V. (1994). “What” and “where” in the human brain. Current
Opinion in Neurobiology, 4(2), 157–65.
Wada, H., Sekino, M., Ohsaki, H., Hisatsune, T., Ikehira, H., & Kiyoshi, T. (2010). Prospect
of high-field MRI. IEEE Transactions on Applied Superconductivity, 20(3), 115–22.
Wernicke, C. (1874). Der aphasiche Symptomenkomplex. Eine psychologische Studie auf
anayomischer Basis. Breslau: Cohn & Weigert. [German]
Wilson, S. M., Saygin, A. P., Sereno, M. I., & Iacoboni, M. (2004). Listening to speech activates
motor areas involved in speech production. Nature Neuroscience, 7, 701–2.
Zhang, K., & Sejnowski, T. J. (2000). A universal scaling law between gray matter and white
matter of cerebral cortex. Proceedings of the National Academy of Science, 97(10), 5621–6.
Zilles, K., Dabringhaus, A., Geyer, S., Amunts, K., Qü, M., Schleicher, A., Gilissen, E.,
Schlaug, G., & Steinmetz, H. (1996). Neuroscience Biobehavioral Reviews, 20(4), 593–605.
Zuberbühler, K., Cheney, D. L., & Seyfarth, R. M. (1999). Conceptual semantics in a nonhu-
man primate. Journal of Comparative Psychology, 113(1), 33–42.
Teil II
PARADIGMEN

95
Das Sprachsystem des Menschen
5

Zusammenfassung

Die biologische Disposition der Sprache kann aktivitätsunabhängige und ak-


tivitätsabhängige Prozesse involvieren, aber beide Prozessarten gehören zum
„Sprachgenotyp“. Die Expression der biologischen Disposition erfolgt nach
einem genetischen Programm, zu dem auch Proliferation und Pruning eines
(geschlechtsunabhängigen) neuralen Sprachnetzes gehören. Die kritischen
corticalen Regionen und deren für Sprache relevanten Konnektivitäten werden
besprochen. Sie umfassen u. a. verschiedene ventrale und dorsale Faserbahnen,
den superioren und den mittleren und/oder den anterior temporalen Gyrus,
die Broca-Region, den prämotorischen Cortex, das frontale Operculum, die
parietal-temporale Verbindung und den rechten posterioren temporalen Gy-
rus. Modalitätsspezifische und modalitätsunabhängige Studien verdeutlichen,
dass das neurale „Sprachnetz“ multifunktional ist, d. h., es führt verschiedene
Berechnungen innerhalb einer einzelnen Domäne (z. B. Semantik und Syntax)
und überlagernd in verschiedenen Domänen aus (z. B. Sprache und Musik).

Stichwörter

Biologische Disposition, Broca-Region, Capsula externa, Fasciculi longitudina-


les, Fasciculus arcuatus, Fasciculus uncinatus, Gyrus temporalis, Operculum
frontale, Pruning, Sprachgenotyp, Sprachsystem, Zweibahnen-Modell.

97
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_6
98 4 Der Aufstieg der Kognition

5.1 Biologische Disposition


5.1 Biologische Disposition
Die biologische Disposition der Sprache (BDS) spiegelt sich in der anatomischen
Struktur des menschlichen Gehirns wider. Neurowissenschaftler nehmen an,
dass nicht das Hirnvolumen die Sprachfähigkeit ermöglicht, jedoch die Art der
neuronalen Verschaltung. Allerdings sollte berücksichtigt werden, dass eine
sprachlich-relevante Verschaltung ein bestimmtes Hirnvolumen erfordert. Der
moderne Mensch besitzt den höchsten Enzephalisierungsgrad im Vergleich zu
allen anderen Säugetieren. Der Begriff der „Enzephalisierung“ bezieht sich auf
die phylogenetische Entwicklung der relativen Hirngröße, d. h., nicht-corticale
Gehirnregionen entwickeln sich zu corticalen Strukturen. Der Anstieg des En-
zephalisierungsquotienten spielte sicherlich eine wichtige Rolle bei der Entwick-
lung der Sprachverarbeitung. Eine bestimmte funktionale Komplexität setzt eine
bestimmte neuronale Komplexität voraus.
Im Allgemeinen sind die neurologischen Entwicklungsprozesse entweder
fest veranlagt („hardwired“) oder von bestimmten Aktivitäten abhängig. Hard-
wired-Prozesse sind als Teil eines genetischen Programms vorherbestimmt und
können als Bauplan für den Aufbau der Hirnstrukturen verstanden werden. Sie
finden unabhängig von neuronalen Aktivitäten und sensorischen Daten statt und
zeichnen sich auf der neuronalen Ebene durch Zelldifferenzierung, Zellmigration
und axonale Wegfindung aus. Nachdem die Axone die vorherbestimmten Zielregio-
nen erreicht haben, folgen aktivitätsabhängige Prozesse und neuronale Aktivitäten;
sensorische Daten ermöglichen die Bildung von neuen Synapsen und synaptische
Plastizität. Synaptische Plastizität bezieht sich auf die Menge der in die Synapsen
freigesetzten Neurotransmitter und stellt im Sinne der Hebb’schen Lernregel die
neurochemische Grundlage für Lernen und Gedächtnis dar.34 Assoziatives Lernen
ist im Sinne dieser Lernregel das Ergebnis einer simultanen Zellaktivierung, die
zu synaptischen Verbindungsstärken zwischen diesen Zellen führt. Das Gehirn
entwickelt neuronale Netze, die aus Neuronen bestehen, die aufgrund elektroche-
mischer Signale miteinander kommunizieren.
Ein Neuron besteht aus einem Zellkörper, von dem aus verzweigte Strukturen aus-
gehen. Diese Strukturen umfassen Dendrite und Axone mit zahlreichen Terminalen.
Der Zellkörper enthält die DNA und generiert Energie, die Dendriten empfangen

34 Donald Olding Hebb (1904-1985), ein kanadischer Neuropsychologe, ist ein Pionier
auf dem Gebiet der neuronalen Netzwerkmodellierung. Das Zitat „Neurons that fire
together wire together“ ist als Hebb’sche Lernregel bekannt. Neuronen, die zusammen
feuern, werden als eine Gruppe bzw. als eine Verarbeitungseinheit angesehen. Diese
Einheit ist auch unter dem Begriff „Zellgruppierung“ (cell assembly) bekannt.
5.1 Biologische Disposition 99

Signale von anderen Neuronen und die Axone und ihre Terminalen übertragen
Signale an andere Neuronen. Die Signalübertragung, bei der ein Axon-Terminal
eines Neurons ein Signal an den Dendriten eines anderen Neurons weitergibt,
findet normalerweise in weniger als 1 ms in Form eines Aktionspotentials an einer
synaptischen Spalte statt. Das Aktionspotential ist ein „Alles-oder-Nichts“-Prozess,
der an dem präsynaptischen Axon-Terminal den synaptischen Übertragungsprozess
initiiert. Ein Anstieg der intrazellularen Kalziumkonzentration bewirkt, dass die
Vesikeln Neurotransmitter freisetzen, die von den Rezeptoren des Zielneurons
aufgenommen werden. Das Zielneuron wird dann aktiviert, inhibiert oder es finden
je nach Rezeptortyp metabolische Veränderungen statt.

Abb. 5.1 Synaptische Proliferation und Pruning bei verschiedenen Altersstufen des
Kleinkindes (adaptiert und modifiziert, © Seeman, 1999)

Mit Beginn des embryonalen Stadiums bis etwa zum 2. Lebensjahr bilden sich neue
Neuronen und Synapsen mit einer atemberaubenden Geschwindigkeit, bis zu 40.000
neue Synapsen pro Sekunde. Kleinkinder besitzen mehr Neuronen und Synapsen,
als aus kognitiver Sicht benötigt wird. Synaptisches Pruning ist ein epigenetischer
Faktor, der zur Regulierung der Hirnentwicklung in dem Sinne beiträgt, dass die
Gesamtzahl der Neuronen und Synapsen reduziert wird, um effiziente corticale
Schaltkreise zu bilden. Synaptisches Pruning beginnt bereits bei der Geburt, ein
Stadium, in dem das menschliche Gehirn mehr als 10 Milliarden Neuronen besitzt
(Craik und Bialystok, 2006), aber diese Entwicklung hält bis etwa zum 10. Lebensjahr
an. Fast 50 % der Synapsen, die im Alter von 2 Jahren vorhanden sind, werden eli-

99
100 4 Der Aufstieg der Kognition

miniert. Obwohl das Hirnvolumen zwischen dem 2. und dem 5. Lebensjahr nur um
10 % zunimmt, um 90 % des Volumens eines Erwachsenen zu erreichen (Dekaban,
1978), sind Prozesse der Myelinisierung und des synaptischen Prunens während
dieser Plateauphase des Reifeprozesses besonders aktiv. Dies trifft allerdings auch
für die adoleszente und frühadulte Entwicklungsphase zu. Atypisches Prunen
scheint für sprachliche und andere kognitive Entwicklungsstörungen verantwort-
lich zu sein. Erfolgt bei Kindern der Reifeprozess im Normalbereich, beruht das
Sprachverstehen auf einem bilateral verteilten corticalen Netzwerk. Synaptisches
Prunen scheint das Sprachnetz zu stabilisieren, und andere kognitive Funktionen
führen in der Kindheit graduell zu einer linkshemisphärischen Lateralisation.
Der Prozess des synaptischen Prunens erfolgt bei einzelnen Gehirnregionen
unterschiedlich, aber dieser Forschungsansatz erfordert vor allem Langzeit- und/
oder Querschnittsstudien, um die Faktoren berücksichtigen zu können, die zur
kindlichen Hirnreife beitragen. Werden die vorprogrammierten genetischen
Parameter und die aktivitätsabhängigen synaptischen Pruning-Prozesse getrennt
voneinander behandelt, kann die Funktion der BDS tendenziell wie nachfolgend
zusammengefasst dargestellt werden.
Die BDS im engeren Sinn bezieht sich auf aktivitätsunabhängige Prozesse,
während sich die BDS im weiteren Sinn auf aktivitätsabhängige Prozesse bezieht.
Sie verfeinert die neuralen Schaltkreise der Sprachverarbeitung. Die BDS, im
engeren und weiten Sinn, könnte man auch als „Sprachgenotyp“ bezeichnen. Mit
Ausnahme von genetischen Störungen oder atypischen sensorischen Deprivationen
ist der auf der BDS beruhende neurologische Reifungsprozess bei allen Menschen
gleich. Hinzu kommt allerdings, dass alle biologischen Systeme dynamische Ei-
genschaften besitzen. Die BDS kann als eine stabile Architektur verstanden wer-
den und Veränderungen dieser genetischen Disposition implizieren Änderungen
dessen, was wir als die Natur des Menschen bezeichnen. Im Zusammenhang mit
den systematischen Hirnveränderungen während eines Lebenskreislaufs können
systematische linguistische Veränderungen beobachtet werden, die auf kognitiven
Faktoren wie Arbeitsgedächtnis oder Lernkapazitäten beruhen. Diese kognitiven
Modifikationen verändern die Sprachverarbeitung, haben jedoch keinen Einfluss
auf die BDS im weiten und engen Sinn. Die aktivitätsabhängigen kindlichen Pro-
zessparameter für die Muttersprache hindern nicht den möglichen Erwerb anderer
Sprachen während des gesamten Lebenskreislaufs. Wir diskutieren gesondert in
einem weiteren Kapitel, inwieweit, falls zutreffend, der Erwerb einer oder mehrerer
Sprachen einen Einfluss auf die Verarbeitung der Muttersprache nimmt.
Die Frage stellt sich, ob die BDS bei Einzelpersonen unterschiedlich exprimiert
wird, d. h., ob einige Menschen eine Prädisposition für sprachliche oder für spezi-
fische linguistische Verarbeitungsprozesse haben. Diese möglichen Unterschiede
5.1 Biologische Disposition 101

wurden im Zusammenhang mit geschlechtsspezifischen kognitiven Fähigkeiten


und mit spezifischen Hirnstrukturen und/oder Hormonstufen besprochen. Im
Allgemeinen wird in den Neurowissenschaften darauf hingewiesen, dass viele ge-
schlechtsspezifische Verhaltensweisen auf unterschiedlichen Faktoren beruhen. Dies
ist ein fundamentales methodologisches Problem der Wissenschaft, da kulturelle
Voreingenommenheit der Möglichkeit alternativer Sichtweisen nicht förderlich ist
(Jordan-Young, 2010; Fine, 2010). Das Gehirn bzw. die Verhaltensweisen der Frau
und des Mannes unterscheiden sich sicherlich bezüglich vieler Faktoren, aber zwei
verschiedene experimentelle Gruppen können bedeutende Unterschiede aufweisen,
und dies bezieht sich natürlich auch auf Einzelpersonen. Dieses Phänomen kann im
Fall eines Fötus verdeutlicht werden. Wird der Fötus dem Androgen (kongenitale
adrenale Hyperplasie – CAH) stärker ausgesetzt, was infolge eines angeborenen
enzymatischen Fehlers verursacht wird, dann führt dies zur Hemmung der Glu-
cocorticoid-Erzeugung. Androgene stimulieren und regulieren die Entwicklung
der männlichen Eigenschaften bei den Vertebraten. Mädchen mit CAH scheinen
im Vergleich zu nicht-betroffenen Mädchen bei mentalen Rotationsaufgaben von
Konturen besser abzuschneiden. Es wurde auch angenommen, dass im Vergleich
zu Männern ein dickerer Corpus callosum bei Frauen der Grund für bessere
Sprachfähigkeiten bei Frauen sei. Ein entscheidender Faktor wurde allerdings nicht
berücksichtigt: Typischerweise korreliert das Hirnvolumen mit dem Umfang des
Corpus callosum. Ein anderes Beispiel bezieht sich auf die oft zitierten Spielzeug-
präferenzen. Es stellt sich jedoch die Frage, wer definiert, was ein weibliches oder
männliches Spielzeug ist. Es gibt viele genetische und soziale Faktoren (z. B. das
Verhalten des anderen Geschlechts abzulehnen, die mit einem Spielzeug assoziierte
Aktivität, Verhaltensmodellierung), die eine Bevorzugung für ein bestimmtes
Verhalten bei Kindern auslösen oder hemmen. Der Hormonspiegel kann bei der
Bevorzugung von Verhaltensweisen eine wichtige Rolle spielen, aber diese Ände-
rungen sind geschlechtsunabhängig und sollten im Einzelfall untersucht werden.
Der Faktor „Geschlecht“ spielt keine Rolle bei der Erfassung der BDS: Frauen und
Männer sind mit der gleichen biologischen Kapazität für Sprache ausgestattet.
Mögliche individuelle Unterschiede beim Sprachvermögen dürften auf sozialen
und pädagogischen Erfahrungen beruhen.

101
102 4 Der Aufstieg der Kognition

5.2 Linguistische Verschaltung


5.2 Linguistische Verschaltung
In den folgenden Ausführungen konzentrieren wir uns auf die neuronale Architektur
der Sprachverarbeitung bei Erwachsenen. Wir haben bereits im Zusammenhang
mit sprachrelevanten Homologen wichtige neuronale Komponenten des mensch-
lichen Sprachsystems besprochen. Die gegenwärtige Evidenz verdeutlicht, dass
bei der Sprachverarbeitung ein umfangreiches Netzwerk beteiligt ist (z. B. Price,
2010; Turken und Dronkers, 2011; Friederici und Gierhan, 2013). Im „Normalfall“
beansprucht die Satzverarbeitung das linke lateralisierte Netzwerk, den perisyl-
vischen Cortex und benachbarte Regionen wie den posterioren Gyrus temporalis
medius (MTG), inferiore temporale Regionen, den inferioren Parietallappen,
Gyrus frontalis inferior (IFG) und andere frontale Regionen, die die Funktionen
des Arbeitsspeichers einschließlich der Wiederholungsschleifen ermöglichen. Die
meisten erwähnten corticalen Regionen sind multifunktional und unterstützen
nicht nur sprachliche Prozesse. Von größerer Bedeutung ist die Frage, wie diese
Regionen ihre Ressourcen teilen, d. h., wie sie ihre Aktivitäten koordinieren, um
die verschiedenen corticalen Regionen funktional zu integrieren. Der spezifische
Beitrag, den eine corticale Region bei der Sprachverarbeitung leistet, wird durch
das Konnektivitätsmuster, durch die Art der Interaktion mit anderen Regionen,
bestimmt. Diese corticalen Regionen umfassen nicht nur das linkshemisphärische
Netzwerk, sondern auch rechtshemisphärische Regionen, wenn höhere Berech-
nungskosten für bestimmte linguistische Aspekte erforderlich sind. Ein genaues
Modell der neuronalen Architektur des menschlichen Sprachsystems ist im Fall
von Verletzungen oder Krankheiten des Gehirns von großer Bedeutung für das
Verstehen spontaner neuronaler Wiederherstellungsprozesse.
Die typischen kanonischen Sprachbahnen umfassen den linken IFG und den
linken Gyrus temporalis superior (STG). Die Wortproduktion und das Sprechen
beanspruchen die motorischen und prämotorischen Regionen, die Perzeption von
Wörtern und gesprochener Sprache erfolgt durch die auditorischen und okzipitalen
Regionen. An dieser Stelle geben wir einen Überblick zu den neuronalen Grundlagen
des menschlichen Sprachsystems, wobei spezifische Aspekte der Sprachverarbeitung
unberücksichtigt bleiben. Zwei ventrale Bahnen scheinen hier besonders relevant
zu sein: der Fasciculus uncinatus (UF, uncinate fasciculus) und das Fasersystem der
Capsula extrema (ECFS, „extreme capsule fiber system“). UF verbindet subcorticale
Strukturen des anterioren Temporallappens (Hippocampus und Amygdala) mit
dem anterioren IFG. Das ECFS ist eine lange Nervenfaserbahn, die den IFG mit
den mittleren posterioren Regionen des STG verbindet und sich in Richtung der
okzipitalen Regionen erstreckt. Verschiedene Arten von Evidenz wie MRT und
Läsionsstudien weisen darauf hin, dass das ECFS insbesondere bei der semantischen
5.2 Linguistische Verschaltung 103

Verarbeitung beteiligt ist (z. B. Thompson-Schill et al., 1997; Vigneau et al., 2006;
Rolheiser et al., 2011). Die Funktion des UF bezieht sich primär auf grundlegende
oder lokale syntaktische Berechnungen wie Phrasenstrukturen. Dagegen scheint
der Fasciculus arcuatus (AF, „arcuate fascilicus“) für komplexere syntaktische
Verarbeitungen verantwortlich zu sein und der Fasciculus longitudinales (SLF, „lon-
gitudinal fasciculus“) scheint vor allem bei Aktivitäten der Sprechwiederholungen,
die bei der Wahrnehmung und Produktion gesprochener Sprache erforderlich sind,
sowie bei anderen phonologischen Arbeitsspeicher-Funktionen beteiligt zu sein.

Abb. 5.2 Das kanonische links-lateralisierte Sprachnetzwerk beim Menschen verbindet


bestimmte Regionen aufgrund der dorsalen und ventralen Faserbahnen
zwischen den posterioren und anterioren Regionen (FOP, Operculum
frontalis; UF, Fasciculus unicatus; ECFS, Capsula extrema; AF, Fasciculus
arcuatus; SLF, Fasciculus longitudinales (adaptiert und modifiziert, ©
Friederici, 2013).

Mit Bezug auf die Struktur des Makakenhirns wurde die Unterteilung SLF I, II, III
auch für das Faserbahnensystem des menschlichen Gehirns vorgeschlagen (z. B.
Thiebaut de Schotten et al., 2012). Deren präzise linguistische Funktionen müssten
allerdings noch bestimmt werden.
Wie bereits zuvor erwähnt wurde, enthält das duale Stream-Modell zeitliche
Faktoren, so dass verschiedene Arten linguistischer Berechnungen stattfinden
können (Hickok und Poeppel, 2004, 2007; Hickok, 2012). Unter Berücksichti-

103
104 4 Der Aufstieg der Kognition

gung von Evidenz, die auf eine bilaterale Repräsentation der ventralen Bahn
hinweist, wurde vorgeschlagen, dass in Abhängigkeit von der Abtastrate die linke
(25-50 Hz) und/oder die rechte ventrale Faserbahn (4-8 Hz) benutzt wird. Diese
Annahme beruht auf der Tatsache, dass schnelle Spektralveränderungen (z. B.
Formant-Übergänge verbunden mit der Artikulationsstelle) in einem Zeitfenster
von 20 bis 40 ms auftreten, während Berechnungen zur Silbenstruktur und Pro-
sodie in einem Bereich von 100 bis 200 ms stattfinden. Weitere Evidenz für ein
bilaterales ventrales System für das Sprechen, das den MTG und STG einschließt,
stammt von Läsionsstudien, die verdeutlichen, dass die lautliche Sprachwahrneh-
mung nicht stark beeinträchtigt ist (z. B. Rogalsky et al., 2008). Dagegen treten
schwerwiegende Störungen der Sprachwahrnehmung bei bilateralen Läsionen
des STG auf (Poeppel, 2001). Die angenommene linksseitig dominante dorsale
Faserbahn umfasst das Planum temporale (PT), den prämotorischen Cortex und
den IFG. Vom auditorischen Cortex (Heschl-Querwindung) aus gesehen befindet
sich das PT35 posterior; es kann als Teil des STG und des Parietallappens als Kern
der Wernicke-Region betrachtet werden. Generell scheint das PT bei der frühen
auditorischen Verarbeitung und bei der absoluten Pitch-Erkennung eine Rolle zu
spielen36. Das PT gilt auch als algorithmischer Knotenpunkt (Hub), als ein Motor,
der viele verschiedene komplexe Laute analysiert und segregiert sowie spektrotem-
porale Muster abgleicht (Griffiths und Warren, 2002). Das duale Stream-Modell
impliziert viele Annahmen zur lexikalischen Verarbeitung bei Erwachsenen, aber
aufgrund dessen können spezifische linguistische Störungen, die durch Läsionen
in bestimmten corticalen Regionen verursacht werden, hypothetisch angenommen
werden. Des Weiteren wird angenommen, dass Bedeutungen (lexikalisch-konzep-
tuelle Informationen) im ganzen Cortex verteilt repräsentiert sind (Hillert und
Buračas, 1999). Demgegenüber finden phonologische Berechnungen im Sulkus
temporalis superior (STS, „superior temporal sulcus“)37 statt. Der STG und der
MTG scheinen ein Hub für phonologische und konzeptuelle Information zu sein;
syntaktisch-semantische (strukturelle) Information auf der Satzebene wird primär

35 Genauso wie das Broca-Areal ist das linke Planum temporale (PT) typischerweise grö-
ßer als das der rechten Hirnhälfte. Die gleiche Asymmetrie liegt bei Schimpansen vor
(Carroll, 2003). Die Asymmetrie auf der linken Seite scheint mit der Sprachlateralität
im Zusammenhang zu stehen (Foundas et al., 1994).
36 Das absolute Gehör bezieht sich auf die Fähigkeit einer Person, einen Ton mühelos und
unmittelbar zu reproduzieren oder ihn zu identifizieren (gewöhnlich im Bereich der
Musik). Es wird vermutet, dass das absolute Gehör häufiger bei Sprechern von Tonsprachen
vorkommt (z. B. Chinesisch, Nilosaharanisch, Pandschabi, Thai oder Vietnamesisch).
37 Der Sulkus temporalis superior trennt den superiorer Gyrus temporalis vom mittleren
Gyrus temporalis.
5.2 Linguistische Verschaltung 105

vom anterioren Temporallappen berechnet (z. B. Binder et al., 1997; Friederici et


al., 2000; Vandenberghe et al., 2002).

Abb. 5.3 Duales Stream-Modell der lautlichen Sprachverarbeitung. p, posterior; a,


anterior; ITS, Sulkus temporalis inferior; MTG, Gyrus temporalis medius;
STS, Sulkus temporalis superior; STG, Gyrus temporalis superior; IFG,
Gyrus frontalis inferior; PM, prämotorischer Cortex; Spt, Sylvische parietal-
temporale Fissur (adaptiert und modifiziert, Hickok, 2007; © Nature
Publishing Company).

Die angenommene Funktion des anterioren Temporallappens für strukturelle Ver-


arbeitungsprozesse scheint mit dem von Friederici vorgeschlagenen Sprachnetzwerk
übereinzustimmen (Abb. 5.2). Traditionell unterscheiden Linguisten zwischen
semantischen und konzeptuellen Informationen (im Unterschied zur Sichtweise
in der Psychologie), um zwischen sprachspezifischen und allgemeinen kognitive
Bedeutungen differenzieren zu können. Diese Unterscheidung ist offensichtlich
auch empirisch relevant.
Der dorsalen Faserbahn wird die Funktion der auditorisch-motorischen Integ-
ration zugeordnet. Es wird angenommen, dass neben den motorischen Arealen die
Sylvische parietal-temporale (Spt) Fissur und der Sulkus temporalis superior (STS)
das sensorisch-motorische Integrationssystem darstellen. Hickok (2012) diskutiert
im Rahmen des dualen Stream-Modells zwei weitere Annahmen zur vorausgehen-
den Prädiktion der Sprachwahrnehmung: Während die vorausgehende Prädiktion
der ventralen Faserbahn aufgrund von Top-down-Hypothesen – meditiert durch
Priming (Voraktivierung) und Kontext – zur Sprachwahrnehmung beiträgt, beruht
offensichtlich die vorausgehende Prädiktion der dorsalen Faserbahn auf motorischen
Funktionen. Diese auf Motorfunktionen basierende Prädiktion ist für die Sprach-
wahrnehmung offensichtlich nicht kritisch, da Läsionen des für die Artikulation

105
106 4 Der Aufstieg der Kognition

zuständigen motorischen Systems nicht zu entsprechenden Beeinträchtigungen


der Sprachwahrnehmung führen.
In Teil III besprechen wir detaillierter spezifische corticale Schaltkreise der
Sprachverarbeitung. Es sollten vor allem die rechts-hemisphärischen Faserbah-
nen berücksichtigt werden, aber auch Strukturen des limbischen Systems spie-
len eine wichtige Rolle bei der Sprachverarbeitung. Ebenso besitzen bei einem
Vorwärtsmodell die Schnittstelle zum konzeptuellen System, welches selber weit
verteilt repräsentiert ist, sowie die Komponenten des Sprachsystems nicht nur
auf der phonologischen, sondern auch auf der syntaktisch-semantischen Ebene
eine wichtige Funktion. Die Fähigkeit zur Sprachverarbeitung beruht auf der
biologischen Disposition für Sprache. Die Implementierung dieser Disposition
erfordert bestimmte neurobiologische Parameter, gesunde psychologische und
mentale Bedingungen und eine angemessene sozial-kommunikative Umgebung.
Die Diskussion zur atypischen Sprachentwicklung veranschaulicht, dass diese Ein-
schränkungen ziemlich dynamisch und flexibel sein können. Obwohl unser Gehirn,
durch die BDS vorprogrammiert, nach typischen Mustern funktional verschaltet
wird, liegen ausreichende Belege dafür vor, dass die neuralen Strukturen, auf denen
die Sprachverarbeitung beruht, nicht sprachspezifisch sind. Mit anderen Worten:
Andere corticale Regionen können die Funktionen der Regionen übernehmen, die
typischerweise durch die „biologische Disposition für Sprache“ vorprogrammiert
werden. Diese Flexibilität ist vor allem während der Entwicklungsphase angezeigt.
Das, was offenbar sprachspezifisch ist, bezieht sich auf bestimmte linguistische
Funktionen, die vorzugsweise von bestimmten corticalen Regionen berechnet
werden. Dies ist ein genetisch bestimmter Prozess, der während der Ontogenese
in einem gewissen Maß die phylogenetischen Prozesse unserer linguistischen und
kommunikativen Fähigkeiten repliziert.

Literatur
Literatur
Binder, J. R., Frost, J. A., Hammeke, T. A., Cox, R. W., Rao, S. M., & Prieto, T. (1997). Human
brain language areas identified by functional magnetic resonance imaging. The Journal
of Neuroscience, 17(1), 353–62.
Carroll, S. B. (2003). Genetics and the making of Homo sapiens. Nature, 422(6934), 849–57.
Craik, F., & Bialystok, E. (2006). Cognition through the lifespan: mechanisms of change.
Trends in Cognitive Sciences, 10(3), 131–8.
Dekaban, A. S. (1978). Changes in brain weights during the span of human life: relation of
brain weights to body heights and body weights. Annuals of Neurology, 4(4), 345–56.
Fine, C. (2010). Delusions of gender: The real science behind sex differences. London: Icon Books.
Literatur 107

Foundas, A. L., Leonard, C. M., Gilmore, R., Fennell, E., & Heilman, K. M. (1994). Planum
temporale asymmetry and language dominance. Neuropsychologia, 32(10), 1225–1231.
Friederici, A. D., Meyer, M., & von Cramon, D. Y. (2000). Auditory language comprehension:
an event-related fMRI study on the processing of syntactic and lexical information. Brain
and Language, 74(2), 289–300.
Friederici, A. D., & Gierhan, S. M. E. (2013). The language network. Current Opinion in
Neurobiology, 23(2), 250–254.
Griffiths, T. D., & Warren, J. D. (2002). The planum temporale as a computational hub. Trends
in Neurosciences, 25(7), 348–53.
Hickok, G., & Poeppel, D. (2004). Dorsal and ventral streams: a framework for understanding
aspects of the functional anatomy of language. Cognition, 92(1–2), 67–99.
Hickok, G., & Poeppel, D. (2007). The cortical organization of speech processing. Nature
Reviews. Neuroscience, 8(5), 393–402.
Hickok, G. (2012a). Computational neuroanatomy of speech production. Nature Reviews.
Neuroscience, 13(2), 135–45.
Hickok, G. (2012b). The cortical organization of speech processing: Feedback control and
predictive coding the context of a dual-stream model. Journal of Communication Dis-
orders, 45(6), 393–402.
Hillert, D., & Buračas, G. (2009). The neural substrates of spoken idiom comprehension.
Language and Cognitive Processes, 24(9), 1370–91.
Jordan-Young, R. M. (2010). Brain Storm: The flaws in the science of sex differences. Boston:
Harvard University Press.
Poeppel, D. (2001). Pure word deafness and the bilateral processing of the speech code.
Cognitive Science, 21(5), 679–93.
Price, C. J. (2010). The anatomy of language: a review of 100 fMRI studies published in 2009.
Annals of the New York Academy of Sciences, 1191(1), 62–88.
Rogalsky, C., Matchin, W., & Hickok, G. (2008). Broca’s area, sentence comprehension, and
working memory: an fMRI Study. Frontiers in human neuroscience, 2(14).
Rolheiser, T., Stamatakis, E. A., & Tyler, L. K. (2011). Dynamic processing in the human
language system: synergy between the arcuate fascicle and extreme capsule. The Journal
of Neuroscience, 31(47), 16949–57.
Seeman, P. (1999). Brain development, X pruning during development. American Journal
of Psychiatry, 156, 168.
Thiebaut de Schotten, M., Dell’Acqua, F., Valabregue, R., & Catani, M. (2012). Monkey to
human comparative anatomy of the frontal lobe association tracts. Cortex, 48(1), 82–96.
Thompson-Schill, S. L., D’Esposito, M., Aguirre, G. K., & Farah, M. J. (1997). Role of left
inferior prefrontal cortex in retrieval of semantic knowledge: a reevaluation. Proceedings
of the National Academy of Sciences of the United States of America, 94(26), 14792–97.
Turken, A. U., & Dronkers, N. F. (2011). The neural architecture of the language compre-
hension network: converging evidence from lesion and connectivity analyses. Frontiers
in Systems Neuroscience, 5(1).
Vandenberghe, R., Nobre, A. C., & Price, C. J. (2002). The response of left temporal cortex
to sentences. Journal of Cognitive Neuroscience, 14(4), 550–560.
Vigneau, M., Beaucousin, V., Hervé, P. Y., Duffau, H., Crivello, F., Houdé, O., Mazoyer, B., &
Tzourio-Mazoyer, N. (2006). Meta-analyzing left hemisphere language areas: phonology,
semantics, and sentence processing. NeuroImage, 30(4), 1414–32.

107
Semantik und Syntax
6 Semantik und Syntax 6

Zusammenfassung

Verschiedene linguistische Beschreibungen und Simulationen von semantischen


und syntaktischen Strukturen werden besprochen. Hierbei werden etablierte
Programme wie natürliche/konzeptuelle Semantik, kognitive Grammatik,
generative Syntax, Dependenz-Grammatik und konnektionistische Modelle
berücksichtigt. Es wird argumentiert, dass die Unterscheidung zwischen se-
mantischen und konzeptuellen Repräsentationen ein nützlicher Ansatz für
die empirische Untersuchung der Bedeutungsverarbeitung ist. Bezüglich der
Simulation der Satzverarbeitung haben neuronale Netzwerkmodelle eine nicht
unwesentliche Vorhersagekraft. Mithilfe von Nachkonstruktionen („Reverse
Engineering“), mit denen virtuelle Hirnbibliotheken gebaut werden, können
neurobiologische Mechanismen besser verstanden werden.

Stichwörter

Dependenz-Grammatik, Generative Syntax, Kognitive Grammatik, Konzep-


tuelle Semantik, Konnektionismus, Natürliche Semantik, Neurale Netzwerke,
Reverse Engineering.

109
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_7
110 6 Semantik und Syntax

6.1 Satzstrukturen
6.1 Satzstrukturen
Die Satzbedeutung stellt die Schnittstelle für Syntax, Phonologie, Diskurs, konzep-
tuelle Repräsentationen bzw. Gedanken dar und ist daher auch die mentale Reprä-
sentation, die am häufigsten in den entsprechenden Fachbereichen wie Linguistik,
Philosophie, Psychologie und Neurowissenschaften diskutiert wird. Es gibt, so
nehmen wir hier an, immer noch Irritationen oder Kontroversen zu dem, was unter
der Bedeutung von Bedeutung zu verstehen ist. Es ist ein biologisches Axiom, dass
die Aufgabe eines neuronalen Netzwerks, das als kognitives System fungiert, darin
besteht, irgendwie die „externe Welt“ zu repräsentieren. Unsere Überzeugungen oder
Gedanken über die Welt werden dadurch bestimmt, wie wir die Welt repräsentieren
können, und nicht dadurch, wie die Welt ist. Im Unterschied zum semantischen Code
natürlicher Sprachen, der aus Ambiguitäten besteht, wird angenommen, dass die
angeborene „Sprache der Gedanken“ (LOT, „language of thought“) oder „Mentalese“
keine Ambiguitäten beinhaltet (Fodor, 1975, 1981, 1987; Pinker, 1994). Dies steht im
Gegensatz zu der Annahme, dass eine Einzelsprache wie beispielsweise Schwedisch
LOT repräsentiert (Whorf, 1956). Die Debatte zum Verhältnis zwischen Sprache
und Gedanken (oder mentalen Repräsentationen) ist für das Verstehen, wie das
menschliche Sprachsystem funktioniert, von grundlegender Bedeutung und stellt
daher ein zentrales Thema dar. Im vorliegenden Kontext konzentrieren wir uns
auf die Bedeutungen, die in Sätzen natürlicher Sprachen codiert werden, unter der
Annahme, dass dies tatsächlich erfolgt, und diskutieren die Validität dieser Ansätze
im Zusammenhang mit den gegenwärtig bekannten neurobiologischen Ergebnissen.
Der Begriff „natürliche Semantik“ bezieht sich auf die Ebene mentaler Repräsenta-
tionen, die Bedeutungen auf syntaktische und/oder phonologische Repräsentationen
abbildet. Das Ziel vieler (natürlicher) kognitiv-semantischer sowie formal-semanti-
scher Ansätze besteht darin, kombinatorische Regeln zu finden, die für spezifische
semantische Einheiten zutreffen (z. B. Jackendoff, 1983; Pinker, 1989). Ein klassi-
scher Ansatz der natürlichen Semantik beschreibt die semantische Schnittstelle in
Form von V(erb)-Argumenten, die semantische oder thematische Rollen (θ-Rollen)
besitzen. Per definitionem weist das Verb jedem Argument eine spezifische θ-Rolle
zu (θ-Kriterium), obwohl es einige Ausnahmen gibt. Diese hängen von spezifischen
Strukturen, Modellen oder Theorien ab. Einige kanonische θ-Rollen sind Agens,
Patiens, Thema, Ziel, Empfänger, Erfahrender oder Instrument. Obwohl spontan
angenommen werden kann, dass die θ-Rolle „Agens“ auf das (grammatische) Sub-
jekt und „Patiens“ oder „Thema“ auf das (grammatische) Objekt abgebildet wird,
trifft dies oftmals nicht zu. Zum Beispiel in dem Satz „The window broke“ besitzt
das Subjekt „window“ die θ-Rolle „Patiens“ (betroffene Einheit), und in dem Satz
„Mike liked the picture“ verfügt das Subjekt „Mike“ über die θ-Rolle „Erfahrender“.
6.1 Satzstrukturen 111

Das Konzept der V-Argumentstrukturen wird in verschiedenen linguistischen


Paradigmen kontrovers diskutiert. Wir werden hier einige Implikationen, die mit
diesen verschiedenen Ansätzen verbunden sind, besprechen, aber die Hauptaufgabe
besteht darin, den allgemeinen theoretischen Ansatz einzuführen und die mit den
neuronalen Substraten assoziierten Berechnungen semantischer Strukturen dar-
zustellen. Linguistische Theorien variieren in der Frage, bis zu welchem Ausmaß
V-Argumentstrukturen verwendet werden, um lexikalisch-semantische und/oder
konzeptuelle Informationen auf syntaktische Strukturen abzubilden. Der Kern
traditioneller linguistischer Modelle stellt die syntaktische, semantische und kon-
zeptuelle Repräsentationsebene dar, aber die Beziehungen zwischen diesen Ebenen
variieren beträchtlich. Zum Beispiel nimmt ein bestimmter Linguistenkreis an,
dass das mentale oder semantische Lexikon in Form von Subkategorisierungen
festlegt, welche kategorialen Klassen ein Verb für eine einzelsprachliche Grammatik
vorsieht (z. B. Baker, 1979). Die folgenden Beispiele verdeutlichen, dass verschie-
dene Verb-Bedeutungen mit den gleichen oder mit unterschiedlichen „Frames“
vorkommen. Da die meisten Ansätze das grammatische Subjekt als ein externes
Argument verstehen, welches das Subjekt nicht kategorisiert, bleibt es bei den
folgenden englischen Beispielen unberücksichtigt. Es ist möglich zu sagen, dass
„X broke“ oder „X broke Y“; im ersten Satz wird keine NP (Nomenphrase) für ein
Objekt kategorisiert, aber im zweiten Satz erfolgt eine NP-Subkategorisierung für
das Objekt X. Die Frames für die Sätze „X hit the door“ und „X hit the freeway“
sind identisch, da jeweils eine Subkategorisierung der Objekt-NP erfolgt, aber es
werden verschiedene Bedeutungsarten ausgedrückt – eine wörtliche und eine
figurative Bedeutung. Entsprechend verhält es sich bei den Sätzen „X kicked the
door“ und „X kicked the bucket“: Während im ersten Beispiel eine Subkategorisie-
rung ausschließlich für eine Objekt-NP sinnvoll ist, tritt im zweiten Beispiel eine
Ambiguität auf, da beide Frames [_NP] und [_ ] möglich sind. Bei der idiomati-
schen Interpretation von „kick the bucket“ wird keine Objekt-NP kategorisiert,
vielmehr handelt es sich um einen anderen Verbeintrag. Das Verb „to give“ dient
einem weiteren Beispiel. Es subkategorisiert zwei Einheiten, die Kasus Akkusativ
und Dativ, und erlaubt zwei verschiedene Frames: „X gave Z to Y“ [_ NP PP] oder
„X gave Y Z“ [_ NP NP]. Im letzten Beispiel sind vier verschiedene Frames für das
Verb „love“ möglich: eine Objekt-NP im Fall von „X loves Y“ [_ NP], ein Nebensatz
(S’) mit einem Infinitiv(INF)-Verb (_ S’INF) „X loved to write“, ein S’ mit einem
Gerundium(ING)-Verb „X loved writing“ [_ S’ING] und zusätzlich ein ING-Verb
mit einer Objekt-NP „X loved him writing“ [_ NP S’ING]. Andere Ansätze postu-
lieren, dass diese Frames redundant sind, da die V-Argumentstruktur durch die
Bedeutung des Verbs hergeleitet werden kann (z. B. Pinker, 1989; Levin, 1993). Die
Konstruktionsgrammatik hebt demgegenüber hervor, dass die Bedeutung eines

111
112 6 Semantik und Syntax

Verbs nicht ausreicht, um die Satzbedeutung zu bestimmen (Fillmore et al., 1988;


Goldberg, 1995). In den von Goldberg erwähnten Beispielsätzen „They laughed the
poor guy out of the room“ oder „Frank sneezed the tissue of the table“ kodieren die
Verben „laugh“ und „sneeze“ per se die Bedeutung von „verursachte Bewegungen“
(Caused-Motions). Es wird in diesen Fällen angenommen, dass die Kernbedeutung
des Verbs mit der konstruktiven Argumentstruktur fusioniert, d. h. mit der Kons-
truktion „verursachte Bewegung“.
Wir vermuten hier, dass (natürliche) Semantik entsprechend wie Phonologie
oder Vision unabhängig von der syntaktischen Ebene ist (Jackendoff, 2007).
Interface-Regeln ermöglichen die Korrespondenz zwischen den verschiedenen
mentalen Repräsentationen. In dem kurzen Dialog „Let’s travel to Hawaii!“ (A)
„How about North Shores?“ (B) stimmt Sprecher B aufgrund semantisch-prag-
matischer Gesichtspunkt implizit mit Sprecher A überein, indem sie/er einen
genaueren Ort vorschlägt. In dem Dialog „Angélique travelled to Hawaii“ (A) „Yes,
to Hilo!“ (B) sind beide Sätze durch eine Ellipse miteinander verbunden, d. h., die
zugrunde liegende syntaktische Struktur (auch als Tiefenstruktur oder logische
Form bezeichnet) der Aussage von Sprecher B „Angélique travelled to Waikiki“
wird gelöscht und als implizit markiert (Merchant, 2001). Diese in Sätzen kodier-
ten konzeptuellen Informationen haben ihre eigene Syntax und bestehen ohne
linguistische Repräsentationen, entsprechend wie bei anderen Primaten, die in der
Lage sind, Intentionen auszudrücken, ohne eine Lautsprache zu verwenden. Die
Rahmenbedingungen eines Modells der konzeptuellen Semantik werden wie folgt
angenommen (Jackendoff, 2007; siehe auch Jackendoff und Pinker, 2005): (a) Sätze
werden durch die Integration lexikalischer Einheiten semantisch komponiert; (b)
die Satzsemantik dient als Grundlage für Inferenzen; (c) lexikalische Bedeutungen
müssen konzeptuellen Kategorisierungen entsprechen; (d) lexikalische Bedeutungen
müssen auf der Grundlage von Erfahrung mit Sprache und der Welt lernbar sein;
(e) Satzbedeutungen, die physische Objekte oder Aktionen ausdrücken, müssen
eine Korrespondenz zu den mentalen Repräsentationen der Wahrnehmung oder
Aktionen aufweisen; (f) prä-linguistische Gedanken oder mentale Strukturen, die
der Satzbedeutung zugrunde liegen, können ansatzweise bei den Tieren beobachtet
werden und spielen eine Rolle beim Verstehen der Welt.
Das Paradigma der konzeptuellen Semantik lässt sich mit dem der kognitiven
Grammatik vergleichen, da die kognitiv-psychologische Natur der Bedeutung Ge-
genstand der Untersuchung ist (z. B. Langacker, 1987; Fauconnier, 1985; Fauconnier
und Turner, 2002). Während die konzeptuelle Semantik sich von der linguistischen
Semantik abgrenzt und die syntaktische Ebene berücksichtigt, versucht der Ansatz
der kognitiven Grammatik alle syntaktischen Strukturen auf der Bedeutungsebene
zu beschreiben. Die formale Semantik beschreibt wiederum Bedeutungen gemäß
6.1 Satzstrukturen 113

formal-logischer Axiome, wobei nicht direkt intendiert wird, die in natürlichen


Sprachen codierten semantischen Strukturen zu modellieren (Hillert, 1987, 1992).
Dies impliziert, dass die formale Semantik im Allgemeinen zur Erfassung der men-
talen Realität natürlich-semantischer Strukturen nicht geeignet ist. Damit sei nicht
behauptet, dass einige formale Inferenzen bezüglich der Beschreibung bestimmter
semantischer Aspekte natürlicher Sprachen relevant sein können (einschließlich
negativer Analysen). In diesem Sinn wurde festgestellt, dass einige Berechnungs-
ansätze wie die „Latent Semantic Analysis“ (Landauer, 2007) für die Wahrschein-
lichkeitsbestimmung des gleichzeitigen Auftretens von Wörtern innerhalb eines
Textes von großem Wert sein können. Allerdings werden keine Hypothesen über
die zugrunde liegenden Prozesse abgeleitet, die für die Generierung semantischer
Strukturen verantwortlich sind. Demgegenüber postuliert Wierzbickas (1996)
kompositioneller Ansatz universelle semantische Primitive wie mentale Prädikate
(denken, wissen, wollen) oder (Pro-)Nomen (ich, du/Sie, Person), die angeborene
Strukturen für den Erwerb lexikalischer Bedeutungen widerspiegeln würden. Ein
Regelsatz kombiniere diese Prime-Konzepte, die eine Prime-Sprache der natürlichen
Semantik (Meta-Sprache) abbilden würde.

Abb. 6.1
Semantik und
korrespondierende
Repräsentationen

Es bleibt allerdings unklar, wie diese Meta-Sprache im Detail auf die semantisch-syn-
taktischen Satzstrukturen abgebildet werden kann. Andere vergleichbare Ansätze,
die im Bereich der Psychologie entwickelt wurden, tendieren dazu, die Strukturen
lexikalischer Konzepte als Bestandteil von Wissensrepräsentationen (einschließlich
Episoden, Schemas, Skripts, Merkmalen, Prototypen und Basiskonzepten) zu be-
trachten. Ein semantischer Ansatz sollte jedoch nicht nur die Schnittstelle zwischen
Syntax und konzeptuellen Repräsentationen berücksichtigen, sondern auch die
Schnittstelle(n) zwischen dem konzeptuellen System und der Welt und möglicherweise
eine direkte Korrespondenz zwischen sensorischen Daten und dem Sprachsystem.

113
114 6 Semantik und Syntax

Auf der syntaktischen Repräsentationsebene werden Sätze (und möglicherweise


Dependenzen zwischen verschiedenen Sätzen) gemäß allgemeiner Prinzipien in
verschiedene Phrasen zerlegt, einschließlich intermediärer Phrasen. Diese Prin-
zipien implizieren auch syntaktische Rekursionen und können daher in Form von
Baumstrukturen abgebildet werden. Beispielsweise informiert die Regel S → NP VP,
dass ein Satz durch eine NP gefolgt von einer VP generiert werden kann. Die von
Chomsky (1970) und Jackendoff (1977) entwickelte X-Bar(X’) Theorie wird in vielen
grammatischen Modellen verwendet und beschreibt syntaktische Ähnlichkeiten
unter allen natürlichen Sprachen. X ist ein Platzhalter für syntaktische Kategorien
und hängt von der Ebene der syntaktischen Hierarchie ab, X0 bezieht sich auf den
Kopf (z. B. N, Nomen), auf intermediäre Ebenen (X’) oder auf eine Phrase (X’’,
X-Bar-Bar). Alle Phrasen werden von den lexikalischen Kategorien auf die gleiche
Weise projiziert. Die Phrasen werden üblicherweise als Baumstrukturen abgebildet
und die Verzweigung ist stets binär. Betrachten wir eine einfache Struktur etwas
genauer: Die maximale Projektion X’’ verzweigt in die intermediäre Projektion X’
(Tochter) und in den Spezifizierer (Spec), und X’ verzweigt in X0 und in ein Kom-
plement (Comp). Multiple Schwestern können von X’ erzeugt werden (Rekursion)
wie zum Beispiel Adjunkte.
Die Struktur (6-I links) kann die Phrasen wie „Autor“ (Spec X) oder „schreibt
immer Bücher (Spec X Comp) erzeugen und die Struktur (6-I rechts) kann Phrasen
wie „schreibt immer Bücher in der Blockhütte“ generieren. Auf der Grundlage des

6-I
6.1 Satzstrukturen 115

X’-Schemas wurden weitere Theorien entwickelt (z. B. „Government Binding“


und „Minimalism“), um relativ komplexe Satzglieder, referentielle Ausdrücke,
Tempus und Kasus zu erfassen (Chomsky, 1981, 1995, 2005). Dieses Schema wird
auf beliebige Wortstellungen natürlicher Sprachen angewendet. Zum Beispiel unter
Berücksichtigung von X’’ → Spec X’ bezieht sich X’ → X0 Comp bezieht sich auf
eine SVO (Subjekt-Verb-Objekt)-Sprache (z. B. Englisch, Portugiesisch, Russisch,
teilweise Chinesisch oder Deutsch) und X’ → Comp X0 auf eine SOV-Sprache (z. B.
Japanisch, Hindi, Urdu, teilweise Deutsch); im Fall von X’’ → X’ Spec bezieht sich
dagegen X’ → X0 Comp auf eine VOS-Sprache (die meisten austronesischen Sprachen
wie Tagalog oder Fidschianisch) und X’ → Comp X0 erzeugt eine OVS-Wortstellung
(in den meisten Fällen aufgrund der Kasusmarkierungen im Deutschen, Finnischen,
Rumänischen, Ungarischen).38 Die Abbildung von Tiefen- auf Oberflächenstrukturen
(T- und O-Strukturen) wird durch co-indizierte Spuren (t) angezeigt, die darauf
hinweisen, dass eine lexikalische Kategorie ihre kanonische Satzposition verlassen
hat. Unten wird die O-Struktur der Frage „Which book has the author written?“
verdeutlicht, wobei C’’ eine Komplementphrase ist und I’’ eine Flektionsphrase.39

6-II

38 Die Wortstellungen VSO und OSV kommen auch vor, wobei OSV (z. B. Urubú in Brasilien)
sehr selten ist (siehe Chung, 1990; McCloskey, 1991) hinsichtlich der Diskussion dieser
Strukturen im Zusammenhang mit dem X’-Schema.
39 Zwecks Vereinfachung werden grammatische Merkmake wie Numerus, Tempus oder
NP-Typ bei der beispielhaften Darstellung nicht berücksichtigt.
115
116 6 Semantik und Syntax

Die Government-Binding-Theorie sieht nicht vor, dass θ-Rollen, die zum Subka-
tegorisierungsrahmen gehören, die ursprüngliche T-Strukturposition verlassen
können. Dieses Prinzip kann am Beispiel mit Passiv-Sätzen verdeutlicht werden. In
dem Satz „Dita was invited to the opera by Angélique“ beinhaltet der lexikalische
Verb-Eintrag das thematische Raster <Thema, Ziel, Agens> und den syntaktischen
Subkategorisierungsrahmen [_NP (PP[to]) (PP[by])]. Im Fall von Passiv-Sätzen impli-
ziert die Übertragung von T- auf O-Strukturen eine Bewegung des Objekts (Dita)
in die Subjekt-Position. Da das Subjekt keine θ-Rolle in der T-Struktur hat, geht
keine Information verloren. Die jeweilige T- und O-Struktur des oben genannten
Passivsatzes wird mittels der Klammernotation in (6-III a. und b.) angezeigt, und
(6-IV) verdeutlicht das Baumdiagramm der O-Struktur. Die Argumente sind al-
phabetisch gekennzeichnet, wobei die Töchter von P’’ und N’’ nicht ausformuliert
sind (A, Angélique; B, Dita; C, the opera):

6-III
a. [I’’[I’[Io[+past][V’’[V’[Vo was][V’’[+past][V’[Vo [+pass] invited][N’’ B][P’’[to] to C][[P’’] by A]]]]]]]
b. [I’’[N’’ Bk][I’[Io wasi][V’’[V’ [Vo ti][V’’[+pass][V’[Vo [+pass] invited][NP tk][P’’[to] to C][[P’’] by A]]]]]]

Weiterer syntaktischer Regeln werden in der Government-Binding-Theorie for-


muliert. Hierzu zählt die „Bindungstheorie“, die für referentielle Ausdrücke ver-
antwortlich ist, oder die „Kasustheorie“, die abstrakte Kasus für alle N’’ vorsieht.
Hier haben wir die Analyse syntaktischer Strukturen im Rahmen der generativen
Grammatik nur angedeutet, um einen Eindruck über die zugrunde liegende Idee
des mentalistischen Ansatzes zu vermitteln. Die Analyse der intrinsischen Ope-
rationen auf der semantischen und syntaktischen Ebene und deren Schnittstellen
stellt eine komplexe Aufgabe dar. Alternative Syntaxtheorien wie LFG („Lexical
Functional Grammar“), HPSG („Head-Driven Phrase Structure Grammar“) oder DG
(„Dependency Grammar“) projizieren grammatische Relationen auf der Grundlage
lexikalischer Regeln (z. B. Mel‫މ‬þuk, 1987; Pollard und Sag, 1994; Heringer, 1996).
6.1 Satzstrukturen 117

6-IV

Die Idee eine Dependenzgrammatik (DG), die auf den strukturellen Linguisten
Tesnière (1959) zurückgeht, besteht darin, dass die syntaktische Struktur eines
Satzes aus binären asymmetrischen Relationen besteht. Dependenzbeziehungen
können mit dem X’-Schema verglichen werden, aber sie finden nur auf einer Ebene
statt. Mit anderen Worten: Die Dependenzen eines Wortes sind die sogenannten
„Köpfe“ seiner Geschwister, und Dependenzbeziehungen zwischen zwei Wörtern
werden unifiziert. Betrachten wir die Dependenzanalyse des oben erwähnten
Passivsatzes (6-V a.). Die Dependenzbeziehungen werden in (6-V b.) anhand der
Klammernotation und in (6-V c.) mittels der Baumstruktur dargestellt. Im Fokus
der Dependenzgrammatik steht das Verb. Das Verb wird daher auch als „Wurzel“
verstanden und wird nicht gesondert hervorgehoben. [Abk: „nsubjpass“ (Nomen
Subject Passiv), „auxpass“ (auxiliares Passiv), „prep“ (Präposition), „pobj“ (präpo-
sitionales Objekt), „det“ (Determinativ)]

6-V a. Dita was invited to the opera by Angélique.


b. nsubjpass (invited, Dita); auxpass (invited, was); prep_to (invited, to);
det (opera, the); pobj (to, opera); prep_by (invited, by); pobj (by,
Angélique)

Der Passivsatz 6-Va. besteht aus 8 Wörtern und 7 Wortpaar-Dependenzen, wie


(6-Vb., 6-VI) verdeutlichen. Die interne linguistische Diskussion debattiert die
Vorzüge einer spezifischen Syntaxtheorie bezüglich bestimmter sprachübergrei-

117
118 6 Semantik und Syntax

fender Strukturen, aber alle Ansätze versuchen im Wesentlichen die gleichen


linguistischen Phänomene zu erfassen.

6-VI

Oftmals handelt es sich bei den Kontroversen um verschiedene Philosophien und


um die Frage, bis zu welchem Ausmaß semantische oder sogar konzeptuelle Infor-
mationen berücksichtigt werden sollen und ob die Theorie ausreichend elaboriert
ist, um testbare Hypothesen ableiten zu können. Es kommt nicht selten vor, dass
Satzverarbeitungsdaten mit verschiedenen kognitiv-linguistischen Theorien oder
Modellen vereinbar sind. Linguistische Theorien, die verschiedene Repräsentations-
ebenen beschreiben, leisten aus methodologischer Sicht zweifellos einen wertvollen
Beitrag. Im Endeffekt besteht das Ziel darin, eine Sprachtheorie zu entwickeln,
die versucht, kognitive und neuronale Strukturen aufeinander abzubilden oder
miteinander zu vereinigen. Ein solcher Ansatz stellt eine domänübergreifende
Syntaxtheorie dar, die beispielsweise versucht, einheitliche syntaktische Strukturen
und Regeln von Sprache und Musik zu postulieren (z. B. Lerdahl und Jackendoff,
1983). Um die universellen Prinzipien der menschlichen Kognition zu finden,
dürfte es von Bedeutung sein, dass sich der Untersuchungsgegenstand nicht allein
auf das Sprachsystem bezieht. Eine globale Theorie der menschlichen Kognition ist
erforderlich, die ausreichend allgemein ist, um universelle Parameter verschiedener
Domänen zu beschreiben (vielleicht einschließlich nicht-menschlicher Kognition),
die jedoch spezifisch genug ist, um domänspezifischen Parametern gerecht werden
zu können.
6.2 Neuronale Netze 119

6.2 Neuronale Netze


6.2 Neuronale Netze
Die zentralen Komponenten eines neuronalen Netzes (bzw. Netzwerkes), mit denen
neurobiologische Prozesse der Hirnfunktionen simuliert werden sollen, bestehen
aus chemischen und/oder funktional assoziierten Neuronen. Jedes einzelne Neuron
besitzt synaptische Axon-zu-Dendriten-Verbindungen zu vielen anderen Neuro-
nen, die elektrische und neurochemische Signalbildungen involvieren. Kognitive
Modelle oder AI (künstliche Intelligenz)-Theorien werden oftmals in Anlehnung
an neuronale Netzwerkmodelle kreiert, um das biologisch-kognitive Verhalten zu
simulieren oder um Software-Systeme zu entwickeln. Während der direkte Nutzen
der AI-Ansätze für die Simulation von Hirnfunktionen debattierbar ist, besteht
das Anliegen der kognitiven oder funktionalen Netzwerkmodelle darin, diese
kognitiven Funktionen gemäß der Struktur und Funktion des neuronalen Netzes
zu simulieren. Neuronale Netze werden beispielsweise in konnektionistischen
Ansätzen verwendet. Dieser Ansatz ist unter dem Gesichtspunkt attraktiv, dass
die Notationen und Berechnungen denjenigen entsprechen, die in neurobiologisch
motivierten Netzwerkmodellen verwendet werden. Ein anderer wichtiger Nutzen
besteht darin, dass konnektionistische Modelle kognitives Verhalten domän-
übergeifend simulieren.
Der „Parallel Distributed Processing“ (PDP)-Ansatz basiert entsprechend auf
den folgenden Prinzipien (Rumelhart, McClelland und the PDP-Forschungsgruppe,
1986): (a) Mentale Repräsentationen sind parallele oder verteilte Aktivitätsmuster
numerischer Verbindungen; (b) der Erwerb mentaler Repräsentation beruht auf
der Interaktion angeborener Erwerbsregeln und architektonischer Eigenschaften;
(c) die Verbindungsstärken werden durch Erfahrungen modifiziert. Dieser Ansatz
stellt einer der ersten Versuche dar, kognitives Verhalten unabhängig von Regeln
und symbolischen Repräsentationen zu erfassen. Hierbei wurde ein kontrollierter
bzw. beaufsichtigter Lernalgorithmus mit Fehler-Rückpropagierung (Backprop)
innerhalb eines vielschichtigen Perzeptrons ohne Loops angewendet. Es handelt
sich um ein neuronales Feedforward-Netzwerk, d. h., die Daten fließen nur in eine
Richtung vom Input zum Output.
Die Knoten des künstlichen neuronalen Netzes spiegeln in einem gewissen Maß
Neuronen wider, da die neuronalen Netzwerke durch biologische Strukturgegeben-
heiten inspiriert wurden. Der Output spiegelt alle Knotenaktivitäten wider bzw. die
Werte, und diese Gewichtswerte bestimmen die Beziehungen zwischen Input- und
Output-Daten. Gewichtswerte sind das Ergebnis einer Trainingsphase, bei der Daten
iterativ durch das Netz fließen. Betrachten wir die biologische Neuronen-Analogie
etwas genauer (Abb. 6.2).

119
120 6 Semantik und Syntax

Abb. 6.2
Vereinfachtes Schema
eines biologischen
Neurons

Abb. 6.3
Neuronale Netzwerk-
Architektur: (a) viel-
schichtiges Perzept-
ron; (b) Jordan-Netz;
(c) Elman-Netz (IU,
Input-Einheit; HU,
versteckte Einheit; OU,
Output-Einheit; CU,
kontextuelle Einheit; SU,
Status-Einheit (U, „unit“;
H, „hidden“; S, „state“;
C, context; adaptiert und
modifiziert, Tiira, 1999;
© Elsevier Limited)
6.2 Neuronale Netze 121

Die Dendriten sind Input-Knoten, die Informationen von Neuronen der vor-
ausgehenden Schicht empfangen. Sie übertragen Daten an den Zellkörper, an
das Soma, und anschließend werden die Daten an das Axon gesendet, das diese
Informationen über Synapsen wiederum an andere Neuronen weitereitet. An den
Synapsen sind die Axon-Endknöpfchen (Terminale) mit den Dendriten anderer
Neuronen der nächsten Ebene verbunden. Ein künstliches Neuron (Knoten)
besitzt wie ein biologisches Neuron multiple Inputs. Soma und Axon sind durch
Summierung und Übertragungsfunktion ersetzt und der Output dient als Input
für multiple Input-Knoten. Wenn beispielsweise das Neuron mit Input-Daten
gefüttert wird, berechnet die Summierungsfunktion den Nettowert, indem der
Input-Wert (xi) mit assoziierten konnektiven Gewichten (wi) multipliziert wird:
Nettowert =  Die Übertragungsfunktion40 verwendet den Nettowert,
um einen Output zu erzeugen, der dann an die Input-Knoten der nächsten Ebene
„propagiert“ wird. In einem Backprop-Netzwerk wird die Fehlerfunktion (Delta)
verwendet, um den Unterschied zwischen dem angestrebten und dem aktuellen
Output zu berechnen. Gewichte und Verzerrungen werden dann korrigiert und
dieser iterative Prozess führt zu einem verbesserten Netzwerk-Output, so dass
angestrebter und aktueller Output in den meisten Fällen übereinstimmen. Im Un-
terschied zu einer Feedforward-Architektur besteht das „Elman-Netz“ aus einem
vielschichtigen Lernalgorithmus (Perzeptron) mit einer zusätzlichen Input-Ebene
– die kontextuelle Ebene (siehe Abb. 6.3 a-c; Elman, 1990; siehe also Jordan, 1986;
Hertz und Palmer und Krogh, 1991).
Diese kontextuelle Schicht erhält als Input eine Kopie des internen Status (ver-
steckte Ebenen-Aktivierung) am vorausgehenden Zeitschritt. Die internen Status
melden sich bei jedem Zeitschritt zurück, um einen neuen Input sowie Informati-
onen über den vorausgehenden Status anzubieten. Im Prinzip kann diese rekursive
Funktion oder Feedback-Verbindung ein Schema ohne zeitliche Begrenzung auf-
rechterhalten.41 Die Rekursion bietet dynamische Eigenschaften und ermöglicht, dass
das Netz sequentielle Input-Daten verarbeitet. Die konnektiven Gewichte werden
am Anfang der Trainingsphase nach dem Zufallsprinzip zugewiesen und das Netz

40 Eine Übertragungsfunktion kann beispielsweise sigmoidal oder mit fester Länge sein.
Die sigmoidale Funktion nimmt einen Nettowert an und generiert einen Output zwi-
schen 0 und 1, und eine Funktion mit fester Länge legt zum Beispiel einen bestimmten
Bereich wie < 0.5 = 0; ≥ 0.5 = 1 fest.
41 Es sollte hervorgehoben werden, dass konnektionistische Modelle verteilte (nicht-mo-
dulare), aber auch sequentielle (modulare) Berechnungen berücksichtigen, bei denen
verschiedene Datentypen in verschiedenen Einheitsgruppen repräsentiert werden, die
nur eine direkte Interaktion von spezifischen Datensätzen wie bei einem einfachen
rekursiven Netz erlauben.
121
122 6 Semantik und Syntax

muss nach und nach herausfinden, wie die Struktur intern codiert werden soll. Das
Netz verwendet hierbei keine linguistischen Kategorien, Regeln oder Prinzipien.
Elman (1991, 1993) trainierte dieses Netz mit relativ komplexen Sätzen, d. h., diese
bestanden aus verschiedenen Relativsätzen und wiesen Verben mit verschiedenen
Argumentstrukturen auf. Während der Trainingsphase erhielt jedes Wort einen
Vektor mit Nullen (0s), bei dem eine einzelner Bit nach Zufall auf 1 eingestellt
wurde. Im Allgemeinen war das Netz nicht erfolgreich, obwohl Sätze wie „The
boy who the girl *chase see the dog“ vorausgesagt wurden. Bei einer schrittweisen
Trainingsphase mit einem kleineren Datensatz erwies sich der Output als relativ
erfolgreich, weil auch längere Dependenzen berechnet wurden. Neuronale Netze
können daher die Satzverarbeitung simulieren, da sie durch statistische Kookkur-
renz lernen. Können wir daher sagen, dass rekursive Netze linguistische Regeln
entdecken? Ja, wir können dies sagen, da diese Strukturen oder Regularien als
Regeln verstanden werden. Jedesmal, wenn das Netz einen neuen Input erhält,
werden die Hypothesen der Regel überprüft und aktualisiert – es handelt sich um
einen dynamischen Lernprozess. Können wir jedoch sagen, dass dieser schrittweise
Ansatz den kindlichen Spracherwerb simuliert? Sicherlich nicht, wie auch Elman
(1993) hervorhebt, da das Kind unmittelbar mit den verschiedenartigsten Sätzen
(Sprache der Erwachsenen) konfrontiert wird, obwohl Erwachsene ihren Konver-
sationsstil bis zu einem bestimmten Maß auf die Sprache des Kindes einstellen.
Der Stimulus-Input ist konstant umfassend und verändert sich nicht. Aber was
verändert sich während des Erwerbsprozesses im neuronalen Netz des Kindes?
Der Lernprozess, der die schrittweise Implementierung von einfachen zu kom-
plexen Sätzen beinhaltet, spiegelt den biologischen Satzerwerbsprozess beim Kind
wider. Neuronale Netzwerkansätze versuchen den kindlichen Erwerbsprozess zu
simulieren und sollten den externen Input konstant halten. Es müssten allerdings
versteckte Berechnungen implementiert werden, die sich kontinuierlich an komple-
xere Satzstrukturen anpassen. Neuronale Netzwerkansätze der Sprachverarbeitung
beim Kind und Erwachsenen sind sehr vielversprechend, um die intrinsischen
Berechnungen, auf die anderweitig kein Zugriff genommen werden kann, zu simu-
lieren – insbesondere wenn zudem elektrophysiologische und neuroanatomische
Faktoren berücksichtigt werden. Die meisten konnektionistischen Ansätze bestehen
nicht darauf, der Neurophysiologie zu entsprechen, um die Sprachverarbeitung
gemäß echtzeitlicher Hirnaktivitäten zu simulieren. Wie wir unten sehen werden,
berücksichtigen allerdings einige Ansätze neurobiologische Eigenschaften, um der
natürlichen Sprachverarbeitung so gut wie möglich zu entsprechen.
Eine Sprachtheorie, die Aussagen über die biologischen Eigenschaften des mensch-
lichen Gehirns trifft, sollte versuchen, die Verarbeitungsprozesse des Gehirns zu
simulieren. Ein Ansatz besteht darin, linguistisches oder kognitives Verhalten so gut
6.2 Neuronale Netze 123

wie möglich auf neurophysiologische Komponenten und Operationen abzubilden.


Betrachten wir diesen Ansatz in einem Überblick: Die Basisstruktur des menschli-
chen Gehirns besteht aus einem Neuronennetz, wobei die Neuronen konstant mit
einer niedrigen Frequenzrate feuern. Andere Zellen wie die Glia-Zellen scheinen
eine bestimmte Rolle bei der Konzeptbildung zu spielen. Die meisten corticalen
und einige subcorticale Regionen bestehen aus Zellgruppierungen (ZG), auch als
neuronale Gruppierungen bezeichnet. Obwohl es keinen Konsensus hinsichtlich
der Definition von ZG gibt, besteht kein Zweifel, dass diese eine wichtige Rolle
im Bereich der kognitiven Neurophysiologie spielen. Im Sinne von Hebb (1949)
stellen ZG neuronale Repräsentationen von Konzepten dar. Das Verstehen eines
Wortes wie zum Beispiel „Apfel“ impliziert, dass eine ausreichende Anzahl an
Neuronen feuert, so dass schließlich eine organisierte ZG, eine Neuronenkaskade,
feuern kann. Die ZG des Wortes „Apfel“ beinhaltet keine Knoten, jedoch ein as-
soziatives Netzwerk. Die ZG überlagern sich, und zwar hinsichtlich gemeinsamer
lexikalischer Bedeutungen (z. B. „Apfel – Orange“). Dieses persistente Feuern ist
mit den Arbeitsspeicherfunktionen (bzw. dem Kurzzeitgedächtnis) verbunden.
Die synaptische Stärke der Neuronenverbindungen wird durch die Anzahl der
Stimulus-Iterationen bestimmt, was zur Bildung von Langzeitgedächtnisinhal-
ten führt (Hebb’sche Lernregel). Es wird geschätzt, dass der ZG-Umfang 103 bis
107 Neuronen beträgt, wobei das gesamte menschliche Gehirn aus ungefähr 1011
Neuronen besteht (Smith, 2010). Das folgende Prinzip trifft zu: Ein relativ kleiner
ZG-Satz codiert ein einzelnes Konzept, wobei ein einzelnes Neuron verschiedenen
ZG angehören kann. Neuronen einer ZG haben selbst-peristierende Aktivitäten,
was auch als Reverbration bezeichnet wird. Es handelt sich bei einer gelernten ZG
um einen bestimmten Neuronensatz, der gelernt wurde.42
Nur wenige Ansätze diskutieren die Idee, die Satzverarbeitung im Rahmen
einer ZG zu analysieren (z. B. Pulvermüller, 1999, 2002; aber siehe Bierwisch,
1999). Die allgemeine Idee besteht darin, dass grammatisch korrekte Strukturen
seitens der Netzwerke erkannt werden, wenn die Sequenz der neuronalen Elemente
mit dem Input übereinstimmt. Das entsprechende Sequenz-Netzwerk müsste die
syntaktischen Kategorien der Wörter erkennen und eine Beziehung zwischen den
Wörtern eines Satzes etablieren. Ein Sequenz-Netzwerk würde beispielsweise eine
Beziehung zwischen einem Nomen und einem Artikel herstellen und ein anderes
Netzwerk würde eine Beziehung zwischen dem Nomen und dem Verb etablieren.
Die Philosophie eines solchen Ansatzes besteht darin, die Sprachverarbeitung als
einen neuronalen Prozess zu verstehen. Viele linguistischen Phänomene, insbe-

42 Zur Entwicklung einer ZG gehören Ableben sowie Wachstum auf der neuronalen bzw.
synaptischen Ebene.
123
124 6 Semantik und Syntax

sondere morphologische und syntaktische Strukturen, können allerdings nicht


mittels eines assoziativen Netzwerks per se im Sinne eines (erweiterten) Hebb’schen
Modells simuliert werden. Genetische Prinzipien, die spezifisch für eine bestimmte
Spezies zutreffen, etablieren neuronale Verschaltungen während der kognitiven
Entwicklung, ein Prozess, der auf anderen Prinzipien aufbaut als assoziatives
Lernen an sich. Unabhängig von der Frage, welches neuronale Modell am geeig-
netsten erscheint, Sprache zu simulieren, sollte zum gegenwärtigen Zeitpunkt der
Versuch, kognitive Funktionen auf neurobiologische Strukturen abzubilden, große
Unterstützung erhalten.
Ein anderer Ansatz besteht darin, die neuronalen Grundlagen der Kognition
durch Nachkonstruktionen elektronisch zu simulieren (Reverse Engineering). Das
finale Ziel des sogenannten „Blue-Brain-Projekts“ besteht darin, ein synthetisches
Hirn des Menschen zu bauen, das auch die molekulare Ebene berücksichtigt. Ein-
zelne Mikroschaltkreise verschiedener Hirnregionen könnten simuliert werden,
um eine dynamische virtuelle Hirnbibliothek für verschiedene Spezies zu entwi-
ckeln (z. B. Markram, 2006). Inwieweit diese Software-Modelle in der Lage sind,
komplexe lokale und globale kognitive Prozesse auf der neurochemischen Ebene
zu simulieren, bleibt offen. Ein Versuch ist es wert.

Literatur
Literatur
Baker, J. (1979). Trainable Grammars for Speech Recognition. In D. H. Klatt & J. J. Wolf
(eds.), Speech Communication Papers for the 97th Meeting of lhe Acoustic Society of
America, pp. 547–50.
Bierwisch, M. (1999). Words in the brain are not just labelled concepts. Behavioral and Brain
Sciences, 22(2), 280–82.
Chomsky, N. (1970). Remarks on nominalization. In R. Jacobs & P. Rosenbaum (eds.),
Readings in English transformational grammar. Waltham, MA: Ginn and Company.
Chomsky, N. (1981). Lectures on government and binding. Dordrecht, Holland: Foris Pu-
blications.
Chomsky, N. (1995). The minimalist program. Cambridge, MA: MIT Press.
Chomsky, N. (2005). Universals of human nature. Psychotherapy and Psychosomatics, 74(5),
263–8.
Chung, S. (1990). VP’s and verb movement in Chamorro. Natural Language and Linguistic
Theory, 8.4, 559–620.
Elman, J. L. (1990). Finding structure in time. Cognitive Science, 14(2), 179–211.
Elman, J. L. (1991). Distributed representations, simple recurrent networks, and grammatical
structure. Machine Learning, 7(2–3), 195–225.
Elman, J. L. (1993). Learning and development in neural networks: the importance of starting
small. Cognition, 48(1), 71–99.
Literatur 125

Fauconnier, G. (1985). Mental spaces. Cambridge, MA: MIT Press.


Fauconnier, G., & Turner, M. (2002). The way we think. New York, NY: Basic Books.
Fillmore, C., Kay, P., & O’Connor, M. (1988). Regularity and idiomaticity in grammatical
constructions: The case of let alone. Language, 64(3), 501–38.
Fodor, J. A. (1975). The Language of Thought. Crowell Press.
Fodor, J. A. (1981). Representations. Cambridge, MA: MIT Press.
Fodor, J. A. (1987). Psychosemantics. Cambridge, MA: MIT Press.
Goldberg, A. (1995). Constructions: A Construction Grammar Approach to Argument Struc-
ture. University of Chicago Press.
Hebb, D. O. (1949). The organization of behavior. New York: Wiley.
Heringer, H. (1996). Deutsche Syntax dependentiell. Tübingen: Stauffenburg [German].
Hertz, J. A., Palmer, R. G., & Krogh, A. S. (1991). Introduction to the Theory of Neural Com-
putation. Redwood City: Addison-Wesley.
Hillert, D. (1987). Zur Mentalen Repräsentation von Wortbedeutungen: Neuro- und Psy-
cho-linguistische Überlegungen [German]. Tübinger Beiträge Linguistik 290: Tübingen:
Gunter Narr Press.
Hillert, D. (1992). Lexical semantics and aphasia: A state-of-the-art review. Journal of Neu-
rolinguistics, 7(1–2), 23–65.
Jackendoff, R. (1977). X-bar-Syntax: A Study of Phrase Structure. Cambridge: MIT Press.
Jackendoff, R. (1983). Semantics and Congnition. MIT Press.
Jackendoff, R. (2007). A parallel architecture perspective on language processing. Brain
Research, 1146, 2–22.
Jackendoff, R., & Pinker, S. (2005). The nature of the language faculty and its implications
for evolution of language (Reply to Fitch, Hauser, and Chomsky). Cognition, 97, 211–225.
Jordan, M. I. (1986). Serial Order: A Parallel Distributed Processing Approach. ICS UCSD
No. 8604.
Landauer, T. K. (2007). Handbook of Latent Semantic Analysis. Lawrence Erlbaum Associates.
Langacker, R. W. (1987). Foundations of Cognitive Grammar: theoretical prerequisites.
Volume 1. Stanford University Press.
Lerdahl, F., & Jackendoff, R. (1983). A generative theory of tonal music. Cambridge, MA:
MIT Press.
Markram, H. (2006). The Blue Brain Project. Nature Reviews Neuroscience, 7, 153–60.
McCloskey, J. (1991). Clause structure, ellipsis and proper government in Irish. Special
Issue, 259–302.
Mel‫މ‬þu k, I. A. (1987). Dependency syntax : theory and practice. Albany, NY: State University
Press of New York.
Merchant, J. (2001). The syntax of silence. Oxford, UK: Oxford Univ. Press.
Pinker, S. (1989). Learnability and cognition: The acquisition of argument structure. Cam-
bridge: MIT Press.
Pinker, S. (1994). The language instinct. New York: Harper Perennial Modern Classics.
Pollard, C., & Sag, I. A. (1994). Head-driven phrase structure grammar. Chicago: University
of Chicago Press.
Pulvermüller, F. (1999). Words in the brain’s language. The Behavioral and Brain Sciences,
22(2), 253–279.
Pulvermüller, F. (2002). The Neuroscience of Language: On Brain Circuits of Words and Serial
Order. Cambridge University Press.

125
126 6 Semantik und Syntax

Rumelhart, D. E., McClelland, J. L., & the PDP Research Group (eds. 1986). Parallel Distri-
buted Processing, vol 1. Explorations in the microstructure of cognition: Foundations.
Cambridge, MA: MIT Press.
Smith, K. (2010). Do the billions of non-neuronal cells in the brain send messages of their
own? Nature, 468, 160–62.
Tesnière, L. (1959). Éléments de syntaxe structural [French]. Paris: Klincksieck.
Tiira, T. (1999). Detecting teleseismic events using artificial neural networks. Computers &
Geosciences, 25(8), 929–38.
Whorf, B. L. (1956). Language, thought, and reality: selected writings of benjamin lee whorf.
Martino Fine Books.
Wierzbicka, A. (1996). Semantics: primes and universals. Oxford University Press.
Lexikalische Konzepte
7 Lexikalische Konzepte 7

Zusammenfassung

Verschiedene philosophische, linguistische und kognitive Ansätze wurden


vorgeschlagen, um die Struktur des mentalen Lexikons zu beschreiben. Die
Frage danach, wie lexikalische Bedeutungen mental repräsentiert und berech-
net werden, wird kontrovers diskutiert. Wir gehen davon aus, dass die meisten
Ansätze wertvolle Informationen liefern, um eine kognitive Karte zu erstellen,
aber hier favorisieren wir insbesondere den konstruktionistischen Ansatz.
Entsprechend betrachten wir lexikalische Bedeutungen als Konstruktionen, die
auf einem schematischen mentalen Raum aufbauen. In diesem Sinn kann das
mentale Lexikon als ein sehr dynamisches und interaktives System angesehen
werden. Dieser Ansatz ist mit den lexikalischen Netzwerkmodellen kompatibel.
Diese postulieren, dass lexikalische Bedeutungen in einem mentalen 3D-Raum
berechnet werden, wobei kontextuelle Informationen, einschließlich schema-
tischer Wissensrepräsentationen und Weltwissen, berücksichtigt werden. Wir
ziehen den Schluss, dass lexikalische Bedeutungen am besten durch interne
mentale Zustände beschrieben werden können.

Stichwörter

Angeborene Konzepte, Figurative Bedeutung, Interner Zustand, Lexikalisches


Konzept, Lexikalische Konstruktion, Lexikalisches Netzwerk, Lexikalische
Verschmelzung, Mentaler Raum, Mentales Lexikon, Semantische Primitive.

127
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_8
128 7 Lexikalische Konzepte

7.1 Konstruktionen
7.1 Konstruktionen
Einer der einflussreichsten nativistischen Ansätze der Linguistik und Philosophie
stellt Fodors (1975, 1987, 1998) Paradigma „Sprache der Gedanken“ („language of
thought“, LOT) dar. Fodor argumentiert, dass lexikalische Konzepte angeboren sind
und dass nur komplexe lexikalische Bedeutungen erworben bzw. gelernt werden.
Mit anderen Worten: Wörter würden nicht explizit durch Erfahrung gelernt werden,
aber der lexikalisch-semantische Erwerbsprozess würde durch Erfahrung ausgelöst
werden. Dies wird von Fodor als „brute-causal“ (brachial-verursacht) bezeichnet
und nicht als ein rationaler Prozess. Auch heute noch wird diese Annahme kont-
rovers in den Kreisen diskutiert, die versuchen zu verstehen, wie Bedeutungen von
Wörtern repräsentiert und/oder konstruiert werden. Konzepte, ob lexikalisiert oder
nicht, sind mentale Repräsentationen unterhalb der Satzebene, um Gedanken zu
konstruieren. Da der nativistische Ansatz behauptet, dass die meisten Konzepte
angeboren sind, würde ein Sprecher, der zum Beispiel 60.000 Wörter kennt, Zugriff
auf 60.000 angeborene Konzepte haben. Wie viele Wörter eine Person tatsächlich
kennt, ist schwierig zu schätzen. Zunächst müsste definiert werden, was ein Wort
ist. Das Wort set besitzt im Oxford Englisch-Wörterbuch 464 Einträge, obwohl sie
ähnliche Bedeutungen ausdrücken. Wenn ebenso Slang, Dialekte, Eigennamen,
Abkürzungen, domänspezifische und technische Begriffe oder sogar nicht-mutter-
sprachliche lexikalische Einträge berücksichtigt werden, ist es sehr schwierig, den
Umfang des mentalen Lexikons zu schätzen, und vermutlich variiert dieser auch
deutlich von Person zu Person. Vor allem sollte betont werden, dass das mentale
Lexikon kein fixes Repertoire ist, da kontinuierlich neue lexikalische Einträge kreiert
werden, um neue Situationen oder Entitäten lexikalisch zu erfassen.
Viele Beispiel deuten allerdings daraufhin, dass nicht alle lexikalischen Kon-
zepte angeboren sind. Diejenigen, die diesen Ansatz nicht teilen, argumentieren,
dass wissenschaftliche Begriffe oder neue Erfindungen Kreationen erfordern, dass
die entsprechenden Konzepte durch Definitionen erlernt werden. Ein Konzept
kann dadurch erworben werden, dass es auf der Grundlage basalerer Konzepte
konstruiert wird. Allerdings sind Philosophen nicht in der Lage, notwendige und
ausreichende Bedingungen für die Definition eines Konzepts anzugeben. Sogar
das oftmals zitierte Beispiel „Junggeselle“ ist kein gutes Beispiel wie Lakoff (1987)
hervorhebt: Die Bedeutung des Wortes „Priester“ kann den Kriterien des Konzepts
[Junggeselle] mit den Merkmalen [männlich, erwachsen, unverheiratet] entspre-
chen, aber intuitiv wird ein Priester nicht als Junggeselle angesehen. Semantische
Definitionen scheinen nicht psychologisch real oder im alltäglichen sprachlichen
Diskurs relevant zu sein (z. B. Langacker, 1987; Croft, 1993; Fauconnier, 1997;
Evans, 2004). Unsere Erfahrung initiiert Konzeptbildungen, ein Prozess, der auf
7.1 Konstruktionen 129

einer angeborenen kognitiven Kapazität beruht. Definitionen helfen uns auf der
bewussten Ebene, die Verwendung eines einzelnen Wortes zu verstehen. Dies sind
allerdings Reflexionen über unsere intuitive konzeptuelle Kapazität. Dies ist ein sehr
kontrovers diskutiertes und grundlegendes Thema. Offenbar haben Wörter eigent-
lich keine Bedeutungen per se, da deren Bedeutungen sich erst durch den Kontext
ergeben. Wortbedeutungen als Funktion der Sprache zu verstehen, bedeutet, dass
diese konstruiert werden, und zwar auf der Grundlage gespeicherter Erfahrungen,
einschließlich des Weltwissens und episodischer Informationen. Betrachten wir
einige Beispiele: In (7-I) drückt das Verb catch drei verschiedene Bedeutungen in
Abhängigkeit vom Kontext aus; (7-I a.) bezieht sich auf eine spezifische Aktion, die
von den Eigenschaften der physischen Einheit abhängig ist; in (7-I b.) stellen die
„eyes“ (direktes Objekt) den Akteur dar, der nicht eine physische Einheit einfängt
(„catch“), jedoch Aufmerksamkeit erregt; (7-I c.) stellt einen phrasalen Ausdruck dar.

7-I a. He caught the fish.


b. She caught his eyes.
c. He caught her at the wrong time.

In Abhängigkeit von ihren Modifikatoren verändern konkrete Nomen ihre Be-


deutungen.

7-II a. This is a long train.


b. This is the first train.
c. This is my train.

(7-II a.) bezieht sich auf die physischen Dimensionen eines „train“; (7-II b.) bezieht
sich auf den Zugfahrplan und (7-II c.) normalerweise auf den persönlichen Fahr-
plan eines Reisenden. Betrachten wir abschließend die Adjektivbeispiele in (7-III):

7-III a. This is a dirty solution.


b. This is a dirty car.
c. This is dirty money.

In (7.III a.) bezieht sich die Bedeutung von „dirty“ auf rauh oder dreist; in (7-III b.)
auf unsauber, ein perzeptuelles Merkmal einer Entität; in (7-III c.) wird mit „dirty“
ausgedrückt, dass es sich um eine illegal erworbene Entität handelt. Wir verwenden
konventionelle Ausdrücke, die gewöhnlich sehr häufig verwendet werden, aber diese
können als diskursive Routinen im Rahmen der konstruktiven Bedeutungserstel-
lung verstanden werden. Eine durch einen Kontext hervorgerufene Modifikation

129
130 7 Lexikalische Konzepte

lexikalischer Bedeutungen generiert Bedeutungen unterhalb der Satzebene und


korrespondiert mit dem Weltwissen des Sprachwahnehmenden. Die Interpretation
eines Satz ist daher niemals zwischen zwei Wahrnehmenden identisch, aber ent-
spricht einer semantischen Annäherung. Unabhängig von der Frage danach, wie
lexikalische Bedeutungen erworben wurden, stellen lexikalische Repräsentationen
die Grundlage für eine situative Sprachverwendung dar. Die entscheidende Frage ist
daher, wie auf der Satzebene lexikalische Repräsentationen mit dem konzeptuellen
Wissen korrespondieren. Die meisten Linguisten stimmen zu, dass nur bestimmte
Aspekte konzeptueller Strukturen durch die Sprache kodiert werden. Konzeptuelle
Strukturen können in dem Sinne verstanden werden, dass sie einen systematisierten
Output domänspezifischer sensorischer Informationen darstellen. Dieser kann aus
konzeptuellen Feldern bestehen, die relationale und kontextuelle Informationen
beinhalten, oder aus konzeptuellen Primitiven, die aufgrund von Ähnlichkeiten
zwischen verschiedenen Domänen und Inferenzeigenschaften abgeleitet wurden.
Neue lexikalische Bedeutungen basieren auf Rekonstruktionen oder Verschmel-
zungen von bereits existierenden Konzepten (Turner und Fauconnier, 1995):

Abb. 7.1 Beispiele für das Kreieren neuer Konzepte (siehe Text)

Im Fall von Verschmelzungen konzeptueller Felder oder Räume, wie in Abbildung


7.1 angedeutet, werden Analoge abgebildet, so dass die lexikalischen Einheiten
sich nicht widersprechen, aber neue Bedeutungen schaffen – in diesem Fall eine
7.1 Konstruktionen 131

figurative Bedeutung. Der Farbbegriff „white“ erhält in Verbindung mit dem


Kopf-Wort „night“ des Kompositums „white night“ eine konnotative Bedeutung.
„White“ bezieht sich auf „wach sein“, ein aktives helles Licht, das die Nacht zum
Tag macht, obwohl die Aktivität des Feierns normalerweise für die Nacht besser
zutrifft. Dieses Beispiel und viele andere Fälle unserer täglichen linguistischen Er-
fahrung veranschaulichen, dass neue lexikalische Bedeutungen auf der Grundlage
eines dynamischen kontextuell-gesteuerten Konzeptsystems geschaffen werden.
Rationalisten des 17. Jahrhunderts wie René Descartes, Gottfried Wilhelm Leibniz
oder Antoine Arnauld reflektieren insbesondere darüber, welche Rolle semanti-
sche Primitive in unserer Sprache spielen. In der Neuzeit benutzten Jerrold Katz,
James McCawley oder Ray Jackendoff dieses Paradigma, um basale semantische
Wörter, die nicht weiter definiert werden können, übergreifend in allen Sprachen
zu finden. Die Frage stellt sich jedoch, an welchem Punkt eine Definition nicht
mehr möglich sein soll. Impliziert das Konzept der Primitiva aus methodologischer
Sicht einen infiniten Regress? Werfen wir für einen kurzen Moment den Blick auf
nicht-linguistische Beispiele: Atome wurden einst als kleinste Bausteine der Materie
angesehen, aber weitere Experimente teilten ein Atom weiter in einen Nukleus
und Elektronen auf, und der Nukleus wurde zudem in Neutronen und Protonen
aufgeteilt, die wiederum in Quarks zerlegt wurden. Heute werden zudem Quarks
als ein Merkmalssatz verstanden (z. B. Spin, Farbe, Charme).
Die Suche nach kleineren, aber universellen Elementen scheint eine grundlegende
kognitive Operation des menschlichen Denkens zu sein. Weitere Differenzierun-
gen und Spezifizierungen ermöglichen detailliertere Theorien, und der Vorteil
hierbei sollte nicht in Frage gestellt werden, zumindest im Bereich der Physik. Der
Idee, eine Theorie der semantischen Primitive zu entwickeln, liegt zugrunde, die
Schnittstelle zwischen lexikalischen Konzepten und Satzinformationen genauer
zu beschreiben. Generative und kognitive Linguisten vermuten, dass universelle
Primitiva oder ein finiter Satz semantischer Primitiva für die Generierung von
Satzbedeutungen (Propositionen) verwendet werden. Wie diese Strukturen und
Prozesse genauer beschrieben werden können, ist zukünftigen Untersuchungen
und Analysen vorbehalten. Es gibt allerdings ausreichend Evidenz, dass diese
semantischen Primitiva nicht aus einem festgelegten Satz an Konzepten bestehen
können, da neue Bedeutungen und Konzepte kontinuierlich kreiert werden. Se-
mantische Primitiva werden auch, so vermuten wir hier, während der echtzeitlichen
Verarbeitung kreiert, wenn situative und kontextuelle Bedeutungen berücksichtigt
werden. Dieses dynamisch-semantische System steht nicht im Widerspruch zu der
Annahme eines internalisierten Schemas für lexikalische Konzepte. Im Gegenteil,
diese Schemata unterstützen die Internalisierung neuer lexikalischer Konzepte.
Schemata sind offenbar wichtige Bausteine, da viele lexikalische Konzepte nicht

131
132 7 Lexikalische Konzepte

durch einen Satz mit Beispielen erworben werden (z. B. Glaube, Poetik, persönliche
Einstellung, Sprachvermögen). Die Generierung von semantischen Primitiva für
die Satzverarbeitung beruht vermutlich auf bestimmten Regeln und Prinzipien.
Eine Untersuchung dieser Mechanismen scheint rational relevanter zu sein als der
Versuch, eine komplette Liste semantischer Primitiva zu erstellen.
Weiterhin können wir davon ausgehen, dass diese generativen semantischen Regeln
angeboren sind. Dies ist zwar spekulativ, aber es könnte durchaus der Fall sein, dass
es einen Dualismus oder Parallelismus zwischen semantischen und syntaktischen
Regeln gibt. Beide Regelarten erscheinen fundamental verschieden, aber zukünftige
Untersuchungen könnten herausfinden, dass diese kognitiven Regeln und Prinzipien
angeboren, universell und für verschiedene kognitive Domänen zutreffen. Das mittel-
oder langfristige Ziel sollte sein, diese spezifischen kognitiven Berechnungen, von
denen domänspezifische Regeln der Syntax und Semantik abgeleitet werden, näher
zu beschreiben. Jackendoffs (1983, 1990, 1992) konzeptuelle Semantik wird zum
Beispiel nicht als Bestandteil der Sprache verstanden, sondern dem gedanklichen
Vermögen zugeordnet. Er definiert einen universellen semantischen Kategoriensatz
wie „Thing“, „Event“, „State“, „Path“, „Place“, „Property“, „Time“ oder „Amount“.
Diese können als konzeptuelle syntaktische Kategorien angesehen werden, die den
semantischen Satzinhalt generieren. Wird die syntaktische (7-IV a.) und die kon-
zeptuelle Struktur (7-IV b.) eines Satzes miteinander verglichen (Jackendoff, 1992),
dann korrespondieren die NP zu „Thing“, das Verb zu „Event“ und PP zu „Path“:

7-IV a. [S [NP Bill] [V went] [PP [P into] [NP the house]]]]


b. [Event GO ([Thing Bill] [Path TO ([Place IN ([Thing HOUSE])])])]

Das Konzept „Cause“ ist ebenfalls ein semantisches Primitiv, da es verschiedenen


Verbbedeutungen zugrunde liegt (7-V a.-d.):

7-V a. Mary lifted her son.


b. Mary gave the toy to her son.
c. Mary persuaded her son to play hockey.
d. Mary killed the bee.

Es stellt sich die Frage, inwieweit semantische Primitiva primitiv oder basal sind,
wie bereits zuvor erwähnt, da sie durch den jeweiligen Kontext ihre Bedeutung
verändern. Jackendoffs Ansatz verdeutlicht, wie die Schnittstelle zwischen konzep-
tuellen und linguistischen (semantisch-syntaktischen) Strukturen aussehen könnte.
Die meisten semantischen Primitiva, die in der Linguistik vorgeschlagen werden,
sind abstrakte Konzepte, die gegenüber einer empirischen Prüfung immun sind.
7.1 Konstruktionen 133

Zusammenfassend lässt sich festhalten, dass lexikalische Konzepte eine kom-


positionelle Struktur haben, d. h., dass Bedeutungen mittels „atomarer“ Einheiten
komponiert werden. Hierbei beziehen wir uns ausschließlich auf strukturelle Aspekte
und treffen keine Aussagen über die zugrunde liegenden kognitiven Berechnungen.
Der automatische und mühelose lexikalische Erwerbsprozess verdeutlicht, dass die-
se Berechnungen nicht bewusst oder intentional erfolgen. Was auf einer genetisch
bedingten Kapazität beruht, sind die Berechnungen zum Erwerb von konzeptuellen
Strukturen (Fodor, 1998). Stellen wir uns vor, dass wir in der Lage sind, den konzep-
tuellen Erwerbsprozess zurückzuverfolgen, dann könnte es möglich sein, dass wir an
einem Punkt angelangen, an dem basale Informationen wie semantische Primitiva
nicht erworben werden. Diese Primitiva würden genetisch bedingte kognitive An-
lagen des menschlichen Hirns widerspiegeln (siehe auch Pinker und Levin, 1991).
Im Sinne des bereits Gesagten lässt sich Folgendes annehmen: Sprecher ha-
ben einen intuitiven Zugriff auf lexikalische Daten, die zweifellos vielfältig und
umfangreich sind. Die thematische Komplexität spielt sich in der Vielfalt der
vorgeschlagenen Ansätze und Modelle wider, wobei wir hier nur einige Vorschlä-
ge besprechen möchten, und zwar die, die versuchen, kognitive Strukturen und
neuronale Strukturen aufeinander abzubilden. Zahlreiche Einzelfallstudien im
Bereich der Aphasie- und Demenzforschung haben gezeigt, dass Patienten spezifische
semantische Kategorien oder sensorische Informationen nicht verstehen können
(z. B. Warrington und Shallice, 1984; Goodglass et al., 1986; Hillert, 1992). Diese
Störungsmuster verdeutlichen, dass die Daten des semantischen Lexikons nicht in
der Form systematisch organisiert repräsentiert sind, wie die meisten linguistischen
Theorien vorschlagen. In Anbetracht dieser selektiven Berechnungen scheint die
klassische Kontroverse, ob semantische Strukturen oder der lexikalisch-semanti-
sche Zugriffsprozess per se gestört sind, in den Hintergrund zu geraten. Die Daten
zeigen, dass einige lexikalische Bereiche selektiv gestört werden können, aber geben
keinen Aufschluss darüber, wie das mentale Lexikon strukturiert sein könnte,
falls eine Struktur vorliegt. Die Struktur des konzeptuellen Lexikons kann von
Person zu Person deutlich variieren. Unser Gehirn scheint lexikalisch verteilt zu
repräsentieren und nicht in Form eines mentalen Wörterbuchs. Dieser Ansatz ist
mit Daten der neuronalen Bildgebung (Neuroimaging) und der Elektrophysiologie
kompatibel. Beispielsweise bewirken Aktionswörter, die sich auf Gesicht, Arm und
Bein beziehen, neben den Aktivierungen im Temporallappen und im IFG soma-
totopische Aktivierungsmuster entlang des motorischen Streifens (z. B. Hauk et
al., 2004). Diese Daten zeigen, dass der Zugriff auf bestimmte Bedeutungsaspekte
von Aktionswörtern im Bereich motorischer Erfahrungen stattfindet. Sie verdeut-
lichen jedoch auch, dass die Bedeutung eines Wortes kein statisches Konzept ist,
sondern an verschiedenen corticalen Regionen abgerufen bzw. konstruiert wird.

133
134 7 Lexikalische Konzepte

Der Zugriffspunkt dürfte individuell verschieden sein, insbesondere bei abstrakten


lexikalischen Bedeutungen oder komplexen Ausdrücken, und hängt vom Diskur-
skontext, der episodischen Erfahrung und situativen Aspekten ab.

7.2 Mentaler Raum


7.2 Mentaler Raum
In den 70er Jahren wurden semantische Netzwerkmodelle vorgeschlagen, meistens
von kognitiven Psychologen, um ein „realistisches“ Bild der corticalen Wortspei-
cherung zu erstellen. Diese Modelle erfassen einzelne Wortbedeutungen satz- bzw.
netzwerktheoretisch (z. B. Rumelhart et al., 1972; Anderson und Bower, 1973; Glass
und Holyoak, 1974) oder in Form von „Typikalität“ und „Basis-Konzepten“ (Labov,
1973; Rosch, 1978; Mervis und Rosch, 1981; siehe auch Wittgenstein, 1953). Diese
Modelle erfassen allerdings nur teilweise die relevanten kontextuellen Informatio-
nen bei der Verarbeitung von Wortbedeutungen, stellen jedoch den dynamischen
Aspekt in den Vordergrund (siehe Johnson-Laird, 1987). Neuere Ansätze scheinen
auf diesen Modellvorstellungen aufzubauen, indem davon ausgegangen wird, dass
Wortbedeutungen als interne oder mentale Zustände verstanden werden sollten.
Elman (2004, 2011) verwendet ein rekurrentes Netz, um die mentalen Zustände der
unsichtbaren Ebene zu simulieren. Ein mentaler Zustand hängt von seinem eigenen
Zustand zu einem Zeitpunkt t ab, um den Zustand zum Zeitpunkt t+1 und den
externen Stimulus (Wort-Input) zu speisen. Dieses einfache rekurrente Netzwerk
lernt von Grund auf die Gewichtsstärke zwischen den einzelnen Wörtern. Wörter
werden in Form von binären Vektoren dargestellt und ein einfacher Lernalgorithmus
modifiziert die Verbindungsstärken zwischen den Wörtern (Rumehart et al., 1986).
Falls der Trainingssatz umfangreich und ausreichend komplex ist, lernt das Netzwerk
die kontextbedingten Dependenzen, die die Wahrscheinlichkeit der nachfolgenden
Wörter berechnen. Hierbei werden ungrammatische Wörter ausgeschlossen.
Elman (2011) gibt folgendes Beispiel: „For example, after learning, and given
the test sentence ‘The girl ate the …’, the network will not predict a single word,
but all possible words that are sensible in this context, given the language sample
it has experienced. Thus, it might predict sandwich, taco, cookie, and other edible
nominals. Words that are either ungrammatical (e.g., verbs) or semantically or
pragmatically inappropriate (e.g., rock) will not be predicted.“ Das Trainieren der
Ähnlichkeitsstrukturen von Netzwerk-Clusters verdeutlicht, dass das Netzwerk No-
men unabhängig von Verben behandelt. Innerhalb des Nomen-Clusters differenziert
das Netzwerk zum Beispiel zwischen der Semantik von „belebt vs. unbelebt“, „Tiere
vs. Menschen“, „große vs. kleine Tiere“, „Nahrung vs. Zerbrechliches“; innerhalb
7.2 Mentaler Raum 135

des Verb-Clusters unterscheidet es zwischen den Kontrasten „ausschließlich intran-


sitiv vs. möglich transitiv vs. ausschließlich transitiv“. Zudem besitzt das Verb eine
spezifische kontextbedingte Bedeutung. Unter Berücksichtigung eines spezifischen
situativen Kontextes bestimmt das Verb spezifische Argumente und Adjunkte.
Auf der Grundlage des lexikalischen Inputs sagt das Netzwerk das thematische
Raster der Verbbedeutung voraus. Zum Beispiel berechnet es, dass der Satz „The
butcher uses a saw to cut …“ durch das Wort „meat“ ergänzt wird und der Satz „A
person uses a saw to cut …“ durch das Wort „tree“. Elman bezieht sich in diesem
Zusammenhang auf zwei verwandte Strategien, die das Netz lernt, um derartige
Prognosen stellen zu können. Zunächst lernt es die lexikalisch-semantischen At-
tribute eines Wortes und dies umfasst auch die bereits erwähnten hierarchischen
Beziehungen. Des Weiteren lernt es das syntagmatische (grammatische) Wissen von
Argument-Adjunkt-Verb-Interaktionen, die durch Beziehungsstärken zwischen den
Wörtern kodiert werden. Der Einfluss eines Wortes auf den internen (mentalen)
Zustand kombiniert mit dem vorausgehenden Kontext ermöglicht Voraussagen
über die nächste syntaktische Kategorie, d. h. über die Phrasenstruktur.

Abb. 7.2 3D-Trajektorien für beide Sätze ergeben sich aus den internen Zuständen
des jeweiligen Wortes auf der unsichtbaren Ebene des einfachen rekurrenten
Netzwerks. Jedes Wort kodiert Erwartungszustände hinsichtlich der
nachfolgenden linguistischen Daten. Der Zustand bei „cut“ unterscheidet
sich bei beiden Sätzen und spiegelt verschiedene Prognosen in Bezug auf die
folgende semantische Funktion von Patiens wider (adaptiert, Elman, 2011; ©
John Benjamins Publishing Co).
135
136 7 Lexikalische Konzepte

Abb. 7.2 veranschaulicht die Trajektorie des internen Netz-Zustands, wenn zwei
Sätze mit dem Verb „cut“ verarbeitet werden. Die Bedeutungen beider Sätze sind
eng verwandt, jedoch nicht identisch. Wie von Elman auch hervorgehoben wird,
handelt sich hierbei um ein sehr vereinfachtes lexikalisches Modell. Es stellt eine
Alternative gegenüber den traditionellen lexikalischen Ansätzen dar. Das Lexikon
besitzt also keine festen Einträge, da die Wortbedeutung durch den linguistischen
Kontext dynamisch generiert wird. Ein komplexes Modell muss alle Faktoren berück-
sichtigen, die für die Generierung einer intendierten Bedeutung relevant sind. Die
Kontextinformation sollte ebenso Diskursdaten, sensorisch-motorische Erfahrungen
oder Ereigniswissen, das nicht verbalisiert ist, berücksichtigen. Auch sollte das Netz
in der Lage sein, vorausgesagte Strukturen zu umgehen, um der Bedeutung kreativer
metaphorischer und rhetorischer Ausdrücke bzw. Wortspielen gerecht werden zu
können. Die gelernte Netzdynamik per se ist daher nicht ausreichend, um alle Bedeu-
tungen zu erfassen. Ein lexikalisches Modell sollte ebenso in der Lage sein, komplexe
Inferenzen zu berücksichtigen, um den intendierten mentalen Zustand zu erzielen.
Andere Ansätze sind statistische Modelle, wobei lexikalische Bedeutungen auf der
Grundlage umfangreicher Text-Corpora erschlossen werden. Der Ansatz der latenten
semantischen Analyse (LSA) bestimmt die Wortbedeutung dadurch, dass alle Daten,
die in dem Corpus mit dem Wort verbunden sind, berücksichtigt werden (Landauer
et al., 1998). LSA repräsentiert Wörter (z. B. 50-1.000) in einem hochdimensionalen
semantischen Raum. Bei der Analyse wird nicht paarweise oder tuple-bezogene
Wort-Kookkurrenz aufaddiert, sondern detaillierte Kookkurrenzmuster oberhalb von
einzelnen Sätzen und Textabschnitten. Bei dem im Sinne einer Hyperraum-Analogie
erstellten Sprachmodell (HAL, Hyperspace Analogue to Language) wird die Bedeu-
tung durch die Bewegung eines n-Wort-Fensters (z. B. 10 Wörter vor und nach dem
Zielwort) über den Text hinweg generiert, wobei die Anzahl der Wörter zwischen
zwei Wörtern festgestellt wird (Lund und Burgess, 1996). Die semantische Stärke
zwischen zwei Wörtern wird mit dem Abstand zwischen diesen beiden Wörtern
umgekehrt proportional gewichtet. Wie mit der LSA wird die Ähnlichkeit zwischen
zwei Wörtern durch den Cosinus des Winkels zwischen deren Vektoren bestimmt.
Die Anwendung eines umfangreichen Text-Corpus für die Bestimmung der Wortbe-
deutung spiegelt den kontextuellen Gebrauch eines Wortes wider. Wie semantische
Informationen kognitiv oder neuronal repräsentiert sind, bleibt eine offene Frage.
Welche semantischen Informationen speichern wir im Langzeitgedächtnis, um die
intendierte Bedeutung abzurufen? Gegenwärtig spricht die meiste Evidenz für ein
verteiltes semantisches Netzwerk. Zukünftige Arbeiten werden hoffentlich genauer
beschreiben, wie Bedeutungen in der Kindheit erworben werden und wie Bedeutungen
repräsentiert, abgerufen und konstruiert werden, so dass Sprecher mentale Zustände
für eine erfolgreiche Kommunikation miteinander teilen können.
Literatur 137

Literatur
Literatur
Anderson, J. R., & Bower, G. H. (1973). Human associative memory. Washington, DC:
Winston and Sons.
Croft, W. (1993). The role of domains in the interpretation of metaphors and metonymies.
Cognitive Linguistics, 4(4), 335–370.
Elman, J. L. (2004). An alternative view of the mental lexicon. Trends in Cognitive Sciences,
8(7), 301–6.
Elman, J. L. (2011). Lexical knowledge without a lexicon? Mental Lexicon, 6(1), 1–33.
Evans, V. (2004). The structure of time: Language, meaning and temporal cognition. Am-
sterdam: John Benjamins.
Fauconnier, G. (1997). Mappings in thought and language. Cambridge, UK: Cambridge
University Press.
Fodor, J. A. (1998). Concepts: Where cognitive science went wrong. Clarendon Press.
Fodor, J. A. (1975). The language of thought. Thomas Y. Crowell Co.
Fodor, J. A. (1987). Psychosemantics. The problem of meaning in the philosophy of mind.
Cambridge, MA: MIT Press.
Glass, A. L., & Holyoak, K. (1974). The effect of some and all on reaction time for semantic
decisions. Memory & Cognition, 2(3), 436–40.
Goodglass, H., Wingfield, A., Hyde, M. R., & Theurkauf, J. C. (1986). Category Specific
Dissociations in Naming and Recognition by Aphasic Patients. Cortex, 22(1), 87–102.
Hauk, O., Johnsrude, I., & Pulvermüller, F. (2004). Somatotopic representation of action
words in the motor and premotor cortex. Neuron, 41, 301–7.
Hillert, D. (1992). Lexical semantics and aphasia: A state-of-the-art review. Journal of Neu-
rolinguistics, 7(1), 1–43.
Jackendoff, R. (1983). Semantics and cognition. Cambridge, MA: MIT Press.
Jackendoff, R. (1990). Semantic Structures. Cambridge, MA: MIT Press.
Jackendoff, R. (1992). Languages of the Mind: Essays on Mental Representation. Cambridge,
MA: MIT Press.
Johnson-Laird, P. N. (1987). The mental representation of the meaning of words. Cognition,
25, 189–211.
Labov, W. (1973). The boundaries of words and their meanings. In C. J. Bailey, & R. Shuy
(eds.), New Ways of Analyzing Variation in English (pp. 340–373). Washington, DC:
Georgetown University Press.
Lakoff, G. (1987). Women, fire, and dangerous things: what categories reveal about the mind.
Chicago: University of Chicago Press.
Landauer, T. K., Foltz, P. W., & Laham, D. (1998). Introduction to Latent Semantic Analysis.
Discourse Processes, 25, 259–284.
Lund, K., & Burgess, C. (1996). Producing high-dimensional semantic spaces from lexical
co-occurrence. Behavior Research Methods, Instruments & Computers, 28(2), 203–8.
Mervis, C. B., & Rosch, E. (1981). Categorization of Natural Objects. Annual Review of
Psychology, 32(1), 89–115. doi:10.1146/annurev.ps.32.020181.000513.
Pinker, S., & Levin, B. (1991). Lexical and Conceptual Semantics. Cambridge: The MIT Press.
Rosch, E. (1978). Principles of categorization. In E. Rosch & B. Lloyd (eds.), Cognition and
Categorisation. Hillsdale, NJ: Erlhaum, pp. 27–48.

137
138 7 Lexikalische Konzepte

Rumelhart, D. E., Lindsay, P. H., & Norman, D. A. (1972). A Process model for long-term
memory. In E. Tulving & W. Donaldson (eds.), Organization and memory. New York,
NY: Academic Press.
Rumelhart, D. E., McClelland, J. L., & PDP Research Group, C. (eds. 1986). Parallel distri-
buted processing: explorations in the microstructure of cognition, vol. 1: Foundations.
Cambridge, MA: Bradford.
Turner, M. B., & Fauconnier, G. (1995). Conceptual integration and formal expression.
Metaphor and Symbolic Activity, 183–203.
Van Langacker, D. (1987). Comprehension of familiar phrases by left- but not by right-hemi-
sphere damaged patients. Brain and Language, 32(2), 265–77.
Warrington, E. K., & Shallice, T. (1984). Category specific semantic impairments. Brain,
107, 829–54.
Wittgenstein, L. (1953). Philosophische Untersuchungen [German]. Frankfurt am Main:
Suhrkamp.
Figurative Sprache
6 Figurative Sprache 8

Zusammenfassung

Oft werden figurative Ausdrücke oder „lexikalisch dunkle Materie“ bei der
täglichen Konversation verwendet, aber syntaktische Modelle berücksichtigen
meistens ausschließlich die nicht-figurative Sprache. Hier diskutieren wir
verschiedene syntaktische Ansätze, wie figurative Ausdrücke geparst werden.
Im Mittelpunkt stehen fixierte Ausdrücke wie Idiome sowie neu kreierte und
konventionalisierte Metaphern. Im Sinne des sogenannten Ansatzes „En-bloc-In-
sertion“ schlagen wir grammatische Merkmale vor, die die syntaktische Fle-
xibilität idiomatischer Komposita und Phrasen beschränken. Die Merkmale
werden auf der Kopf-Ebene des syntaktischen Baums eingeführt und mit den
relevanten lexikalischen Konzepten, die eine alternative Parsing-Strategie er-
möglichen, ko-indiziert. Wir diskutieren zudem, wie kreative Metaphern neue
mentale Räume schaffen. Die Berücksichtigung von alternativen semantischen
Merkmalen auf der post-syntaktischen, pragmatischen Ebene ermöglicht eine
Erweiterung des mentalen Kern-Raums.

Stichwörter

Alternatives Parsing, Culturomics, En-Block-Insertion, Figurative Bedeutung,


Grammatische Merkmale, Idiome, Konventionalisierte Metaphern, Kreative
Metaphern, Kulturnomik, Tropen, Verschmelzungen.

139
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_9
140 6 Figurative Sprache

8.1 Lexikalisch dunkle Materie


8.1 Lexikalisch dunkle Materie
Etablierte linguistische Theorien befassen sich in der Regel nicht mit der Struktur
figurativer Phrasen, weil, so wird behauptet, sie eigentümliche linguistische Konst-
ruktionen darstellen würden. Verschiedene psycholinguistische Modelle diskutieren
allerdings die Verarbeitungsunterschiede zwischen wörtlichen und nicht-wörtlichen
Phrasen und betrachten figurative Ausdrücke nicht als eine arme Verwandte der
Standardgrammatik (siehe z. B. Langacker, 1987; Fauconnier, 1997; Jackendoff, 1997;
Hillert, 2008). Figurative Phrasen sollten Teil einer linguistischen Standardtheorie
sein und nicht als problematisch, idiosynkratisch oder als irreguläre und nicht häufig
vorkommende Fälle angesehen werden. Im Gegensatz dazu nehmen wir hier an,
dass diese nicht-wörtlichen Ausdrücke wichtige Informationen zur Struktur und
Funktion des Sprachsystems liefern. Figurative Sprache wird in der Tat sehr häufig
im alltäglichen Sprachgebrauch verwendet, obwohl Wörterbücher in der Regel
nicht die Varietät und Häufigkeit der verschiedenen nicht-sprachlichen Ausdrücke
dokumentieren. Jackendoff (1997) schätzt, dass es in der englischen Sprache etwa
25.000 idiomatische Ausdrücke gibt, wobei Idiome nur einen Bruchteil der Tropen
darstellen, die im alltäglichen Sprachgebrauch verwendet werden.
Auf der Grundlage von Textanalysen (Text-Mining) wurde festgestellt, dass
die Anzahl der schriftlich verwendeten Wörter im Englischen sich im letzten
Jahrhundert fast verdoppelte (ca. 1 Million Wörter; Michel et al., 2010). Zwischen
1900 und 1950 betrug der Anstieg etwa 50.000 Wörter und von 1950 bis zum Jahr
2000 betrug die Zunahme 500.000 Wörter. Zur gleichen Zeit dokumentierten das
„Oxford English Dictionary“ und das „Merriam-Webster Unabridged Dictionary“
nur 25 % dieser Wörter. Die Lücke zwischen der Wörterbuch-Dokumentation und
dem schriftlichen Gebrauch wurde immer größer. Michel und Kollegen schätzen,
dass 52 % dieser in Büchern verwendeten Wörter aus lexikalischer Sicht eine „dunkle
Materie“ darstellt, da sie in den entsprechenden Referenzwerken wie das „Oxford
English dictionary“ nicht dokumentiert sind. Diese lexikalisch dunkle Materie
umfasst vor allem nicht-frequente Wörter bzw. Sonderfälle, wobei Eigennamen
und Komposita bei der Analyse nicht berücksichtigt wurden. Der Wortgebrauch ist
relativ dynamisch, Wörter werden geboren und sterben und einige Wörter haben
nur eine kurze Lebensdauer. Wir vermuten, dass große Anteile der lexikalisch
dunklen Materie Tropen sind. Diese lexikalische Kategorie ist dynamischer und
kreativer als Wörter, die sich mit statischen Referenzen auf eine wörtliche Bedeu-
tung beziehen. Die Menge der in einer Sprache verwendeten Tropen ist schwierig
festzustellen, aber sie kann mehr als 50 % der in einer Sprache verwendeten Wörter
ausmachen, auch wenn regionale Unterschied unberücksichtigt bleiben. Wikipedia
notiert 118 verschiedene Tropenarten und die Liste ist bei weitem unvollständig.
8.1 Lexikalisch dunkle Materie 141

Um eine realistischeres Bild der kognitiven und neuronalen Sprachverarbeitung zu


vermitteln, sollten Sprachforscher ihren Forschungsgegenstand daher um diesen
wichtigen Bereich erweitern.
Betrachten wir zunächst einige typische Variationen figurativer Phrasen. Oft
sind wir uns nicht über den Ursprung konventionalisierter figurativer Ausdrücke
bewusst. Wir erwarben bestimmte Ausdrücke, da die entsprechende komplexe
Bedeutung anderweitig nur schwierig auszudrücken ist. Oft haben diese Sprach-
bilder einen rhetorischen Zweck, kommunizieren besondere emotionale Zustände,
kreieren Bilder oder andere Erfahrungen und besitzen eine spezifische Typologie
in Bezug auf Prosodie, Intonation, Wortwahl, Grammatik usw. Obwohl figurative
Ausdrücke als idiosynkratisch angesehen werden können, teilen oft verschiedene
Kategorien figurativer Ausdrücke spezielle Eigenschaften. Die hier diskutierten
Beispiele dienen nur als Richtlinie. Bei Metaphern werden zum Beispiel Bedeutungen
kreiert, bei denen zwei verschiedene mentale Räume miteinander verschmelzen.
Eine Verbindung dieser Räume würde anderweitig nicht vorkommen (z. B. „The
park is the green lung of the city“). Bei einem Idiom handelt es sich um einen
konventionalisierten fixen Ausdruck. Die Dekomposition des Idioms ermöglicht
oftmals eine wörtliche Interpretation wie (z. B. „The teacher spilled the beans“),
aber die figurative Bedeutung wird deutlich häufiger verwendet als die wörtliche.
Der Grad der grammatischen „Geforenheit“ variiert von Ausdruck zu Ausdruck.
Eine Redensart, die eine Wahrheitserfahrung ausdrückt, wird als Proverb be-
zeichnet (z. B. „Too many cooks spoil the broth“). Im Fall eines Metonyms verlagert
sich die Bedeutung innerhalb des gleichen semantischen Raums (z. B. „Washington
said …“). Eine Synekdoche ist eine Art Metonymie, bei der ein bestimmter Aspekt
das Ganze repräsentiert (z. B. „The jaw injured the surfer“). Die Eigenschaften eines
spezifischen mentalen Raums verdeutlichen Vergleiche (z. B. „He fought like a
tiger“). Eine Hyperbel beinhaltet eine Übertreibung (z. B. „The Brazilian summer
kills us“). Eine Meiosis oder Litotes involviert dagegen eine Untertreibung (z. B.
„It just got a little bit out of hand“). Im Fall von Sarkasmus oder Ironie wird die
gegenteilige Bedeutung ausgedrückt (z. B. „I have to work all weekend“ Antwort:
„How nice!“). Ein Oxymoron impliziert ein Paradox oder einen Widerspruch (z. B.
„mad wisdom“). Schließlich entstehen bei Wortwitzen (Kalauern) Ambiguitäten auf
spielerische Art und Weise (z. B. „A rule of grammar: double negatives are a no-no“).

141
142 6 Figurative Sprache

8.2 Idiome und Metaphern


8.2 Idiome und Metaphern
Idiome stellen eine Untergruppe von „fixierten Ausdrücken“ dar (z. B. Kollokatio-
nen, Titel und Eigennamen und Verb-Partikel-Konstruktionen (Jackendoff, 1997,
2002; Hillert und Ackermann, 2002). Sie sind idiosynkratisch, weil sie oftmals
morphosyntaktische Regeln verletzen. Ein idiomatischer Ausdruck wird in der
Regel als eine einzelne Einheit im mentalen Lexikon abgespeichert, da die figu-
rative Bedeutung nicht von den einzelnen Wörtern des idiomatischen Ausdrucks
abgeleitet werden kann. Das Verstehen der ambigen kurzen Phrase „Mary breaks
the ice“ beinhaltet verschiedene Parsing-Schritte. Zunächst segmentieren und fusi-
onieren die eingehenden lautsprachlichen Daten und generieren eine hierarchische
syntaktische Struktur unter den lexikalischen Elementen des Satzes. In Bezug auf
die wörtliche Interpretation des in (8-I) erwähnten Beispiels ordnet das Verb die
Θ-Rollen Agens (AG) der Subjekt-NP zu und reserviert einen Platzhalter für die
Θ-Rolle Thema (TH). Die Subjekt-NP und die folgende Verb-Phrase (VP) müssen
fusionieren, um eine Satzstruktur zu generieren.

8-I

NPi VPi/j NPi VPi/j

Ni Vi […]j Ni Vi/j NPj

Mary breaks Mary breaks the ice


{AGi, […]j} {AGi} {i, j} {THj}

Im nächsten Schritt wird die Θ-Funktion Thema aktiviert und der Output des Par-
sers wird auf eine semantische Repräsentation abgebildet. Aus unterschiedlichen
Gründen, wie dem pragmatischen Kontext und/oder dem hochfrequenten Gebrauch
eines idiomatischen Ausdrucks, berechnet der Parser am Identifikationspunkt eine
nicht-kompositionelle, alternative Interpretation. Sollte dies sehr früh, d. h. am
Anfang der Phrase geschehen, dann muss der Parser nur den bereits aktivierten
Platzhalter für Θ-Funktion Thema unterdrücken, um dem Verb eine intransitive
Funktion zuzuordnen (8-I). Im Allgemeinen können verschiedene Parsing-Strate-
gien angewendet werden, wobei dies vom Onset-Cue, dem kontextuellen Hinweis
und/oder der Gebrauchshäufigkeit des Ausdrucks abhängig ist. Welche Faktoren
8.2 Idiome und Metaphern 143

wann kombiniert für eine figurative Interpretation verantwortlich sind, wird


gegenwärtig untersucht.

8-II

NPi VPi, j NPi VPi

Ni Vi […]j Ni Vi 

Mary breaks Mary breaks the ice


{AGi, […]j} {AGi} {i}

Idiome variieren in ihrem Grad der morphosyntaktischen Flexibilität (z. B. Katz


und Postal 1964; Fraser, 1970; Newmeyer 1974). Ob bestimmte syntaktische Berech-
nungen für einen einzelnen idiomatischen Ausdruck zutreffen, scheint in vielen
Fällen von der pragmatischen Funktion abhängig zu sein.

8-III a. [The bucket was kicked]i [by Sam]j


=> *[Died]i [by Sam]j

b. [The beans]i [were spilled]j [by Mary]k


=> [The information]i [was revealed]j [by Mary]k

Eine figurative Interpretation des Passivsatzes (8-III a.) erscheint unangemessen, da


der Fokus „the bucket“ sich nicht auf eine Diskurseinheit bezieht. Dagegen wird bei
dem Passivsatz (8-III b.) die wörtliche und figurative Interpretationsmöglichkeit auf-
rechterhalten. Das intransitive Verb „seem“ kann oft einen idiomatischen Ausdruck
modifizieren. Beispiel (8-IV) verdeutlicht, dass eine NP-Bewegung involviert ist.

8-IV The proposal does not hold water.


[The proposali] seems [__i not to hold water]

Bei diesem Beispiel ist jedoch eine wörtliche Interpretation weniger plausibel, aber
der Parser muss dennoch seine anfängliche (de)kompositionelle Analyse revidieren.
Unter der Annahme, dass morphosyntaktische Regeln für die O-Struktur eines
Satzes verantwortlich sind, stellt sich die Frage, wie es möglich ist, dass Einheiten

143
144 6 Figurative Sprache

größer als X0 (terminale Knoten) zugelassen werden, wenn syntaktische Bewegun-


gen stattfinden können.43 Im Wesentlichen werden zwei Ansätze diskutiert. In
Chomskys (1981: Anm. 94) Version werden verbale Idiome als lexikalische Verben
mit einer internen Struktur behandelt (8-V). In Jackendoffs (1997) Version wird der
gesamte idiomatische Ausdruck in Bezug auf die lexikalisch-konzeptuelle Ebene
indiziert. Wie bereits in (8.3) hervorgehoben wurde, werden das Subjekt und das
direkte Objekt in der Phrase „kick the bucket“ nicht auf der semantischen Ebene
stipuliert (8-VI a., b.).44

8-V  


  
 

  

 

  

  

43 In der generativen Grammatik wird die O-Struktur eines Satzes mittels syntaktischer
Bewegungen von seiner T-Struktur abgeleitet, traditionell als „Transformationen“
bezeichnet (Chomsky, 1981). In der X-bar (X’)-Theorie ist X0 der Kopf oder der terminale
Knoten einer Phrase, was auch Zero-Projektion genannt wird (z. B. Chomsky, 1986; Di
Sciullo & Williams, 1987). Sein Wert erfasst zumindest die lexikalische Kategorie N
(Nomen), A (Adjektiv), V (Verb) und P (Proposition).
44 Halle und Marantz (1994) postulieren zusätzlich eine semantische Ebene für strukturelle
Bedeutungen, um der Beobachtung gerecht zu werden, dass „kick the bucket“ nicht
„sterben“ bedeuten kann, da die VP ein direktes Objekt kategorisiert.
8.2 Idiome und Metaphern 145

8-VI  


  
   

 

  

  

Es ist offensichtlich, dass semantische Informationen eine große Rolle bei der
Beschreibung der syntaktischen Flexibilität von Idiomen spielen (Wasow et al.,
1983). Es gibt allerding oftmals keine direkte Korrelation zwischen der lexika-
lischen und der syntaktischen Ebene, da viele nicht-kompositionelle Idiome zu
einem bestimmten Grad syntaktisch flexibel sind. Wie unten diskutiert wird,
erscheint ein formal-syntaktischer Ansatz am vielversprechendsten zu sein, um
die linguistische Heterogenität idiomatischer Ausdrücke zu erfassen und um die
Varianz der mentalen Berechnungskomplexität vorhersagen zu können. Hier wird
entsprechend ein Idiom-Ansatz vorgeschlagen, der neben der Aufrechterhaltung
der figurativen Bedeutung auf der syntaktischen Ebene die individuelle syntakti-
sche Flexibilität berücksichtigt (19). Dieser Ansatz ist zu einem bestimmten Punkt
mit Van Gestels (1995) Ansatz „En-Bloc-Insertion“ vergleichbar. Grammatische
Merkmale beschränken die syntaktische Flexibilität der idiomatischen Komposita in
(8-VII a.) und Phrasen (8.VII b.-c.). Sie werden als negative Merkmale (Inhibitoren)
auf der Kopf-Ebene der idiomatischen Struktur vermerkt, die wiederum mit den
entsprechenden semantischen Konzepten (8.8) koindiziert sind (z. B. PLU, Plural;
Gen, Genitiv; PASS, Passiv; TOP, Topikalisierung; SGL, Singular).

8-VII      
    


     
       


           

  

8-VIII a. Duck soup: [State easy]x


b. Kick the bucket: [Event die ([ ]i [ ]j)]x
c. Spill the beans: [Event reveal ([ ]i [secret]j)]x
145
146 6 Figurative Sprache

Aufgrund der idiosynkratischen Natur ist es schwierig zu definieren, was Idiome


sind, insbesondere auch weil wir oftmals deren Ursprung nicht zurückverfolgen
können. Man könnte vielleicht sagen, dass idiomatische Bedeutungen seman-
tisch-syntaktisch eingefrorene, kreative Erweiterungen wörtlicher Bedeutungen sind.
Idiomatische Strukturen erfordern einen Zugriff auf alternative Parsing-Strukturen
und involvieren daher höhere Berechnungskosten oder einen höheren kognitiven
Aufwand als das typische wörtliche Parsen ohne figurative Interpretation. Die
zweite Kategorie figurativer Ausdrücke, die wir hier genauer besprechen möchten,
umfasst die Metaphern.

8-IX a. The athlete kicked the sport’s bucket as he has been fired.
b. He’s burning the midnight oil from both ends.

Metaphorische Erweiterungen werden manchmal verwendet, um die Bedeutung


eines eingefrorenen idiomatischen Ausdrucks zu modifizieren (8-IX). Eine neue
Bedeutung wird geschaffen, die genauer ist als die standardisierte idiomatische
Bedeutung. Neue metaphorische Ausdrücke erfordern keine alternative Parsing-Stra-
tegie bei der Sprachwahrnehmung, wie es manchmal beim Verstehen idiomatischer
Ausdrücke der Fall ist, aber die relevanten semantischen Merkmale werden in
einem nicht-standardisierten, untypischen konzeptuellen Raum interpretiert. Bei
dem relativ nicht-konventionalisierten, kreativen metaphorischen Ausdruck „The
botanical garden is the green lung of the city“ erhält das Konzept BOTANICAL
GARDEN neue semantische Attribute vom Konzept LUNG (+breath), wodurch
ein Vergleich zwischen der Funktion einer Lunge und eines botanischen Gartens
ermöglicht wird. Die Erweiterung der Kernbedeutung des lexikalischen Konzepts
GARDEN durch die semantischen Attribute der Kernbedeutung des lexikalischen
Konzepts LUNGE wird in Abbildung 8.1 verdeutlicht. Metaphorische Interpreta-
tionen dürften daher post-syntaktisch auf der pragmatischen Ebene stattfinden
(z. B. Lakoff und Johnson, 1980; Gibbs, 1994; Fauconnier, 1985).
Einige Theoretiker argumentieren, dass alle Bedeutungen metaphorisch im
Sinne von symbolischen oder mentalen Kennzeichen sind. Demnach entsprächen
Wörter, Ausdrücke oder Sätze niemals dem externen Objekt oder Ereignis, aber sie
würden symbolische Annäherungen ermöglichen (siehe Quine, 1960). In der Tat
ist es wahrscheinlich, dass oft verwendete Wörter wie „Dame“, „König“, „Priester“
oder „Person“ auf metaphorische Bedeutungen zurückgeführt werden können,
bevor sie aufgrund der Gebrauchshäufigkeit semantisch eingefroren wurden. Um
das Sprachsystem zu verstehen, ist es nicht relevant, „was“ gesagt wurde, wichtiger
ist, „wie es“ gesagt wurde. Neben dem allgemeinen Wortgebrauch sind Sprecher in
der Lage, dieses semantische Wissen zu benutzen, um zwecks Bedeutungsvermitt-
8.2 Idiome und Metaphern 147

lung verschiedene Strategien anzuwenden. In diesem Sinne werden verschiedene


konzeptuelle Strategien eingesetzt, um Bedeutungen und Intentionen zu vermitteln.
Metaphorische Ausdrücke bilden Gedanken auf eine relativ direkte Art im Sprach-
format ab. Obwohl nicht-figurative Sprache ebenso konzeptuelle Strategien wider-
spiegelt, werden diese oft mit automatisierten linguistischen Routinen vermischt.

GARDEN LUNG

[+green]
[+bronchi]

[+plants]
[+breathing]

GREEN LUNG

Abb. 8.1 Beispiel für die metaphorische Erweiterung von Kernbedeutungen.

Kreative Metaphern und eingefrorene Ausdrücke sind die Endpunkte eines Kon-
tinuums, auf dem verschiedene Grade der sprachlichen Bildhaftigkeit verarbeitet
werden. Diese Berechnungen beziehen sich nicht ausschließlich auf figurative
Bedeutungen, sondern können auch durch den Kontrast „automatisch vs. konst-
ruktiv“ beschrieben werden. Versprecher, die bei figurativen Ausdrücken auftreten,
zeigen vergleichbare linguistisch und/oder konzeptuell motivierte Muster wie bei
der wörtlichen Sprache. Zum Beispiel beim Versprecher der in der heutigen Zeit
weniger oft verwendeten Redewendung „The shit hits the fan“ wurden die Nomen
vertauscht (8-X a.). Damit vergleichbar wurde die Redewendung „Wolf in sheep’s
clothing“, die ein nicht häufig verwendetes Idiom biblischen Ursprungs ist, phono-
logisch verändert, und zwar auf Grund des frequenten Wortpaars „cheap clothing“
(8-X b.). Im dritten Beispiel wurde das Verb ausgetauscht und der generierte Satz
ist plausibel, wenn das ursprüngliche Idiom bekannt ist (8-X c).

147
148 6 Figurative Sprache

8-X a. „The fan is hitting the roof“: The shit hits the fan
b. „Wolf in cheap clothing“: Wolf in sheep’s clothing
c. „I wouldn’t eat that with a ten-foot pole“: I wouldn’t touch that with a
ten-foot pole

Die veränderten figurativen Ausdrücke weisen darauf hin, dass kompositionelle


Elemente an der Sprachproduktion beteiligt sind. Unter Berücksichtigung der
umfangreichen Vielfalt figurativer Ausdrücke, insbesondere im Bereich der Me-
taphern, erscheint es schwierig, eine einheitliche Metapherntheorie zu entwickeln.
Die meisten Ansätze unterscheiden auf Grundlage von mentalen Berechnungs-
unterschieden zwischen verschiedenen Metapher-Kategorien. Einige verhalten
sich wie Idiome, da sie sehr konventionalisiert sind, andere werden vielleicht nur
einmal bzw. durch Zufall verwendet, und andere neuartige Konstruktionen werden
häufiger verwendet und finden ihren Weg in den alltäglichen Sprachgebrauch. Eine
einheitliche Theorie erscheint daher kein angemessener Ansatz zur Beschreibung
von Metaphern. Die große Vielfalt verschiedener Metaphern erfordert, dass jeder
Ausdruck bzw. jede Redewendung gesondert analysiert wird, da auch der Versuch,
mit verschiedenen Kategorien zu arbeiten, nur einen kleinen Teil der im Alltag
verwendeten Metaphern abdeckt. Die große Bedeutung von Metaphern lässt sich
dennoch folgendermaßen zusammenfassen: Ohne Zweifel ist eine Metapher ein
ideales Mittel, um einen speziellen individuellen Gedanken zu vermitteln.

Literatur
Literatur
Chomsky, N. (1981). Lectures on government and binding. Dordrecht, Holland: Foris Pu-
blications.
Fauconnier, G. (1985). Mental spaces. Cambridge, MA: MIT Press.
Fauconnier, G. (1997). Mappings in thought and language. Cambridge, UK: Cambridge
University Press.
Fraser, B. (1970). Idioms within a transformational grammar. Foundations of Language,
6, 22–42.
Gibbs, R. W. (1994). The poetics of mind: figurative thought, language, and understanding.
Cambridge, UK: Cambridge University Press.
Gove, P. B. (1993). Webster’s third new international dictionary. Springfield: Merriam Webster.
Hillert, D. G. (2008). On idioms: cornerstones of a neurological model of language processing.
Journal of Cognitive Science, 9, 193–233.
Hillert, D., & Ackerman, F. (2002). Accessing and parsing phrasal predicates. In N. Dehé,
R. Jackendoff, A. McIntryre & S. Urban (eds.), Verb-particle explorations. Berlin, New
York: Mouton de Gruyter, pp. 289–313.
Jackendoff, R. (1997). The architecture of the language Faculty. Cambridge, MA: MIT Press.
Literatur 149

Jackendoff, R. (2002). English particle constructions, the lexicon, and the autonomy of syntax.
In N. Dehé, R. Jackendoff, A. McIntryre, & S. Urban (eds.), Verb-particle explorations.
Berlin, New York: Mouton de Gruyter, pp. 67–94.
Katz, J. J., & Postal, P. M. (1964). An integrated theory of linguistic descriptions. Cambridge,
MA: MIT Press.
Lakoff, G., & Johnson, M. (1980). Metaphors we live by. Chicago: University of Chicago Press.
Langacker, R. W. (1987). Foundations of Cognitive Grammar: theoretical prerequisites.
Volume 1. Stanford University Press.
Michel, J. B., Shen, Y. K., Aiden, A. P., Veres, A., Gray, M. K.; Google Books Team, Pickett,
J. P., Hoiberg, D., Clancy, D., Norvig, P., Orwant, J., Pinker, S., Nowak, M. A., & Aiden,
E. L. (2011). Quantitative analysis of culture using millions of digitized books. Science,
331(6014), 176–82.
Newmeyer, F. J. (1974). The regularity of idiom behavior. Lingua, 34(4), 327–42.
Quine, W. v. O. (1960). Word & object. Cambridge, MA: MIT Press.
Stevenson, A. (1993). Oxford English dictionary. Oxford: Oxford University Press.
Van Gestel, F. (1995). En bloc insertion. In: M. Everaert, E.-J. van der Linden, A. Schenk
& R. Schreuder (eds.), Idioms: structural and psychological perspectives. Hillsdale, NJ:
Lawrence Erlbaum.
Wasow, T., Sag, I., & Nunberg, G. (1983). Idioms: An interim report. In S. Hattoru & K. Inoue
(eds.), Proceedings of the XIIIth International Congress of Linguistics. Tokyo: Nippon
Toshi Center, pp. 102–115.

149
Teil III
SCHALTKREISE

151
Generierung von Sätzen
9

Zusammenfassung

Obwohl Bildgebungsverfahren und elektrophysiologische Methoden eine ge-


nauere Bestimmung der mit der Satzverarbeitung verbundenen neuronalen
Korrelate ermöglichen, gibt es methodologische Probleme, die bei der Interpre-
tation von Studienergebnissen zu berücksichtigen sind. Einige kritische Faktoren
beziehen sich auf die zu prüfende Satzstruktur und auf die Anforderungen der
Aufgabenstellung. Zudem spielen bei der Satzverarbeitung Funktionen des Ar-
beitsspeichers eine wichtige Rolle. Schließlich gibt es auch kritische Argumente
gegen die statistische Analyse der mit Bildgebungsverfahren gewonnenen Daten.
Wir können jedoch feststellen, dass insbesondere das Broca-Areal (BA 44, 45),
der linke supplementär-motorische Cortex und der prämotorische Cortex bei
der komplexen Satzverarbeitung beteiligt sind. Diese mentalen Berechnungen
involvieren ebenso die Verarbeitung von syntaktischen Dependenzen. Die
Ergebnisse zur komplexen syntaktischen Verarbeitung sind mit den Daten
kompatibel, die zeigen, dass Arbeitsspeicherfunktionen, einschließlich Rehe-
arsal-Prozessen, verschiedene Regionen im präfrontalen Cortex aktivieren.
Die Interpretation von Satzbedeutungen scheint demgegenüber insbesondere
den linken (aber manchmal auch den rechten) Gyrus temporalis superior und
den Gyrus temporalis medius sowie die parietalen Regionen, einschließlich des
Gyrus angularis, zu involvieren.

Stichwörter

Arbeitsspeicher, Broca-Areal, Frontotemporale Schaltkreise, Hierarchische


Strukturen, Präfrontaler Cortex, Satzverarbeitung, Semantische Integration,
Syntaktische Komplexität, Syntaktische Dependenzen, Temporallappen.
153
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_10
154 6 Figurative Sprache

9.1 Strukturelle Komplexität


9.1 Strukturelle Komplexität
Das menschliche Gehirn besitzt eine Prädisposition, aufgrund perzeptuell-diskreter
Einheiten Sequenzen hierarchisch zu strukturieren. Diese Strukturen folgen kom-
binatorischen Prinzipien oder syntaktischen Regeln und werden insbesondere im
sprachlichen und musikalischen Bereich angewendet. Hier beschäftigen wir uns
ausschließlich mit der linguistischen Kapazität, die als ein Fenster für die Erfor-
schung der zugrunde liegenden offensichtlich human-spezifischen, universellen
kognitiven Prinzipien und der entsprechenden neuronalen Korrelate fungiert.
Diese universellen Prinzipien liegen der typologischen Varianz natürlicher Spra-
chen zugrunde. Diese Varianz kommt und geht mit dem Erscheinen von kultu-
rellen Gemeinschaften.45 Um einen Satz (grammatisch oder nicht grammatisch)
zu verstehen, aktivieren Sprecher intrinsisch nicht nur Langzeitwissen, sondern
führen mentale Berechnungen auf der Grundlage dieses Wissens aus, damit die
Einheiten bezüglich einzelsprachlicher syntaktischer Regeln unifiziert werden
können. Dieser duale Ansatz trifft nicht nur für die Satzverarbeitung, sondern für
die meisten erworbenen kognitiven Fähigkeiten zu. Diese Satzverarbeitung kann als
ein spezialisiertes syntaktisches Netzwerk verstanden werden. Mentale Repräsen-
tationen und Berechnungen fungieren in der gleichen Dimension, aber involvieren
offensichtlich verschiedene Arten von Operationen. Mentale Repräsentationen
unterscheiden sich bezüglich des Aktivationsniveaus und mentale Berechnungen
unterscheiden sich hinsichtlich ihrer Prozesskosten.
Bevor bildgebende Verfahren allgemein in die Kognitionsforschung Eingang
gefunden hatten, beruhte die wichtigste Evidenz auf der Analyse agrammatischer
sprachlicher Äußerungen sowie auf dem syntaktischen Satzverstehen aphasischer
Patienten (z. B. Hillert, 1990, 1994; Goodglass, 1993). Es wurde angenommen, dass
das Broca-Areal (BA 44/45 äquivalent zu F3op/F3t) eine corticale Region ist, die für
die syntaktische Verarbeitung eines Satzes verantwortlich ist.46 Mit der Entwicklung
von bildgebenden Verfahren, verbesserten psycholinguistischen echtzeitlichen
(online) Verfahren und präziseren theoretischen Ansätzen stellt sich jedoch heraus,
dass diese Schlussfolgerungen eine allzu starke Vereinfachung sind. Viele empirische

45 Im September 2012 wurden in „Ethnologue“ 6.909 Sprachen voneinander unterschieden


(Lewis, ed. 2009).
46 Das Broca-Areal involviert typischerweise BA 44 und 45, einzelne Studie schließen BA 47
mit ein. Die Begriffe „Pars opercularis (F3op) und „Pars triangularis“ (F3t) werden ebenso
verwendet, sind jedoch nicht vollständig bedeutungsgleich mit den Arealen BA 44 und
BA 45.
9.1 Strukturelle Komplexität 155

Daten unterstützen nicht die Annahme, dass das Broca-Areal ausschließlich für
sprachlich-syntaktische Berechnungen zuständig ist.
Einige methodologische Bedenken sollten an dieser Stelle erwähnt werden.
Aufgrund der Anwendung von fMRT sind wir in der Lage, ein genaueres Bild über
die neuronalen Strukturen zu erhalten, die bestimmten kognitiven Berechnungen
zugrunde liegen. Wir nehmen hier an, dass die meisten fMRT-Daten in der linguis-
tischen Domäne nützliche Informationen über die korrelierende neuronale Aktivität
liefern. Einige wenige Kollegen bezeichnen dennoch diese empirische Forschung
als „Voodoo-Wissenschaft“, indem sie die angewendeten Korrelationsmethoden
in Frage stellen (Vul et al., 2009). Wie jede andere empirische Methode impliziert
auch das kognitive MRT-Verfahren problematische, verbesserungsbedürftige As-
pekte, und sinnvolle Kritiken dürften dazu beitragen, den Forschungsbereich der
kognitiven Bildgebung zu verbessern. Das Verfahren an sich vollständig in Frage
zu stellen, scheint gegenwärtig nicht gerechtfertigt zu sein. Kritisch muss jedoch
die Bildbefindung gesehen werden. Die Interpretation beruht normalerweise auf
Gruppenanalysen, (probandenspezifische) Einzelfallstatistiken werden nicht pub-
liziert. Dies ist ein allgemeines methodologisches Problem von Verhaltensstudien
(einschließlich psycholinguistischer Forschung), aber oftmals können signifikante
Unterschiede nur auf der Gruppenebene festgestellt werden. Des Weiteren werden
fMRT-Daten typischerweise als Kontraste dokumentiert, d. h., Bedingung A ist ak-
tiver im Vergleich zu Bedingung B. Dies impliziert jedoch nicht, dass B nicht aktiv
ist. Die Beziehung zwischen A und B wird als ein von A verursachter signifikanter
Effekt dargestellt. Unter Berücksichtigung dieser methodologischen Implikationen
untersuchen wir nun die fMRT-Daten zu den syntaktischen Berechnungen auf
der Satzebene.
Zunächst verdeutlichen fMRT-Studien, dass das Broca-Areal nicht nur durch
die Berechnung bestimmter syntaktischer Strukturen aktiviert wird, sondern
auch durch das Verarbeiten verschiedener phonologischer und lexikalisch-seman-
tischer Strukturen (z. B. Burton, 2001; Bookheimer, 2002; Hillert und Buračas,
2009). Das Broca-Areal wird zudem in anderen Domänen aktiviert (z. B. Motorik
oder Rhythmik: Iacoboni et al., 1999; Herdener et al., 2012). Die MRT-Daten
verdeutlichen, dass das Broca-Areal nicht ausschließlich bei der Sequenzierung
hierarchischer Strukturen lexikalischer Einheiten aktiviert wird, sondern auch
bei anderen kognitiven Berechnungen, die die Generierung und Linearisierung
struktureller Hierarchien involvieren. Es sollte jedoch berücksichtigt werden,
dass eine Läsion im Broca-Areal weder ausreichend noch notwendig sein muss,
um eine Störung (morpho-)syntaktischer Prozesse zu bewirken (Dronkers et al.,
1994). Der Zugriff auf syntaktische Informationen ist nicht an sich bei Patienten
mit Broca-Aphasie beeinträchtigt, da sie in der Lage sind, die Grammatikalität

155
156 6 Figurative Sprache

bestimmter Satzstrukturen korrekt zu bewerten (Linebarger, 1983). Schließlich


ist es ebenso wichtig hervorzuheben, dass syntaktische Berechnungen nicht nur
das Broca-Areal involvieren, sondern auch den linken und rechten Temorallappen
(BA 21, 22), wie es verschiedene fMRT-Studien belegen (z. B. Mazoyer et al., 1993;
Just et al., 1996; Embick et al., 2000; Meyer et al. 2000; Moro et al., 2001). In der
Studie von Mayozers und Kollegen zeigten sich bilaterale Aktivierungen des Polus
temporalis (Schläfenpol) beim Zuhören von Geschichten im Vergleich zu Wörtern.
Diese Studien unterscheiden allerdings oftmals nicht zwischen semantischen und
syntaktischen Berechnungen auf der Satzebene.
Im Allgemeinen bleibt es bislang eine offene Frage, ob spezifische strukturelle
Aspekte mit bestimmten Teilbereichen des Broca-Areals assoziiert sind. Einige
Studien dienen in diesem Zusammenhang als repräsentative Beispiele. In der fMRT
Studie von Dapretto und Bockheimer (1999) wurden die Probanden aufgefordert zu
entscheiden, ob zwei (auditorisch präsentierte) Sätze identisch sind oder nicht. Die
syntaktische Bedingung bestand aus einem Aktivsatz (9-I a.) und einem Passivsatz
(9-I b.); in der semantischen Bedingung unterschied sich das Satzpaar durch ein
einzelnes Wort (9-II a., b.).47

9-I a. The policeman arrested the thief.


b. The thief was arrested by the policeman.

9-II a. The lawyer questioned the attorney.


b. The driver questioned the attorney.

Signifikante Aktivierungen wurden im BA 44 für syntaktische Berechnungen gefun-


den (im Vergleich zu den semantischen Berechnungen oder der Rest-Bedingung);
die semantischen Berechnungen scheinen jedoch mit dem BA 47 assoziiert zu sein
(Semantik minus Syntax). Der operkulare Anteil des Broca-Areals ist anscheinend
dann aktiv, wenn syntaktische (strukturgesteuerte) und nicht semantische (in-
haltsgesteuerte) Berechnungen erforderlich sind. In einer anderen MRT-Lesestudie
von Kang et al. (1999) wurden als Stimulusmaterial VPs verwendet; neben der
sprachlich korrekten Baseline-Bedingung (9-III a.) wurden syntaktische (9-III b.)
und semantische (9-III c.) Verletzungen präsentiert.

47 Im vorliegenden Kontext möchten wir einen allgemeinen Überblick zu den relevanten


Ergebnissen vermitteln. Hierbei verzichten wir im Wesentlichen auf methodische
Unterschiede zwischen den verschiedenen Studien, wie das experimentelle Design (z. B.
Block-Design vs. ereignisbezogenes Design; Modalität der Präsentation). Methodische
Unterschiede modifzieren die Endergebnisse und führen daher in einigen Fällen zu
unterschiedlichen Schlussfolgerungen.
9.1 Strukturelle Komplexität 157

9-III a. drove cars


b. *forgot made
c. *wrote beers

Die Ergebnisse scheinen den Befund von Dapretto und Bockheimer in dem Sinne zu
bestätigen, dass im Vergleich zur Baseline beide Verletzungsarten Aktivierungen in
BA 44 und BA 45 bewirkten. Hierbei wurde in BA 44 eine stärkere Aktivierung für
die syntaktische Verletzung festgestellt. Diese Studie ist allerdings auch ein Beispiel
für die Schwierigkeit, verschiedene linguistische Verarbeitungsebenen voneinander
zu unterscheiden. Beide in (9-III a.) und (9-III b.) erwähnten Verletzungsarten
involvieren allerdings nicht nur syntaktische, sondern auch semantische Berech-
nungen, um die Bedeutungen der offenkundig nicht-verbundenen Wörter zu gene-
rieren (z. B. „wrote [about] beer“; „[he] wrote beer“). Wie der Sprecher linguistische
Verletzungen kompensiert, erfordert weitere Untersuchungen. Vermutlich spielen
hierbei Präferenzstrategien eine wichtige Rolle. Es ist durchaus möglich, dass die
Ergebnisse der Studien zur phrasalen Verletzung unterschiedliche Schweregrade
widerspiegeln und somit keine brauchbaren Ergebnisse zur Unterscheidung zwi-
schen semantischen und syntaktischen Berechnungen liefern. Interessanterweise
wird BA 44 stärker aktiviert als BA 45, wenn die Verletzung stärker zu sein scheint.
Indem der Grad der syntaktischen Komplexität oder besser der Satzkomplexität
variiert wird, ist es in den meisten Fällen schwierig zu entscheiden, ob die gefundenen
Aktivierungsmuster auf die syntaktische Verarbeitung zurückzuführen sind oder
auf andere kognitive Faktoren wie die variierenden Berechnungskosten, die durch
die Satzlänge und/oder Satzkomplexität bestimmt werden. In der von Stromswold
und Kollegen (1996) durchgeführten semantischen Plausibilitätsstudie wurde zum
Beispiel festgestellt, dass bei zentral-eingeschobenen Nebensätzen BA 44 stärkere
Aktivierungen aufweist als bei rechts-verzweigten Relativsätzen. Es wurde daher
angenommen, dass es sich hierbei um einen Berechnungskosten-Effekt handelt
(siehe auch Just et al., 1996). In einer entsprechenden fMRT-Studie von Caplan
und Kollegen (2008) wurden vergleichbare zentral-eingeschobene (9-IV a.) und
rechts-verzweigte Strukturen (9-IV b.), die beide Objekt-extrahierende Sätze
darstellen, im Kontext verschiedener Aufgabenbedingungen untersucht (Satzve-
rifikation, Plausibilitätsbeurteilungen oder Nicht-Wort-Erkennungsaufgabe), um
aufgabenspezifische Einflüsse auf die syntaktische Verarbeitung zu untersuchen.

9-IV a. The juicei that the child spilled ti stained the rug.
b. The child spilled the juicei that ti stained the rug.

157
158 6 Figurative Sprache

Vergleichbare Ergebnisse wurden in der Studie von Caplan und Kollegen gefunden.
Sie nehmen entsprechend an, dass die Aktivierung des linken IFG (Brocas-Areal)
in diesen Fällen aufgabenunabhängig ist. Obwohl diese Studie verdeutlicht, dass
die Aktivierungseffekte nicht auf aufgabenspezifische Anforderungen reduziert
werden können, bleibt es eine offene Frage, ob diese Ergebnisse durch syntaktische
und/oder verarbeitungsbezogene Komplexität hervorgerufen wurden.
Verschiedene Untersuchungen wurden entwickelt, um festzustellen, ob größere
Berechnungskosten auf den Anstieg der Arbeitsspeicherbelastung oder der syn-
taktischen Komplexität zurückzuführen sind. Die relevanten Studien untersuchten
insbesondere Objekt-extrahierende NP vs. Subjekt-extrahierende NP (siehe zum
Beispiel Caplan et al., 1998). Die Ergebnisse verdeutlichen, wie zu erwarten war, dass
die Zuweisung syntaktischer Strukturen und θ-Rollen bei Objekt-extrahierenden
NP höhere Berechnungskosten involviert als bei Subjekt-extrahierenden NP. Im
Unterschied zu (9-IV) findet die Objekt-Extrahierung bei Topikalisierungen im
Hebräischen (9-V a.) ohne einen Relativsatz statt. Beim Vergleich mit der (kano-
nischen) Baseline-Bedingung (9-V b.) zeigte sich eine konsistente Aktivierung im
Broca-Areal (Ben-Shachar et al., 2004). Dies wurde dahingehend interpretiert, dass
Objekt-extrahierende Strukturen höhere Berechnungskosten involvieren.

9-V a. [‘et ha-sefer ha-’adom]i John natan ti [la-professor me-oxford]


[das-Buch das-rot]i John gab ti [an-den-Professor aus-Oxford]

b. John natan [‘et ha-sefer ha-’adom] [la-professor me-oxford]


John gab [das-Buch das-rot] [an-den-Professor aus-Oxford]

In der fMRI-Studie von Chen et al. (2006) wurden BOLD-Effekte im Broca-Areal


nur bei einem Subset von Objekt-extrahierenden Sätzen gefunden, und zwar dann,
wenn die Kopf-(Objekt-)NP „belebt“ war und die Subjekt-NP des Relativsatzes
„nicht-belebt“ war (9.6 a.). Im umgekehrten Fall trat dieser Effekt nicht auf (9.6 b.).

9-VI a. The directori that the movie pleased ti received a prize at the film festival.
b. The moviei that the director watched ti received a prize at the film festival.

Diese Ergebnisse weisen darauf hin, dass höhere Berechnungskosten nicht unbe-
dingt bei Objekt-extrahierenden Sätzen auftreten. Vielmehr lassen sich in diesen
Fällen die Aktivierungen auf eine Revision der θ-Rollenzuweisung zurückführen.
Die erneute Objekt-NP-Zuweisung des Agens in dem Relativsatz dürfte mit der
kanonisch-heuristischen Strategie nicht vereinbar sein, die eine unbelebte θ-Rolle
wie Thema antizipiert. Der im Broca-Areal aufgetretene Effekt könnte daher auf
9.1 Strukturelle Komplexität 159

eine θ-Rollenzuweisung und nicht auf allgemeine, mit der Objekt-Extrahierung


verbundene kognitive Berechnungen zurückgeführt werden. Wir können allerdings
nicht ausschließen, dass sich die Berechnungskosten auf die thematische Revision
beziehen und nicht auf die semantischen Zuweisungsprozesse an sich. Diese Studien
mit bildgebenden Verfahren zeigten interessante Ergebnisse bei der Verarbeitung
spezifischer Satzstrukturen, jedoch können sie, wie bereits erwähnt, auf höheren
Berechnungskosten beruhen – obwohl diese mit spezifischen Satzstrukturen ver-
bunden sind. In der mit deutschen Sätzen durchgeführten Studie von Makuuchi
und Kollegen (2009) wurden doppelt (9-VII a.) und einfach verschachtelte Satz-
strukturen (9-VIII a.) mit entsprechenden linearen Baseline-Strukturen (9-VII b.,
9-VIII b.) verglichen, um die syntaktische Komplexität gegenüber dem Faktor
„Länge“ (kursiv in den Beispielen) zu kontrollieren.

9-VII a. Peter wusste, dass Maria, [die Hans, der gut aussah, liebte], Johann
geküsst hatte.
b. Peter wusste, dass Achim den großen Mann gestern am späten Abend
gesehen hatte.

9-VIII a. Peter wusste, dass Maria, [die weinte], Johann geküsst hatte, und
zwar gestern Abend.
b. Peter wusste, dass Achim den großen Mann gesehen hatte, und zwar
am Abend.

Die fMRI-DTI-Daten unterstützen wiederum die Annahme, dass die Syntax


den posterioren BA 44-Anteil rekrutiert, während der inferiore frontale Sulkus
oberhalb des Broca-Areals Gedächtnisprozesse involviert. Um solche und andere
methodologische Faktoren zu vermeiden, wurden strukturelle Eigenschaften einer
neu erworbenen künstlichen Sprache untersucht (Musso et al., 2003; Tettmanti
et al., 2009). In der Studie von Musso und Kollegen wurde BA 45 aktiviert, wenn
die Probanden eine mögliche, mit natürlichen Sprachen kompatible Syntaxregel
verarbeiteten (jedoch nicht, wenn die Muttersprache der Probanden verwendet
wurde), aber nicht, wenn die „Syntaxregel“ einer nicht-möglichen syntaktischen
Struktur entsprach und nicht in natürlichen Sprachen vorkommt. Spezifische
Schlussfolgerungen können allerdings aufgrund dieser Ergebnisse nicht gezogen
werden. Weitere Studien müssten durchgeführt werden, um zu validieren, dass BA
45 gegenüber BA 44 (oder anderen relevanten Regionen) eine spezifische Rolle bei
der Verarbeitung neuer syntaktischer Strukturen spielt.
In der MRT-Studie von Tettmanti und Kollegen wurden die Faktoren „Lernen
von linearen (rigiden) Strukturen“ und „Lernen von hierarchischen (nicht-rigiden)

159
160 6 Figurative Sprache

Strukturen“ bei einer visuell-räumlichen Aufgabe kontrastiert, die aus linearen


Sequenzen mit nicht-symbolischen Elementen bestand. Ein domänunabhängiger
Effekt wurde im linken BA 44 beim Erwerb „nicht-rigider“ Syntax gefunden; dies
traf jedoch nicht für „rigide“ syntaktische Strukturen zu (siehe auch Fiebach und
Schubotz, 2006). Entsprechend wurde vorgeschlagen, dass hierarchische Strukturen
im Broca-Areal verarbeitet werden und dass andere syntaktische Strukturen au-
ßerhalb des Broca-Areals berechnet werden: lokale Phrasenstrukturen im frontales
Operculum und im anterioren STG) sowie syntaktische Integration im posterioren
STG/STS (Anwander et al., 2007; siehe auch Abb. 9.1).

Abb. 9.1 Bei individuellen Probanden: Segmentierung des linken IFG im frontalen
Operculum (rot), BA 45 (blau) und BA 44 (grün) und konnektive Projektionen
von diesen Arealen auf den temporoparietalen Cortex (arlf, aszendierender
Ast der lateralen Fissur; ds, diagonaler Sulkus; hrlf, horizontaler Ast der
lateralen Fissur; ifs, inferiorer frontaler Sulkus; prcs, präzentraler Sulkus
(adaptiert, Anwander et al., 2007; © Oxford University Press).

Das frontotemporale Netz ist auch an der Disambiguierung von Satzstrukturen


beteiligt (Tyler et al., 2011).
9.1 Strukturelle Komplexität 161

9-IX a. The newspaper reported that [bullying teenagers] are a problem for
the local school.
b. The newspaper reported that bullying [teenagers] is bad for their
self-esteem.

In dieser Studie nahmen die Probanden die Sätze passiv wahr, die an der Verb-Po-
sition des (rechtsverzweigten) Relativsatzes disambiguiert wurden, da der Numerus
nur eine Interpretation zulässt. Vor diesem Verb wurde ein „ing“-Wort zusammen
mit einem Nomen (z. B. „bullying teenagers“) präsentiert, das als ein Adjektiv
(9-IX a.) oder als Gerundium (9-IX b.) fungieren kann. Die Autoren berichteten
über gemeinsame linksseitige Aktivierungen von BA 45 und BA 47 und dem pos-
terioren MTG und interpretierten ein linksseitiges parietales Cluster als Ausdruck
der Arbeitsspeicherbelastung. Obwohl der Prozess der Disambiguierung ein rein
syntaktischer Prozess ist, spielen auch semantische Faktoren eine Rolle wie zum
Beispiel bei der initialen Präferenzstrategie. Tyler und Kollegen heben jedoch her-
vor, dass der P600-Scheitelpunkt, der bei EEG/MEG48-Studien zur syntaktischen

48 Die populärste nicht-invasive Methode, um elektrophysiologische Aktivitäten des Gehirns


zu messen, wird als ereigniskorreliertes Potential (EKP; auch ERP, „event-related poten-
tials“) bezeichnet. Es handelt sich hierbei um eine funktionale Elektroenzephalographie
(EEG), da die elektrisch-corticale Aktivität in Bezug auf eine kognitive Verhaltensaufgabe
gemesssen wird. Hierbei werden Elektroden an der Schädeloberfläche befestigt. Die EEG
wurde 1924 von dem deutschen Physiker Hans Berger entdeckt. Diese Methode spiegelt
tausende parallele corticale Prozesse wider. Eine Korrelation der elektrischen Signale
mit einem bestimmten Stimulus erfordert viele Versuche, so dass weißes Rauschen ge-
mittelt werden kann. Das EKP ermöglicht eine echtzeitliche Messung der Hirnaktivität
und kann somit Reaktionen finden, die nicht alleine durch Verhaltensbeobachtungen
ermittelt werden können. Die zeitliche Auflösung des EKP ist sehr gut (ca. < 10 ms), die
räumliche Auflösung bleibt unterbestimmt, da die EKP nicht (sub)cortical lokalisiert
werden können. Die bekanntesten EKP-Komponenten sind „die frühe linke anteriore
Negativität“ (ELAN, the early left anterior negativity), die N400 und die P600. ELAN
ist eine negative μV-Reaktion, die nach Darbietung einer Phrasenstruktur-Verletzung
(z. B. „Sam played on the *wrote“) ihren Scheitelpunkt bei ca. < 200 ms hat, und die
N400 ist eine negative Reaktion auf eine semantische Verletzung ca. 400 ms nach der
Stimulusgebung („*Sam ate the shoes“); die P600 ist wiederum eine positive Reaktion
(auch als SPS, „syntactic positive shift“, bekannt), die bei 500 ms nach der Stimulusge-
bung auftritt und bei ca. 600 ms ihren Scheitelpunkt hat. Die P600-Komponente tritt bei
„Holzweg-Sätzen“ („garden-path sentences“), Lückenschließ-Dependenzien“ („filler-gap
dependencies“) und morphosyntaktischen Verletzungen (z. B. Numerus, Kasus, Genus)
auf (Osterhout & Holcomb, 1992).
Die Magnetoenzephalographie (MEG), erstmals von Cohen (1968) eingeführt, besitzt
eine exzellente zeitliche Auflösung und generiert evozierte Potentiale wie EEG oder
EKP. Die magnetischen Komponenten werden gemäß ihren Latenzzeiten bezeichnet.
161
162 6 Figurative Sprache

Ambiguität auftritt, diese Auslegung der Ergebnisse rechtfertigt. Die P600 spiegelt
eine Interaktion zwischen dem linken IFG und dem MTG wider.
Dieser kurze Überblick verdeutlicht, dass es verschiedene linguistische und
kognitive Hypothesen darüber gibt, wie das Gehirn bestimmte syntaktische As-
pekte berechnet. Allerdings lässt sich festhalten, dass syntaktische Berechnungen
schwerpunktmäßig im linken frontotemporalen Netz stattfinden, und dieses
Netzwerk ist an verschiedenen Berechnungsarten beteiligt wie domänunabhängige
syntaktische Prozesse, Verknüpfungen mit nicht-syntaktischen Berechnungen und
andere, an der Satzverarbeitung beteiligte Prozesse. Der linke Pars opercularis
scheint insbesondere die Region zu sein, in der kurzzeitige Dependenzrelationen
manipuliert werden. Es stellte eine empirische Herausforderung dar, die verschie-
denen, an der Satzverarbeitung beteiligten Dimensionen voneinander abzugrenzen
(z. B. aufgabenspezifische Anforderungen, Arbeitsspeicherbelastungen, Semantik
anderer Kontextinformationen), Zugriff auf und Integration von morphologischen
und syntaktischen Substrukturen. Wie bereits hervorgehoben wurde, scheint
insbesondere der S/MTL bei der satzrelevanten syntaktischen Integration an der
Disambiguierung beteiligt zu sein. Beide Aspekte involvieren semantische Prozesse,
was darauf hinweist, dass die Aktivitäten temporaler Regionen an der Schnittstelle
von Syntax und Semantik hervorgerufen werden. Price (2010) gibt einen Überblick
zu 100 fMRT-Studien, die im Jahr 2009 veröffentlicht wurden, und weist daraufhin,
dass vier Hauptregionen in Bezug auf die Verarbeitung von grammatisch korrekten
Sätzen, die entweder plausibel sind oder nicht, erwähnt werden: linker MTG, bila-
teraler anteriorer temporaler Pole, linker Gyrus angularis und posteriorer Gyrus
cingulus/Precuneus (siehe auch Binder et al., 2009).
Ohne auf die einzelnen experimentellen MRT-Bedingungen, die bei jeder Studie
angewendet wurden, einzugehen, verdeutlicht dieser von Price erstellte Überblick,
dass Schwierigkeiten bei der Satzwahrnehmung deutlich mit den sogenannten Be-
rechnungskosten korrelieren. Bei der Berechnung von semantischen (Obleser und

Zum Beispiel wird die M100 ca. 100 ms nach der Stimulusgebung wie Töne oder Lau-
tinformation eines Wortes hervorgerufen. Die M400 (korrespondiert mit der N400)
wird im Zusammenhang mit der semantischen Verarbeitung generiert. Magnetische
Felder sind im Vergleich zu EEG weniger störanfällig und besitzen daher eine bessere
räumliche Auflösung. Während die EEG insbesondere auf Extrazellularvolumenströme
anspricht, die durch post-synaptische Potentiale ausgelöst werden, reagiert die MEG
auf Extrazellularvolumenströme der synaptischen Potentiale. EEG kann Aktivität in
den Sulki (Hirnfurchen) und auf der Oberfläche der corticalen Gyri (Hirnwindungen)
feststellen; MEG misst meistens die Aktivität, die in den Sukli auftritt. Im Unterschied
zu EKP kann die MEG-Aktivität mit größerer Genauigkeit lokalisiert werden. MEG
wird oftmals mit (f)MRT kombiniert, um funktionale-corticale Karten zu erstellen.
9.1 Strukturelle Komplexität 163

Kotz, 2010; Bilenko et al., 2009) und syntaktischen Ambiguitäten (z. B. Richardson
et al., 2010; Makuuchi et al., 2009) oder von „unplausiblen vs. plausiblen“ Bedeutun-
gen zeigte sich, dass Aktivitäten insbesondere im linken Pars opercularis (BA 44)
festgestellt wurden. Beim Vergleich von „plausiblen vs. unplausiblen“ Bedeutungen
(z. B. Rogalsky und Hickok, 2008; Devauchelle et al., 2009) zeigt sich, dass die Akti-
vitäten vorwiegend in den superioren oder mittleren temporalen Regionen auftraten.

Abb. 9.2 Satzwahrnehmung und Ambiguitäten: linksseitige Aktivitätszentren


der fMRT-Studien. a) schwarze Punkte: plausible vs. unplausible Sätze;
weiße Punkte: Sätze mit vs. ohne visuelle Gesten (a, anterior; p, posterior;
STs, Sulkus temporalis superior; MTg, Gyrus temporalis medius; T. pole,
temporaler Pol; AG, Gyrus angularis); b) schwarze Punkte: semantische
Ambiguität; weiße Punkte:, syntaktische Ambiguität (pTr, Pars triangularis;
d, dorsal; v, ventral; pOP, Pars opercularis; pOr, Pars orbitalis; PT, Planum
temporalis (adaptiert und modifiziert, Price, 2010; © New York Academy of
Sciences).

Die Frage stellt sich, ob spezifische neuronale Schaltkreise die Berechnung semanti-
scher Strukturen in Form von Argumentstrukturen unterstützen. Diese Strukturen
spiegeln die Schnittstelle zwischen Syntax und Semantik auf der Satzebene wider.
Die meisten MRT-Studien berichten in Bezug auf die Berechnung von Verb-Argu-
mentstrukturen über eine Aktivität im linksseitigen MTG und im Broca-Areal (z. B.
Fiez, 1997; Thompson-Schill et al., 1997). Es zeigt sich zudem, dass bei Zunahme der
Satzkomplexität auch das Broca-Areal eine höhere Aktivität aufweist. Der Einfluss
des linguistischen Kontextes auf die Verb-Verarbeitung wurde beispielweise mit
dem MEG-Verfahren belegt (Assadollahi und Rockstroh, 2008). In dieser Studie
wurden bei der Darbietung einzelner Verben etwa 250- 300 ms nach dem Stimu-
163
164 6 Figurative Sprache

lus-Onset verschiedene Aktivierungsstufen im Bereich des MTG gefunden. Diese


Aktivierungsabstufungen scheinen mit der unterschiedlichen Komplexität der
Verb-Argumentstrukturen zu korrelieren. Wenn allerdings das Verb zusammen
mit einem grammatischen Subjekt, einem Eigennamen, präsentiert wurde, fand
die Aktivierung im Bereich 350-440 ms statt, und es wurde über zusätzliche Akti-
vierungen im Broca-Areal berichtet.49 Interessanterweise wurden bei intransitiven
Verben im linken MTG und im Broca-Areal („to snore“) höhere Aktivierungen
als bei ditransitiven Verben („to give“) gemessen. Die Autoren vermuten, dass die
Varianz der Aktivität durch einen Vervollständigungseffekt entsteht. Der linke IFG
würde semantisch-syntaktische Information integrieren. Bei intransitiven Verben
sei diese Information komplett. Bei transitiven und ditransitiven Verben können
Objekt-Argumente nicht zugewiesen werden und θ-Rollen würden daher nicht
auf Phrasenstrukturen abgebildet werden. Mit anderen Worten: Eine semantische
Integration hat nicht stattgefunden. Andere haben wiederum argumentiert, dass
die Integration der semantischen Information eine Domäne der temporoparietalen
Region sei (z. B. Thompson et al., 2007).
Unter Berücksichtigung der unterschiedlichen mit elektrophysiologischen
und bildgebenden Verfahren gewonnenen Ergebnisse ist es offensichtlich, dass im
frontotemporalen Netz semantisch-syntaktische Berechnungen stattfinden. Der
MTG erzeugt θ-Rollen, die im linken IFG auf syntaktische Strukturen abgebildet
werden, wobei BA 47 eine besondere Funktion zukommt. Die Integration von
kreativer, atypischer oder sogar unplausibler Bedeutung, die Berechnungen, die
an der Auflösung semantischer und/oder syntaktischer Ambiguitäten beteiligt
sind, oder auch andere semantische Berechnungen, die Arbeitsspeicherkapazitäten
erfordern, führen zu „Looping“ im frontotemporalen Netz. Die mit bildgebenden
Verfahren ermittelten Daten liefern nur eine Skizze, aber verdeutlichen auch, dass
der linke IFG in semantisch-syntaktische Unterfunktionen unterteilt werden kann.
Während das Parsen im Allgemeinen und speziell in Bezug auf die Generierung
hierarchischer Strukturen eine linksseitige Domäne des Pars opercularis (BA 44)
darstellt, findet die semantische Integration in Form von syntaktischer Abbildung
im Broca-Areal, im orbitalen Areal (BA 47), das sich unterhalb des Pars triangularis
befindet, und im frontopolaren Areal (BA 10) – der anteriore Anteil des präfrontalen
Cortex – statt (z. B. Démonet et al., 1992; Demb et al., 1995; Gabrieli et al., 1996;
Binder et al., 1997; Newman et al., 2003).
Weitere Studien sind erforderlich, um die neuronalen Korrelate spezifischer
semantischer und syntaktischer Strukturen auf der Satzebene zu bestimmen. Mit

49 MEG- oder EEG-Daten können auf ein genormtes bzw. standardisiertes Hirn (inverse
Abbildung) übertragen werden.
9.2 Die Funktion des Arbeitsspeichers 165

Hilfe des sogenannten „Multi-Rezeptor“-Ansatzes haben Amunts und Kollegen


(2010) eine neue Unterteilung des Broca-Areals vorgeschlagen, jedoch bleibt offen,
ob diese neuronale Segmentierung auf funktionale Berechnungen abgebildet werden
können. Zum gegenwärtigen Zeitpunkt können wir nur darüber spekulieren, wie
verschiedene semantisch-syntaktische Funktionen von verschiedenen neuronalen
Arealen berechnet werden, wie diese Areale während der Satzverarbeitung mitei-
nander interagieren und welche Aspekte mit nicht-linguistischen Berechnungen
anderer kognitiver Domänen geteilt werden. Schließlich stützen diese empirischen
Ergebnisse einen theoretischen Ansatz, der nicht von unterschiedlichen semanti-
schen Berechnungen auf der Satzebene ausgeht, sondern eine direkte Abbildung
von konzeptuellen Informationen auf syntaktische Strukturen vorsieht.

9.2 Die Funktion des Arbeitsspeichers


9.2 Die Funktion des Arbeitsspeichers
Unterschiedliche Anforderungen an den Arbeitsspeicher (AS) variieren in der Re-
gel mit dem Komplexitätsgrad eines Satzes. In der Tat gibt es oftmals eine direkte
Korrelation zwischen der strukturellen Komplexität eines Satzes und der entspre-
chenden AS-anforderung. Dazu ein Beispiel: Gewöhnlich sind Objekt-Relativsätze
(Objekt-RS) aus struktureller Sicht komplexer als Subjekt-RS. In (9.12) unterscheiden
sich beide Satzarten in ihrer syntaktischen Komplexität (IP, Flektionsphrase; CP,
Konstituentenphrase; Chomsky, 1986).

9-X a. [IPThe researcheri [CP thati [IP __ i attacked the senator]] admitted
the error]
b. [IPThe senatori [CP thati [IP the researcher attacked __ i ]] admitted
the error]

In dem Subjekt-RS (9-X a.) ist der Agens des Matrixsatzes auch der Agens des RS. Die
kanonische Satzstruktur im Englischen „Subjekt-Verb-Objekt“ wird beibehalten, da
das Subjekt des Matrixsatzes auf die Subjekt-Position des RS übertragen wird. Das
Verstehen von Objekt-RS (9-X b.) involviert allerdings „höhere kognitive Kosten“
als das Verstehen von Subjekt-RS, da die Objekt-Position des RS durch eine leere
syntaktische Kategorie (Spur) besetzt ist (siehe Gibson, 1998). Es ist der Agens des
Matrixsatzes, der als Objekt des RS fungiert. Ein anderes Beispiel bezieht sich auf
ambige syntaktische Strukturen: Der RS kann entweder mit der ersten NP verknüpft
werden oder mit der zweiten NP, der zuletzt gehörten Phrase (9-XI).

165
166 6 Figurative Sprache

9-XI [The daughteri (NP1) of the singerj (NP2) [whoi/j (NP1/2) [IP__ i/j met the teacher]]
found the key]

Die Präferenz für bestimmte Verknüpfungen scheint von der spezifischen Einzel-
sprache abhängig zu sein. Zum Beispiel tendiert ein Muttersprachler des Englischen
dazu, den RS mit NP2 zu verknüpfen, aber Muttersprachler des Niederländischen,
Deutschen, Französischen oder Spanischen tendieren zu einer NP1-Verknüpfung
(z. B. Cuetos und Mitchell, 1988; Brysbaert und Mitchell, 1996; Zagare al., 1997).
Des Weiteren wurde berichtet, dass Kinder mit geringen AS-Kapazitäten eher dazu
neigen, NP2 zu wählen, als Kinder mit höheren AS-Kapazitäten (Felser et al., 2003).
Dieser Rezenzeffekt wurde ursprünglich von Kimball (1973) beobachtet und von
Frazier (1979) anhand des Holzweg(„Garden-Path“)-Modells revidiert („später
Abschluss“). Daher können wir nicht ausschließen, dass Verknüpfungspräferenzen
durch individuelle AS-Kapazitäten bestimmt werden. Personen mit einer niedrigeren
AS-Kapazität scheinen dazu zu neigen, die Satzverarbeitung spät abzuschließen.
Dagegen verknüpfen Personen mit einer höheren AS-Kapazität den RS mit der
erstgenannten NP. Bereits Miller und Chomsky (1963) stellten fest, dass die Berech-
nung von Objekt-RS (9-XII a.) aufwendiger ist als die von Subjekt-RS (9_XII b.).

9-XII a. The fireman who the cop speedily rescued sued the city over working
conditions.
b. The fireman who speedily rescued the cop sued the city over working
conditions.

Im Sinne der „Government-Binding“-Theorie von Chomsky (1981) können Objekt-


und Subjekt-RS mit der X’-Notation beschrieben werden (siehe Kapitel „Semantik
und Syntax“; aus illustrativen Gründen zeigen die Abbildungen keine intermediären
Knoten der X’-Baumstruktur). Der Begriff „Subjekt“ in RS bezieht sich auf die
Tatsache, dass das Subjekt eines Matrixsatzes als Subjekt des RS fungiert (9-XIII).
Der Begriff „Objekt“ im Objekt-RS bezieht sich auf die Tatsache, dass das Subjekt
eines Matrixsatzes als Objekt im Relativsatz fungiert. Die Objekt-NP der RS ist
nicht lexikalisiert, d. h., dass es sich um eine leere syntaktische Kategorie handelt
(„t“, Trace oder Spur). Das Relativpronomen besetzt die erste Position des RS und
lässt eine Spur in der Objekt-Position des RS zurück.
9.2 Die Funktion des Arbeitsspeichers 167

9-XIII


  




  
 

 
    

AGENS AGENS

Da die Subjekt-NP des Matrixsatzes mit dem Relativpronomen koindiziert ist,


reaktiviert der Hörer die koindizierte NP an der Spuren-Position. Die Erhöhung
der Verarbeitungskosten bei Objekt-RS im Vergleich zu Subjekt-RS wurde, wie
bereits erwähnt, in zahlreichen Studien belegt (z. B. Holmes und O’Regan, 1981;
Ford, 1983; King und Just, 1991). Bei einem Subjekt-RS bewegt sich das Relativpro-
nomen aus der Subjekt-Position des RS heraus und belegt die nächsthöhere Ebene.
Die Subjekt-NP des RS wird von dem vorausgehenden Relativpronomen belegt,
das wiederum mit der vorausgehenden Subjekt-NP des Matrixsatzes koindiziert
ist. Die Zeit, die benötigt wird, um die Subjekt-NP des Matrixsatzes (vor der Re-
aktivierung) im Arbeitsspeicher zu halten, ist bei Objekt-RS deutlich länger als bei
Subjekt-RS (Wanner und Maratsos, 1978). Die Erhöhung der kognitiven Kosten bei
Objekt-RS erfolgt in der unmittelbaren Nachbarschaft der Spuren-Position, d. h.
zwischen dem Verb des RS und dem Verb des Matrixsatzes. Der Hörer reaktiviert
an der Spuren-Position das Antezedens und muss eine andere thematische Rolle
zuweisen, um die Bedeutung des Satzes verarbeiten zu können (9-XIV).

9-XIV 

  


  

   





AGENS PATIENS

In der Studie von Nicol und Swinney (1989) wurde eine „Cross-Modale Lexikalische
Entscheidungsaufgabe“50 angewendet, um mögliche Reaktivierungen während der

50 Die „Cross-Modale Lexikalische Entscheidungsaufgabe“ wird als eine Echtzeitme-


thode verstanden, um den frühen Zugriff auf lexikalische (oder andere linguistische)
167
168 6 Figurative Sprache

echtzeitlichen Satzverarbeitung festzustellen. Es zeigte sich bei Objekt-RS wie (9-


XV), dass die Probanden (junge Erwachsene) das Antezedens („boy“) an der Spu-
ren-Position (ti) reaktivierten (Priming), jedoch nicht das Subjekt des RS („crowd“).

9-XV The policeman saw the boyi thati the crowd at the party accused ti of the
crime.

Dieser reaktive Effekt spiegelt kein Residuum wider, jedoch eine Reaktivierung des
Objekts, da kein Priming-Effekt des Objekts vor der Spuren-Position (unmittelbar
vor dem Verb des RS) festgestellt wurde. Allerdings kann offenbar eine thematische
Funktionszuweisung früher, vor der Spuren-Position, stattfi nden (Weckerly und
Kutas, 1999). Weiterhin wurde belegt, dass Hörer mit einer geringeren AS-Kapazität
dazu neigen, gehörte Wörter mit der jüngst berechneten Phrase zu verknüpfen
(Kimball, 1973; Frazier, 1979; Gibson, 1998). Satzbeispiel (9-XVI) ist aufgrund des
„späten Abschlusses“ schwierig zu verstehen. Das Adverb „yesterday“ muss mit der
VP des nicht unmittelbar zuvor gehörten Matrixverbs „said“ verknüpft werden,
jedoch nicht mit der jüngsten VP „will leave for good“, damit die Bedeutung des
Satzes verstanden werden kann.

9-XVI Marcel said that Susan will leave for good yesterday.

Die Zuhörer, die über mehr AS-Kapazitäten verfügen, haben mit solchen Satzstruk-
turen weniger Schwierigkeiten, da sie in der Lage sind, mehr Wörter in ihrem Buffer
vorübergehend aufzubewahren. Der Rezenz- oder minimale Verknüpfungseffekt
(später Abschluss) beruht vermutlich auf begrenzt verfügbare AS-Kapazitäten
während der Satzverarbeitung. Wenn die wahrgenommenen Wörter mit der jüngst
berechneten Konstituente verknüpft wird, ist das auf Inferenzen oder „Abklingen“
(Decay) beruhende Risiko eines Informationsverlustes minimal (z. B. Frazier, 1979,
1987; Frazier und Fodor, 1978). Der Rezenzeffekt scheint nicht universell zu sein und
kann von einzelsprachlichen Faktoren abhängen (Cuetos und Mitchell, 1988). Im

Informationen zu prüfen. Es handelt sich hierbei um eine duale Aufgabenstellung, da


der Proband einen Satz hört und gleichzeitig eine lexikalische Entscheidungsaufgabe
(eine Entscheidung darüber, ob eine Buchstabensequenz ein Wort ist oder nicht) an
der kritischen, experimentell-relevanten Stelle des gehörten Satzes ausführt. Sollte die
Entscheidungsaufgabe ein Wort zeigen, ist es entweder semantisch mit einem Wort im
Satz verwandt oder es besteht keine semantische Beziehung zu einem Wort im Satz.
Die statistische Auswertung der Reaktionszeit-Unterschiede zwischen semantisch
verwandten und semantisch nicht verwandten Wörtern belegt, ob lexikalisches Primen
stattgefunden hat oder nicht (Swinney und Hakes, 1976).
9.2 Die Funktion des Arbeitsspeichers 169

Unterschied zu englischsprechenden Muttersprachlern hatten spanischsprechende


Muttersprachler eine kleine, aber signifi kante Präferenz dafür, die weiter entfernte
NP zu verknüpfen und nicht die jüngste NP (siehe auch Brysbaert und Mitchell,
1996; Desmet et al., 2002). Frazier und Clifton (1997) schlugen daher das sogenannte
„Deutungsmodell“ (construal model) vor, das nicht nur grammatische Beschrän-
kungen berücksichtigt, sondern auch die semantischen Informationen, die mit den
θ-Rollen assoziiert sind. Offensichtlich neigen zumindest Kinder mit geringeren
AS-Ressourcen dazu, sich auf den „späten Abschluss“ zu verlassen. In einer Studie
wurde gezeigt, dass sich 6-7 Jahre alte Kinder mit niedrigen AS-Kapazitäten auf die
Rezenzstrategie verlassen, indem sie den RS mit der jüngsten NP verknüpfen (z. B.
Felser, Marinis und Clahsen, 2003). Zum Beispiel in (9-XVII) bevorzugen Kinder
mit einer niedrigen AS-Kapazität, die vorausgehende NP2 („actress“) mit dem RS
zu verknüpfen und nicht mit NP1 („servant“).

9-XVII Someone shot the servant of the actress who was on the balcony.

Unabhängig von einem möglichen semantischen Plausibilitätseffekt scheint der späte


Abschluss tatsächlich mit reduzierten AS-Ressourcen assoziiert zu sein (9-XVIII).

9-XVIII 

 

  



  


  
   

Sollte der Zuhörer vollständig einer rezenten Strategie („recency strategy“) ver-
trauen (niedrigere NP in der Satzstruktur), kann dies auf Kompensationen, die
durch limitierte AS-Ressourcen verursacht werden, beruhen. De facto sind die
AS-Kapazitäten bei einzelnen Sprechern unterschiedlich und sind auch von Fak-
toren wie Alter, Erziehung und kognitiven Aktivitäten abhängig. Wenden wir uns
im nächsten Abschnitt den neuronalen Korrelaten der AS-Funktionen zu.
Eine mit fMRI durchgeführten Studie zeigte, dass im Vergleich zu Subjekt-ein-
gebetteten Strukturen Objekt-eingebettete Strukturen frontale Regionen aktivie-
ren: linker IFG (Broca-Areal), linker dorsaler prämotorischer Cortex und linkes
supplementär-motorisches Areal und beide BA 6 (Meltzer et al., 2010). Beide BA 6
wurden nur bei reversiblen Sätzen aktiviert. Der Grund hierfür könnte sein, dass
das Parsen von semantisch reversiblen Objekt-eingebetteten Sätzen mit einer

169
170 6 Figurative Sprache

stärkeren kognitiven Belastung verbunden ist. Die Beteiligung des prämotorischen


und supplementär-motorischen Areals dürfte Berechnungen widerspiegeln, die
weniger automatisch stattfinden. Demgegenüber ist das Broca-Areal insbesonde-
re an Berechnungen beteiligt, bei denen die syntaktische Komplexität eine Rolle
spielt, zum Beispiel bei syntaktischen Bewegungen oder bei anderen Strukturen,
die von der Wortordnung „belebtes Agens zuerst“ abgeleitet werden. Außerdem
zeigt die Analyse von reversiblen vs. irreversiblen Satzstrukturen, dass zusätzlich
zu linksseitigen präfrontalen Regionen temporale und parietale Areale aktiviert
wurden. Dieses Ergebnis weist auf stärkere aufmerksamkeitsorientierte Berech-
nungen während der θ-Rollen-Zuweisung hin.

Abb. 9.3 Median-sagittale (oben) und sagittale Ebene (unten) der Brodmann-Areale
und Cerebrellum unterstützen die Funktionen des Arbeitsspeichers (adaptiert
und modifiziert, Chein et al., 2003; © Elsevier Limited).

Bildgebende Studien weisen darauf hin, dass sprachliche AS-Funktionen von


verschiedenen neuronalen Arealen unterstützt werden (z. B. Smith und Jonides,
1998; Capeza und Nyberg, 2000; siehe für einen Überblick Chein, Ravizza und
Fiez, 2003): linker (manchmal auch der rechte) IFG (Broca-Areal: BA 44, 45), lin-
ker und rechter mittlerer frontaler Gyrus (BA 9, 46), linker und rechter medialer
9.2 Die Funktion des Arbeitsspeichers 171

frontaler Cortex, insbesondere der prämotorische Cortex und präsupplementär-mo-


torisches Areal (BA 6), bilateraler supramarginaler Gyrus (SMG) im inferioren
Parietallappen (BA 40), anteriorer Gyrus cinguli (ACC) und das Cerebrellum.
Hierbei scheint der rechte präfrontale Cortex sowohl an räumlichen als auch an
nicht-räumlichen AS-Funktionen beteiligt zu sein, wobei der linke präfrontale Cor-
tex offensichtlich ausschließlich für sprachliche AS-Funktionen zuständig ist. Die
Beteiligung temporopatietaler Regionen hängt offenbar von den zu berechnenden,
spezifischen Stimulus-Eigenschaften ab (Prabhakaran et al., 2000). Die konsistente
Aktivierung des Broca-Areals im Zusammenhang mit sprachlichen AS-Aufgaben
spricht für die Annahme, dass phonologische Wiederholungen (Rehearsal) auch
zu den IFG-Funktionen gehören. Wie bereits oben erwähnt, besteht kein Zweifel,
dass das Broca-Areal an der komplexen Satzverarbeitung wie Reanalyse beteiligt
ist. Einige Studien argumentieren zudem, dass Pars opercularis für das Rehearsen
nicht-kanonischer syntaktischer Strukturen zuständig ist und Pars orbitalis für das
Rhearsen lexikalisch-semantischer Informationen (Just et al., 1996; Dapretto und
Bockheimer, 1999). Im Unterschied dazu wird der parietale Cortex bei AS-Aufgaben
aktiviert, wenn besondere Aufmerksamkeiten erforderlich sind, einschließlich der
Inhibition von sprachlichen Informationen, die automatisch berechnet wurden
(z. B. Posner und Petersen, 1990; Meyer et al., 2013).
Die Untersuchung der Satzverarbeitung involviert verschiedene Variablen, die
aus empirischer Sicht eng verbunden sind oder oftmals als ein einzelnes Phäno-
men wahrgenommen werden. Die Berechnung syntaktischer Strukturen zusam-
men mit θ-Rollen, die den NP zugewiesen werden, erfordert in gewissem Maße
AS-Funktionen. Struktur (Syntax) und Inhalt (Wörter) verschmelzen, um eine
interpretierbare Folge an Einheiten zu generieren. Diese vermutlich modalitäts- und
domänunabhängigen Prozesse, die diese linguistischen Berechnungen ermöglichen,
sind aus evolutionärer Sicht möglicherweise das Ergebnis dieser Berechnungen.
Es sei dahingestellt, ob die Funktionen der neuronalen Strukturen entsprechend
den kognitiven Prozessen unterteilt werden können, ob ein domänspezifisches
neuronales Netzwerk für die Satzverarbeitung zuständig ist oder in diesem Zu-
sammenhang ein hybrides Modell zutrifft, das sowohl aus domänspezifischen als
auch domänunabhängigen Eigenschaften besteht.

171
172 6 Figurative Sprache

Literatur
Literatur
Amunts, K., Lenzen, M., Friederici, A. D., Schleicher, A., Morosan, P., Palomero-Gallagher,
N., & Zilles, K. (2010). Broca’s region: Novel organizational principles and multiple
receptor mapping. PLoS Biology, 8(9). doi:10.1371/journal.pbio.1000489.
Anwander, A., Tittgemeyer, M., von Cramon, D. Y., Friederici, A. D., & Knösche, T. R. (2007).
Connectivity-Based Parcellation of Broca’s Area. Cerebral Cortex, 17(4), 816–25.
Assadollahi, R., & Rockstroh, B. S. (2008). Representation of the verb’s argument-structure
in the human brain. BMC Neuroscience, 9, 69.
Ben-Shachar, M., Palti, D., & Grodzinsky, Y. (2004). Neural correlates of syntactic move-
ment: converging evidence from two fMRI experiments. NeuroImage, 21(4), 1320–36.
Bilenko, N. Y., Grindrod, C. M., Myers, E. B., & Blumstein, S. E. (2009). Neural correlates
of semantic competition during processing of ambiguous words. Journal of Cognitive
Neuroscience, 21(5), 960–75.
Binder, J. R., Frost, J. A., Hammeke, T. A., Cox, R. W., Rao, S. M., & Prieto, T. (1997). Human
brain language areas identified by functional magnetic resonance imaging. The Journal
of Neuroscience, 17(1), 353–62.
Bookheimer, S. (2002). Functional MRI of language: new approaches to understanding the
cortical organization of semantic processing. Annual Review Neuroscience, 25, 151–88.
Brysbaert, M., & Mitchell, D. C. (1996). Modifier attachment in sentence processing: Evidence
from Dutch. Quarterly Journal of Experimental Psychology, 49A, 664–69.
Burton, M. (2001). The role of inferior frontal cortex in phonological processing. Cognitive
Science, 25, 695–709.
Capeza, R., & Nyberg, L. (2000). Neural bases of learning and memory: functional neuroi-
maging evidence. Current Opinion in Neurology, 4, 415–21.
Caplan, D., Chen, E., & Waters, G. (2008). Task-dependent and task-independent neurova-
scular responses to syntactic processing. Cortex, 44(3), 257–75.
Caplan, D., Alpert, N., & Waters, G. (1998). Effects of syntactic structure and propositional
number on patterns of regional cerebral blood flow. Journal of Cognitive Neuroscience,
10(4), 541–52.
Chein, J. M., Ravizza, S. M., & Fiez, J. A. (2003). Using neuroimaging to evaluate models of
working memory and their implications for language processing. Journal of Neurolin-
guistics, 16(4–5), 315–39.
Chen, E., West, W. C., Waters, G., & Caplan, D. (2006). Determinants of bold signal correlates
of processing object-extracted relative clauses. Cortex, 42(4), 591–604.
Chomsky, N. (1986). Knowledge of language: Its nature, origin, and use. New York: Praeger.
Chomsky, N. (1981). Lectures on government and binding. Dordrecht, Holland: Foris Pu-
blications.
Cohen D. (1968). Magnetoencephalography: Evidence of magnetic fields produced by alpha
rhythm currents. Science, 161, 784–786.
Cuetos, F., & Mitchell, D. C. (1988). Cross-linguistic differences in parsing: restrictions on
the use of the Late Closure strategy in Spanish. Cognition, 30(1), 73–105.
Dapretto, M., & Bookheimer, S. Y. (1999). Form and content: dissociating syntax and se-
mantics in sentence comprehension. Neuron, 24, 427–32.
Literatur 173

Demb, J. B., Desmond, J. E., Wagner, A. D., Vaidya, C. J., Glover, G. H., & Gabrieli, J. D. (1995).
Semantic encoding and retrieval in the left inferior prefrontal cortex: a functional MRI
study of task difficulty and process specificity. The Journal of Neuroscience, 15(9), 5870–78.
Démonet, J.-F., Chollet, F., Ramsay, S., Cardebat, D., Nespoulous, J.-L., Wise, R., Rascol,
A., & Frackowiak, R. (1992). The anatomy of phonological and semantic processing in
normal subjects. Brain, 115(6), 1753–68.
Desmet, T., De, B. C., & Brysbaert, M. (2002). The influence of referential discourse context
on modifier attachment in Dutch. Memory & Cognition, 30(1), 150–7.
Devauchelle, A.-D., Oppenheim, C., Rizzi, L., Dehaene, S., & Pallier, C. (2009). Sentence
syntax and content in the human temporal lobe: an fMRI adaptation study in auditory
and visual modalities. Journal of Cognitive Neuroscience, 21(5), 1000–12.
Dronkers, N. F., Wilkins, D. P., Redfem, B. B., Van Valin, J. R., & Jaeger, J. J. (1994). A reconsi-
deration of the brain areas involved in the disruption of morphosyntactic comprehension.
Brain and Language, 47, 461–63.
Embick, D., Marantz, A., Miyashita, Y., O’Neil, W., & Sakai, K. L. (2000). A syntactic specia-
lization in Broca’s area. Proceedings of the National Academy of Science, 97(11), 65150–4.
Felser, C., Marinis, T., & Clahsen, H. (2003). Children’s processing of ambiguous sentences:
A study of relative clause attachment. Language Acquisition, 11(3), 127–163.
Fiebach, C. J., & Schubotz, R. I. (2006). Dynamic anticipatory processing of hierarchical
sequential events: a common role for Broca’s area and ventral premotor cortex across
domains? Cortex, 42(4), 499–502.
Fiez, J. A. (1997). Phonology, semantics, and the role of the left inferior prefrontal cortex.
Human Brain Mapping, 5(2), 79–83.
Ford, M. (1983). A method for obtaining measures of local parsing complexity throughout
sentences. Journal of Verbal Learning and Verbal Behavior, 22(2), 203–18.
Frazier, L., & Fodor, J. D. (1978). The sausage machine: A new two-stage parsing model.
Cognition, 6, 291–325.
Frazier, L., & Clifton, C. (1997). Construal: Overview, motivation, and some new evidence.
Journal of Psycholinguistic Research, 26(3), 277–95.
Frazier, L. (1979). On comprehending sentences: Syntactic parsing strategies. Bloomington,
Indiana: Indiana University Linguistics Club.
Frazier, L. (1987). Structure in auditory word recognition. Cognition, 25(1–2), 416–22.
Gabrieli, J. D. E., Desmond, J. E., Demb, J. B., Wagner, A. D., Stone, M. V., Vaidya, C. J., &
Glover, G. H. (1996). Functional magnetic resonance imaging of semantic memory
processes in the frontal lobes. Psychological Science, 7(5), 278–83.
Gibson, E. (1998). Syntactic complexity: locality of syntactic dependencies. Cognition,
68(1), 1–76.
Goodglass, H. (1993). Understanding aphasia. San Diego, CA: Academic Press.
Herdener, M., Humbel, T., Esposito, F., Habermeyer, B., Cattapan-Ludewig, K., & Seifritz,
E. (2012). Jazz drummers recruit language-specific areas for the processing of rhythmic
structure. Cerebral Cortex (ePrint Nov. 25).
Hillert, D., & Buračas, G. (2009). The neural substrates of spoken idiom comprehension.
Language and Cognitive Processes, 24(9), 1370–91.
Hillert, D. (1990). Sprachprozesse und Wissensstrukturen: Neuropsychologische Grundlagen
der Kognition [German]. Opladen, Germany: Westdeutscher Verlag.
Hillert, D. (ed. 1994). Linguistics and cognitive neuroscience. Linguistische Berichte, Special
Issue 4. Opladen, Germany: Westdeutscher Verlag.

173
174 6 Figurative Sprache

Holmes, V. N., & O’Regan, J. K. (1981). Eye fixation patterns during the reading of relative
clause sentences. Journal of Verbal Learning and Verbal Behavior, 20, 417–30.
Iacoboni, M., Woods, R. P., Brass, M., Bekkering, H., Mazziotta, J. C., & Rizzolatti, G. (1999).
Cortical mechanisms of human imitation. Science, 286, 2526–8.
Just, M. A., Carpenter, P. A., Keller, T. A., Eddy, W. F., & Thulborn, K. R. (1996). Brain acti-
vation modulated by sentence comprehension. Science, 274(5284), 114–116.
King, J., & Just, M. A. (1991). Individual differences in syntactic processing: The role of
working memory. Journal of Memory and Language, 30, 580–602.
Kang, A. M., Constable, R. T., Gore, J. C., & Avrutin, S. (1999). An event-related fMRI study
of implicit phrase-level syntactic and semantic processing. Neuroimage, 10(5), 555–61.
Kimball, J. (1973). Seven principles of surface structure parsing in natural language. Cog-
nition, 2, 15–47.
Makuuchi, M., Bahlmann, J., Anwander, A., & Friederici, A. D. (2007). Segregating the core
computational faculty of human language from working memory. Proceedings of the
National Academy of Science, 106(20), 8362–7.
Mazoyer, B. M., Tzourio, N., Frak, V., Syrota, A., Murayama, N., Levrier, O., Salamon, G.,
Dehaene, S., Cohen, L., & Mehler, J. (1993). The cortical representation of speech. Journal
of Cognitive Neuroscience, 5(4), 467–79.
Meltzer, J. A., McArdle, J. J., Schafer, R. J., & Braun, A. R. (2010). Neural Aspects of Sentence
Comprehension: Syntactic Complexity, Reversibility, and Reanalysis. Cerebral Cortex,
20(8), 1853–1864. doi:10.1093/cercor/bhp249.
Meyer, M., Friederici, A. D., & von Cramon, D. Y. (2000). Neurocognition of auditory sentence
comprehension: event related fMRI reveals sensitivity to syntactic violations and task
demands. Brain Research. Cognitive Brain Research, 9(1), 19–33.
Meyer, L., Obleser, J., & Friederici, A. D. (2013). Left parietal alpha enhancement during
working memory-intensive sentence processing. Cortex, 49(3), 711–21.
Miller, G. A., & Chomsky, N. (1963). Finitary models of language users’. In R. D. Luce, ,R. R.
Bush & E. Galanter (eds.), Handbook of Mathematical Psychology, (vol. II). New York,
NY: Wiley: 419–491.
Moro, A., Tettamanti, M., Perani, D., Donati, C., Cappa, S. F., & Fazio F. (2001). Syntax and
the brain: disentangling grammar by selective anomalies. NeuroImage, 13(1), 110–18.
Musso, M., Moro, A., Glauche, V., Rijntjes, M., Reichenbach, J., Buechel, C., & Weiller, C.
(2003). Broca’s area and the language instinct. Nature Neuroscience, 6, 774–81.
Newman, S. D., Just, M. A., Keller, T. A., Roth, J., & Carpenter, P. A. (2003). Differential effects
of syntactic and semantic processing on the subregions of Broca’s area. Cognitive Brain
Research, 16(2), 297–307.
Nicol, J., & Swinney, D. (1989). The role of structure in coreference assignment during sen-
tence comprehension. Journal of Psycholinguistic Research, 18(1), 5–19.
Obleser, J., & Kotz, S. A. (2010). Expectancy constraints in degraded speech modulate the
language comprehension network. Cerebral Cortex, 20(3), 633–40.
Posner, M. I., & Petersen, S. E. (1990). The attention system of the human brain. Annual
Review of Neuroscience, 13(1), 25–42.
Prabhakaran, V., Narayanan, K., Zhao, Z., & Gabrieli, J. D. E. (2000). Integration of diverse
information in working memory within the frontal lobe. Nature Neuroscience, 3(1), 85–90.
Price, C. J. (2010). The anatomy of language: a review of 100 fMRI studies published in 2009.
Annals of the New York Academy of Sciences, 1191, 62–88.
Literatur 175

Richardson, F. M., Thomas, M. S. C., & Price, C. J. (2010). Neuronal activation for semantically
reversible sentences. Journal of Cognitive Neuroscience, 22(6), 1283–98.
Rogalsky, C., & Hickok, G. (2009). Selective attention to semantic and syntactic features
modulates sentence processing networks in anterior temporal cortex. Cerebral Cortex,
19(4), 786–96.
Smith, E. E., & Jonides, J. (1998). Neuroimaging analyses of human working memory. Pro-
ceedings of the National Academy of Sciences of the USA, 95(20), 12061–68.
Stromswold, K., Caplan, D., Alpert, N., & Rauch, S. (1996). Localization of syntactic com-
prehension by positron emission tomography. Brain and Language, 52(3), 452–73.
Tettamanti, M., Rotondi, I., Perani, D., Scotti, G., Fazio, F., Cappa, S. F., & Moro, A. (2009).
Syntax without language: neurobiological evidence for cross-domain syntactic com-
putations. Cortex, 45(7), 825–38.
Thompson, C. K., Bonakdarpour, B., Fix, S. C., Blumenfeld, H. K., Parrish, T. B., Gitelman,
D. R., & Mesulam, M.-M. (2007). Neural correlates of verb argument structure processing.
Journal of Cognitive Neuroscience, 19(11), 1753–67.
Thompson-Schill, S. L., D’Esposito, M., Aguirre, G. K., & Farah, M. J. (1997). Role of left
inferior prefrontal cortex in retrieval of semantic knowledge: a reevaluation. Proceedings
of the National Academy of Sciences, 94(26), 14792–7.
Tyler, L. K., Marslen-Wilson, W. D., Randall, B., Wright, P., Devereux, B. J., Zhuang, J.,
Papoutsi, M., & Stamatakis, E. A. (2011). Left inferior frontal cortex and syntax: function,
structure and behaviour in patients with left hemisphere damage. Brain: A Journal of
Neurology, 134(2), 415–31.
Vul, E., Harris, C., Winkielman, P., & Pashler, H. (2009). Puzzlingly high correlations in
fMRI studies of emotion, personality, and social sognition. Perspectives on Psychological
Science, 4(3), 274–90.
Wanner, E., & Maratsos, M. (1978). An ATN approach in comprehension. In M. Halle, J.
Bresnan & G. Miller (eds.), Linguistic theory and psychological reality. Cambridge, MA:
MIT Press, pp. 119–61.
Weckerly, J., & Kutas, M. (1999). An electrophysiological analysis of animacy effects in the
processing of object relative sentences. Psychophysiology, 36(5), 559–70.
Zagar, D., Pynte, J., & Rativeau, S. (1997). Evidence for early closure attachment on first-pass
reading times in French. Quarterly Journal of Experimental Psychology, 50A, 421–38.

175
Zugriff auf Wortbedeutungen
10 Zugriff auf Wortbedeutungen 10

Zusammenfassung

Wie auf lexikalische Bedeutungen Zugriff genommen wird, hängt von verschie-
denen Variablen ab, einschließlich der Eingangsmodalität, morphosyntaktischer
Strukturen, perzeptueller Merkmale und Abstraktheitsgrad. Sensorische und
kategorienspezifische Störungen können durch Kaskadenprozesse innerhalb
eines modalitätsunabhängigen lexikalisch-konzeptuellen Systems vorhergesagt
werden. Lexikalische Bedeutungen sind dezentralisiert repräsentiert. Auch wenn
die Bedeutung primär perzeptueller Natur ist, konzeptuelle Mediationsprozesse
sind offensichtlich stets beim semantischen Zugriff beteiligt. Welche corticalen
Areale aktiviert werden, hängt von Berechnungskosten und der Art des mit der
lexikalischen Einheit assoziierten Inhalts ab. Die fMRT-Daten verdeutlichen, dass
das Broca-Areal dann aktiviert wird, wenn der Zugriff auf idiomatische Phrasen
höhere Berechnungskosten erfordert. Weiterhin stellt die „Geschwind-Region“
(Gyrus supramarginalis und Gyrus angularis) die Schaltstelle zwischen präf-
rontalen und temporookzipitalen Regionen dar und trägt entscheidend zu der
Integration multi-sensorischer Erfahrung bei. Diese Region, die aus evolutionä-
rer Sicht relativ jung zu sein scheint, ist vermutlich insbesondere an Prozessen
beteiligt, die Aufmerksamkeit und Bewusstsein erfordern.

Stichwörter

Aufmerksamkeit, Bewusstsein, Geschwind-Region, Gyrus angularis, Homo


Erectus, Idiomatische Prozesse, Kaskaden, Kategorienspezifische Störungen,
Konzeptuelle Mediation, Modalitätsspezifische Störungen, Parietallappen.

177
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_11
178 10 Zugriff auf Wortbedeutungen

10.1 Lexikalische Konzepte


10.1 Lexikalische Konzepte
Die Frage danach, ob es getrennte corticale Regionen für die Verarbeitung von
Nomen und Verben gibt, ist für den Diskurs über die neurologischen Grundlagen
lexikalischer Berechnungen von zentraler Bedeutung. Einzelfall-Läsionsstudien
weisen darauf hin, dass konkrete Nomen bevorzugt vom linken anterioren und
mittleren Temporallappen verarbeitet werden und konkrete Verben bzw. Aktions-
verben im prämotorischen Cortex (Damasio und Tranel, 1993; siehe auch McCarthy
und Warrington, 1985; Daniele et al., 1994). Andere Läsionsstudien sprechen nicht
für eine neuronale Trennung von konkreten Verben und Nomen (z. B. De Renzi
und Pellegrino, 1995; Aggujaro et al., 2006). Unter Berücksichtigung kategorien-
und/oder modalitätsspezifischer Störungen, die häufig bei Fällen von semantischer
Demenz beobachtet werden können, wird in verschiedenen Einzelfall-Läsionsstu-
dien argumentiert, dass das lexikalisch-semantische System fraktioniert ist (z. B.
Beauvois et al., 1978; Beauvois, 1982; Warrington und Shallice, 1984; McCarthy
und Warrington, 1988; Farah et al., 1989; Hart und Gordon, 1992; Goodglass, 1994;
McCarthy und Warrington, 1994; Grossman et al., 2013; Libon et al., 2013). Die
Interpretation dieser offenbar selektiven Störungen ist allerdings nicht eindeutig.
Verschiedene Faktoren können zu diesen Prozessen beitragen, die aufgrund spezifi-
scher neurologischer Ausfälle bei einzelnen Patienten selektiv erhalten oder gestört
sind (z. B. Hillert, 1990, 1992; Marques, Raposo und Almeida, 2013; Crepaldi et al.,
2013). Die folgenden Beispiele verdeutlichen dies:
In der klassischen Studie von Beauvois und Mitarbeitern (1978) wird die Be-
nennleistung des Patienten RG in Bezug auf die taktile, visuelle und auditorische
Modalität beschrieben. RG zeigte eine Fehlerquote von 29 % (71 von 100 waren
korrekt) bei der rechtshändigen taktilen Objektbenennaufgabe und eine Fehlerquote
von 36 % (64 von 100) bei der linkshändigen taktilen Objektbenennaufgabe. In der
visuellen (96 von 100) und auditorischen (79 von 100) Modalität zeigt der Proband
allerdings keine Benennstörungen. Unabhängig von dieser bilateralen taktilen
Anomie was RG in der Lage, den typischen Gebrauch des Objekts, das er nicht
benennen konnte, anzudeuten. Dies heißt allerdings nicht, dass RG in der Lage
war, diese Objekte zu erkennen, da die mit pantomimischem Verhalten assoziierte
Bedeutung ausschließlich auf perzeptuellen Eigenschaften beruhen kann. Auch ist
das Wissen darüber, wie ein bestimmtes Objekt typischerweise verwendet wird,
nicht unbedingt relevant für die Bestimmung und das Benennen des entsprechenden
Objekts (z. B. Buxbaum et al., 2000). Weiterhin konnte RG eine taktil erfahrenes
Objekt einem Bild zuordnen, wenn er allerdings diese taktile Information einem
gesprochenen Wort zuordnen sollte, zeigte er eine Fehlerquote von 16 % (84 von
100). Solche modalitätsspezifischen Störungen wurden von einigen dahingehend
10.1 Lexikalische Konzepte 179

interpretiert, dass das konzeptuelle System multipel strukturiert ist (Shallice,


1987). Da der Proband eine vergleichbare Ergebniswahrscheinlichkeit für taktiles
Objektbenennen und für die Zuordnung taktiler Informationen zu einem Wort
(0,68) zeigte, wurde auch vermutet, dass der lexikalische Zugriff beeinträchtigt ist
(Riddoch et al., 1988). Unabhängig von der klassischen Debatte über die Struktur
des lexikalisch-konzeptuellen Systems sprechen die Daten möglicherweise auch
für eine Störung eines unifizierenden Prozesses, der verschiedene Erfahrungen
innerhalb eines einheitlichen konzeptuellen Systems bindet. In diesem Fall können
die selektiven Störungen weder der perzeptuellen Dimension noch einer zentralen
modalitätsunabhängigen konzeptuellen Störung zugeordnet werden, jedoch wür-
de eine unifizierende Bindungsstörung zwischen verschiedenen Eingangsdaten
vorliegen.51

Abb. 10.1 Die Bedeutung konkreter Wörter (Objektkonzepte) könnten in verschiedenen


sensorischen und motorischen Domänen verteilt repräsentiert sein (adaptiert
und modifiziert, Allport, 1985; © Elsevier Limited).

Wenden wir uns im Folgenden einigen Beispielen einer kategorienspezifischen


Störung zu. Hart, Berndt und Caramazza (1985) beschrieben die Benennleistung
eines einzelnen aphasischen Patienten (MD), der vor seiner neurologischen Störung
als Systemanalyst gearbeitet hatte52. Der Patient zeigte spezifische Benennstörungen

51 Ein Unifikationsprozess (auch als Bindungsprozess bekannt) kann an sich fraktioniert


sein (Humphreys, Hodsoll & Riddoch, 2009).
52 Gewöhnlich wird auch aus privatrechtlichen Gründen der Beruf eines Patienten im
Rahmen einer neuropsychologischen Untersuchung nicht erwähnt. Allerdings ist
179
180 10 Zugriff auf Wortbedeutungen

für die lexikalischen Kategorien „Obst“ (39 %) und „Gemüse“ (33 %). Zudem konnte
MD nicht die Obst- und Gemüsesorten nennen, die einer Definition dieser Sorten
zur Verfügung gestellt wurden (2 von 10 korrekt). Bei anderen lexikalischen Ka-
tegorien betrug die Fehlerquote nur 3 %. Zum Beispiel war MD nicht in der Lage,
das Bild einer Apfelsine oder eines Pfirsichs zu benennen, aber er konnte das Bild
eines Abakus oder einer Sphinx benennen.
Selektive Benennstörungen wurden auch für andere lexikalische Kategorien
wie Eigennamen, Tiere, Ländernamen, Körperteile, Farben, künstliche Objekte,
Werkzeuge, Buchstaben, Nummern und konkrete Objekte berichtet. Die Daten
der meisten Verhaltensstudien, die ein multipel-organisiertes semantisches Sys-
tem nahelegen, sprechen allerdings nicht gegen ein einheitliches semantisches
System. Die meisten Daten können mit einem Kaskadenprozess innerhalb eines
einheitlichen lexikalisch-konzeptuellen Systems vorhergesagt werden, d. h., spätere
Prozesse können vor dem Abschluss früherer Prozesse aktiviert werden. Zudem ist
es offensichtlich, dass diese Einzelfallstudien oftmals nicht ausreichend das Stimu-
lusmaterial kontrollierten, um abstraktere bzw. allgemeinere lexikalische Kategorien
oder bestimmte perzeptuelle Berechnungen zu berücksichtigen (siehe Hillert, 1990:
173-87; Hillert et al., 1994 für einen Überblick). Sollten kompositionelle Strategien
auf der Berechnungsebene (nicht notwendigerweise auf der Repräsentationsebene)
berücksichtigt werden, so ist anzunehmen, dass verschiedene Dimensionen mitei-
nander interagieren, um das Zielkonzept mit einem spezifischen Lexem (Namen)
zu assoziieren. Einige dieser Dimensionen sind degradiert und behindern daher
die konzeptuelle Aktivierung, die für die Selektion des Lexems erforderlich ist.
In einer erwähnenswerten Studie wurden vier verschiedene strukturelle Dimen-
sionen (Komponenten eines Objekts, interne Einzelheiten, Kontur eines Objekts,
Variabilität der Repräsentation) untersucht und es wurde gefragt, inwieweit sich
diese Unterschiede in der Verarbeitung widerspiegeln (Marques et al., 2013). Die
Autoren stellten fest, dass lebende Objekte strukturell komplexer sind als nicht-le-
bende Objekte. Lebende Objekte besitzen mehr Komponenten und Konturen als
nicht-lebende Objekte. Lebende Objekte waren zudem weniger divers, waren visuell
weniger bekannt, aber es gab bei den Konturen mehr Überschneidungen als bei
nicht-lebenden Objekten. Weiterhin hatten Tiere mehr Komponenten, Obst und
Gemüse wiesen mehr Kontouren auf und nicht-lebende Objekte zeigten weniger
Variabilität bezüglich ihrer Repräsentationen. Strukturelle Unterschiede traten
auch bei einzelnen lexikalischen Kategorien auf (z. B. Vögel, Obst, Insekten, Möbel
und Fahrzeuge). Eine besonders niedrige Quote in einer dieser lexikalischen Ka-

diese Information nicht vollkommen irrelevant, da der Beruf auf einige lexikalische
Vorkenntnisse (z. B. Fachbegriffe) des Patienten hinweist.
10.1 Lexikalische Konzepte 181

tegorien im Vergleich zu einer kann auf strukturelle Unterschiede zurückgeführt


werden. Marques und Kollegen interpretieren ihre Ergebnisse im Sinne eines
prä-semantischen Kategorieeffekts. Entsprechend würden die lexikalischen Effekte
durch unterschiedliche Aufgabenparameter beeinflusst werden, einschließlich der
erforderlichen perzeptuellen Differenzierung, Dauer und Position des Stimulus
und/oder Art der Präsentation.
Obwohl eine Objektbenennaufgabe weniger komplex erscheint, involviert sie
eine sehr spezifische lexikalische Produktionsaufgabe. Unter Berücksichtigung
dieser Aufgabenbedingung können wir nicht davon ausgehen, dass vergleichbare
fehlerhafter oder fehlende Berechnungen im Kontext der Spontansprache oder
unter Echtzeitbedingungen auftreten. Aus methodologischen Gründen ist daher
in Frage zu stellen, ob diese selektiven Antwortstrukturen, die bei Patienten mit
unterschiedlichen neurologischen Störungen wie Aphasie, Demenz oder En-
zephalitis gefunden werden, für ein Modell sprechen, das von modalitäts- oder
kategorienspezifischen Subsystemen ausgeht und somit implizit die Annahme eines
einheitlichen konzeptuellen Systems zurückweist. In der Tat stellen modalitäts- und
kategorienspezifische Zugriffsprozesse auf ein einheitliches konzeptuelles System
ein plausibles Arbeitsmodell dar. Entsprechend stellt das von McCelland und Rogers
(2003) vorgeschlagene Modell einen plausiblen Ansatz dar. Lexikalisch-konzeptu-
elle Information sind offenbar weit verteilt repräsentiert, und dies entspricht dem
Ergebnis, dass die Externalisierung von spezifischen sensorischen Informationen
in verschiedenen corticalen Arealen stattfindet (Abb. 10.2). Beispielsweise beim
Nachdenken über die Aktion eines Objekts werden die corticalen Areale aktiviert,
die mit dieser Aktion assoziiert sind. Weiterhin werden Einheiten aktiviert, die
übergreifend aus verschiedenen Informationsquellen stammende Objekteigenschaf-
ten miteinander unifizieren. Diese unifizierenden Einheiten sind wahrscheinlich
eine Funktion des temporalen Pols (TP). Im Fall einer semantischen Demenz ist
deren Funktion ernsthaft beeinträchtigt.

181
182 10 Zugriff auf Wortbedeutungen

Abb. 10.2 Verteilt abgespeicherte sensorische Einheiten für die Externalisierung,


unifizierende Einheiten im temporalen Pol (TP) und ein schnelles Lernsystem
im Lobus temporalis medius mittleren Temporallappen (MTL) (adaptiert,
McClelland & Rogers 2003; © Nature Publishing Group).

Das TP-Areal kann auch ein Repositorium mit Adressen oder Tags sein, mit denen
auf weit verteilte lexikalisch-konzeptuelle Repräsentationen Zugriff genommen
werden kann. Schließlich nimmt das Modell an, dass der mittlere Temporallappen
(MTL) ein ergänzendes und für schnelles Lernen zuständiges Areal ist. Ein anderer
Ansatz stellt die Untersuchung an, inwieweit Konzepte von Objekten (konkreten
Nomen) und Aktionen (konkreten Verben) neuronal unterschiedlich verarbeitet
werden. Eine Meta-Analysis der fMRT-/PET-Daten zur Verarbeitung von Nomen
und Verben unterstützt nicht die Annahme, dass primär linksseitige frontale Are-
ale für Verben zuständig sind und temporale Areale für Nomen. Die Ergebnisse
10.1 Lexikalische Konzepte 183

verdeutlichen hingegen, dass Nomen und Verben räumlich nahe vorwiegend in


linken fronto-parieto-temporalen Regionen verarbeitet werden. Zudem scheint
weder der zeitliche Verlauf der Verb- und Nomen-Verarbeitung noch der zeitliche
Verlauf sublexikalischer Prozesse einen Hinweis darauf geben zu können, dass diese
verschiedenen linguistischen Einheiten von anatomisch getrennten Strukturen
berechnet werden. (Sahin et al., 2009). Obwohl die Autoren für eine Unterteilung
des Broca-Areals hinsichtlich verschiedener sublexikalischer Prozesse plädieren,
sprechen die Daten für einen Kaskaden-Prozess, der unterschiedliche Berech-
nungskosten involviert. Gehen wir auf diese Studie etwas genauer ein. Hier wurde
ein intrakraniales Verfahren (LFP: lokales Feldpotential) angewendet, um bei drei
epileptischen Patienten den zeitlichen Verlauf der lexikalischen Produktion im
Broca-Areal zu untersuchen. Die Studie benutzte eine phrasale Vervollständigungs-
aufgabe, bei der ein unflektiertes Verb oder Nomen (z. B. „to walk“ oder „a rock“)
als visueller Auslösereiz für das im Stillen zu produzierende Zielwort dargeboten
wurde (inneres Sprechen). Die Verarbeitungszeit erhöhte sich folgendermaßen (siehe
Tabelle 10.1): Wiederholung (~ 200 ms) > verdeckte (Null-)Flektion (~ 320 ms) >
offene Flektion (~ 450 ms). Die Autoren schlussfolgern: „Broca’s area is … differ-
entiated into adjacent but distinct circuits that process phonological, grammatical,
and lexical information.“ In Anbetracht der getesteten ineinandergreifenden und
inkrementellen Prozesse und der vorausgehenden Ergebnisse zur Funktion des
Broca-Areals scheint eine vorsichtigere Interpretation erforderlich zu sein.

Tab. 10.1 Verb- und Nomenflektionen für die drei Bedingungen A-C
Einführung Auslösereiz Inneres Numerus Morphem Potentiale
Sprechen
A (Instruktion: “to walk”|“to think” [w‫ܤ‬ғ k] | [θܼғ ŋk] -- V ~ 200 ms
Wiederholen) … “a rock” [r‫ܤ‬ғ k] N
B “Every day they” … “to walk”|“to think” [w‫ܤ‬ғ k] | [θܼғ ŋk] V, 3. Pl., Präs. V_ ~ 320 ms
“That is the” … “a rock” [r‫ܤ‬ғ k] N, Sg. N_
C “Yesterday they” … “to walk”|“to think” [w‫ܥ‬ғ kt] | [θ‫ܥ‬ғ t] V, 3. Pl., Imp. V+ed | V’ ~ 450 ms
“Those are the” … “a rock” [r‫ܤ‬ғ ks] N, Pl N+s

(V=Verb, N=Nomen, V_ = Null-Flektion, V’ = irreguläres Verb, Pl. = Plural, Sg = Singular,


Präs./Imp. = Präsens/Imperfekt)

Die LFP-Ergebnisse wurden für Verben und Nomen zusammenfassend berichtet.


Die Daten zeigen, dass die LFP-Methode ihre Grenzen hat, um die Verarbeitung
linguistischer Strukturen detailliert zu untersuchen. Die Ergebnisse sind jedoch
bis zu einem bestimmten Punkt mit denen vergleichbar, die beim Primen, in elek-
183
184 10 Zugriff auf Wortbedeutungen

trophysiologischen (durch das Messen von ereigniskorrelierten Potentialen an der


Kopfhaut) und fMRT-Studien gefunden wurden, d. h., die lexikalische Produktion
involviert verschiedene Ebenen der Berechnung (z. B. Levelt, Roelofs und Meyer,
1999; Friederici, 2002). Wenn wir jedoch die kognitiven Prozesse der drei zugrunde
liegenden Bedingungen A, B und C betrachten, ist es offensichtlich, dass die zeitlichen
Unterschiede nicht notwendigerweise sequentielle Berechnungen widerspiegeln,
jedoch Prozesse, die mit unterschiedlichen Berechnungskomplexitäten korrespon-
dieren. Wie oben bereits erwähnt wurde, untersuchte die Studie drei verschiedene
sublexikalische Prozesse: (A) Wiederholen, (B) Null-Flektion, eingeführt durch
eine Phrase, (C) offene Flektion, eingeführt durch eine Phrase. Vereinfacht können
wie folgt alle drei Berechnungen, wie in (10-I) gezeigt, veranschaulicht werden:

10-I A. Lexikalisches Wahrnehmen: Rehearsal


B. Lexikalisches Wahrnehmen: Phrasale Integration: Rehearsal
C. Lexikalisches Wahrnehmen: Phrasale integration: Morphologische Adaptation: Rehearsal

Die 200-Epoche (Bedingung A) erfordert das Kopieren des Leseprozesses für das
innere Rehearsal und stimmt mit den Ergebnissen von Verhaltensstudien überein:
Einsilbige Wörter werden in einer Zeitspanne von 75-100 ms wahrgenommen,
während das Rehearsal in der Zeitspanne von 150-200 ms stattfindet. Bei der
320-Epoche (Bedingung B) kommt noch ein weiterer Verarbeitungsschritt hinzu,
da die einführende Phrase eine kongruente Übereinstimmung zwischen dem
Zielwort und der Phrase erfordert. Eine phrasale Integration umfasst gewöhnlich
Numerus-Kongruenz sowie die Generierung von konsistenten syntaktisch-seman-
tischen Strukturen. Der phrasale Integrationsprozess erfordert eine zusätzliche
Antwortzeit von 120 ms. Die 450-Epoche (Bedingung C) erfordert zudem eine
Flektion (verdeckt oder offen) des Zielworts. Dieser zusätzliche Prozess, der die
Generierung einer neuen Wortform (morphologische Adaption) umfasst, erfordert
eine zusätzliche Antwortzeit von ca. 130 ms. Dieser Kaskadenprozess findet auf der
sublexikalischen Ebene statt und wird den Bedingungen entsprechend komplexer
(A < B < C). Zudem aktivieren phonologische, syntaktische, semantische, prag-
matische und nicht-linguistische Berechnungen das Broca-Areal (z. B. Grodzinsky
und Santi, 2008; Hillert und Buračas, 2009). Diese Studien weisen darauf hin, dass
die kognitive Architektur des Broca-Areals multifunktional ist (n-Unterteilungen
sind möglich). Es stellt sich die folgende Frage: Was ist das gemeinsame Prinzip
dieser Funktionen, die mit den Aktivierungen des Broca-Areals korrespondieren?
In der Tat scheint die Speicherhypothese mit einem umfassenden Datenspektrum,
einschließlich der besprochenen LFP-Studien, übereinzustimmen (Stowe, 1998).
Eine Erhöhung der kognitiven Komplexität verschiebt die AS-Anforderungen von
10.1 Lexikalische Konzepte 185

den posterioren Regionen zum Broca-Areal, und Sprechen stellt eine Domäne des
Broca-Areals dar, um die Planung der Artikulation vorzunehmen.
Wenden wir uns der Frage zu, wie das menschliche Gehirn lexikalisch-kon-
zeptuelle Informationen berechnet und repräsentiert. Die Daten funktionaler
bildgebender Verfahren weisen auf einen Kaskadenprozess bei der Objektbe-
nennung hin. Wenn beispielsweise ein Objekt (wahrscheinlich aufgrund von
Top-down-Prozessen) konzeptuell erkannt, jedoch nicht benannt werden kann,
kann dies auf einem gestörten perzeptuellen Prozess beruhen, der bei der Benen-
nung des Objekts beteiligt ist. Obwohl Zugriff auf das Konzept genommen wurde,
kann wiederkehrende perzeptuelle Information nicht verwendet werden, um das
korrespondierende Lexem zu aktivieren (Humprehys et al., 1997; siehe auch Perani
et al., 1995; Martin et al., 1996). Entsprechend bevorzugen wir hier eine allgemeine
Berechnungstheorie (sub)lexikalischer Bedeutungen, die sich durch distribuierte
Kaskadenprozesse auszeichnen. Bezüglich der lexikalisch-konzeptuellen Ebene
haben einige Studien argumentiert, dass neuropsychologische Evidenz für einen
verkörperten („embodied“) Ansatz der lexikalischen Verarbeitung spricht. Es
gibt allerdings ausreichend Daten, die zeigen, dass dieser Ansatz nicht mit allen
lexikalischen Phänomenen zu vereinbaren ist. Die Aktivierungsausbreitungen
innerhalb eines interaktiven neuralen Netzwerks zeigen bidirektionale automati-
sche Aktivierungen zwischen Elementen eines Motorsystems und perzeptueller,
konzeptueller und/oder lexikalischer Elemente (siehe für einen Überblick Mahon
und Caramazza, 2008). Sicherlich assoziieren wir sensorisch-motorische Erfah-
rungen mit konkreten und abstrakten (symbolischen) lexikalischen Konzepten,
aber diese empirisch-verankerten („grounded“) Elemente stellen nur einen Teil
der konzeptuellen Repräsentationen dar. Zum Beispiel bei der Benennung einer
Farbe, Aktion oder eines Objekts mit charakteristischen visuellen Merkmalen ist
es durchaus möglich, dass eine durch konzeptuelle Repräsentationen bewirkte
Mediation nicht notwendig ist (z. B. Caramazza et al., 1990). Dies schließt jedoch
nicht aus, dass in anderen Fällen konzeptuelle Mediation stattfindet (z. B. wenn
die sensorische Erfahrung einer Farbe weniger typisch oder eine Klassifizierung
schwierig ist). Weiterhin aktivieren Aktionswörter oder Aktionssätze die entspre-
chenden Strukturen im sensomotorische Cortex. Das Bein- oder Arm-Areal wird
zum Beispiel aktiviert, wenn das dargebotene Verb mit der Aktion eines Beines oder
Armes assoziiert ist (Oliveri et al., 2004; Buccino et al., 2005; Pulvermüller et al.,
2005). Bevor jedoch spezifische motorische Areale aktiviert werden, können kon-
zeptuelle Repräsentationen diesen Prozess durchaus mediieren. Die gegenwärtigen
Verfahren liefern allerdings nicht die zeitliche Auflösung für die Messung dieser
möglichen Mediationen. Konzeptuelle Repräsentationen eines Wortes oder Satzes
ermöglichen, Bedeutungen unabhängig von Körpererfahrungen zu konstruieren.

185
186 10 Zugriff auf Wortbedeutungen

Im Allgemeinen ist es unter den Experten unstrittig, dass lexikalische Konzepte


verteilt repräsentiert sind. Die Frage ist, ob es eine spezifische corticale Schaltstel-
le gibt, die diese verschiedenen perzeptuellen und konzeptuellen Informationen
unifizieren. Unter Berücksichtigung neuropsychologischer Daten, die im Zusam-
menhang mit semantischer Demenz (frontotemporal-lobäre Rückbildung) ermittelt
wurden, wurde behauptet, dass der anteriore Temporallappen als Schaltstelle für
lexikalisch-konzeptuelle Informationen angesehen werden sollte (Patterson, Nestor
und Rogers, 2007). Andere Studien, die sich auf aphasische Störungen beziehen,
betrachten den (bilateralen) Gyrus temporalis medius (MTG) als die Schaltstelle
für lexikalisch-semantische Integration (Dronkers et al., 2004; Hickok und Poeppel,
2007; Binder et al., 2009; Turken und Dronkers, 2011).
Binders Labor diskutiert in einer Meta-Analyse mit 120 funktionellen Bildge-
bungsuntersuchungen mögliche lexikalisch-konzeptuelle Subsysteme. Der Gyrus
supramarginalis (SMG) und der MTG waren beim Zugriff auf aktionsbezogenes
Wissen beteiligt. SMG ist Teil des Parietallappens und grenzt anterior an den
somatosensorischen Cortex. Es wird entsprechend vermutet, dass diese Region
abstraktes, somatosensorisch-konzeptuelles Wissen speichert, das während des
Lernens komplexer motorischer Abläufe erworben wurde und nicht durch senso-
risch-spezifische Erfahrungen, da der SMG ausschließlich bei Aktionsbedeutungen
aktiviert wird. Das zweite Areal, der MTG, grenzt an die visuellen Areale für Bewe-
gungen im mittleren Temporallappen (V5) an. Es wird vermutet, dass hier visuelle
Aktionsattribute gespeichert werden (Martin et al., 2000). Abstraktere lexikalische
Konzepte waren wiederum primär im linken IFG (BA 47) und im linken anterioren
superioren temporalen Sulkus (anterioren STS) verarbeitet. Unter Bezugnahme auf
einen umfassenderen Korpus mit MRT-Daten stellt das lexikalisch-konzeptuelle
System ein neuronales Netzwerk dar, das multiple corticale Areale involviert. Es
zeigt sich insgesamt, dass tatsächlich reiz- und aufgabenspezifische Anforderungen
bestimmen, welche corticalen Subregionen automatisch aktiviert werden. Die dis-
kutierten Ergebnisse beziehen sich auf gemittelte Aktivierungen bei einer großen
Probandenzahl. Es scheint insbesondere im Bereich lexikalischer Konzeptuali-
sierungen wichtig zu sein, MRT-Einzelfallstudien stärker zu berücksichtigen, um
weitere Schlussfolgerungen darüber ziehen zu können, wie unsere unterschiedlichen
Erfahrungen unsere neuronalen Schaltkreise formen.
10.2 Sprachbilder 187

10.2 Sprachbilder
10.2 Sprachbilder
Sollte Sie in einer Zeitung eine Überschrift mit der Redewendung „Auf der Suche
nach der Quadratur des Kreises“ lesen, werden Sie sofort verstehen, dass es sich
um eine nicht-wörtliche Bedeutung handelt.53 Dies ist möglich, da wir fixierte
Wortreihenfolgen im Langzeitgedächtnis abspeichern. Die meisten Sprecher ver-
wenden zahlreiche nicht-wörtliche, fixierte Ausdrücke, um die zu vermittelnden
Bedeutungen im Rahmen des täglichen Diskurses bildlich bzw. figurativ auszu-
drücken. Eine Redewendung wie „im Elfenbeinturm leben“ kann zum Beispiel
nicht mittels einer wörtlich-kompositionellen Analyse verstanden werden, sondern
erfordert eine figurative Interpretation. Verschiedene kognitive Prozessmodelle
wurden vorgeschlagen, um zu beschreibe, wie auf figurative Bedeutungen Zugriff
genommen wird und wie diese kontextuell integriert werden.
Bei einer Reihe unterschiedlicher Untersuchungen zeigt sich, dass die Ergebnisse
mit einem von der wörtlichen Bedeutung unabhängigen Ansatz zu vereinbaren
sind; mit anderen Worten, der Zugriff auf die figurative Bedeutung geschieht
vollständig unabhängig von der wörtlichen Interpretation (z. B. Bobrow und Bell,
1973; Gibbs, 1980; Hillert und Swinney, 2000; McGlone, Glucksberg und Cacciari,
1994; Ortony, Schallert, Reynolds und Antos, 1978; Peterson und Burgess, 1993;
Peterson, Burgess, Dell und Eberhard, 2001; Swinney und Cutler, 1979). Die Konfi-
gurationshypothese geht dagegen von einem Ansatz aus, der die Abhängigkeit der
wörtlichen Bedeutung betont. In diesem Fall wird nach der Wahrnehmung einer
spezifischen lexikalischen Konfiguration die wörtliche Interpretation zugunsten
einer figurativen Interpretation unterdrückt (z. B. Cacciari und Glucksberg, 1991;
Cacciari und Tabossi, 1988; Tabossi und Zardon, 1993, 1995).

10-II It’s raining ca|ts and dogs.

Allerdings ist zu berücksichtigen, dass sogar idiomatische Ausdrücke eine hetero-


gene Kategorie darstellen, und es hängt von den bestimmten Bedingungen eines
Ausdrucks ab, wie der Zugriff auf die figurative Bedeutung geschieht und wie
diese Bedeutung integriert wird (z. B. Cronk et al., 1993; Van Lancker Sidtis, 2004).
Verschiedene Prozesse der Sprachwahrnehmung sind wahrscheinlich an der Weise
beteiligt, in der ein Hörer Zugriff auf die Bedeutung der wörtlich nicht-interpretier-
baren (z. B. „it rains cats and dogs“) oder wörtlich interpretierbaren idiomatischen
Ausdrücke (z. B. „to break the ice“) nimmt. Es ist offensichtlich schwierig, mit
einem bestimmten Ansatz alle Phänomene erklären zu wollen, da jeder Ansatz

53 Auszüge des Abschnitts „Sprachbilder“ beruhen auf Hillert und Buračas (2009).
187
188 10 Zugriff auf Wortbedeutungen

versucht, spezifische Aspekte zu erklären, und die empirischen Grundlagen der


einzelnen Ansätze auf jeweils unterschiedlichen experimentellen Paradigmen
beruhen (siehe für einen Überblick Hillert, 2008). Diese Ansätze beschäftigen sich
jedoch alle mit der Frage, welche Funktion die wörtliche Bedeutung beim Zugriff
und bei der kontextuellen Integration der figurativen Bedeutung hat. Es ist daher
ein wichtiger Faktor empirischer Ansätze, ambige (wörtlich interpretierbare) und
explizite (wörtlich nicht-interpretierbare idiomatische Ausdrücke miteinander zu
vergleichen, um spezifische Informationen über die einzelnen Berechnungen beim
Verstehen der figurativen Bedeutung zu erhalten. Wie die „graduelle Salienzhypo-
these“ (Giora, 1997) vorhersagt, beeinflussen die Faktoren „Vertrautheit“ und/oder
„Grad der Bildlichkeit“ entscheidend die Wechselwirkungen zwischen wörtlichen
und figurativen Bedeutungen während der Berechnung figurativer Ausdrücke.
Allerdings versuchen wir hier weitere Einblicke in die neurologischen Grund-
lagen der figurativen Sprachverarbeitung im Allgemeinen und der Verarbeitung
von Idiomen im Besonderen zu gewinnen. In der ERP-Studie von Laurent und
Mitarbeitern (2006) zeigte sich beispielsweise, dass die N400-Amplitude des letzten
Wortes eines markanten Idioms im Vergleich zu einem weniger markanten Idiom
reduziert war, und in der fMRT-Studie von Mashal und Mitarbeitern (2005) wur-
den beim Verstehen eines kreativen bzw. originellen metaphorischen Wortpaars
im Vergleich zu einem konventionell-metaphorischen (tendenziell idiomatischen)
oder wörtlichen Wortpaars signifikant mehr Regionen des rechten Temporallappens
aktiviert. Es bleibt unklar, welche Areale während des Verstehens idiomatischer
Ausdrücke spezifisch aktiviert werden. Inkonsistenzen zwischen den einzelnen
Studienergebnissen beruhen oftmals auf den oben erwähnten Faktoren.
Ältere Läsionsstudien zur figurative Bedeutungsverabeitung untersuchten primär
Metaphern und nicht idiomatische Phrasen (z. B. Brownell et al., 1984; Brownell et
al., 1990; Foldi, 1987; Joanette et al., 1990; Van Lancker und Kempler, 1987; Winner
und Gardner, 1977). Diese Studien scheinen darauf hinzuweisen, dass der rechten
Hemisphäre bei der figurativen Verarbeitung eine besondere Bedeutung zukommt.
In diesen Studien wurden allerdings die Patienten nicht ausreichend hinsichtlich
ihrer visuell-räumlichen Beeinträchtigungen kontrolliert, die gewöhnlich bei Lä-
sionen in der rechten Gehirnhälfte beobachtet werden können. Auch deuten die
Läsionsstudien mit aphasischen Patienten darauf hin, dass idiomatische Ausdrücke
linksseitig oder bilateral verarbeitet werden (z. B. Papagno et al., 2006; Papagno
und Caporali, 2007). Die Ergebnisse der Studien, die repetitive transkranielle
Magnetstimulation (rTMS) oder funktionelle bildgebende Verfahren verwendeten,
sind jedoch ambivalent. Bei gesunden Sprechern wurde nur durch die linksseitige
temporale rTMS die Zuordnungsleistung von einer Zeichenfolge zu einem Bild
beeinträchtigt (Oliveri et al., 2004) und eine PET-Studie berichtete über bilaterale
10.2 Sprachbilder 189

corticale Aktivitäten beim Verstehen von Metaphern (Bottini et al., 1994; siehe
auch Nichelli et al., 1995; Subramaniam et al., 2013).
Neuere Studien verwendeten fMRI, um die neuronalen Korrelate der figurativen
Verarbeitung bei Metaphern und Idiomen zu ermitteln (z. B. Ahrens et al., 2007;
Lauro et al., 2008; Lee und Dapretto, 2006; Rapp et al., 2004; Stringaris et al., 2007;
Zempleni et al., 2007). Lee und Daprettos (2006) Studie zum Beispiel verwendete
Adjektiv-Triplett-Priming (adaptiert Gardner und Brownell, 1986): Die ersten beiden
Adjektive bestanden aus polaren Adjektiven und das dritte Adjektiv war mit der
wörtlichen oder figurativen Bedeutung des zweiten Adjektivs entweder semantisch
verwandt oder drückte die gegenteilige Bedeutung aus (z. B. „hot – cold – chilly/
unfriendly“). Die Probanden führten beim zweiten und dritten Adjektiv eine lexika-
lische Entscheidungsaufgabe aus. Diese lexikalische Priming-Aufgabe zeigte konsis-
tente Aktivierungen im linken frontotemporalen Netzwerk, wenn die Bedingungen
„nicht-wörtlich vs. wörtlich“ verglichen wurden. Zusammenfassend vermuten die
Autoren, dass nur komplexere figurative Sprache mit einer erhöhten rechten zere-
bralen Aktivität korreliert (siehe auch Rapp et al., 2004). Beim Vergleich zwischen
konventionellen metaphorischen Ausdrücken und wörtlichen Sätzen fanden Ahrens
und Mitarbeiter (2007) in einer Leseaufgabe dementsprechend eine erhöhte rechte
inferiore temporale Aktivität bei konventionellen Metaphern; allerdings aktivierten
„abweichende“ Metaphern das bilaterale frontotemporale Netzwerk. In einer Stu-
die von Zempleni und Mitarbeitern (2007) wurden ambige und explizite Idiome
Phrase-für-Phrase schriftlich dargeboten. Es wurde eine bilaterale Aktivierung im
IFG und im MTG gefunden. In einer fMRI-Studie von Lauro und Mitarbeitern
(2008), in der schriftlich dargebotene Idiome Bildern zugeordnet wurden, wurde
eine spezifische Aktivität im bilateralen frontotemporalen Netzwerk sowohl für
ambige als auch für explizite Idiome gefunden. Das Analyseverfahren „dynamische
kausale Modellierung“ (Lee et al., 2006) wurde verwendet, um eine Schätzung zur
Kopplung der Gehirnareale zu erhalten. Lauro und Mitarbeiter fanden zudem eine
spezifische bilaterale Aktivierung der Idiome im medialen präfrontalen Cortex. Auch
berichteten Mashal und Mitarbeiter (2008) darüber, dass die wörtliche Interpreta-
tion ambiger Idiome durch rechte frontotemporale Schaltkreise unterstützt wurde,
während Areale der linken Gehirnhälfte die idiomatische Interpretation aktivierte.
Die Fähigkeit, Ironie oder Sarkasmus zu verstehen, impliziert, dass der Zuhörer
die Überzeugungen und Intentionen des Sprechers als eine sozial-kommunikative
Funktion versteht. Hier verwenden wir den Begriff „Ironie“ sehr allgemein, obwohl
dieser gelegentlich eher als sarkastisch zu deuten ist. Wenn der Sprecher seine
Sprache in dem Sinne verwendet, dass das Gegenteil von dem ausgedrückt wird,
was eigentlich gedacht wird. Im Unterschied zum Lügen hinterlässt der Sprecher bei
einer verbalen Ironie oftmals einen Hinweis auf die rhetorische Redeweise. Diese

189
190 10 Zugriff auf Wortbedeutungen

Hinweise sind u. a. ungewöhnliche Intonation/Betonung, Wortwahl, Blinzeln,


Grinsen oder bestimmte nicht-sprachliche Zeichen.
Unter den lebenden Spezies scheint nur der moderne Mensch in der Lage zu
sein, diese kommunikative Fähigkeit zu erwerben. Entsprechend gibt es einen
substantiellen Bedarf, deutlich mehr über die kognitiven und neuronalen Mecha-
nismen zu erfahren, die u. a. im Zusammenhang mit den Aspekten „Theorie des
Geistes“, „Weltwissen“ und „Denkschablonen“ stehen. Sperber und Wilsons (2001)
Relevanztheorie berücksichtigt den intentionalen Aspekt der menschlichen Kommu-
nikation, d. h. die Überzeugungen einer anderen Person, aber auch die Zuordnung
einer Überzeugung zu den Überzeugungen einer anderen Person. Entsprechend
ist der ironische Diskurs ein ausgezeichneter Kandidat, um die kognitiven und
neuronalen Mechanismen der zweiten Ordnung zu untersuchen, die erforderlich
sind, um die Überzeugungen des Sprechers erschließen zu können (z. B. Winner,
1988; Frith und Frith, 2003). Grices (1975) klassischer Ansatz impliziert, dass der
Hörer die initiale Interpretation einer Äußerung nur dann revidiert, nachdem eine
denotativ-wörtliche Interpretation sich als nicht relevant erwiesen hat. Diese An-
nahme erhielt allerdings aus psycholinguistischer Sicht keine Unterstützung, denn
unter bestimmten Bedingungen wird ohne Beteiligung von dekompositionellen
wörtlichen Prozessen direkt auf die nicht-wörtliche konnotativen Bedeutung Zugriff
genommen (z. B. Gibbs, 1980; Hillert und Swinney, 2000; Hillert, 2004; Peterson
et al., 2001). Wie bereits erwähnt, werden Sätze, deren Bedeutungen wörtlich zu
verstehen sind, in bestimmten anatomischen Subregionen des frontotemporalen
Netzwerks verarbeitet (z. B. Binder et al., 1997; Poldrack et al., 1999; Roskies et al.,
2001; Bookheimer, 2002; Gitelman et al., 2005). Demgegenüber werden figurative
Aspekte der Sprache eher verteilt in der linken und in der rechten temporoparietalen
Region verarbeitet, aber auch in den Gyri frontalis medialis (MFG) und superior
(SFG) (z. B. Kempler et al., 1988; Tompkins et al., 1992; Kircher et al., 2001; Papagno
et al., 2002; Paul et al., 2003; Just et al., 2004; Lee und Dapretto, 2006; Oliveri et al.,
2004; Rapp et al., 2004; Sotillo et al., 2005).
Die Ergebnisse weisen darauf hin, dass linguistische Pragmatik eine Interakti-
on zwischen rechten und linken temporoparietalen Regionen erfordert sowie die
Beteiligung des linken Gyrus frontalis. Dagegen beruhen die „Kernprozesse“ der
Sprache vorwiegend auf spezifischen corticalen Arealen im Gyrus frontalis inferior
(IFG, spezifisch BA 44, 45, 49), in der linken temporoparietalen Region (spezifisch
BA 22, anteroventraler Temporallappen – avTH, Gyrus angularis – AG). Nur we-
nige Studien untersuchten bislang das neuronale Substrat für das Verstehen von
ironischen Äußerungen und deren klinische Relevanz. Eine konsistente Aktivie-
rung des medialen präfrontalen Cortex (mPFC; etwa BA 10) wurde in Bezug auf
Mentalisierung (z. B. Frith und Frith, 2003; Amodio und Frith, 2006), emotionale
10.2 Sprachbilder 191

Selbstreflexion (Gusnard et al., 2001) und Charaktereigenschaften (Macrae et al.,


2004) festgestellt. Gilbert und Mitarbeiter (2007) berichteten auch über eine Un-
terteilung des mPFC: Der mediale rostrale (mr) PFC scheint auch bei der Selektion
der Aufmerksamkeit in Bezug auf perzeptuelle und selbst-generierte Informationen
beteiligt zu sein, während die kaudale superiore Region des mPFC vorwiegend bei
Mentalisierungen aktiviert wird, d. h. bei der Reflexion über kognitive Zustände
eines anderen Agens (vgl. Gilbert et al., 2006).
Einige fMRT-Studien untersuchten die neuronale Basis für das Verstehen von
ironischen Äußerungen (Eviatar und Just, 2006; Uchiyama et al., 2006; Wakusawa
et al., 2007; Shibata et al., 2010). Eviatar und Just (2006) verwendeten Drei-Sät-
ze-Handlungen, um wörtliche, metaphorische und ironische Aussagen miteinander
zu vergleichen. Gemäß den verschiedenen Bedeutungsarten, die untersucht wurden,
wurden verschiedene interhemisphärische Aktivierungen ermittelt: Im Vergleich
zu metaphorischen Aussagen generierten ironische Aussagen signifikant höhere
Aktivierungen im rechten STL und MTL. Die fMRT-Studie von Uchiyama und
Mitarbeitern (2006) verwendete eine szenische Leseaufgabe, um das Verstehen von
sarkastischen Aussagen zu untersuchen. Sie fanden Aktivierungen im linken TP,
STL und im mPFC. In der Studie von Wakusawa und Mitarbeitern (2007) wurden
die Probanden aufgefordert, gesprochene Äußerungen zu Fotos, die allgemeine
Situationen zeigten, zuzuordnen, um implizite Bedeutungen in Bezug auf einen
bestimmten sozialen Kontext zu untersuchen. Sie berichteten über spezifische
Aktivierungen für Ironie im temporalen Pol sowie eine Beteiligung des medialen
orbitofrontalen Cortex – ein Areal, das auch beim Treffen von Entscheidungen
beteiligt ist (Kringelbach, 2005). Diese Ergebnisse können mit Aufgaben vergli-
chen werden, die Mentalisierungen erfordern (z. B. Brunet et al., 2000; Gallagher
et al., 2000). In der Studie von Shibata und Mitarbeitern (2010) wurden echoische
Äußerungen als ironische Aussagen verwendet. Die Bedingung „ironische minus
wörtliche Aussage“ verdeutlichte einen Anstieg der corticalen Aktivierung im
rechten medialen präfrontalen Cortex, im rechten präzentralen Sulkus und im
linken superioren temporalen Sulkus (STS).
Im Allgemeinen verdeutlicht dieser kurze Überblick zu den Ergebnissen mit
bildgebenden Verfahren, dass pragmatische Sprache ein größeres corticales Netzwerk
aktiviert als wörtliche Sprache. Meta-linguistische pragmatische Berechnungen
(Mentalisierungen), die beim Verstehen von ironischen Äußerungen erforderlich
sind, scheinen insbesondere neben dem klassischen, linksseitigen frontotempora-
len Sprachnetz rechtshemisphärische corticale Regionen – einschließlich mPFC,
STL und TP – zu aktivieren. Es bleibt eine offene Frage, inwieweit die Art des
Stimulus und der Darbietung die Magnitude und das räumlich-corticale Ausmaß
der Aktivität bestimmen. Hillert und Buračas (2009) führten entsprechend eine

191
192 10 Zugriff auf Wortbedeutungen

fMRT-Studie durch, um die neuronalen Korrelate beim echtzeitlichen Verstehen


von gesprochenen idiomatischen Ausdrücken zu untersuchen (siehe auch Tompkins
et al., 1992; Hillert, 2004, 2008, 2011). Insbesondere wurde untersucht, inwieweit
die wörtliche Analyse beim Verstehen der idiomatischen Redewendungen be-
teiligt ist. Entsprechend wurden kurze Sätze auditorisch präsentiert, die ambige
(wörtliche und idiomatische Bedeutungen) und eindeutige, explizit idiomatische
Äußerungen enthielten. Unter Berücksichtigung bisheriger Ergebnisse behauptet
unsere erste Hypothese, dass das echtzeitliche Verstehen von wörtlichen oder
idiomatischen Bedeutungen das linke frontotemporale Netzwerk aktiviert. Unsere
zweite Hypothese bezieht sich auf das Verstehen von ambigen (wörtlichen und
idiomatischen) Sätzen und besagt, dass im Vergleich zu expliziten idiomatischen
Sätzen verschiedene linksseitige corticale Regionen aktiviert werden. Bisherige
fMRT-Studien fanden beim Verstehen von expliziten und ambigen Idiomen keine
unterschiedlichen corticalen Aktivitäten (Lauro et al., 2008; Zemp Leni et al., 2007).
Beide Studien wendeten allerdings keine Echtzeitmethode an, sondern Aufgaben
wie Beurteilungen „Phrase-für-Phrase“ oder Zuordnungen „Phrase-zu-Bild“. In
unserer Studie führten die Probanden schnelle auditorische Satzentscheidungen
(ras, „rapid auditory sentence decision“) durch, um das Verstehen von vertrauten
und kurzen idiomatischen Ausdrücken im Satzkontext zu simulieren. Wir gingen
davon aus, dass die zeitlichen Parameter der rASD-Aufgabenstellung eine bessere
Auflösung der linguistischen Prozesse ermöglichen.
Das Verstehen von Sätzen mit „stehender Ambiguität“, d.h, der linguistische
oder situative Kontext gibt keine ausreichenden Hinweise auf die Auflösung der
Ambiguität und impliziert gewöhnlich parallele Berechnungen der wörtlichen
und idiomatischen Bedeutung. Der Parser antizipiert vermutlich eine wörtliche
„Agens-Thema-Struktur“ in der frühen Berechnungsphase, indem er ein Argumen-
tenraster mit „Thema“ als Platzhalter zur Verfügung stellt. Beim Auftreten einer
spezifischen V-N-Kombination (z. B. „break-ice“) ist ein zusätzlicher idiomatischer
Parse möglich. Da der Kontext nicht auf eine bestimmte Interpretation hinweist,
kann die Auflösung einer stehenden Ambiguität nur auf subjektiven und auf Com-
monsense basierenden Präferenzen beruhen. Im Fall eines expliziten idiomatischen
Ausdrucks gibt es verschiedene Szenarios, die von der Länge und der Vertrautheit
der Redewendung abhängen (z. B. Gibbs, 1980; Hillert und Swinney, 2000; Tabossi
und Zardon, 1995). Da eine wörtliche Interpretation nicht möglich oder ziemlich
unplausibel ist, kann es sein, dass die figurative Bedeutung intrinsisch abgerufen
wird, bevor der Hörer den vollständigen Ausdruck wahrgenommen hat. Dies führt
zu Unterdrückung oder Deaktivierung der unplausiblen wörtlichen Bedeutung. Auf
der Grundlage der oben erwähnten Priming-Studien nahmen wir auch an, dass die
frühen parallelen Berechnungen auch bei expliziten idiomatischen Ausdrücken
10.2 Sprachbilder 193

stattfinden. Da das frühe Parsen die stehenden Ambiguitäten nicht auflöst, vermu-
teten wir, dass im Vergleich zum Verstehen expliziter idiomatischer Ausdrücke das
Verstehen ambiger idiomatischer Ausdrücke ein größeres linksseitiges corticales
Netzwerk aktiviert.
Das Stimulus-Material bestand aus kurzen Sätzen mit einer maximalen Länge
von 1.8 sec. Alle Sätze hatten in der Anfangsposition ein bedeutungsneutrales
grammatisches Subjekt, gefolgt von einer VP. Das Subjekt war semantisch abstrakt
und neutral und die VP unterschieden sich in Bezug auf „Ambiguität“, „Bildhaftig-
keit“ und „Bedeutungsgehalt“. Die Stimuli bestanden aus expliziten idiomatischen
(z. B. „He was shooting the breeze“) und ambigen idiomatisch Sätzen (z. B. „The
woman held the torch“). Die Kontrollstimuli waren wörtliche (z. B. „He met her
in the new mall“) und unplausible Phrasen, die nicht unserem Commonsense
entsprachen (z. B. „He ate the green wall“). Probanden wurden aufgefordert eine
7-Punkte-Skala zu verwenden, um randomisiert dargebotene Sätze bzw. Phrasen
(insgesamt 250) in Bezug auf ihre Bildhaftigkeit einzustufen. Ihnen wurde mitge-
teilt, dass die Bewertung 1 für nicht-bildhafte und die Bewertung 7 für maximal
bildhafte Bedeutungen steht. Die Probanden wurden zudem instruiert, unplausible
Bedeutungen mit 0 zu bewerten.

Abb. 10.3 Sieben-Punkte-Bewertungen von „Bildhaftigkeit“ in Bezug auf verschiedene


lexikalische Kategorien. Die Bewertung „0“ war für unplausible Bedeutungen
vorgesehen (adaptiert und modifiziert, Hillert & Buračas, 2009; © Taylor und
Francis).
193
194 10 Zugriff auf Wortbedeutungen

Nachdem die Sätze auf der Grundlage dieser Einstufungen neu klassifiziert wurden,
fanden wir einen Trend in die erwartete Richtung. Allerdings waren die subjektiven
Bewertungen weniger deutlich im Vergleich zu den A-priori-Definitionen. Die meis-
ten homogenen Einstufungen wurden für wörtliche Sätze gefunden, gefolgt von den
unplausiblen Phrasen. Einige der unplausiblen Phrasen wurden als schwach bildhaft
angesehen. Die intersubjektive Variabilität war für beide idiomatischen Sätze höher.
Alle statistischen Vergleiche zwischen diesen verschiedenen Stimulusarten waren
signifikant. Beim Vergleich der ambigen und der expliziten idiomatischen Sätze ist
zu erkennen, dass die Teilnehmer die Möglichkeit einer wörtlichen Interpretation
in Betracht ziehen, wenn die Bewertung der Bildhaftigkeit eines Satzes mit einem
ambigen Idiom erfolgen sollte.54
Die Gruppenanalyse (10 Probanden) der ereignisbezogenen fMRT-Scans ver-
deutlicht die corticalen Regionen, die mit den oben genannten Bildhaftigkeitsein-
stufungen kovariieren. Die entsprechende Cluster-Analyse zeigt die Beteiligung
von zwei verschiedenen Regionen in der linken Hemisphäre: Ein Areal involviert
den linken Pars triangularis (PTr), Pars opercularis (POp), d. h. das Broca-Areal
(BA 44, 45), und den Gyrus frontalis medius (MFG; BA 11, 47); das andere Areal
bezieht sich auf den Gyrus frontalis superior (SFG; BA 8) und Gyrus frontalis me-
dialis (MeFG; BA 8, 9). Die Berechnung der idiomatischen Bedeutungen scheint
eine Domäne des linken präfrontalen Cortex zu sein. Es wurde keine Evidenz für
die Beteiligung der rechten Hemisphäre gefunden.

Abb. 10.4 Funktionale MRT-Analyse der Bildhaftigkeitseinstufungen mit Projektion auf


eine aufgeblähte linke Gehirnhälfte; links: mittlere Ansicht; rechts: sagittale
Ansicht; zwei verschiedene Aktivierungscluster lassen sich erkennen (weitere
Einzelheiten siehe Text).

54 Die Stimuli wurden auch hinsichtlich anderer Variablen wie zum Beispiel Vertrautheit
kontrolliert (siehe Hillert und Buračas, 2009).
10.2 Sprachbilder 195

In einem zweiten Schritt waren wir daran interessiert zu erfahren, ob sich diese
beiden Cluster auf spezifische idiomatische Ausdrücke beziehen. Entsprechend
wurden post hoc (p < .01) beide Aktivierungscluster in Bezug auf alle paarweisen
Vergleiche der vier Satzarten analysiert. Der Vergleich „explizit idiomatisch >
wörtlich“ evozierte Cluster im linken PTr und POp sowie in benachbarten Area-
len (BA 46, 47) und der Vergleich „ambig idiomatisch > wörtlich“ ergab corticale
Aktivitäten des MeFG und SFG in der Umgebung der frontalen Mittellinie mit
linksseitiger Prävalenz, jedoch keine signifikante Aktivität im Broca-Areal (siehe
Abb. 10.7). Es zeigt sich, dass sich ein Cluster im Broca-Areal und im MFG und
das andere Cluster im SFG und im MeFG befindet. Die Cluster-Aktivität, die für
Bildhaftigkeit gefunden wurde, scheint sich bis zu einem bestimmten Punkt mit
derjenigen zu überschneiden, die bei den Vergleichen „explizit idiomatisch >
wörtlich“ und „ambig > wörtlich“ gefunden wurden. Die erste Cluster-Aktivität,
die mit der Bildhaftigkeit im Broca-Areal und Umgebung kovariiert (BA 44, 45,

Abb. 10.5 Vergleiche zwischen idiomatischen und wörtlichen Sätzen mit Z-Wert (Gauß-
Verteilung T/F). Statistische Bilder wurden auf der Basis von Clustern (Z-Wert
> 2.3) und einem (korrigierten) Cluster-Signifikanz-Schwellenwert von p
= .01 bestimmt; Worsley et al., 1992 (adaptiert und modifiziert, Hillert und
Buračas, 2009; © Taylor & Francis)

195
196 10 Zugriff auf Wortbedeutungen

47, 11), bezieht sich daher auf die Cluster-Aktivität, die für den Kontrast „explizit
idiomatisch > wörtlich“ gefunden wurde (BA 44, 45, 47). Beide Cluster involvieren
PTr und POp sowie benachbarte Areale. Die zweite Cluster-Aktivität, die mit Bild-
haftigkeit kovariiert (BA 8, 9, 32), scheint der Cluster-Aktivität zu entsprechen, die
für den Kontrast „ambig > wörtlich“ (BA 8-10, 32) gefunden wurde.
Diese Cluster, primär linkshemisphärisch, umfassen SFG, MeFG und die cin-
guläre Region. Die Ergebnisse beider fMRT-Analysen zeigten etwa die gleichen
Ergebnisse und unterstützen daher die Annahme, dass insbesondere der linke
präfrontale Cortex an der Verarbeitung bildhafter Bedeutungen von idiomatischen
Redewendungen beteiligt ist. Wir berichteten zudem über ein weiteres interessantes
Ergebnis. Der Kontrast „wörtlich > explizit idiomatisch“ zeigte eine relativ fokale
Aktivität im Okzipitallappen (Cuneus: BA 17) und in der medialen parietalen
Region (Abb. 10.9). Die wörtlichen Sätze wurden als Baseline verwendet. Aber
warum evozierten sie Aktivitäten im visuellen Cortex im Vergleich zu expliziten
idiomatischen Äußerungen? Und warum wurde dieser Effekt nicht durch den
Vergleich mit ambigen Idiomen erzeugt? Eine plausible Interpretation dieses Er-
gebnisses ist, dass eine kompositionelle Strategie eher dazu neigt, mentale Bilder
zu generieren, um den Verstehensprozess zu erleichtern. Der Vergleich zwischen
„(explizit/ambig) idiomatisch > wörtlich“ erzeugt nicht diese Aktivierung, da fest-
stehende Redewendungen keine tiefe semantische Verarbeitung evozieren, sondern
vollständig automatisch verarbeitet werden. Entsprechend treten beim Kontrast
„wörtlich > ambig idiomatisch“ deshalb keine signifikanten Effekte auf, weil beide
Satzarten im Unterschied zu dem Kontrast „wörtlich > explizit idiomatisch“ eine
kompositionelle Strategie involvieren.

Abb. 10.6 Vergleich zwischen wörtlichen und explizit idiomatischen Sätzen verdeutlicht
eine Beteiligung von Regionen im Lobus occipitalis und Lobus parietalis
(adaptiert und modifiziert, Hillert und Buračas, 2009; © Taylor & Francis).
10.2 Sprachbilder 197

Diese Vergleiche überprüften Berechnungen, die auf einem Kontinuum stattfinden:


von vollkommen automatisierten Prozessen bis zu kompositionellen Strategien.
Der mit den Berechnungsunterschieden verbundene kognitive Aufwand hat mit
großer Wahrscheinlichkeit diesen signifikanten für die Verarbeitung von fixierten
Redewendungen atypischen Cuneus-Effekt erzeugt. Interessant ist ebenso, dass
zusätzlich Aktivitäten im Parietallappen aufgetreten sind. Der Lobus parietalis ist
die Schaltstelle für die Integration verschiedener sensorischer Informationen und
stellt vermutlich eine der corticalen Regionen dar, in denen „bewusste“ Verarbei-
tung stattfindet. Eine kompositionelle Berechnung erfordert zu einem bestimmten
Grad größere Aufmerksamkeit (Bewusstsein) als automatisierte Prozesse. Die
Ergebnisse stimmen mit dem Ansatz überein, dass nicht die Art der Bedeutung
oder des Inhalts für die Aktivierung eines bestimmten corticalen Areals verant-
wortlich ist, sondern die Art der Berechnung, einschließlich der mentalen Kosten,
die mit einer spezifischen linguistischen Struktur verbunden sind. Die Evolution
des Lobus parietalis hat den modernen Menschen mit der Fähigkeit ausgestattet,
übergreifend Bedeutungen in verschiedenen Domänen zu berechnen. Dies ist eine
Hypothese, auf die wir weiter unten wieder zurückkommen.
Aus neurologischer Sicht bestätigen die berichteten Ergebnisse insgesamt nur
teilweise unsere erste Hypothese, dass die relevanten präfrontalen Areale ein
Bestandteil des frontotemporalen Netzwerks sind. Dieses Ergebnis scheint den
rTMS-Ergebnissen von Oliveri und Mitarbeitern (2004) und fMRT-Daten von Lee
und Dapretto (2006) zu entsprechen. Oliveri und Mitarbeiter berichteten über eine
besondere Funktion des linken Temporallappens bei der Verarbeitung von Idiomen.
In dieser Studie wurde allerdings eine Satz-Bild-Zuordnungsaufgabe verwendet,
und die Verarbeitung von Bildern engagiert im Vergleich zur rASD-Aufgabenbedin-
gung eher posteriore Regionen in der unmittelbaren Nachbarschaft des okzipitalen
Lappens. Lee und Dapretto fanden wiederum bei der bildhaften Verarbeitung
von lexikalisch geprimten Adjektiven frontotemporale Aktivitäten in der linken
Hirnhälfte. Die Aufgabe selber implizierte im Vergleich zur Studie von Oliveri
und Mitarbeitern einen relativ „leichten Aufwand“, da die Stimuli isoliert ohne
Satzkontext dargeboten wurden und keine Bildzuordnungen erforderlich waren.
Die funktionale Aufgabe involvierte das Verstehen von wörtlichen und bildhaft-in-
terpretierbaren Adjektiven auf der lexikalischen Ebene. Der Grund, warum wir
in Hillerts und Buračas‘ (2009)Studie hauptsächlich präfrontale Aktivierungen
gefunden haben, beruht daher vermutlich auf den syntaktischen Strukturen, die
beim Verstehen von Satz-eingebetteten Redewendungen generiert werden.
Unsere Ergebnisse unterscheiden sich allerdings deutlich von anderen fMRT-Stu-
dien zur Verarbeitung von Idiomen, die ein bilaterales Modell favorisieren (Lauro
et al., 2008; Mashal et al., 2008; Zempleni et al., 2007). Wie bereits erwähnt wurde,

197
198 10 Zugriff auf Wortbedeutungen

ist anzunehmen, dass die unterschiedlichen Ergebnisse zumindest teilweise auf den
unterschiedlichen kognitiven Anforderungen beruhen, die mit den verschiedenen
experimentellen Paradigmen verbunden sind. Beispielsweise verwendeten Zemplini
und Mitarbeiter einführende Sätze, um die wörtliche oder bildhafte Interpretation
eines idiomatischen Ausdrucks anzudeuten. Die Stimuli wurden Phrase-für-Phrase
präsentiert. In der Studie von Mashal und Mitarbeitern wurden die Teilnehmer
vor der Stimulus-Darbietung instruiert, die Sätze entweder wörtlich oder bild-
haft zu interpretieren, und in der Studie von Lauro und Mitarbeitern wurde das
Verstehen von Idiomen mit Hilfe von Satz-Bild-Zuordnungen mit vier Items zur
Auswahl untersucht. Beide Studien waren kontextuell anspruchsvoller als die ge-
genwärtige rASD-Studie, da Hillerts und Buračas‘ Studie keine einleitenden Sätze
oder Bildinformationen enthielt. Im letztgenannten Experiment wurde zudem ein
ereignisbezogenes Design verwendet, in den anderen drei, oben erwähnten Studien
wurden die Stimuli in einem Block dargeboten. Ein Block-Design beeinflusst die
Wahrnehmungsstrategien des Probanden, da wiederholende Berechnungen die
semantische Analyse erleichtern. Wir vermuten, dass eine Erhöhung der Temporal-
lappen-Aktivität auf einer Abnahme der präfrontalen Aktivität beruht. Dieser Effekt
tritt beim wiederholenden Primen auf (z. B. Demb et al., 1995; Wagner et al., 1997).
Im Allgemeinen haben wir keine Evidenz für unsere zweite Hypothese gefunden,
dass ambige idiomatische Äußerungen ein größeres corticales Netzwerk aktivieren
als explizite idiomatische Äußerungen. Die räumlichen Cluster-Propositionen waren
bei ambigen und expliziten idiomatischen Äußerungen etwa vergleichbar groß,
wenn diese mit den wörtlichen Sätzen verglichen wurden. Der Vergleich zwischen
ambigen idiomatischen und wörtlichen Sätzen zeigt eine Cluster-Aktivität in der
linken, aber auch teilweise im rechten SFG und MeFG; mit anderen Worten: Zwei
von sechs Cluster-Maxima treten in der rechten Gehirnhälfte auf. Obwohl die
Cluster-Aktivität für diesen Kontrast sich in der unmittelbaren frontalen Mittellinie
befindet, konnte linksseitig eindeutig mehr Aktivität festgestellt werden.
Das Gesamtbild verändert sich bei der Verarbeitung von Metaphern. Die
PET-Studie von Bottini und Mitarbeitern (1994) scheint einen rechtshemisphärischen
Ansatz für das Verstehen von kreativen Metaphern zu stützen. In der Studie von
Mashal und Mitarbeitern (2005) wurden Wortpaare (auf Hebräisch) verwendet,
und es wird berichtet, dass im Unterschied zu wörtlichen Paaren vorwiegend das
rechte Homolog des Wernicke-Areals kreative metaphorische Wortpaare und das
Broca-Areal konventionelle metaphorische Wortpaare (vergleichbar mit idiomati-
schen Äußerungen) verarbeitete. Die Ergebnisse der von Ahrens und Mitarbeitern
(2007) durchgeführten fMRT-Studie mit mandarin-chinesischen Sätzen sind
dagegen ambivalent. Im Vergleich zu wörtlichen Sätzen wurde für konventionelle
Metaphern etwas mehr Aktivität im rechten Gyrus temporalis inferior ermittelt
10.2 Sprachbilder 199

und für „ungewöhnliche“ (kreative) metaphorische Sätze bilaterale Aktivitäten


im frontotemporalen Netzwerk. Weiter wurden in zwei fMRT-Studien zum stillen
Lesen unterschiedliche corticale Aktivitäten für Metaphern im Vergleich zu wörtli-
chen Sätzen gefunden. In der Studie von Rapp und Mitarbeitern (2004) engagierte
das Lesen von Sätzen (auf Deutsch) mit kreativen Metaphern den linken IFG und
den mittleren und inferioren Temporallappen, und in der Studie von Stringaris
und Mitarbeitern (2007) rekrutiertenaktivierten bedeutungslose und (relativ
konventionelle) metaphorische Sätze primär BA 47 des linken IFG. Auch die oben
genannten funktionalen Bildgebungsstudien zur Verarbeitung von metaphorischen
Phrasen unterscheiden sich deutlich in Bezug auf „Metaphorizität“, „Typologie“
und „Aufgabenbedingung“. Die gefundenen inkonsistenten Ergebnisse lassen sich
auf diese Varianz bei den Stimuli und den Berechnungsanforderungen zurück-
führen. Im Vergleich zu idiomatischen Ausdrücken scheint die metaphorische
Sprache ein größeres corticales Netzwerk zu engagieren. Ein Grund kann sein,
dass das Verstehen von aktiven und häufig verwendeten Metaphern gewöhnlich
mentale Bilder erzeugt und eine „Verschiebung“ des semantischen Rahmens erfor-
dert. Das Verstehen von idiomatischen Ausdrücken beruht dagegen gewöhnlich
auf der „Verschiebung“ oder „Unterdrückung“ der syntaktischen Struktur, um
eine alternative bildhafte Bedeutung zu parsen. Unter Berücksichtigung der von
Hillert und Buračas durchgeführten Analyse zur „Bildhaftigkeit“ verdeutlichen
die fMRT-Daten, dass im Vergleich zu wörtlichen Sätzen explizite idiomatische
Äußerungen das Broca-Areal und benachbarte Regionen (BA 46, 47) aktivieren
und ambige idiomatische Äußerungen den linken Gyrus frontalis superior und
den Gyrus frontalis medialis. Dieses Ergebnis zeigt, dass ambige Strukturen anders
verarbeitet werden als eindeutig interpretierbare Strukturen.
Die Studien, die funktionale Bildgebungsverfahren einsetzten, um die Auflö-
sung lexikalischer Ambiguitäten zu prüfen, unterstützen einen bilateralen Ansatz
(z. B. Mason und Just, 2007; Zempleni, Renken et al., 2007). Dagegen verweisen
Läsionsstudien ausschließlich auf den präfrontalen Cortex hin (z. B. Copland et
al., 2002; Frattali et al., 2007). Hillert und Buračas überprüften stehende Ambi-
guitäten, d. h., dass kein Diskurskontext oder pragmatischer Kontext angeboten
wurde, der auf die intendierte Bedeutung hinwies. Dies kann allerdings auch der
Grund dafür sein, warum keine direkte Beteiligung des rechten Cortex festgestellt
wurde und warum explizite idiomatische Äußerungen anders verarbeitet werden
als ambige idiomatische Äußerungen. Explizite Idiome evozierten im Vergleich zu
wörtlichen Sätzen das Broca-Areal. Eine kritische Funktion des Broca-Areals (BA
44, 45) bezieht sich auf das Rehearsal für die Externalisierung innerer und/oder
artikulierter Sprache und um komplexe Sätze mit nicht-kanonischen Strukturen
zu parsen (z. B. Caplan, 2001; Caplan et al., 1998; Grodzinsky, 2000; Grodzinsky

199
200 10 Zugriff auf Wortbedeutungen

und Santi, 2008; Kaan und Swaab, 2002; Mason et al., 2003). Die in Hillert und
Buračas verwendeten plausiblen Sätze wiesen alle eine kanonische SVO-Struktur
auf. Wir nehmen daher an, dass das Broca-Areal bei allen kognitiven Berechnungen
beteiligt ist, um den bedeutungstragenden Parse auszuwählen. Dieser Parsing-Me-
chanismus impliziert, dass irrelevante syntaktische Analysen unterdrückt werden
(z. B. das automatische wörtliche Parsen bei expliziten idiomatischen Ausdrücken).
Auch gehen wir davon aus, dass stehende Ambiguitäten (beim Vergleich mit wört-
lichen Sätzen) das Broca-Areal nicht engagierten, da kein kontextueller Hinweis
angeboten wurde, um eine spezifische Interpretation auszuwählen. Die zurzeit zur
Verfügung stehenden fMRT-Ergebnisse informieren nicht darüber, ob eine mit
den Subregionen des Broca-Areals assoziierte spezifische Cytoarchitektur primär
für die Verarbeitung idiomatischer Ausdrücke verantwortlich ist (siehe jedoch
Dapretto und Bookheimer, 1999). Die Ergebnisse bestätigen, dass die explizite
idiomatische und wörtliche Satzverarbeitung eine Domäne des Broca-Areals ist,
die syntaktisch-semantische Rehearsal-Prozesse involviert.
Im Allgemeinen zeichnet sich der präfrontale Cortex durch eine Vernetzung
mit verschiedenen Gehirnarealen aus, um eingehende und internalisierte Infor-
mationen zu synthetisieren. Er ist multimodal, und es wird vorgeschlagen, dass
er das neuronale Substrat für die Verarbeitung abstrakter Informationen darstellt
(z. B. Miller, 1999; Miller und Cohen, 2001; Miller, Freedman und Wallis, 2002).
Der präfrontale Cortex hält möglicherweise alternative Interpretationen bereit,
während die Suche nach pragmatischen oder kontextuellen Hinweisen erfolgt.
Diese Bereitstellung dürfte so verstanden werden, dass der präfrontale Cortex mit
im gesamten Cortex abgespeicherten Wissensspuren interagiert. Die hier disku-
tierten Daten verdeutlichen, dass herkömmliche Redewendungen automatisch in
verschiedenen corticalen Arealen verarbeitet werden, wobei es nur eine partielle
Überschneidung mit dem klassischen frontotemporalen Sprachnetz gibt. Hillert
und Buračas fanden bei der idiomatischen Verarbeitung Evidenz für Suchprozesse,
die primär im linken Gyrus frontalis superior und im Gyrus frontalis medialis
stattfinden, und für Parsing, das im Broca-Areal erfolgt. Diese kognitiven Be-
rechnungen unterscheiden sich von denen, die beim Verstehen von kanonischen
und (explizit) wörtlichen Sätzen im linken medialen parietalen Bereich auftreten.
Es ist daher möglich, dass parietal-temporale Aktivitäten, die mit der wörtlichen
Interpretation eines idiomatischen Ausdrucks verbunden sind, durch präfrontale
Modulationen unterdrückt werden, so dass eine bildhafte Interpretation der Äuße-
rung erfolgen kann. Die in Hillert und Buračas präsentierten Daten unterstützen
ein Sprachwahrnehmungsmodell für Idiome, bei dem spezifische Areale des linken
präfrontalen Cortex in Abhängigkeit von der Art der idiomatischen Äußerung
aktiviert werden. Die Ergebnisse unterstützen eine multifunktionale, dynamische
10.2 Sprachbilder 201

Cytoarchitektur, die sich durch parallele Verarbeitungsprozesse auf verschiedenen


Ebenen auszeichnet.
Veranschaulichen wir diese Idee im Detail. Sowohl ambige als auch explizite
idiomatische Redewendungen aktivieren einen wörtlichen und einen bildhaften
Parse. Beide syntaktischen Analysen sind nicht direkt mit einem spezifischen
corticalen Areal verbunden, da beide idiomatischen Varianten verschiedene cor-
ticale Areale aktivierten. Die Sprachverarbeitung kann nicht auf spezifische cor-
ticale Areale begrenzt werden. Vielmehr bestimmen die zugrunde liegenden (De)
Aktivierungsstrukturen, die bei verschiedenen Berechnungen auftreten, welche
corticalen Areale im Vergleich zu anderen aktiver sind. Aufgrund der Berech-
nungskomplexität werden beide idiomatischen Redewendungen primär im linken
präfrontalen Cortex und nicht in posterioren Regionen verarbeitet. Die Beteiligung
des Broca-Areals bei expliziten idiomatischen Äußerungen beruht wahrscheinlich
auf den Rehearsal-Prozessen und nicht auf spezifischen linguistischen Strukturen.
Weiterhin weisen die fMRT-Studien darauf hin, dass im Vergleich zu vertrauten
oder konventionalisierten lexikalischen Bedeutungen ungewöhnliche oder kreative
lexikalische Bedeutungen ein umfassendes corticales Netzwerk (einschließlich der
rechten Gehirnhälfte) aktivieren. Das Ausmaß, in dem kompositionelle Prozesse
beteiligt sind, bestimmt den Umfang des aktivierten corticalen Netzwerks. Diese
Interpretation scheint mit der Meta-Analyse, die 22 fMRT-Studien (354 Proban-
den) berücksichtigt, übereinzustimmen: Zusätzliche Aktivierungen innerhalb der
rechten Hirnhälfte beziehen sich ausschließlich auf kreative Metaphern (Bohrn et
al., 2012; siehe auch Rapp et al., 2012).
Aus evolutionärer Sicht könnte die bildhafte Verarbeitung auf der Entwicklung
des Spiegelneuronensystems (MNS) beruhen. Das MNS ist aktiv, wenn wir eine
Handlung durchführen oder beobachten (Pineda, 2009). MRT-Studien weisen
darauf hin, dass bei der Beobachtung einer Handlung u. a. okzipitale, temporale
und parietale Areale beteiligt sind. Zwei (bilaterale) Areale sind hierbei vorwiegend
beteiligt, da sie mit für motorische Funktionen zuständig sind: (a) der rostrale
Abschnitt des inferioren Parietallappens (IPL) (b) und der posteriore Abschnitt
des IFG zusammen mit dem unteren Anteil des Gyrus praecentralis (Buccino et al.,
2001; Rizzolatti und Craighero, 2004). Der IPL, auch als Geschwind-Areal bekannt,
befindet sich hinter dem unteren Abschnitt des Sulkus postcentralis und unterteilt
sich in den Gyrus supramarginalis und den Gyrus angularis. Der Gyrus angularis
grenzt wiederum an den Gyrus temporalis superior und den Gyrus temporalis
media. Beim modernen Mensch ist der gesamte Parietallappen deutlich größer
als bei anderen Spezies der gleichen Abstammungslinie wie bei Neandertalern
oder H. erectus bzw. H. ergaster (Bruner, 2010; Kaas, 2013). Der Frontallappen ist
allerdings beim Neandertaler und beim modernen Menschen deutlich breiter als

201
202 10 Zugriff auf Wortbedeutungen

beim H. erectus. Die bisherigen Fossilienfunde verdeutlichen, dass das Gehirn des
H. erectus seine maximale Breite am Temporallappen hatte; beim Neandertaler traf
dies für temporale und parietale Regionen zu. Beim modernen Menschen ist der
Parietallappen die breiteste Region des Gehirns (Bruner, 2004). Entsprechend ist
zu vermuten, dass beim H. erectus die parietale Region weniger entwickelt gewe-
sen war als beim modernen Menschen. Diese Annahme bleibt allerdings insofern
spekulativ, als Fossilienfunde hinsichtlich möglicher kognitiver Leistungen nur
bedingt aussagefähig sind.

Abb. 10.7 Traktographische Rekonstruktion des Fasciculus arcuatus (AF), der das
Broca- und das Wernicke-Areal miteinander verbindet. Das lange Segment
(in Rot) stellt die direkte klassische Bahn des AF dar. Das anteriore indirekte
Segment (in Grün) verbindet das Broca-Areal und die inferiore parietale
Region (Geschwind-Areal). Das posteriore indirekte Segment (in Gelb)
verbindet das Geschwind-Areal mit dem Wernicke-Areal (adaptiert und
modifiziert, Catani et al., 2005; © American Neurology Association).

Unter Berücksichtigung dieser offensichtlichen anatomischen Veränderungen


des Parietallappens in der Abstammungslinie des modernen Menschen kann
angenommen werden, dass die Integration und Verwendung multi-sensorischer
10.2 Sprachbilder 203

Informationen zunahm und daher zu qualitativ neuen Verhaltensdimensionen


führte. Der Parietallappen kann als die Schaltstelle zwischen dem präfrontalen
Cortex und posterioren Hirnregionen, einschließlich des Temporal- und Okzipi-
tallappens angesehen werden. Es wird ebenso vermutet, dass der Parietallappen
der Hauptsitz für „Selbstwahrnehmung“ und Bewusstsein ist.
Das hier Gesagte bleibt allerdings spekulativ. Aber in Anbetracht der anato-
mischen Gegebenheiten ist es durchaus möglich, dass die bildhafte Verarbeitung
sprachlicher Informationen auf Funktionen des Parietallappens zurückzuführen
ist. Da wir hier aus Mangel an gegenteiligen Belegen von einem graduellen geneti-
schen und sozialen Evolutionsprozess kommunikativer Fähigkeiten ausgehen, ist
es durchaus denkbar, dass bereits der H. erectus über rudimentäre nicht-wörtliche
Formen der Kommunikation verfügte. Das Wortspiel und das Kreieren von neu-
en linguistischen Einheiten ist ein soziales Produkt, aber die neurobiologischen
Bedingungen, die einen vielfältigen bildhaften Sprachgebrauch, wie wir ihn heute
kennen, treffen möglicherweise nur für den modernen Menschen zu.
Läsionen im IPL (Lobus parietalis inferior), einschließlich des Gyrus supra-
marginalis und des Gyrus angularis, führen zu affektiven Sprachstörungen, die
die Verarbeitung von Metaphern, Humor oder Ironie beeinträchtigen. Der linke
IPL ist spezifisch an ideomotorischen Apraxien beteiligt. Eine ideomotorische
Apraxie, ursprünglich als ideo-kinetische Störung bezeichnet (Liepmann, 1905;
Goldenberg, 2003), bezieht sich darauf, dass Gesten nicht verstanden und imitiert
werden können und dass alltägliche Handlungen wie Tee kochen, nicht ausgeführt
werden können. Diese Handlungen umfassen gewöhnlich verschiedene Schritte und
erfordern eine bestimmte zeitliche Abfolge innerhalb eines begrenzten Raumes. Es
ist anzunehmen, dass mit der erhöhten funktionalen Relevanz des Parietallappens
sich im Laufe der menschlichen Abstammungsgeschichte neben Aufmerksamkeit
und Bewusstsein auch die Fähigkeit zur Abstraktion herausbildete – einschließlich
mathematischer Fähigkeiten. Die Fähigkeit, domän- und modalitätsübergreifende
Daten zu verwenden, um neue Bedeutungen zu kreieren, kommt wahrscheinlich
dem nahe, was wir im Allgemeinen unter Bewusstsein verstehen. Insbesondere
Künstler wie Poeten, Musiker oder Maler sind von diesen corticalen Funktionen
abhängig. In diesem Zusammenhang sollte der „takete-bouba“-Effekt erwähnt
werden, der modalitätsübergreifende Berechnungen widerspiegelt. Köhler (1929)
konnte feststellen, dass bevorzugt mit bestimmten Silbenkombinationen (z. B.
„takete“ und „bouba“55) bestimmte Gestaltformen assoziiert werden). Sicherlich ist

55 Die primäre Sprache der Probanden war Spanish und aus diesem Grund wurden als
bedeutunglose Silbenkombinationen „takete“ und „bouba“ ausgewählt, die der Laut-
struktur des Spanischen entsprechen.
203
204 10 Zugriff auf Wortbedeutungen

der Leser sich bewußt, welche Lautform mit welcher Gestaltform assoziiert wird
(siehe Abb. 10.8):„Bouba“ wird mit der Gestalt assoziiert, die Rundungen aufweist,
und „takete“ mit der Gestalt, die sich durch Spitzen auszeichnet. ,Dies wurde auch
bei Kleinkindern beobachtet (Maurer et al., 2006; siehe auch Ramachandran und
Hubbard, 2001).

Abb. 10.8
Sie wissen, welche Gestalt
mit welcher Lautform as-
soziiert wird!

Synästhesie ist ein anderes interessantes Phänomen. Es wurden über sechzig


verschiedene Arten von Synästhesie identifiziert, die zwischen zwei sensorischen
Modalitäten auftreten, deren assoziierte Informationen normalerweise nicht
miteinander verschaltet sind. Hierfür gibt es offensichtlich genetische Gründe, da
Synästhesien im Allgemeinen und nicht auf eine spezifische Synästhesie bezogen
in Familien auftreten. Einige Beispiele hierfür sind: Zahlen oder Buchstaben wer-
den stets in bestimmten Farben wahrgenommen (z. B. besteht die Tendenz, den
Buchstabe „A“ in Rot sehen), Zahlen werden als Punkte im Raum wahrgenommen
(was zu verbesserten Speicherfähigkeiten führt), akustische Stimuli wie Stimmen,
Musik oder Kontextgeräusche sind Erfahrungen, die verschiedene Farben hervor-
rufen, oder Ordnungszahlen, Tage, Monate und Buchstaben werden personifiziert.
Calkins (1893) bemerkt: „T’s are generally crabbed, ungenerous creatures. U is a
soulless sort of thing. 4 is honest, but … 3 I cannot trust … 9 is dark, a gentleman,
tall and graceful, but politic under his suavity.“
Studien mit bildgebenden Verfahren berichten, dass insbesondere das Farben-
zentrum V4 (auch V8 genannt) an einer Farbensynästhesie beteiligt ist (Nunn et
al., 2002; Hubbard et al., 2005). V4 befindet sich in der Fusiform des Temporal-
lappens und ist Teil der ventralen Faserbahn, die eine Verbindung zum inferioren
temporalen Cortex herstellt. Die Daten, die vom primären visuellen Cortex (BA
17) auf die Fusiform projiziert werden, werden von dort an andere corticale Areale
10.2 Sprachbilder 205

weitergeleitet.56 Obwohl die direkte Beteiligung von V4 bei Farbsynästhesie durch


fMRT-Studien belegt wird, folgen weitere Verarbeitungsschritte im temporopa-
rietalen Bereich. Beispielweise werden Zahlen und Farben innerhalb der Fusiform
erkannt, und das Auftreten einer Zahl-Farbsynästhesie wird durch eine atypische
übergreifende Verschaltung innerhalb der Fusiform verursacht (Ramachandran
und Hubbard, 2001). Eine atypische Verschaltung kann allerdings auch später im
Bereich des Gyrus angularis erfolgen. In Abhängigkeit vom sensorischen Ein-
gangsreiz kann eine atypische Verschaltung verschieden Projektionen implizieren,
die alle zum temporalen-parietalen-okzipitalen (TPO) Knotenpunkt führen. Eine
Erweiterung des Parietallappens oder der TPO-Region im Laufe der menschli-
chen Abstammungsgeschichte ist möglicherweise durch einen Selektionsdruck
für Symbolismus entstanden. Mit anderen Worten: Kommunikation beruht nicht
ausschließlich auf unmittelbaren sensorischen Erfahrungen, sondern befähigt zu
Vorstellungen, Phantasien, Ideen oder Simulationen. Allerdings müssen unsere
Betrachtungen dennoch als spekulativ angesehen werden, da anhand der Fossilfun-
de die evolutionäre Entwicklung des parietalen Cortex nur schwer nachvollzogen
werden kann. Einige Regionen des posterioren parietalen Bereichs, insbesondere
der Gyrus angularis, beim modernen Menschen weisen bei den Makaken keine
homologen Entsprechungen auf (Orban et al., 2006; siehe auch Caspers et al., 2006;
Husain und Nachev, 2007). Wird der relative Unterschied zwischen den funktio-
nal-homologen Arealen V5 im extrastriaten visuellen Cortex (bewegungssensitives
Areal, auch als MTL bekannt) und A1 (primärer auditorischer Cortex) gemessen,
dann wird zwischen diesen Arealen eine überproportionale corticale Erweiterung
beim modernen Menschen festgestellt (Abb. 10.9).
Uns ist nicht bekannt, wie sich das Hirn des modernen Menschen entwickelte,
aber die hypothetisch angenommene Erweiterung des posterioren Parietallappens
hat möglicherweise entscheidend zur Entwicklung der menschlichen Sprachfähig-
keit beigetragen. Haben unsere biologischen Vorfahren eine linguistische Syntax
entwickelt, die auf innerhalb einer sensorischen Modalität erfahrenen rhythmi-
schen Strukturen beruht (z. B. Werkzeuggebrauch oder Vokalisierungen) und im
Laufe der Zeit modalitätsunabhängig repräsentiert wurde? Dies ist sicherlich eine
plausible Hypothese, da linguistische Syntax Strukturen aufweist, die teilweise mit
syntaktischen Strukturen anderer Domänen wie zum Beispiel Musik übereinstimmt.

56 Oft wird der Begriff „höhere“ corticale Areale in der einschlägigen Literatur verwendet.
Um eine implizite Bewertung zur Funktion eines corticalen Areals zu vermeiden,
bevorzugen wir hier, Begriffe beim Vergleich der Funktionen verschiedener corticaler
Areale zu verwenden, die relativ neutral sind und diese implizite sprachliche Bewertung
umgehen.
205
206 10 Zugriff auf Wortbedeutungen

Abb. 10.9 Parietale Cortexe beim modernen Menschen (vorne) und Makaken (hinten).
Beim modernen Menschen trennt der Sulkus intraparietalis (IPS) den Lobus
parietalis superior (SPL) vom Lobus parietalis inferior (IPL). Da die Homologe
beim Makaken (Areal 5, 7a/b) sich auf den SPL beschränken, wird der IPL
beim modernen Menschen als ein neues corticales Areal angesehen (adaptiert
und modifiziert, Husain und Nachev, 2007; © Elsevier Limited).

Hierfür sprechen auch Läsionsstudien. Im Unterschied zu den Affen gibt es beim


modernen Menschen substantielle hemisphärisch-spezifische funktionale Unter-
schiede. Während Läsionen im rechten Lobus parietalis inferior und innerhalb
des temporoparietalen Bereichs zu einem Neglect führen, verursachen Läsionen in
homologen Arealen der linken Gehirnhälfte oftmals Apraxie. Einige linksseitige
IPL-Patienten zeigen jedoch auch einen Neglect auf der rechten Seite. Derartige
Hemisphären-spezifische Parietallappen-Unterschiede wurden bei Affen nicht
berichtet. Sicherlich sind weitere Untersuchungen notwendig, um die Funktion
des Lobus parietalis im Rahmen der Sprachevolution genauer erfassen zu können.
Die Entwicklung des Spiegelneuronensystems (MNS) könnte hierbei eine wichtige
Rolle gespielt haben. Bei Makaken wird das MNS direkt mit Areal F5 (ventraler
prämotorischer Cortex) und dem Lobus parietalis inferior (PF, PFG) assoziiert.
Beim modernen Menschen werden die Areale IFG, IPL und STS aktiviert, wenn
Literatur 207

die Aktionen beobachtet und ausgeführt werden (z. B. Fogassi et al., 2005). Der IPL
wurde zudem nicht nur mit dem Verstehen von Handlungen assoziiert, sondern
auch mit Imitationen, Sozialisierungen, Empathie und Theorie des Geistes (Gal-
lese, 2003; Dapretto et al., 2005; Oberman et al., 2007). Die Fähigkeit, Verhalten
zu simulieren, hat möglicherweise substantiell dazu beigetragen, komplexe Pro-
zessabläufe, wie sie bei linguistischer Syntax erforderlich sind, zu entwickeln. Die
kreative Komponente der bildhaften Sprache könnte ein phylogenetisches Relikt
des evolvierenden und heute zur Verfügung stehenden Sprachsystems darstellen.

Literatur
Literatur
Aggujaro, S., Crepaldi, D., Pistarini, C., Taricco, M., & Luzzatti, C. (2006). Neuroanatomical
correlates of impaired retrieval of verbs and nouns: Interaction of grammatical class,
imageability and actionality. Journal of Neurolinguistics, 19(3), 175–94.
Ahrens, K, Liu, H. L., Lee, C. Y., Gong, S. P., Fang, S. Y., & Hsu, Y. Y. (2007). Functional MRI
of conventional and anomalous metaphors in Mandarin Chinese. Brain and Language,
100, 163–71.
Allport, D. A. (1985). Distributed memory, modular systems and dysphasia. In S. K. Newman
& R. Epstein (eds.), Current perspective in dysphasia. Edinburgh: Churchill Livingstone.
Amodio, D. M., & Frith, C.D . (2006). Meeting of minds: the medial frontal cortex and social
cognition. Nature Reviews Neuroscience, 7, 268–77.
Beauvois, M. F. (1982). Optic aphasia: a process of interaction between vision and language.
Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences,
298(1089), 35–47.
Beauvois, M. F., Saillant, B., Meininger, V., & Lhermitte, F. (1978). Bilateral tactile aphasia:
a tacto-verbal dysfunction. Brain: A Journal of Neurology, 101(3), 381–401.
Binder, J. R., Desai, R. H., Graves, W. W., & Conant, L. (2009). Where is the semantic system?
A critical review and meta-analysis of 120 functional neuroimaging studies. Cerebral
Cortex, 19(12), 2767–96.
Binder, J. R., Frost, J. A., Hammeke, T. A., Cox, R. W., Rao, S. M., & Prieto, T. (1997). Human
brain language areas identified by functional magnetic resonance imaging. The Journal
of Neuroscience, 17(1), 353–62.
Bobrow, S. A., & Bell, S. M. (1973). On catching on to idiomatic expressions. Memory &
Cognition, 1(3), 343–46.
Bohrn, I. C., Altmann, U., & Jacobs, A. M. (2012). Looking at the brains behind figurative
language – a quantitative meta-analysis of neuroimaging studies on metaphor, idiom,
and irony processing. Neuropsychologia, 50(11), 2669–83.
Bookheimer, S. (2002). Functional MRI of language: new approaches to understanding the
cortical organization of semantic processing. Annual Review Neuroscience, 25, 151–88.
Bottini, G., Corcoran, R., Sterzi, R., Paulesu, E., Schenone, P., Scarpa, P., Frackowiak, R. S., &
Frith, C. D. (1994). The role of the right hemisphere in the interpretation of figurative aspects
of language. A positron emission tomography activation study. Brain, 117(6), 1241–53.

207
208 10 Zugriff auf Wortbedeutungen

Brodmann, K. (1909). Vergleichende Lokalisationslehre der Grosshirnrinde. Leipzig: Johann


Ambrosius Bart.
Brownell, H. H., Potter, H. H., Michelow, D., & Gardner, H. (1984). Sensitivity to lexical
denotation and connotation in brain-damaged patients: a double dissociation? Brain
and Language, 29, 310–321.
Brownell, H. H., Simpson, T. L., Bihrle, A. M., Potter, H. H., & Gardner, H. (1990). Apprecia-
tion of metaphoric alternative word meanings by left and right brain-damaged patients.
Neuropsychologia, 28(4), 375–383.
Bruner, E. (2004). Geometric morphometrics and paleoneurology: brain shape evolution in the
genus Homo. Journal of Human Evolution, 47(5), 279–303. doi:10.1016/j.jhevol.2004.03.009.
Brunet, E., Sarfati, Y., Hardy-Bayle, M.-C., & Decety, J. (2000). A PET investigation of the
attribution of intentions with a nonverbal task. NeuroImage, 11, 157–166.
Bruner, E. (2010). Morphological differences in the parietal lobes within the human genus:
A neurofunctional perspective. Current Anthropology, 51(S1), S77–S88.
Buccino, G., Binkofski, F., Fink, G. R., Fadiga, L., Fogassi, L., Gallese, V., Seitz, R. J., Zilles,
K., Rizzolatti, G., & Freund, H. J. (2001). Action observation activates premotor and
parietal areas in a somatotopic manner: an fMRI study. European Journal of Neuros-
cience, 13(2), 400–4.
Buccino, G., Riggio, L., Melli, G., Binkofski, F., Gallese, V., & Rizzolatti, G. (2005). Listening
to action-related sentences modulates the activity of the motor system: a combined TMS
and behavioral study. Brain Research. Cognitive Brain Research, 24(3), 355–63.
Buxbaum, L. J., Vermonti, T., & Schwartz, M. F. (2000). Function andmanipulation tool
knowledge in apraxia: knowing “what for”but not “how”. Neurocase, 6, 83–97.
Cacciari, C., & Glucksberg, S. (1991). Understanding idiomatic expressions: The contri-
bution of word meanings. In: G. B. Simpson (ed.), Understanding word and sentence.
North-Holland.
Cacciari, C., & Tabossi, P. (1988). The comprehension of idioms. Journal of Memory and
Language, 27, 668–83.
Calkins, M. W. (1893). A statistical study of pseudo-chromesthesia and of mental-forms.
The American Journal of Psychology, 5(4), 439.
Caplan, D. (2001). Functional neuroimaging studies of syntactic processing. Journal of
Psycholinguistic Research, 30, 297–320.
Caplan, D., Alpert, N., & Waters, G. (1998). Effects of syntactic structure and propositional
number on patterns of regional cerebral blood flow. Journal of Cognitive Neuroscience,
10, 541–552.
Caramazza, A., Hillis, A. E., Rapp, B. C., & Romani, C. (1990). The multiple semantics hy-
pothesis: Multiple confusions? Cognitive Neuropsychology, 7(3), 161–89.
Caspers, S., Geyer, S., Schleicher, A., Mohlberg, H., Amunts, K., & Zilles, K. (2006). The
human inferior parietal cortex: cytoarchitectonic parcellation and interindividual
variability. NeuroImage, 33(2), 430–48.
Catani, M., Jones, D. K., & Ffytche, D. H. (2005). Perisylvian language networks of the human
brain. Annals of Neurology, 57(1), 8–16.
Copland, D. A., Chenery, H. J., & Murdoch, B. F. (2002). Hemispheric contributions to lexical
ambiguity resolution: Evidence from individuals with complex language impairment
following left-hemisphere lesions. Brain and Language, 81, 131–43.
Literatur 209

Crepaldi, D., Berlingeri, M., & Luzzatti, C. (2013). Clustering the lexicon in the brain: a
meta-analysis of the neurofunctional evidence on noun and verb processing. Frontiers
in Human Neuroscience, 7, 303.
Cronk, B., Lima, S., & Schweigert, W. (1993). Idioms in sentences: Effects of frequency,
literalness, and familiarity. Journal of Psycholinguistic Research, 22(1), 59–81.
Daniele, A., Giustolisi, L., Silveri, M. C., Colosimo, C., & Gainotti, G. (1994). Evidence for
a possible neuroanatomical basis for lexical processing of nouns and verbs. Neuropsy-
chologia, 32(11), 1325–41.
Dapretto, M., & Bookheimer, S. Y. (1999). Form and content. Neuron, 24, 427–32.
Dapretto, M., Davies, M. S., Pfeifer, J. H., Scott, A. A., Sigman, M., Bookheimer, S. Y., &
Iacoboni, M. (2005). Understanding emotions in others: mirror neuron dysfunction in
children with autism spectrum disorders. Nature Neuroscience, 9(1), 28–30.
De Renzi, E., & di Pellegrino, G. (1995). Sparing of verbs and preserved, but ineffectual
reading in a patient with impaired word production. Cortex; a Journal Devoted to the
Study of the Nervous System and Behavior, 31(4), 619–36.
Demb, J., Desmond, J., Wagner, A., Vaidya, C., Glover, G., & Gabrieli, J. (1995). Semantic
encoding and retrieval in the left inferior prefrontal cortex: A functional MRI study of
task difficulty and process specificity. Journal of Cognitive Neuroscience, 15, 5870–78.
Dronkers, N. F., Wilkins, D. P., Van Valin, R. D., Jr., Redfern, B. B., & Jaeger, J. J. (2004). Lesion
analysis of the brain areas involved in language comprehension. Cognition, 92(1–2), 145–77.
Eviatar, Z., & Just, M. A. (2006). Brain correlates of discourse processing: An fMRI investiga-
tion of irony and conventional metaphor comprehension. Neuropsychologia, 44, 2348–59.
Farah, M. J., Hammond, K. M., Mehta, Z., & Ratcliff, G. (1989). Category-specificity and
modality-specificity in semantic memory. Neuropsychologia, 27(2), 193–200.
Fogassi, L. (2005). Parietal lobe: From action organization to intention understanding.
Science, 308(5722), 662–67.
Foldi, N. S. (1987). Appreciation of pragmatic interpretations of indirect commands. Brain
and Language, 31, 88–108.
Frattali, C., Hanna, R., McGinty, A. S., Gerber, L., Wesley, R., Grafman, J., & Coelho, C.
(2007). Effect of prefrontal cortex damage on resolving lexical ambiguity in text. Brain
and Language, 102, 99–113.
Friederici, A. D. (2002). Towards a neural basis of auditory sentence processing. Trends in
Cognitive Sciences, 6(2), 78–84.
Frith, U., & Frith, C. D. (2003). Development and neurophysiology of mentalizing. Philo-
sophical Transactions of the Royal Society B: Biological Sciences, 358(1431), 459–73.
Gallagher, H. L., Happé, F., Brunswick, N., Fletcher, P. C., Frith, U., & Frith, C. D. (2000).
Reading the mind in cartoons and stories: an fMRI study of ‘theory of mind’ in verbal
and nonverbal tasks. Neuropsychologia, 38(1), 11–21.
Gallese, V. (2003). The Roots of Empathy: The shared manifold hypothesis and the neural
basis of intersubjectivity. Psychopathology, 36(4), 171–80.
Gallese, V. (2007). Before and below “theory of mind”: embodied simulation and the neural
correlates of social cognition. Philosophical Transactions of the Royal Society B: Biological
Sciences, 362(1480), 659–69.
Gardner, H., & Brownell, H. H. (1986.). Right hemisphere communication battery. Boston,
MA: Psychological Service VAMC.
Gibbs, R. W., Jr. (1980). Spilling the beans on understanding and memory for idioms in
conversation. Memory & Cognition, 8(2), 149–56.

209
210 10 Zugriff auf Wortbedeutungen

Gilbert, S. J., Williamson, I. D. M., Dumontheil, I., Simons, J. S., Frith, C. D., & Burgess,
P. W. (2007). Distinct regions of medial rostral prefrontal cortex supporting social and
non-social functions. Social Cognitive and Affective Neuroscience, 2, 217–26.
Gilbert, S. J., Spengler, S., Simons, J. S., Steele, J. D., Lawrie, S. M., Frith, C. D., & Burgess,
P. W. (2006). Functional specialization within rostral prefrontal cortex (area 10): a me-
ta-analysis. Journal of Cognitive Neuroscience, 18, 932–48.
Giora, R. (1997). Understanding figurative language: The graded salience hypothesis. Cog-
nitive Linguistics, 7(1), 183–206.
Gitelman, D. R., Nobre, A. C., Sonty, S., Parrish, T. B., & Mesulam, M.-M. (2005). Language
network specializations: An analysis with parallel task designs and functional magnetic
resonance imaging. NeuroImage, 26(4), 975–85.
Goldenberg, G. (2003). Apraxia and beyond: life and work of Hugo Liepmann. Cortex 39(3),
509–24.
Goodglass, H. (1994). Category-specific lexical dissociations. Linguistische Berichte. Special
Issue: Linguistics and Cognitive Neuroscience, 6, 49–61.
Grice, H. P. (1975). Logic and conversation. In: P. Cole & J. L. Morgan (eds.), Syntax and
Semantics 3: Speech Acts. New York: Academic Press, pp. 41–58.
Grodzinsky, Y. (2000). The neurology of syntax: Language use without Broca’s area. Beha-
vioral and Brain Science, 23, 1–71.
Grodzinsky, Y., & Santi, A. (2008). The battle for Broca’s region. Trends in Cognitive Science,
12, 474–80.
Gusnard, D. A., Akbudak, E., Shulman, G. L., & Raichle, M. E. (2001). Medial prefrontal
cortex and self-referential mental activity: relation to a default mode of brain function.
Proceedings of the National Academy of Sciences of the United States of America, 98(7),
4259–64.
Hart, J., & Gordon, B. (1992). Neural subsystems for object knowledge. Nature, 359(6390), 60–4.
Hart, J., Berndt, R. S., & Caramazza, A. (1985). Category-specific naming deficit following
cerebral infarction. Nature, 316(6027), 439–40.
Hickok, G., & Poeppel, D. (2007). The cortical organization of speech processing. Nature
Reviews Neuroscience, 8(5), 393–402.
Hillert, D. (1990). Sprachprozesse und Wissensstrukturen [German]. Opladen: Westdeut-
scher Press.
Hillert, D. (1992). Lexical semantics and aphasia: A state-of-the-art review. Journal of Neu-
rolinguistics, 7(1), 1–43.
Hillert, D., Burrington, D. F. H., & Gupta, G. A. (1994). Semantic activation for lexical
perception. Linguistische Berichte (4): Linguistics and Cognitive Neuroscience, 245–68.
Hillert, D., & Buračas, G. (2009). The neural substrates of spoken idiom comprehension.
Language and Cognitive Processes, 24(9), 1370–91.
Hillert, D., & Swinney, D. (2000). The processing of fixed expressions during sentence com-
prehension. In A. Cienki, B. J. Luka & M. B. Smith (eds.), Conceptual structure, discourse,
and language. Stanford: CSLI.
Hillert, D. G. (2004). Spared idiom comprehension in aphasia: A single-case approach. Brain
and Language 89 (1), 207–15.
Hillert, D. G. (2008). On Idioms: Cornerstones of a neurological model of language proces-
sing. Journal of Cognitive Science 9(2), 193–233.
Hillert, D. G. (2011). Nimm’s nicht so wörtlich [German]. Gehirn und Geist, Nov., 70–3.
Literatur 211

Hubbard, E. M., Arman, A. C., Ramachandran, V. S., & Boynton, G. M. (2005). Individual
differences among grapheme-color synesthetes: Brain-behavior correlations. Neuron,
45(6), 975–85.
Humphreys, G. W., Hodsoll, J., & Riddoch, M. J. (2009). Fractionating the binding process:
neuropsychological evidence from reversed search efficiencies. Journal of Experimental
Psychology. Human Perception and Performance, 35(3), 627–47.
Humphreys, G. W., Riddoch, M. J., & Price, C. J. (1997). Top-down processes in object iden-
tification: evidence from experimental psychology, neuropsychology and functional
anatomy. Philosophical Transactions of the Royal Society of London. Series B: Biological
Sciences, 352(1358), 1275–82.
Humphreys, G. W., Riddoch, M. J., & Quinlan, P. T. (1988). Cascade processes in picture
identification. Cognitive Neuropsychology, 5(1), 67–104.
Husain, M., & Nachev, P. (2007). Space and the parietal cortex. Trends in Cognitive Sciences,
11(1), 30–6.
Joanette, Y., Goulet, P., & Hannequin, D. (1990). Right hemisphere and verbal communi-
cation. Springer Press.
Just, M. A., Cherkassky, V. L., Keller, T. A., & Minshew, N. J. (2004). Cortical activation and
synchronization during sentence comprehension in high-functioning autism: evidence
of underconnectivity. Brain, 127(8), 1811–21.
Kaan, E., & Swaab, T. Y. (2002). The brain circuitry of syntactic comprehension. Trends in
Cognitive Science, 6, 350–56.
Kempler, D., Van Lancker, D., & Read, S. (1988). Proverb and idiom comprehension in Alz-
heimer disease. Alzheimer Disease and Associated Disorders, 2(1), 38–49.
Kircher, T. T., Brammer, M., Tous Andreu, N., Williams, S. C., & McGuire, P. K. (2001).
Engagement of right temporal cortex during processing of linguistic context. Neuropsy-
chologia, 39(8), 798–809.
Köhler, W. (1929). Gestalt psychology. New York: Liveright.
Kringelbach, M. L. (2005). The orbitofrontal cortex: linking reward to hedonic experience.
Nature Reviews Neuroscience, 6, 691–702.
Lauro, L. J. R., Tettamanti, M., Cappa, S. F., & Papagno, C. (2008). Idiom comprehension: A
prefrontal task? Cerebral Cortex, 18, 162–70.
Lee, L., Friston, K., & Horwitz, B. (2006). Large-scale neural models and dynamic causal
modelling. NeuroImage, 30(4), 1243–54.
Lee, S. S., & Dapretto, M. (2006). Metaphorical vs. literal word meanings: fMRI evidence
against a selective role of the right hemisphere. Neuroimage, 29(2), 536–44.
Levelt, W. J., Roelofs, A., & Meyer, A. S. (1999). A theory of lexical access in speech production.
The Behavioral and Brain Sciences, 22(1), 1–38.
Libon, D. J., Rascovsky, K., Powers, J., Irwin, D. J., Boller, A., Weinberg, D., McMillan, C. T.,
& Grossman, M. (2013). Comparative semantic profiles in semantic dementia and Alz-
heimer’s disease. Brain, 136(8), 2497–509.
Liepmann, H. (1905). Ueber Störungen des Handelns bei Gehirnkranken. S. Karger.
Macrae, C. N., Moran, J. M., Heatherton, T. F., Banfield, J. F., & Kelley, W. M. (2004). Medial
Prefrontal Activity Predicts Memory for Self. Cerebral Cortex, 14, 647–54.
Mahon, B. Z., & Caramazza, A. (2008). A critical look at the embodied cognition hypothesis
and a new proposal for grounding conceptual content. Journal of Physiology, Paris,
102(1–3), 59–70.

211
212 10 Zugriff auf Wortbedeutungen

Marques, J. F., Raposo, A., & Almeida, J. (2013). Structural processing and category-specific
deficits. Cortex, 49(1), 266–275.
Martin, A., Ungerleider, L. G., & Haxby, J. V. (2000). Category-specificity and the brain: the
sensory-motor model of semantic representations of objects. In M. S. Gazzaniga (ed.),
The new cognitive neurosciences. Cambridge, MA: MIT Press, pp. 1023–36.
Martin, A., Wiggs, C. L., Ungerleider, L. G., & Haxby, J. V. (1996). Neural correlates of cate-
gory-specific knowledge. Nature, 379(6566), 649–52.
Mashal, N., Faust, M., & Hendler, T. (2005). The role of the right hemisphere in processing
nonsalient metaphorical meanings: application of principal components analysis to fMRI
data. Neuropsychologia, 43(14), 2084–100.
Mashal, N., Faust, M., Hendler, T., & Jung-Beeman, M. (2008). Hemispheric differences in
processing the literal interpretation of idioms: converging evidence from behavioral and
fMRI studies. Cortex, 44(7), 848–60.
Mason, R. A., & Just, M. A. (2007). Lexical ambiguity in sentence comprehension. Brain
Research, 1146(18), 115–27.
Mason, R. A., Just, M. A., Keller, T. A., & Carpenter, P. A. (2003). Ambiguity in the brain:
What brain imaging reveals about the processing of syntactically implicit sentences.
Journal of Experimental Psychology: Learning, Memory, and Cognition, 29(6), 1319–38.
Maurer, D., Pathman, T., & Mondloch, C. J. (2006). The shape of boubas: sound-shape cor-
respondences in toddlers and adults. Developmental Science, 9(3), 316–22.
McCarthy, R., & Warrington, E. K. (1985). Category specificity in an agrammatic patient: the
relative impairment of verb retrieval and comprehension. Neuropsychologia, 23(6), 709–27.
McCarthy, R. A., & Warrington, E. K. (1988). Evidence for modality-specific meaning systems
in the brain. Nature, 334(6181), 428–30.
McCarthy, R. A., & Warrington, E. K. (1994). Disorders of semantic memory. Philosophical
Transactions of the Royal Society of London. Series B, Biological Sciences, 346(1315), 89–96.
McGlone, M., Glucksberg, S., & Cacciari, C. (1994). Semantic productivity and idiom com-
prehension. Discourse Processes, 17, 167–90.
Miller, E. K. (1999). The prefrontal cortex: complex neural properties for complex behavior.
Neuron, 22, 15–7.
Miller, E. K., & Cohen, J. D. (2001). An integrative theory of prefrontal function. Annual
Review of Neuroscience, 24, 167–202.
Miller, E. K., Freedman, D. J., & Wallis, J. D. (2002). The prefrontal cortex: categories, con-
cepts and cognition. Philosophical transactions of the Royal Society of London. Series
B, Biological Sciences, 29, 357(1424), 1123–36.
Nichelli, P., Grafman, J., Pietrini, P., Clark, K., Lee, K. Y., & Miletich, R. (1995). Where the
brain appreciates the moral of a story. Neuroreport, 6(17), 2309–13.
Nunn, J. A., Gregory, L. J., Brammer, M., Williams, S. C. R., Parslow, D. M., Morgan, M. J.,
Morris, R. G., Bullmore, E. T., Baron-Cohen, S., & Gray, J. A. (2002). Functional mag-
netic resonance imaging of synesthesia: activation of V4/V8 by spoken words. Nature
Neuroscience, 5(4), 371–75.
Oberman, L. M., Pineda, J. A., & Ramachandran, V. S. (2007). The human mirror neuron
system: A link between action observation and social skills. Social Cognitive and Affective
Neuroscience, 2(1), 62–6.
Oliveri, M., Finocchiaro, C., Shapiro, K., Gangitano, M., Caramazza, A., & Pascual-Leone, A.
(2004). All talk and no action: a transcranial magnetic stimulation study of motor cortex
activation during action word production. Journal of Cognitive Neuroscience, 16(3), 374–81.
Literatur 213

Oliveri, M., Romero, L., & Papagno, C. (2004). Left but not right temporal involvement in
opaque idiom comprehension: a repetitive transcranial magnetic stimulation study.
Journal of Cognitive Neuroscience, 16, 848–55.
Orban, G. A., Claeys, K., Nelissen, K., Smans, R., Sunaert, S., Todd, J. T., Wardak, C., Durand,
J. B., & Vanduffel, W. (2006). Mapping the parietal cortex of human and non-human
primates. Neuropsychologia, 44(13), 2647–67.
Ortony, A., Schallert, D. L., Reynolds, R. E., & Antos, S. J. (1978). Interpreting metaphors
and idioms: some effects of context on comprehension. Journal of Verbal Learning and
Verbal Behavior, 17, 465–77.
Papagno, C., & Caporali, A. (2007). Testing idiom comprehension in aphasic patients: The
effects of task and idiom type. Brain and Language, 100(2), 208–20.
Papagno, C., Curti R., Rizzo, S., Crippa, F., & Colombo, M. R. (2006). Is the right hemisphere
involved in idiom comprehension? A neuropsychological study. Neuropsychology, 20(5),
598–606.
Papagno, C., Oliveri, M., & Romero, L. (2002). Neural correlates of idiom comprehension.
Cortex, 38, 895–98.
Patterson, K., Nestor, P. J., & Rogers, T. T. (2007). Where do you know what you know? The
representation of semantic knowledge in the human brain. Nature Reviews Neuroscience,
8(12), 976–87.
Paul, L., Van Lancker-Sidtis, D. R., Schieffer, B., Dietrich, R., & Brown, W. (2003). Commu-
nicative deficits in agenesis of the corpus callosum: Nonliteral language and affective
prosody. Brain and Language, 85, 313–24.
Perani, D., Cappa, S. F., Bettinardi, V., Bressi, S., Gorno-Tempini, M., Matarrese, M., & Fazio,
F. (1995). Different neural systems for the recognition of animals and man-made tools.
Neuroreport, 6(12), 1637–41.
Peterson, R. R., & Burgess, C. (1993). Syntactic and semantic processing during idiom com-
prehension: neurolinguistic and psycholinguistic dissociation. In C. Cacciari & P. Tabossi
(eds.), Idioms: processing, structure and interpretation. Hillsdale, NJ: Lawrence Erlbaum.
Peterson, R. R., Burgess, C., Dell, G. S., & Eberhard, K. M. (2001). Dissociation between syn-
tactic and semantic processing during idiom comprehension. Journal of Experimental
Psychology: Learning, Memory and Cognition, 27(5), 1223–1237.
Pineda, J. A. (ed.) (2009). Mirror neuron systems – The role of mirroring processes in social
cognition. Springer.
Poldrack, R. A., Wagner, A. D., Prull, M. W., Desmond, J. E., Glover, G. H., & Gabrieli, J. D.
(1999). Functional specialization for semantic and phonological processing in the left
inferior prefrontal cortex. Neuroimage, 10(1), 15–35.
Pulvermüller, F., Hauk, O., Nikulin, V. V., & Ilmoniemi, R. J. (2005). Functional links between
motor and language systems. The European Journal of Neuroscience, 21(3), 793–97.
Ramachandran, V. S., & Hubbard, E. M. (2001). Synaesthesia – a window into perception,
thought and language. Journal of Consciousness Studies, 8(12), 3–34.
Rapp, A. M., Leube, D. T., Erb, M., Grodd, W., & Kircher, T. T. (2004). Neural correlates of
metaphor processing. Brain Research. Cognitive Brain Research, 20, 395–402.
Rapp, A. M., Mutschler, D. E., & Erb, M. (2012). Where in the brain is nonliteral language?
A coordinate-based meta-analysis of functional magnetic resonance imaging studies.
NeuroImage, 63(1), 600–10.
Riddoch, M. J., Humphreys, G. W., Coltheart, M., & Funnell, E. (1988). Semantic systems or
system? Neuropsychological evidence re-examined. Cognitive Neuropsychology, 5, 3–25.

213
214 10 Zugriff auf Wortbedeutungen

Rizzolatti, G., & Craighero, L. (2004). The mirror-neuron system. Annual Review of Neu-
roscience, 27, 169–92.
Roskies, A. L., Fiez, J. A., Balota, D. A., Raichle, M. E., & Petersen, S. E. (2001). Task-depen-
dent modulation of regions in the left inferior frontal cortex during semantic processing.
Journal of Cognitive Neuroscience, 13(6), 829–43.
Sahin, N. T., Pinker, S., Cash, S. S., Schomer, D., & Halgren, E. (2009). Sequential processing
of lexical, grammatical, and phonological information within Broca’s area. Science,
326(5951), 445–49.
Shallice, T. (1987). Impairments of semantic processing: multiple dissociations. In M.
Coltheart, G. Sartori & R. Job (eds.), The cognitive neuropsychology of language. Hillsdale,
NJ: Lawrence Erlbaum.
Shibata, M., Toyomura, A., Itoh, H., & Abe, J. (2010). Neural substrates of irony comprehen-
sion: A functional MRI study. Brain Research, 1308, 114–23.
Sotillo, M., Carretie, L., Hinojosa, J. A., Tapia, M., Mercado, F., Lopez-Martin, S., & Albert,
J. (2005). Neural activity associated with metaphor comprehension: spatial analysis.
Neuroscience Letters, 373(1), 5–9.
Sperber, D., & Wilson, D. (2001). Précis of relevance: communication and cognition. Beha-
vioral and Brain Sciences, 10(4), 697–754.
Stowe, L. A., Broere, C. A. J., Paans, A. M. J., Wijers, A. A., Mulder, G., Vaalburg, W., & Zwarts,
F. (1998). Localizing components of a complex task: sentence processing and working
memory. Neuroreport, 9(13), 2995–99.
Stringaris, A. K., Medford, N. C., Giampietro, V., Brammer, M. J., & David, A. S. (2007). Deri-
ving meaning: Distinct neural mechanisms for metaphoric, literal, and non-meaningful
sentences. Brain and Language, 100, 150–62.
Subramaniam, K., Beeman, M., & Mashal, N. (2013). Positively valenced stimuli facilitate
creative novel metaphoric processes by enhancing medial prefrontal cortical activation.
Frontiers in Cognitive Science, 4, 211.
Swinney, D., & Cutler, A. (1979). The access and processing of idiomatic expressions. Journal
of Verbal Learning and Verbal Behavior, 18, 523–34.
Tabossi, P., & Zardon, F. (1993). The activation of idiomatic meaning in spoken language
comprehension. In C. Cacciari & P. Tabossi (eds.), Idioms: Processing, structure and
interpretation. Hillsdale, NJ: Lawrence Erlbaum.
Tabossi, P., & Zardon, F. (1995). The activation of idiomatic meaning. In M. Everaert, E.-J.
van der Linden, A. Schenk & R. Schreuder (eds.), Idioms: structural and psychological
perspectives. Hillsdale, NJ: Lawrence Erlbaum Associates.
Titone, D. A., & Connine, C. M. (1994). Comprehension of idiomatic expressions: effects of
predictability and literality. Journal of Experimental Psychology: Learning, Memory,
and Cognition, 20(5), 1126–1138.
Tompkins, C. A., Boada, R., & McGarry, K. (1992). The access and processing of familiar
idioms by brain-damaged and normally aging adults. Journal of Speech, Language and
Hearing Research, 35(3), 626–637.
Turken, A. U., & Dronkers, N. F. (2011). The neural architecture of the language compre-
hension network: converging evidence from lesion and connectivity analyses. Frontiers
in Systems Neuroscience, 5(1).
Uchiyama, H., Seki, A., Kageyama, H., Saito, D. N., Koeda, T., Ohno, K., & Sadato, N. (2006).
Neural substrates of sarcasm: A functional magnetic-resonance imaging study. Brain
Research, 1124(1): 100–10.
Literatur 215

Van Lancker, D. R., & Kempler, D. (1987). Comprehension of familiar phrases by left- but
not by right-hemisphere damaged patients. Brain and Language, 32, 265–77.
Van Lancker-Sidtis, D. (2004). When novel sentences spoken or heard for the first time in
the history of the universe are not enough: toward a dual-process model of language.
International Journal of Language and Communicative Disorders, 39(1): 1–44.
Wagner, A., Desmond, J., Demb, J., Glover, G., & Gabrieli, J. D. (1997). Semantic repetition
priming for verbal and pictorial knowledge. Journal of Cognitive Neuroscience, 9, 714–726.
Wakusawa, K., Sugiura, M., Sassa, Y., Jeong, H., Horie, K., Sato, S., Yokoyama, H., Tsuchiya,
S., Inuma, K., & Kawashima, R. (2007). Comprehension of implicit meanings in social
situations involving irony: a functional MRI study. Neuroimage, 37(4), 1417–26.
Warrington, E. K., & Shallice, T. (1984). Category specific semantic impairments. Brain,
107(3), 829–54.
Winner, E., & Gardner, H. (1977). The comprehension of metaphor in brain-damaged
patients. Brain, 100, 719–27.
Winner, E. (1988). The point of words: Children’s understanding of metaphor and irony.
Cambridge, MA: Harvard University Press.
Worsley, K. J., Evans, A. C., Marrett, S., & Neelin, P. (1992). A three-dimensional statistical
analysis for CBF activation studies in human brain. Journal of Cerebral Blood Flow and
Metabolism, 12, 900–18.
Zempleni, M. Z., Haverkort, M., Renken, R., & Stowe, L. A. (2007). Evidence for bilateral
involvement in idiom comprehension: An fMRI study. Neuroimage, 34(3), 1280–91.
Zempleni, M. Z., Renken, R., Hoeks, C. J., Hoogduin, J. M., & Stowe, L. A. (2007). Semantic
ambiguity processing in sentence context: Evidence from event-related fMRI. Neuroi-
mage, 34, 1270–79.

215
Atypische Sprache
11 Atypische Sprache 11

Zusammenfassung

Drei exemplarische neuropsychologische Störungen verdeutlichen, wie die


kognitiven Funktionen des menschlichen Sprachsystems gestört werden kön-
nen: Aphasie, Alzheimer-Krankheit und Autismus-Spektrum-Störung. Das
Sprachnetzwerk wird von allen drei Störungen auf eine unterschiedliche Art
und Weise beeinträchtigt. Die durch einen Schlaganfall verursachten fokalen
Läsionen innerhalb des linken frontotemporalen Schaltkreises sind gewöhnlich
die Gründe dafür, dass spezifische Komponenten des Sprachnetzwerks ausfallen.
Allerdings ermöglicht die Neuroplastizität, dass zum Teil aphasische Störungen
erfolgreich kompensiert werden können. Die Prüfung des aphasischen Genesungs-
prozesses verdeutlicht, dass sich das Sprachnetzwerk auch unter dem Einfluss der
intakten rechtshemisphärischen Funktionen reorganisieren kann. Im Fall der
Alzheimer-Krankheit beeinflussen bestimmte Gedächtnisfunktionsstörungen
das Sprachnetzwerk. Es handelt sich um eine fortschreitende Krankheit, von
der selektiv bestimmte Sprachkomponenten stärker beeinträchtigt werden als
andere. Die Autismus-Spektrum-Störung wird offenbar durch eine atypische
Entwicklung der neuronalen Verschaltung in Bezug auf Konnektivität und
„Pruning“ verursacht.

Stichwörter

Alzheimer-Krankheit, Amyloide Plaques, Aphasie, APOE 4, Autismus-Spektrum-


Störung, Bildhafte Sprache, Konnektivität, Leichte Kognitive Beeinträchtigung,
Neurofibrilläres Bündel, Pragmatik, Pruning, Soziale Kognition.

217
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_12
218 11 Atypische Sprache

11.1 Aphasie
11.1 Aphasie
Eine der wichtigsten Ansätze in der Geschichte der kognitiven Neuropsychologie
bezieht sich auf die akribische Analyse von Sprachstörungen bei bestimmten kli-
nischen Populationen und Einzelfällen. Der medizinische Philosoph Alkmaion
von Kroton (etwa 570-490 v. Chr.) und der Arzt Galen von Pergamon (auch als
Claudius Galenus bekannt: 129 - ca. 217 n. Chr. oder früher) waren unter den
Ersten, die behaupteten, dass das Hirn die Quelle der mentalen Aktivität sei und
nicht das Herz, wie es von Aristoteles (384-322 v. Chr.) angenommen wurde. Andere
erwähnenswerte historische Meilensteine im Bereich von „Sprache und Gehirn“
sind: phrenologische Modelle (Franz Joseph Gall: 1758-1828), die nach ihren Ent-
deckern Paul Pierre Broca (1824-1880) und Carl Wernicke (1848-1904) benannten
corticalen Areale „Broca-Areal“ und „Wernicke-Areal“, die Funktion der Neuronen
von Santiago Ramón y Cajal (1852-1932) und Camillo Golgi (1843-1926) sowie
die mathematischen Grundlagen für bildgebende Verfahren von Allan Cormack
(1924-1998) und Godfrey Hounsfield (1919-2004). Ein historischer Überblick, der
hier nur angedeutet wird, ermöglicht, sich nicht nur über die wissenschaftliche
Entwicklung im Rahmen des Zeitgeschehens bewusst zu werden, sondern auch die
Entwicklungsschritte innerhalb eines bestimmten Forschungsbereichs zu verstehen.
Heute ist uns bekannt, dass verschieden klinische Störungen mit bestimmten
Sprachstörungen einhergehen. Obwohl das Risiko für eine spezifische Sprachstörung
wie Aphasie oder allgemeine kognitive Beeinträchtigungen mit Sprachstörungen im
Alter zunimmt, können diese in jedem Lebensalter auftreten. Aphasische Syndro-
me, die durch Schlaganfälle verursacht werden, zeichnen sich durch systematische
Sprachstörungen auf verschiedenen linguistischen Ebenen aus. Bei Personen mit
Autismus liegen oftmals Störungen im Schnittstellenbereich von Sprache und
allgemeiner Kognition vor, was zu einer sprachlich-pragmatischen Beeinträchti-
gung führt. Ungeachtet der Anwendung moderner bildgebender Verfahren liefern
Verhaltensanalysen von Einzelfallstudien oftmals überraschende Ergebnisse. Der
klinische Verhaltensansatz ist daher nicht nur von theoretischem Interesse, sondern
ermöglicht auch bessere Behandlungsmaßnahmen für Sprech- und Sprachstörungen.
In Deutschland erleiden laut dem Bundesaphasikerzentrum in Vechta jährlich
etwa 100.000 erwachsene Patienten eine Aphasie (Stand 2014). Das „National Institute
of Neurological Disorders and Stroke“ nimmt an, dass die jährliche Inzidenz in den
USA im Jahr 2020 etwa 180.000 betragen wird und dass es dann eine Prävalenz von
2 Millionen Aphasikern gibt. Die Hauptursache ist ein Schlaganfall (85 %), andere
Ursachen sind traumatische Verletzungen, Tumore oder medizinische Eingriffe.
Die meisten Schlaganfälle werden durch einen zerebralen Infarkt verursacht, d. h.
durch eine arterielle Thrombose (Blutgerinnsel). Normalerweise bildet sich ein
11.1 Aphasie 219

Blutgerinnsel in unmittelbarer Nachbarschaft von fettigen Plaques. Im Unterschied


zu den Arterien im Herz oder im Bein können die zerebralen Arterien nicht von
den fettigen Barrieren befreit werden. Die beiden anderen Ursachen sind zerebrale
Blutungen und zerebrale Aneurysmen. Im Fall einer Blutung führt oftmals eine un-
kontrollierte Hypertonie zu einer Zerstörung der zerebralen Arterie. Ein zerebrales
Aneurysma wird gewöhnlich durch eine Ruptur einer schwachen und vergrößerten
zerebralen Arterie verursacht (siehe Abb. 11.1, Abb. 11.2).

Abb. 11.1 Sagittales (links) und mittleres sagittales (rechts) Diagramm des
menschlichen Gehirns: Die Blutversorgung erfolgt durch drei Hauptarterien
(ACA, anteriore zerebrale Arterie; MCA, mittlere zerebrale Arterie; PCA,
posteriore zerebrale Arterie (adaptiert und modifiziert; © James Publishing).

Aphasische Forschungsstudien untersuchten vor allem Broca- und Wernicke-Apha-


sien, da alle linguistische Ebenen (einschließlich Phonologie, Syntax und Semantik)
betroffen sind (z. B. Caplan, 1987; Hillert, 1990; Peng, 2009; Ingram, 2007). Broca-Apha-
siker leiden unter ernsten Sprachproduktionsstörungen, die gewöhnlich durch
Schlaganfallläsionen im BA 44 des linken Gyrus frontalis inferior (IFG) entstehen.
Die Spontansprache der Patienten besteht aus kurzen Phrasen, die oftmals nur mit
großen Anstrengungen produziert werden können. Dies ist das Kardinalsymptom
der Broca-Aphasie (Pick, 1913). Diese Form der Aphasie ist nicht das Ergebnis einer
rein motorischen Störung bei der Artikulation, da nur bestimmte Wörter ausgelassen
werden. Die Spontansprache eines Broca-Aphasikers besteht aus Nomen und Verben,
grammatische Wörter (sogenannte „Wörter der geschlossenen Klasse“) werden in der
Regel ausgelassen. Das Grundkonzept klassisch-konnektionistischer Schulen sind
zerebrale Sprachzentren sowie die in verschiedenen Modalitäten aufgetretenen sprach-
lichen Fähigkeiten (Broca, 1861; Wernicke, 1874; Kussmaul, 1881; Lichtheim, 1884).
In den 60er Jahren positionierte sich die psycholinguistische Forschung und
stellte das Konzept der klassischen Sprachzentren in Frage (z. B. Goodglass und
219
220 11 Atypische Sprache

Berko, 1960; Caramazza und Zurif, 1976). Die Funktionen der Sprachzentren
spiegeln keine linguistischen Prozesse an sich wider, sondern Systeme, um Sprache
zu analysieren und zu synthetisieren. Während das Broca-Areal als ein corticales
Areal angesehen wurde, in dem Syntax generiert wird (algorithmische Analyse),
wurde dem Wernicke-Areal die Funktion der Bedeutungsgenerierung zugewiesen
(heuristische Analyse). Syntaktische Störungen, die mit Läsionen im Broca-Areal
assoziiert werden, wurden nicht nur in der Sprachproduktion festgestellt, sondern
auch in der Sprachwahrnehmung. Allerdings zeigten einige Patienten ausschließ-
lich einen expressiven Agrammatismus, während die Sprachwahrnehmung nicht
beeinträchtigt war (z. B. Nespoulous et al., 1988; Miceli et al., 1983) und andere
Patienten hatten offensichtlich nur einen rezeptiven Agrammatismus, während
die Produktion intakt war (Zurif und Caramazza, 1976; Martin, 1987).

Abb. 11.2 Linke Seite: Diffusionsgewichtete Bildgebung zeigt einen zerebralen Infarkt
(helles Areal). Bei einem Schlaganfall besteht kein Blutfluss und die Diffusion
(molekulare Wasserbewegungen) ist in diesem Gewebe gestört. Rechte
Seite: Magnetresonanzangiographie zeigt einen akuten Schlaganfall mit
Verschluss der mittleren zerebralen Arterie (adaptiert und modifiziert; ©
Universitätsklinik Freiburg).

In den 80er Jahren wurden präzisere Modelle entwickelt, um agrammatische Stö-


rungen besser beschreiben zu können. Ein Ansatz schlug vor, dass ein spezifischer
lexikalischer Zugriffsprozess beeinträchtigt ist (Bradley, 1978; aber siehe Gordon und
Caramazza, 1982; Kolk und Blomert, 1985): Agrammatische Patienten haben die
Fähigkeit verloren, grammatische Elemente abzurufen, was zu einer syntaktischen
11.1 Aphasie 221

Störung führen würde. Dieser Ansatz impliziert, dass syntaktische Repräsentatio-


nen intakt sind, während der Zugriff auf die grammatischen Wörter beeinträchtigt
ist. Ein anderer Ansatz, die syntaktische Abbildungshypothese, postuliert, dass
agrammatische Broca-Aphasiker nicht in der Lage sind, syntaktische Funktionen
auf θ-Rollen abzubilden, wobei die Fähigkeit, grammatische Informationen zu
bewerten, erhalten sei (Schwartz et al., 1987). Schließlich wurde behauptet, dass
Broca-Aphasiker keine Suffixe und grammatischen Wörter (Wörter der geschlosse-
nen Klasse) produzieren und verstehen können, da sie nicht autonom als phonolo-
gische Einheiten vorkommen (Kean, 1977). Unabhängig von diesen verschiedenen
Ansätzen, die alle bestimmte Aspekte hervorheben, scheint es offensichtlich zu
sein, dass Broca-Aphasiker nur bei der Verarbeitung bestimmter syntaktischer
Strukturen Schwierigkeiten haben. Sie können kanonische syntaktische Struktu-
ren berechnen, indem sie θ-Rollen bestimmten syntaktischen Kategorien zuord-
nen. Sie haben allerdings mit einigen (nicht allen) intra-phrasalen Dependenzen
Schwierigkeiten. Einzelne Patienten zeigen verschiedene Ausfallerscheinungen bei
der Morphemstruktur. Zum Beispiel beschreiben Nespoulous et al. (1988) einen
Broca-Aphasiker, der nicht in der Lage war, in seiner französischen Muttersprache
die Auxiliare und schwachen Pronomenformen wie „le“, „la“ und „lui“ zu verwenden,
jedoch die starken Formen wie „elle“, „il“, „moi“ und „toi“ produzieren konnte.
Miceli et al. (1983) beschreiben wiederum einen italienischsprechenden Patienten,
dessen Störung sich ausschließlich auf Flexionen des Verbs bezog, der aber keine
Beeinträchtigung bei der Verarbeitung von Wörtern der geschlossenen Klasse zeigte.
In Goodglass’ (1976) Studie dagegen konnten die englischsprechenden Patienten
Verben flektieren. Schließlich zeigte sich in der Studie von Lukatela et al. (1988),
dass serbokroatischsprechende Patienten Kasusmarkierungen der NP verwenden
konnten. Diese große Variabilität verdeutlicht, dass die Wörter der geschlossenen
Klasse keiner einheitlichen Kategorie angehören. Ein alternativer Ansatz geht
davon aus, dass es sich hierbei um ein temporäres und nicht um ein strukturelles
Problem handelt. Aufgrund zeitlicher Verzögerungen könnten Broca-Aphasiker
syntaktische Informationen nicht rechtzeitig abrufen, obwohl deren grammatisches
Wissen intakt zu sein scheint (Swinney et al., 1989; Zurif et al., 1993). Eine zeitliche
Verarbeitungsstörung kann jedoch nicht selektive Störungen der Morphemstruktur
innerhalb einer Sprache sowie beim Vergleich verschiedener Sprachen erklären.
Die meisten älteren Studien konnten keinen Nachweis dafür liefern, dass bei
Broca-Aphasie eine semantische Störung vorliegt (z. B. Blumstein et al., 1982; Katz,
1988). Einige Studien berichteten allerdings über eine verzögerte oder gestörte
lexikalisch-semantische Verarbeitung aufgrund von höheren Berechnungskosten
(Prather et al., 1997; Swinney et al., 1989; Milberg und Blumstein, 1981; Milberg
et al., 1987). Verschiedene Studien mit bildgebenden Verfahren zeigen, dass BA

221
222 11 Atypische Sprache

44 nicht ausschließlich mit der Broca-Aphasie zu assoziieren ist (z. B. Mohr, 1976;
Alexander et al., 1990; Dronkers, 1996) und dass der linke IFG nicht nur phonolo-
gische oder syntaktische Prozesse involviert, sondern auch lexikalisch-semantische
Berechnungen (z. B. Poldrack et al., 1999; siehe für einen Überblick Bookheimer,
2002). Vor allem scheint BA 47, das sich zwischen dem Pars triangularis und dem
Pars orbiltais befindet, eine wichtige Rolle bei der Manipulation und Generierung
lexikalisch-semantischer Informationen zu spielen. Inwieweit der linke IFG an der
semantischen Verarbeitung beteiligt ist, wird jedoch noch kontrovers diskutiert
(z. B. Thompson-Schill et al., 1999; Wagner et al., 2001; Thompson-Schill, 2003).
Es wurde gezeigt, dass bei einigen Fällen auch der rechte Cortex an der spontanen
Wiederherstellung der aphasischen Störung beteiligt ist (z. B. Musso et al., 1999;
Thompson, 2000; Hillis, 2002). Allerdings ist es nicht offensichtlich, wie viel lexika-
lisches Training notwendig ist, um größtenteils die sprachliche Wiederherstellung
zu bewirken. Hierbei spielen viele Faktoren eine Rolle, unter anderem auch die
vor der Aphasie bestehenden sprachlich-corticale Verschaltungen des Patienten.
Demgegenüber leiden Wernicke-Aphasiker unter ernsten Störungen der Sprach-
wahrnehmung, die durch linkshemisphärische Läsionen im SMG (Gyrus suprama-
ginalis, BA 40) und AG (Gyrus angularis, BA 39) und im STG (Gyrus temporalis
superior, BA 22) und MTG (Gyrus temporalis medius, BA 21, 37) (z. B. Kertesz et
al., 1993) verursacht sind. Die allgemeine Definition des Wernicke-Areals umfasst
den posterioren Teil des STG. Eine Läsion in diesem Bereich verursachte allerdings
keinen länger andauernden Symptomkomplex, der für Wernicke-Aphasie cha-
rakteristisch ist (Selnes et al. 1983). Es wurde auch von Patienten berichtet, deren
Läsionen außerhalb des Wernicke-Areals lagen, die aber typische Symptome der
Wernicke-Aphasie zeigten (z. B. Murdoch et al., 1986; Damasio et al. 1996). Läsi-
onsdaten verdeutlichen, dass bei der semantischen Verarbeitung ausdrücklich der
linke mittlere und inferiore Temporallappen involviert ist, was durch Studien mit
bildgebenden Verfahren bestätigt wurde (z. B. Vandenberghe et al., 1996, Binder
et al., 1997). Überraschenderweise zeigten die fMRI-Studien auch Aktivierungen
im linken Gyrus frontalis inferior (IFG), und zwar dann, wenn die Probanden
lexikalisch-semantische Informationen kategorisieren, generieren oder beurteilen
sollten (für einen Überblick siehe Poldrack et al., 1999). Im linken IFG befindet
sich der typische Läsionsherd, der eine Broca-Aphasie verursacht. Es scheint der
Fall zu sein, dass sowohl die linke temporoparietale Region als auch die linke
frontale Region an der Verarbeitung lexikalischer Informationen beteiligt ist. Ein
Ansatz geht davon aus, dass lexikalische Repräsentationen implizit in der linken
temporoparietalen Region gespeichert werden und dass die Verarbeitung dieser
lexikalischen Repräsentationen die linke anteriore Sprachregion wie den IFG
involviert (Roskies et al., 2001; Bockheimer, 2002).
11.1 Aphasie 223

Inwieweit die rechte Gehirnhälfte an der lexikalischen Verarbeitung beteiligt ist,


ist weniger offensichtlich. Die Funktion der sprachlich nicht-dominanten Hemi-
sphäre bei Rechtshändern zu untersuchen, wurde vor allem durch die Studien mit
„Split-Brain“ Patienten angeregt (Gazzaniga und Sperry, 1967; Baynes et al., 1992;
Gazzaniga, 1995). Deren Ergebnisse als auch diejenigen, die im Zusammenhang mit
Läsionsstudien gefunden wurden, indizieren, dass die rechte Hemisphäre in der Regel
lexikalische Informationen auf der Wortebene verarbeitet, jedoch keine syntakti-
schen oder phonologischen Informationen (z. B. Gainotti et al., 1981). Zudem zeigen
Läsionsstudien, dass Verarbeitungsstörungen für Idiome und Metaphern bei rechts-
hemisphärisch-beeinträchtigten (RHD-)Patienten auftreten (z. B. Van Lancker und
Kempler, 1987; Molloy, Brownell und Gardner, 1990; Van Lancker, 1990). In der Studie
von Van Lancker und Kempler (1987) zeigten RHD-Patienten bei der Zuordnung
von bildhaft dargestellten vertrauten Satzinformationen Beeinträchtigungen, aber
nicht, wenn die Zuordnung wörtliche (nicht-vertraute) Satzbedeutungen involvierte.
Aphasische Patienten zeigen dagegen im Vergleich zu RHD-Patienten eine höhere
Fehlerquote bei wörtlichen Sprachwahrnehmungsaufgaben. Hierbei beziehen wir
uns stets auf die zeitlich nicht beschränkte Offline-Verarbeitung (z. B. Winner und
Gardner, 1977; Myers und Linebaugh, 1981; Tompkins et al., 1992). Dagegen fanden
Tompkins und Mitarbeiter (1992) in ihrer Studie, dass der Zugriff auf idiomatische
Bedeutungen nicht nur bei RHD-Patienten, sondern auch bei Aphasikern intakt ist
(siehe auch Hillert, 2004). Hier wurde eine Monitoring-Aufgabe verwendet, eine
Aufgabenstellung, die in der Regel als echtzeitlich verstanden wird.
Wie bereits erwähnt, führten Bottini und Mitarbeiter (1994) die erste PET(Po-
sitronen-Emissions-Tomographie)-Studie zur Verarbeitung metaphorischer und
wörtlicher Informationen durch. Sie berichteten über stärkere Aktivierungen
in verschiedenen Regionen der rechten Hemisphäre, insbesondere im IFG, im
prämotorischen Cortex und im Lobus temporalis posterior. Diese rechtshemi-
sphärischen Regionen sind jeweils mehr oder weniger homologe Regionen des
Broca- und Wernicke-Areals. Bottini und Mitarbeiter vermuteten daher, dass das
Verstehen von Metaphern den Abruf von Gedächtnisinhalten der Langzeit oder
von Episoden erfordert. Hierbei würden die Aktivitäten im Frontallappen entweder
die Suche nach Langzeitgedächtnisspuren oder die Generierung von Bildhaftigkeit
widerspiegeln, um den Entscheidungsprozess zu unterstützen. Die PET-Studie
von Nichelli und Mitarbeitern (1995) bestätigte teilweise diese von Bottini und
Mitarbeitern berichteten Ergebnisse. In dieser Studie wurden die Probanden auf-
gefordert, metaphorische oder wörtliche Bedeutungen von Fabeln zu beurteilen.
Neben linkshemisphärischen Aktivierungen generierten bildhafte Beurteilungen
(z. B. die Moral einer Geschichte) im Vergleich zu wörtlichen (semantischen oder
syntaktischen) Beurteilungen einen rechtshemisphärischen Anstieg der Aktivierung.

223
224 11 Atypische Sprache

Es ist allerdings möglich, dass die rechtshemisphärischen Aktivierungen nicht auf


bildhaften Inferenzen, sondern auf kontextuell-pragmatischen Integrationsprozes-
sen beruhen, die eine besondere Rolle bei der Beurteilung von Diskursen spielen.
PET-Studien, die Monate oder Jahre nach der Wiederherstellung der kognitiven
Funktionen durchgeführt wurden, verdeutlichen eine spontane Reorganisation
rechtshemisphärischer Funktionen (z. B. Naeserm und Palumbo, 1994; Weiller
et al., 1995; Ohyama et al., 1996; Musso et al., 1999; Warburton et al., 1999; Heiss
et al., 1999). Auch das adulte Hirn des Menschen besitzt ausreichend Plastizität,
die eine relativ schnelle Rehabilitation ermöglicht. Der Einsatz von funktionalen
Bildgebungsverfahren ist von großer Bedeutung für die Diagnostik, aber auch um
den Erfolg der Schlaganfall-Interventionen einschätzen und von spontanen Kom-
pensationsprozessen unterscheiden zu können. Um eine gute Sprachbeherrschung
wiederzuerlangen, ist es notwendig, dass sich das sprachliche Netzwerk auf mehreren
linguistischen Ebenen reorganisiert (z. B. Mesulam, 1994; Thompson, 2000). Wenn
eine Schlüsselfunktion innerhalb eines größeren corticalen Netzwerks durch einen
Schlaganfall beschädigt wird, werden andere Komponenten des Netzwerks aktiver.
Da die Arbeitsbelastung des noch vorhandenen Netzwerks modifiziert wird, ist es
plausibel, dass die kognitive Arbeit zumindest teilweise von der gegenüberliegen-
den Hemisphäre übernommen wird (Thulborn et al., 1999; Frackowiak, 2001). In
diesem Zusammenhang ist der Hinweis interessant, dass es offenbar keinen Zu-
sammenhang zwischen Alter und Umfang rechtshemisphärischer Beteiligungen
an den Sprachfunktionen gibt (Nocentini et al., 1999).
Bei der Analyse von Sprachstörungen ist es wichtig, welcher methodologische
Ansatz gewählt wurde, um zu bestimmten Schlussfolgerungen zu kommen. Der
Unterschied zwischen lexikalischer Wahrnehmung und lexikalischer Komposition
sollte an dieser Stelle besonders hervorgehoben werden (z. B. Forster, 1979; Fodor,
1983; Seidenberg, 1985). Die lexikalische Wahrnehmung findet automatisch, relativ
schnell und unter unbewusstr statt. Sie wird daher als „undurchdringlich“, statisch
und vorwiegend als datengetrieben („bottom-up“) charakterisiert. Demgegenüber
involvieren lexikalische Kompositionen kontrollierte, bewusste Prozesse, die die
Attribute dynamisch, flexibel, aufwendig, relativ langsam und wissensgetrieben
(„top-down“) besitzen. Während linguistische Kompositionen keinen zeitlichen
Beschränkungen unterliegen, kann die Prüfung perzeptuell-automatischer Berech-
nungen nur mit einem echtzeitlichen Verfahren erfolgen (Posner und Snyder, 1975;
Schneider und Shiffrin, 1977; Shiffrin und Schneider, 1977). Beide Prozessarten
scheinen unabhängig voneinander zu funktionieren, wenn die automatischen
Prozesse selber stabil sind bzw. als modular bezeichnet werden können.
In der Regel haben Wernicke-Aphasiker Schwierigkeiten bei der Verarbeitung von
Inhaltswörtern und Broca-Aphasiker bei der Verarbeitung von Klitika wie gebun-
11.1 Aphasie 225

denen Morphemen (Affixe) oder Funktionswörtern. Verschiedene Offline-Studien


scheinen die sogenannte semantische Defizithypothese zu stützen, die nicht nur
für Wernicke-Aphasiker, sondern in einem gewissen Maß auch für Broca-Apha-
siker zutreffen würde (z. B. Lesser, 1978; Goodglass und Baker, 1976; Caramazza,
Berndt und Brownell, 1982). Der Status der semantischen Verarbeitung bei Aphasie
ist allerdings unübersichtlich, da die aphasischen Antwortstrukturen, die in den
Offline-Studien gefunden wurden, eher verschiedene kompensatorische Strategien
widerzuspiegeln scheinen. Auch weisen verschiedene echtzeitliche Priming-Studien
darauf hin, dass der (wörtliche) lexikalische Zugriff bei Wernicke-Aphasie intakt
ist. Dagegen sind die Ergebnisse, die für Broca-Aphasiker gefunden wurden, nicht
eindeutig zu interpretieren: In einigen Studien zeigten sie Priming (z. B. Blumstein
et al., 1982; Katz, 1988; Ostrin und Tyler, 1993), und in anderen Studien wurde kein
signifikantes Priming ermittelt (z. B. Milberg und Blumstein, 1981; Milberg et al.,
1987; Swinney et al., 1989). Es sind vermutlich die mit einer bestimmten Aufga-
benstellung verbundenen Berechnungskosten, die darüber entscheiden, inwieweit
Broca-Aphasiker lexikalische Informationen echtzeitlich (Priming) verarbeiten
können (z. B. Word-Tripletts vs. Wortpaare oder primäre vs. sekundäre Bedeutung).
Diese Priming-Strukturen stimmen daher mit dem Ergebnis überein, dass dem
linken IFG eine wichtige Funktion bei der Verarbeitung lexikalischer Informationen
zukommt. Kumulative Evidenz lässt vermuten, dass die lexikalische Verarbeitung
auf der Grundlage umfassender, dynamischer und verteilter Netzwerkaktivitäten
zwischen interagierenden corticalen Regionen stattfindet. Einzelne Prozesse sind
mit Aktivierungen in verschiedenen Regionen verbunden, und der Läsionsherd
korreliert nur schwach mit den kognitiven Störungen (Caplan und Hildebrandt,
1988). Diese Ergebnisse sprechen für ein Modell der Sprachverarbeitung, das auf
wechselseitigen und kaskadierten Interaktionen beruht (McCelland, 1987).
Die Verwendung bildgebender Verfahren, um den Wiederherstellungsprozess
nach einem Schlaganfall zu untersuchen, ist heute für das anstehende Behandlungs-
programm unersetzlich. Während der akuten Phase (im Durchschnitt 1,8 Tage
nach dem Schlaganfall) verdeutlichte eine fMRT-Studie eine allgemein schwächere
Hirnaktivierung, hauptsächlich in der linken Hemisphäre (Saur, 2006). Während
der Erholungsphase (im Durchschnitt 12 Tage nach dem Schlaganfall) wurde ein
allgemeiner Anstieg der Hirnaktivierung festgestellt, aber zu diesem Zeitpunkt war
insbesondere die rechte Hemisphäre beteiligt. Etwa 320 Tage nach dem Schlaganfall
zeigte die linke Hemisphäre die stärksten Aktivierungen, die mit der aphasischen
Wiederherstellung korrelierte. Es bleibt unklar, welche zeitlich nahen Interventionen
einen positiven Effekt auf die corticale Organisation während der Erholungsphase
haben würden. Es scheint der Fall zu sein, dass die Wiederherstellung dann Wir-
kung zeigt, wenn die Aktivitäten der rechten Hemisphäre abnehmen (bei dextralen

225
226 11 Atypische Sprache

Aphasikern), da nicht-beschädigte corticale Strukturen der linken Hirnhälfte die


Funktionen der beschädigten Strukturen in der gleichen Hirnhälfte übernehmen
(Cornelissen et al., 2003; Meinzer et al., 2008; Postman-Caucheteux et al., 2010; Rosen
et al., 2000). In der Diffusionstensor-Bildgebungsstudie (DTI-Studie) von Schlaug
und Mitarbeitern (2009) wurde der Effekt der melodischen Intonationstherapie auf
die Dichte der weißen Substanz in der rechten Hemisphäre eines nicht-flüssigen
aphasischen Patienten (globale oder Broca-Aphasie) überprüft. Die Hypothese
ist, dass eine melodische Intonationstherapie in Form von Singen das Sprechen
des Patienten verbessern könnte. Nach der Behandlungsphase konnte festgestellt
werden, dass in der rechten Hemisphäre mehr weiße Substanzfasern vorhanden
waren. Dies verdeutlicht, dass Verhaltensinterventionen spezifische corticale
Areale ansprechen können, um die Kommunikationsfähigkeiten bei Aphasie zu
verbessern. Allerdings müssten Verhaltensinterventionen individuell angepasst
werden. Zum Beispiel ist vermutlich bei einer kleinen linksseitigen corticalen
Läsion eine rechtshemisphärische fokale Intervention weniger erfolgversprechend
als eine linksseitige fokale Intervention bei einer größeren Läsion in der gleichen
Hemisphäre. Auch die Versuche, spezifische intakte corticale Areale zum Beispiel
mit TMS (transkranieller Magnetstimulation) zu aktivieren, erfordern den Einsatz
von MRT, um die beschädigten Areale, die von diesem Verfahren ausgeschlossen
werden müssen, genauestens zu lokalisieren. Diese und andere Behandlungsversu-
che verdeutlichen, dass eine effektive Sprachtherapie bei Aphasie davon abhängt,
inwieweit wir in der Lage sind, die neuronalen Prozesse besser zu verstehen, die
der spontanen corticalen Wiederherstellung zugrunde liegen.

11.2 Kommunikationsstörungen
11.2 Kommunikationsstörungen
Eine bekannte Risikogruppe, die dazu tendiert, die Alzheimer-Krankheit (AD) zu
entwickeln, stellen Patienten mit leichten kognitiven Beeinträchtigungen (MCI) dar.
Laut dem „Central Nervous System Drugs Advisory Committee“ (USA) beträgt die
Konversionsrate (von MCI nach AD) etwa 80 % innerhalb von 10 Jahren oder jährlich
10-15 %. Die Konversionsrate bei gesunden Personen, die MCI oder AD entwickeln,
beträgt jährlich 1-2 %. MCI könnte man daher als ein Frühstadium der AD ansehen
und nicht als eine von der AD unabhängige Beeinträchtigung (Morris et al., 2001).
Es bleibt unklar, wie zuverlässig MCI-Symptome tatsächlich Frühstadien der AD
widerspiegeln. Die meisten Studien zur MCI-Forschung beschäftigten sich mit der
sogenannten „amnestischen“ Variante. Im Rahmen eines Modells, das von graduell
sich entwickelnden Störungsstadien ausgeht, wobei ein gesundes Gehirn und das
11.2 Kommunikationsstörungen 227

Gehirn eines AD-Patienten Endpunkte eines Spektrums darstellen, wird deutlich,


dass die Kategorie MCI heterogener ist (Lopez et al., 2003; Petersen, 2003). Zum
Beispiel müssen die Patienten nicht unbedingt unter Gedächtnisstörungen leiden
– die amnestische Variante –, sondern können auch Beeinträchtigung im Bereich
sprachlicher und/oder exekutiver Funktionen haben. Auch könnte ein MCI-Patient
neben amnestischen Problemen andere kognitive Beeinträchtigungen haben, auch
wenn sie nicht schwer sind und somit nicht im Zusammenhang mit AD diagnosti-
ziert werden. Das klinische Konzept MCI umfasst drei Untertypen: „amnestisch“,
„domänübergreifend“ und „nicht-amnestisch domänspezifisch“. In der von Lopez
und Mitarbeitern (2003) durchgeführten Studie korrelierte MCI (22 % Prävalenz am
Pittsburgh Center) mit Ethnizität (Afrika-Amerikaner), niedrigem Bildungsstand,
Testergebnissen beim MMSE („Mini-Mental State Examination“) und beim „Digit
Symbol“-Test, corticaler Atrophie, MRT-identifizierten Infarkten und mit dem
Depressionsgrad. Amnestische MCI (6 % Prävalenz) war mit MRT-identifizierten
Infarkten assoziiert, aber auch mit dem Vorhandensein des APOE 4(Apolipopro-
tein E)-Allels57 und mit einer niedrigen Punktzahl beim (modifizierten) MMSE.
Domänübergreifende MCI (16 % Prävalenz) war mit niedriger Punktzahl beim
(modifizierten) MMSE und DST assoziiert. Ein Patient mit amnestischer MCI besitzt
ein hohes Risiko, AD und nicht andere Formen der Demenz zu entwickeln. Domän-
übergreifende MCI-Patienten entwickeln auch AD, aber in diesem Fall könnte es
sich auch um einen Phänotyp einer anfänglichen vaskulären Demenz handeln. Eine
nicht-amnestische domänspezifische MCI ist oftmals der Vorbote einer Demenz, die
keine AD darstellt (z. B. frontotemporale Demenz oder Lewy-Körperchen-Demenz).
Es gibt keinen Zweifel daran, dass die Sprachverarbeitung bei AD-Patienten be-
einträchtigt oder gestört ist, allerdings wird kontrovers diskutiert, wie diese Defizite
interpretiert werden sollten, um klinische Empfehlungen geben zu können. Ältere
Befunde weisen darauf hin, dass bei AD die syntaktische Verarbeitung gegenüber
der semantischen intakt ist. Insbesondere wurden Benennstörungen (z. B. Huff et
al., 1986; Bayles und Tomoeda, 1983; Schwartz et al., 1979; Martin und Fedio, 1983),
lexikalische Wahrnehmungsstörungen und Störungen der Sprachflüssigkeit (Martin
und Fedio, 1983; Kertesz et al., 1986) als Beleg für eine beeinträchtigte lexikalische
Semantik bei AD angeführt, wobei die syntaktische Verarbeitung nicht gestört sei.

57 Apolipoprotein E (APOE) Gen (Chromosom 19) ist die primäre genetische Ursache
für spätmanifeste AD. Dieses Gen hat drei verschiedene allele Varianten (2, 3 und 4)
und fünf gemeinsame Genotypen (2/3, 3/3, 2/4, 3/4 und 4/4). Das APOE-4-Allel erhöht
das Risiko einer Alzheimer-Erkrankung, und das Durchschnittsalter für den Beginn
einer Alzheimer-Erkrankung nimmt ab. Das AD-Risiko ist bei Patienten mit einem
3/3-Genotyp am niedrigsten, höher bei einem 3/4-Genotyp und am höchsten bei einem
4/4-Genotyp (Corder et al., 1994).
227
228 11 Atypische Sprache

Dieser Ansatz wurde auch durch die Beobachtung unterstützt, dass (zumindest
leichtgradige) AD-Patienten relativ komplexe Satzstrukturen produzieren können
(z. B. Hier et al., 1985; Kemper et al., 1993).
Die meisten Studien, die eine gestörte lexikalische Semantik bei gleichzeitig
erhaltener Syntax zu belegen scheinen, beziehen sich auf die Sprachproduktion
der AD-Patienten. Eine Reihe von Studien zeigten jedoch, dass auch AD-Patienten
Satzwahrnehmungsstörungen haben z. B. Emery und Breslau, 1989, Kemper et al.,
1993; Grossman et al., 1995, 1996, 1998; Rochon et al., 1994; Grossman und White-De-
vine, 1998; Almor et al., 1999; Bickel et al., 2000). Dass AD-Patienten Sätze anders
verstehen als altersentsprechende Kontrollprobanden belegen verschiedene (nicht
zeitbeschränkte) Offline-Aufgaben wie Satz-Bild-Zuordnungen oder Ausführungen
der Token-Test-Instruktionen58. Es ist unklar, welche spezifischen kognitiven oder
neurologischen Faktoren diese Satzwahrnehmungsstörungen verursachen. Eine
Kombination verschiedener linguistischer (z. B. Verarbeitung von konzeptuellen,
semantischen, thematischen und syntaktischen Informationen) und/oder allgemeiner
kognitive Faktoren (z. B. allgemeine oder spezifische Arbeitsspeicherfunktionen)
tragen vermutlich zu den Satzverarbeitungsschwierigkeiten bei AD bei.
Lexikalisch-semantische Störungen sind allerdings die charakteristischsten
sprachlichen Beeinträchtigungen, die bei AD vorkommen (Nebes et al., 1989). Die
Funktionen des semantischen Gedächtnisses sind ernsthaft gestört. Dies verdeutli-
chen nicht nur die Spontansprache, sondern auch spezifische Aufgabenstellungen
zur Sprachflüssigkeit und Objektbenennung (z. B. Grober et al., 1985; Huff et al.,
1986; Butters et al., 1987). In der Literatur werden entsprechend zwei Hauptansät-
ze hinsichtlich der semantischen Verarbeitung bei AD diskutiert. Während eine
Hypothese von einer prozedural-semantischen Störung ausgeht, postuliert die
andere Hypothese ein degradiertes semantisches Speichersystem (z. B. Hodges et
al., 1992; Cross, Smith und Grossman, 2008). Ein anderer Ansatz berücksichtigt
die Unterscheidung zwischen automatischen und kontrollierten Prozessen (Shiffrin
und Schneider, 1977). Einige Studien berichten über ein intaktes semantisches
Priming bei AD, andere Studien berichteten wiederum über kein Priming oder
über Hyper-Priming (z. B. Ober und Shenaut, 1988; Salmon et al., 1988; Chertkow
et al., 1989; Nebes et al., 1986; Balota und Duchek, 1991).
Es gibt allerdings verschiedene Gründe, warum lexikalisch-semantische Stö-
rungen alleine nicht die Sprachwahrnehmungsstörungen bei AD erklären können.
Ein Grund dafür ist die Dissonanz zwischen Produktion und Perzeption: AD-Pa-

58 Bei dem Token-Test, der ursprünglich von De Renzi und Vignolo (1962) entwickelt wurde,
werden verschiedene Token-Arten verwendet (farbige, kleine und große viereckige und
kreisförmige Token), um das Sprachverstehen zu prüfen.
11.2 Kommunikationsstörungen 229

tienten zeigen in der Objektbenennung schwere Wortfindungsstörungen, obwohl


das Verstehen von einzelnen Wörtern relativ gut erhalten ist. Ein anderer Grund
ist, dass AD-Patienten Satzwahrnehmungsstörungen haben, obwohl das lexikali-
sche Verstehen nicht beeinträchtigt zu sein scheint. Daher könnte angenommen
werden, dass die Beeinträchtigungen der Satzverarbeitung bei AD-Patienten nicht
auf deren Benennstörungen oder semantischen Verarbeitungsstörungen, die
auf der Wortebene gefunden wurden, beruhen. Einige vermuten daher, dass die
Störung der Satzverarbeitung durch syntaktische Defizite oder durch reduzierte
Gedächtniskapazitäten verursacht werden und nicht durch lexikalisch-semantische
Störungen. Unter Berücksichtigung der Tatsache, dass AD-Patienten in verschie-
denen Aufgabenstellungen lexikalisch-semantische Störungen haben (Bayles et al.,
1990; Chertkow und Bub, 1990), kann die Hypothese nicht ausgeschlossen werden,
dass die Beeinträchtigung der Sprachwahrnehmung semantisch zu begründen
ist. Zum Beispiel wurde festgestellt, dass die Störung der Satzverarbeitung bei
AD mit der Zahl der Propositionen, die ein Satz besitzt, zunimmt (Rochon et al.,
1994). Dies weist zumindest teilweise auf eine semantische Störung hin. Auch die
Schwierigkeit, Verben sowie deren thematische Strukturen zu verstehen, lässt sich
mit der Propositionshypothese vereinbaren (Grossman et al., 1996; Grossman und
White-Devine, 1998). Eine alternative Erklärung wäre eine post-interpretative
Verarbeitungsstörung, die auch mit der Propositionshypothese zu vereinbaren
wäre (Rochon et al., 1994; Waters et al., 1998). Dieser Ansatz stimmt auch mit der
Annahme überein, dass bei AD-Patienten inhibitorische Kontrollfunktionen oder
meta-linguistische Verarbeitungen beeinträchtigt sind (Hillert, 1999). Kempler
und Mitarbeiter (1998) verwendeten zum Beispiel eine bimodale Benennaufgabe,
um zu prüfen, wie AD-Patienten Verletzungen von Subjekt-Verb-Kongruenz und
Verbtransitivität verarbeiten. Die Patienten, die Schwierigkeiten bei Satz-Bild-Zu-
ordnungen hatten, zeigten auch beim Benennen eines Zielwortes eine Verzögerung,
wenn das Satzfragment einen grammatischen Fehler beinhaltete.
Almor und Mitarbeiter (1999) argumentieren jedoch, dass eine reduzierte
Kapazität des Arbeitsspeichers (AS) die Pronomenverarbeitung im Vergleich zur
entsprechenden NP beeinträchtigt. Grossman und Rhee (2001) verwendeten eine
Wort-Monitoring-Aufgabe, um festzustellen, inwieweit grammatische und semanti-
sche Kongruenzverletzungen entdeckt werden. Im Unterschied zu Kontrollpersonen
zeigten AD-Patienten keine signifikanten Verzögerungen in der unmittelbaren
Umgebung der Kongruenzverletzung. Dieses Ergebnis weist auf einen abnormalen
zeitlichen Verlauf der Satzverarbeitung bei AD-Patienten hin. Unter Verwendung
eines sich bewegenden auditorischen Fensters fanden Waters und Caplan (2002),
dass bei AD die reduzierten AS-Funktionen nicht mit der Fähigkeit korrelierten,
im Rahmen einer „Phrase-für-Phrase“-Aufgabenstellung auf semantische und

229
230 11 Atypische Sprache

syntaktische Informationen Zugriff zu nehmen. Die Autoren vermuten daher, dass


trotz reduzierter AS-Kapazitäten die echtzeitliche syntaktische Verarbeitung bei
AD nicht gestört ist. Waters und Caplan diskutieren dagegen die Möglichkeit eines
spezialisierten AS-Systems für einen echtzeitlichen ersten interpretativen „Durch-
lauf“, bevor die post-interpretative Verarbeitung einsetzen würde. Entsprechend
nehmen sie für AD an, dass zwar die syntaktische Verarbeitung intakt ist, dass
jedoch schwere (allgemeine) AS-Defizite post-interpretative Beeinträchtigungen
verursachen.
Der Zerfall der Hirnstrukturen bei AD wird durch amyloide Plaques und neuro-
fibrilläre Bündel verursacht. In AD werden ß-amyloide Plaques von der amyloiden
Proteinvorstufe, die sich in den einzelnen Neuronen ansammeln, abgesondert.
Gewöhnlich werden diese in einem gesunden Hirn aufgespalten und entsorgt.
Die neurofibrillären Bündel bestehen hauptsächlich aus dem Protein „Tau“ und
treten als unlöslich verdrehte Fasern innerhalb der Neuronen eines AD-Hirns
auf. Das Tau-Protein ist Teil der Mikrotubulus-Struktur, die den Transport von
Nährstoffen innerhalb eines Neurons ermöglicht. Bei AD ist Tau abnormal und
die Mikrotubulus-Struktur ist beschädigt (siehe Abb. 11.3). Die systematische
Expansion lässt uns vermuten, dass die neuronalen Transportmechanismen diese
proteopathischen Keime verbreiten.

Abb. 11.3 Die Ansammlung von Proteinen bei AD ist systematisch. Die Querschnitts-
autopsie belegt, dass β-amyloide Plaques (obere Reihe) zuerst im Neocortex
auftreten, dann im Allocortex (Hippocampus und olfaktorischer Cortex) und
schließlich in subcorticalen Regionen. Neurofibrilläre Bündel „Tau“ (untere
Reihe) werden zuerst im Locus caeruleus und im transentorhinalen Areal
beobachtet, dann verbreiten sie sich in der Amygdala und in miteinander
vernetzten neocorticalen Hirnregionen (adaptiert und modifiziert, Jucker und
Walker, 2011; © American Neurological Association).
11.2 Kommunikationsstörungen 231

Das neuronale Substrat von MCI und AD wurde im Detail mit elektrophysiolo-
gischen und bildgebenden Verfahren untersucht. Wörter, die Probanden nicht
semantisch integrieren, evozieren eine negative Wellenform (N400), die ihr Peak
bei ungefähr 400 ms nach dem Word-Onset erreicht. Syntaktische Prozesse sind
offenbar mit zwei verschiedenen ERP-Komponenten verbunden. Die linke ante-
riore Negativität (LAN) geschieht innerhalb eines frühen Zeitfensters zwischen
100-500 ms, und die späte zentral-parietale Positivität (P600) tritt im Bereich von
500-1000 ms nach dem Onset auf. Während die LAN oder die frühe LAN einen
Effekt der Wortkategorie und Morphosyntax widerspiegelt, bezieht sich die P600
auf die Verarbeitung komplexer Satzstrukturen einschließlich der Auflösung
syntaktischer Ambiguitäten (z. B. Kutas und Petten, 1994). Sowohl ERP- als auch
Priming-Studien verdeutlichen, dass die Satzwahrnehmung in verschiedene Prozesse
aufgeteilt werden kann. Während der frühen echtzeitlichen Verarbeitungsphase,
ungefähr 100 ms nach dem Stimulus-Onset, aktiviert der Zuhörer automatisch
die relevante lexikalische Information; während der zweiten Phase wird die lexi-
kalische Information bezüglich des Satz- und Diskurskontextes integriert. Diese
Verarbeitungsphase geschieht im Bereich von ungefähr 400-1.000 ms nach dem
Stimulus-Onset. ERP-Abnormalitäten bei AD treten bei Latenzzeiten von etwa
200 ms und später auf. Dagegen sind evozierte Potentiale, die sensorische Daten
involvieren, wie zum Beispiel die N100-Wellenform im Allgemeinen bei AD nicht
beeinträchtigt. Obwohl die ERP-Methode bereits mit Beginn der P300-Studien
seit etwa 25 Jahren im Bereich der AD-Forschung eingesetzt wird, sind nicht alle
mit diesem ERP-Verfahren verbundenen Möglichkeiten ausgeschöpft worden,
um damit MCI-Probanden und/oder AD-Patienten zu diagnostizieren und zu
behandeln (Golob et al., 2002).
Fassen wir kurz zusammen: Funktionale MRT-Studien, die Untersuchungen
auf der Wortebene durchführten, zeigen, dass linksseitig folgende neuronale
Strukturen an der semantischen Verarbeitung beteiligt sind: linker Gyrus tem-
poralis medius, Gyrus temporalis superior, Gyrus angularis und der linke Gyrus
frontalis inferior. Die Studien zur Satzverarbeitung verdeutlichen, dass der linke
Gyrus frontalis inferior (BA 45, 47), der rechte Gyrus temporalis superior und der
linke Gyrus temporalis medius die semantische Verarbeitung stützen. Es wurden
Aktivierungen innerhalb von BA 45 und BA 47 gefunden, wenn die Probanden
eine explizite Beurteilungsaufgabe durchführten, die AS-Ressourcen erforderte.
Es ist daher anzunehmen, dass die semantische Verarbeitung innerhalb der linken
temporalen Region stattfindet, aber auch im linken frontalen Cortex, wenn explizite
Manipulationen semantischer Informationen benötigt werden. Im Bereich der Syntax
zeigen die funktionalen bildgebenden Studien, dass die Verarbeitung komplexer
Sätze auch eine Aktivierung innerhalb des Broca-Areals (BA 44, 45) bewirkt. Eine

231
232 11 Atypische Sprache

plausible Unterscheidung zwischen semantischen und syntaktischen AS-Res-


sourcen auf anatomischer Grundlage kann bislang nicht vorgenommen werden.
Der linke Gyrus frontalis inferior ist offensichtlich an expliziten AS-Funktionen
beteiligt. Die temporalen Regionen scheinen für implizite semantisch-syntaktische
Prozesse verantwortlich zu sein. Es gibt nur wenige bildgebende Studien zu den
Sprachstörungen, die bei AD oder MCI auftreten (z. B. Grossman et al., 2003). Im
Allgemeinen wird erwartet, dass bei AD oder MCI kein signifikanter BOLD-Effekt
in den „interessierenden Regionen“ (ROI) festgestellt wird. In der fMRT-Studie von
Saykin und Mitarbeitern (1999) zeigten AD-Patienten allerdings zusätzliche Foki
im linken dorsolateralen präfrontalen Areal und bilateral in cingulären Arealen.
Es wurden primär Aktivierungen im Gyrus frontalis inferior und Gyrus frontalis
medius (links größer als rechts) ermittelt, aber die AD-Patienten zeigten zusätzliche
Aktivierungen, die auf Kompensierungen durch erweiterte Foki und entfernt liegen-
de Regionen (z. B. frontale Aktivierungen in der rechten Gehirnhälfte) hinweisen.
AD ist eine progressive Krankheit, und longitudinale Studien sind hier besonders
wichtig, damit die Entwicklungsstufen der Krankheit vorhersagt werden können
und effektive Interventionen auf verschiedenen kognitiven Ebenen, einschließlich
der sprachlichen Ebene, durchgeführt werden können. Im Unterschied zu AD, von
der die meisten kognitiven Bereiche betroffen werden können, handelt sich bei der
Autismus-Spektrum-Störung (ASD)59 um eine frühe Entwicklungsstörung.
Personen mit ASD haben gewöhnlich Schwierigkeiten beim Mentalisieren,
Kommunizieren und bei der sozialen Interaktion, aber deren spezifische Ursachen
sind unbekannt.60 Bei Jungen ist das Risiko fünfmal größer als bei Mädchen – im
Unterschied zum Rett-Syndrom, das ausschließlich bei Mädchen vorkommt. Im Jahr
2012 betrug die Auftretenshäufigkeit bei 1 Kind von 88 Kindern, aber die Tendenz
ist steigend. Verschiedene Tests wurden entwickelt, um in der frühen Kindheit
autistische Symptome zu diagnostizieren. Der „Test der ersten Ordnung“ impliziert
unser intuitives Verständnis, dass verschiedene Personen verschiedene Ansichten

59 Verschiedene neurologische Störungen sind mit den Autismussymptomen verbunden


wie das Fragile-X-Syndrom (Veränderungen des Gens „FMR1“), die cerebrale Dysgenese,
das Rett-Syndrom und metabolische Störungen.
60 In Kalifornien wurde ein risikoreiches Autismuscluster für die Zeitspanne 1993-2001
entdeckt (Mazumdar et al., 2010). Derartige Cluster scheinen mit dem Ausbildungsniveau
der Eltern oder mit der geographischen Nähe zu einem Behandlungszentrum für
Autismus zu korrelieren. Eine bessere Ausbildung, aber auch die örtliche Nähe zu einem
Zentrum schafft offenbar ein größeres Bewusstsein über dieses abweichende Verhalten.
Umweltursachen konnten für dieses Cluster nicht gefunden werden. Auch unterstützen
die bisherigen Forschungsarbeiten nicht, dass Impfungen an der Entwicklung von
Autismus beteiligt sind, eine Annahme, die unter Laien sehr populär war oder noch ist.
11.2 Kommunikationsstörungen 233

über die gleiche Situation haben. Autistische Kinder haben Schwierigkeiten, das
mitzuteilen, was andere Personen denken, so dass sie einfach das erzählen, was
sie selber wissen (Swettenham et al., 1996). Im Alter von 4 Jahren können Kinder,
die sich gemäß der Norm entwickeln, zwischen mentalen Wörtern (z. B. „hoffen“,
„wissen“, „denken“) und nicht-mentalen Wörtern (z. B. „essen“, „springen“, „bewe-
gen“) unterscheiden, autistische Kinder haben jedoch hierbei Schwierigkeiten. Auch
treffen für jüngere autistische Kinder folgende Verhaltenslücken zu: Täuschungen
erschließen oder selber produzieren, Unterscheidung zwischen der Intention einer
Person und dem tatsächlichen Ergebnis, Interpretation der Blickrichtung, Verste-
hen emotionaler Zustände oder Ausdrucksformen, Schlussfolgerungen aufgrund
des Unterschieds zwischen Sehen und Wissen ziehen (z. B. Leslie und Frith, 1988;
Butterworth und Jarrett, 1991; Baron-Cohen, Spitz und Cross, 1993; Yirmiya et
al., 1996; Castelli, 2005).
Andere Aufgaben der ersten Ordnung, die für autistische Kinder schwierig sind,
beziehen sich auf die Verwendung bildhafter Vorstellungen oder das Verstehen
bildhafter und pragmatische Sprache. ASD-Kinder haben zum Beispiel Schwierig-
keiten damit, ungewöhnliche, nichtexistierende irreale Objekte zu zeichnen (z. B.
eine Person mit zwei Köpfen (Scott und Baron-Cohen, 1996). Das Verstehen der
bildhaften figurativen Sprache erfordert, die Intentionen des Sprechers zu antizipie-
ren. Das Verstehen einer sarkastischen Aussage wie „Dein Zimmer ist wirklich sehr
sauber!“ beginnt gewöhnlich im Alter von 8 Jahren. Kinder mit hochfunktionalem
Autismus haben Schwierigkeiten, die Intentionen eines Sprechers zu verstehen, ob
es sich um eine sarkastische Äußerung oder um einen Witz handelt, und tendieren
dazu, diese bildhafte Sprache nicht-bildhaft, sondern wörtlich zu interpretieren.
Auch scheinen autistische Kinder nicht in der Lage zu sein, eine Unterhaltung
als einen sozial-kommunikativen Prozess aufzufassen; zum Beispiel haben sie
Schwierigkeiten, einen Fauxpas zu erkennen oder ihr sprachliches Verhalten an das
des Zuhörers anzupassen (Happe, 1994; Baron-Cohen, 1997). Zusammenfassend
stellen wir fest, dass im 4. bis 5. Lebensjahr bei Kindern mit hochfunktionalem
Autismus oder mit Asperger-Syndrom die Fähigkeit verzögert ist, den mentalen
Zustand (mentale Theorie der 1. Ordnung: mentaler Zustand eines bzw. einer
Vierjährigen) einer anderen Person zu erschließen. Aufgrund dieser Verzögerung
haben diese Kinder auch Schwierigkeiten mit Aufgaben, die der zweiten Ordnung
angehören (Sperber und Wilson, 1987). Aufgaben, die das Erkennen von indirekten
mentalen Zuständen erfordern, wie „Was X glaubt, was Y glaubt“ (mentale Theorie
der 2. Ordnung: mentaler Zustand eines bzw. einer Sechsjährigen), können bei
hochfunktionalem Autismus oder Asperger-Syndrom erst von Jugendlichen im
Teenageralter bewältigt werden (Happe, 1993, 1995). Allerdings sind subtilere und

233
234 11 Atypische Sprache

komplexere Untersuchungen notwendig, um die Mentalisierungsstörungen auch


im Erwachsenenalter diagnostizieren zu können.
Strukturelle MRT-Studien belegten bei Personen mit ASD atypische Verände-
rungen des neuronalen Netzwerks. Zum Beispiel gibt es bei autistischen Klein-
kindern ein atypisches Hirnwachstum. 90 % der autistischen Jungen hatten im
Vergleich zur Kontrollgruppe ein größeres Hirnvolumen (Courchesne et al., 2001):
Kleinkinder, die 3 bis 4 Jahre alt waren, hatten ein deutlich größeres Volumen der
weißen Substanz, etwas weniger mehr Volumen der grauen Substanz, aber im
Cerebrellum war das graue Substanzvolumen reduziert. Auch wurde berichtet,
dass das Hirnwachstum bei Autismus während der Kindheit aufhört und dass es
möglicherweise im Erwachsenenalter degeneriert. In einer Studie mit autistischen
Kindern wurden 67 % mehr Neuronen im präfrontalen Cortex gefunden (Cour-
chesne et al., 2011). Der präfrontale Cortex unterstützt kognitive Funktionen wie
Planung, Ausführung und Aufmerksamkeitsorientierung. Dieses Ergebnis scheint
mit den autistischen Verhaltensdefiziten, die bei der sozialen Kognition beobachtet
werden, übereinzustimmen. Allerdings sprechen die Daten auch für eine genetische
Grundlage von Autismus und nicht unbedingt für eine postnatale Entwicklungs-
störung. Es gibt jedoch auch andere Ergebnisse, die diese Interpretation in Frage
stellen. Makrocephalie scheint keine homogene ASD-Gruppe darzustellen und nur
für eine bestimmte Untergruppe zuzutreffen (Lainhart et al., 1997; Fombonne et
al., 1999). Neuere bildgebende ASD-Studien bestätigen eine atypische lokale und
globale Konnektivität in frontotemporalen Regionen, was nicht nur die Architektur
der weißen Substanz, sondern auch die der intrinsischen grauen Substanz beein-
trächtigt (Ecker et al., 2013).
Ein anderer Ansatz erklärt das autistische Verhalten mit einem gestörten Spie-
gelneuronensystem (MNS). Dies ist eine plausible Hypothese, da das MNS nicht
nur motorische Merkmale, sondern auch das Ziel einer Handlung encodiert. Eine
auf ein Ziel hin vorgenommene Encodierung ist direkt damit assoziiert, eine andere
Person zu verstehen und sie zu imitieren. Das MNS unterstützt vermutlich auch die
„Theorie des Geistes“ und die Sprachentwicklung (Iacoboni und Dapretto, 2006;
Gallese, 2007, 2008; Oberman und Rachmandran, 2007). Es ist davon auszugehen,
dass ein gestörtes MNS einen multidimensionalen Effekt auf das kognitive Verhal-
ten hat, und dieser schließt auch die pragmatischen Aspekte der Sprache mit ein.
Bildgebende Studien verdeutlichen, dass bei Imitationsaufgaben (mit und ohne
emotionale Aspekte) Kinder mit ASD weniger Aktivierungen im Gyrus frontalis
inferior und in der Amygdala aufweisen als die entsprechende Kontrollgruppe (z. B.
Iacoboni, 1999; Dapretto et al., 2006). Andere fMRT-Studien berichteten allerdings
keine Unterschiede zwischen Probanden mit und ohne ASD (z. B. Schulte-Rüther
et al., 2011). Da der Gyrus frontalis inferior ein Teil der Kernregionen des MNS
11.2 Kommunikationsstörungen 235

ist, könnte aufgrund der oben erwähnten Daten die These eines gestörten MNS
bei ASD zutreffen (siehe Abb. 11.4). Die gegenwärtig zur Verfügung stehende
Gesamtliteratur zu diesem Thema verdeutlicht allerdings, dass die Evidenz nicht
konklusiv ist (siehe Hamilton, 2013 für einen Überblick).

Abb. 11.4 Kernregionen des menschlichen MNS einschließlich BA 44 (Teil des Gyrus
frontalis inferior), Lobus parietalis inferior (IPL) und Sulkus intraparietalis
anterior (aIPS). Der primäre motorische Cortex (PMC) und das Areal BA 2
(ein Areal des somatosensorischen Cortex) gehören beide zum erweiterten
Spiegelneuronensystem (adaptiert und modifiziert, Hamilton, 2013; ©
Elsevier Limited).

Zusammenfassend kann festgehalten werden, dass es keine eindeutige Evident


für die These eines gestörten MNS bei autistischen Probanden gibt. Die atypische
Entwicklung des präfrontalen Cortex, in dem nur BA 44 als Teil des MNS angese-
hen wird, spricht gegen die Annahme, dass eine Störung der Funktionsweise von
Spiegelneuronen eine exklusive Rolle bei Autismus spielt. Die neurobiologischen
Ursachen der gestörten sozialen Kognition bei ASD weisen auf eine veränderte
Entwicklung nicht nur im präfrontalen Cortex hin. Bei Aufgaben zur „Theorie des
Geistes“ (ToM) zeigen ASD-Probanden reduzierte Aktivierungsmuster in folgenden
neurologischen Regionen: Lobus frontalis medius, Gyrus fusiformis, Gesichtsareal
im extrastriären Cortex (BA 18, 19), Gyrus temporalis superior, Basal ganglia,
Cerebrellum, Amygdala, Hippocampus, Corpus callosum und Hirnstamm. Aus
theoretischer Sicht wurde zudem vorgeschlagen, dass das autistische Hirn nicht

235
236 11 Atypische Sprache

über ausreichende von oben nach unten gerichtete Modulierungen der frühen
sensorischen Eingangsdaten verfügt. Dies sei auf eine atypische Konnektivität
und auf den Mangel an Pruning zurückzuführen (Frith, 2003). Obwohl ASD
keine homogene Gruppe ist, kann im Allgemeinen gesagt werden, dass atypische
neuronale Verschaltungen die Sprachverarbeitung auf der pragmatischen Ebene
beeinträchtigen. Dies hat direkte Auswirkungen auf soziale und kommunikative
Fähigkeiten, aber auch auf die bildhafte Sprachverarbeitung.

Literatur
Literatur
Alexander, M. P., Naeser, M. A., & Palumbo, C. (1990). Broca’s area aphasias: Aphasia after
lesions including the frontal operculum. Neurology, 40, 353–62.
Almor, A., Kempler, D., MacDonald, M. C., Andersen, E. S., & Tyler, L. K. (1999). Why do
Alzheimer patients have difficulty with pronouns? Working memory, semantics, and
reference in comprehension and production in Alzheimer’s disease. Brain and Language,
67(3), 202–27.
Appell, J., Kertesz, A., & Fisman, M. (1982). A study of language functioning in Alzheimer
patients. Brain and Language, 17(1), 73–91.
Balota, D. A., & Duchek, J. M. 1991. Semantic priming effects, lexical repetition effects, and
contextual disambiguation effects in healthy aged individuals and individuals with senile
dementia of the Alzheimer type. Brain and Language, 40, 181–201.
Baron-Cohen, S. (1997). Hey! It was just a joke! Understanding propositions and propositi-
onal attitudes by normally developing children and children with autism. Israel Journal
of Psychiatry and Related Sciences, 34(3), 174–8.
Baron-Cohen, S., Spitz, A., & Cross, P. (1993). Can children with autism recognize surprise?
Cognition and Emotion, 7, 507–16.
Bayles, K. A. (1982). Language function in senile dementia. Brain and Language, 16(2), 265–80.
Bayles, K. A., & Tomoeda, C. K. (1983). Confrontation naming impairment in dementia.
Brain and Language, 19(1), 98–114.
Bayles, K. A., Tomoeda, C. K., & Trosset, M. W. (1990). Naming and categorical knowledge
in Alzheimer’s disease: the process of semantic memory deterioration. Brain and Lan-
guage, 39(4), 498–510.
Baynes, K., Tramo, M. J., & Gazzaniga, M. S. (1992). Reading with a limited lexicon in the
right hemisphere of a callosotomy patient. Neuropsychologia, 30(2), 187–200.
Bickel, C., Pantel, J., Eysenbach, K., & Schröder, J. (2000). Syntactic comprehension deficits
in Alzheimer’s disease. Brain and Language, 71(3), 432–48.
Binder, J. R., Frost, J. A., Hammeke, T. A., Cox, R. W., Rao, S. M., & Prieto, T. (1997). Human
brain language areas identified by functional magnetic resonance imaging. The Journal
of Neuroscience, 17(1), 353–62.
Blumstein, S. E., Milberg, W., & Shrier, R. (1982). Semantic processing in aphasia: evidence
from an auditory lexical decision task. Brain and Language, 17(2), 301–315.
Literatur 237

Bockheimer, S. (2002). Functional MRI of language: new approaches to understanding the


cortical organization of semantic processing. Annual Review of Neuroscience, 25, 151–88.
Bottini, G., Corcoran, R., Sterzi, R., Paulesu, E., Schenone, P., Scarpa, P., Frackowiak, R. S., &
Frith, C. D. (1994). The role of the right hemisphere in the interpretation of figurative aspects
of language. A positron emission tomography activation study. Brain, 117(6), 1241–53.
Bradley, D. C. (1978). Computational distinctions of vocabulary type. Unpublished doctoral
dissertation. Cambridge, MA: MIT Press.
Broca, P. (1861). Remarques sur le siège de la faculté du langage articulé suivies d’une ob-
servation d’aphèmie (perte de la parole) [French]. Bulletin de la Société d’Anatomie de
Paris, 330–57.
Butters, N., Granholm, E., Salmon, D. P., Grant, I., & Wolfe, J. (1987). Episodic and seman-
tic memory: a comparison of amnesic and demented patients. Journal of Clinical and
Experimental Neuropsychology, 9(5), 479–97.
Butterworth, G., & Jarrett, N. (1991). What minds have in common is space: Spatial mech-
anisms serving joint visual attention in infancy. British Journal of Developmental Psy-
chology, 9(1), 55–72.
Caplan, D. (1987). Neurolinguistics and linguistic aphasiology: an introduction. Cambridge:
Cambridge University Press.
Caplan, D., & Hildebrandt, N. (1988). Disorders of syntactic comprehension. Cambridge,
MA: MIT Press.
Caramazza, A., & Zurif, E. B. (1976). Dissociation of algorithmic and heuristic processes
in language comprehension: evidence from aphasia. Brain and Language, 3(4), 572–82.
Caramazza, A., Berndt, R. S., & Brownell, H. H. (1982). The semantic deficit hypothesis:
perceptual parsing and object classification by aphasic patients. Brain and Language,
15(1), 161–89.
Castelli, F. (2005). Understanding emotions from standardized facial expressions in autism
and normal development. Autism: The International Journal of Research and Practice,
9(4), 428–449.
Chertkow, H., & Bub, D. (1990). Semantic memory loss in dementia of Alzheimer’s type.
What do various measures measure? Brain: A Journal of Neurology, 113 (2), 397–417.
Chertkow, H., Bub, D., & Seidenberg, M. 1989. Priming and semantic memory loss in Alz-
heimer’s disease. Brain and Language, 36, 420–46.
Corder, E. H., Saunders, A. M., Risch, N. J., Strittmatter, W. J., Schmechel, D. E., Gaskell, P. C.,
Jr, J. Rimmler, B., Locke, P. A., Conneally, P. M., Schmader, K. E., Small, G. W., Roses,
A. D., Haines, J. L., & Pericak-Vance, M. A. (1994). Protective effect of apolipoprotein E
type 2 allele for late onset Alzheimer disease. Nature Genetics, 7(2), 180–84.
Cornelissen, K., Laine, M., Tarkiainen, A., Järvensivu, T., Martin, N., & Salmelin, R. (2003a).
Adult brain plasticity elicited by anomia treatment. Journal of Cognitive Neuroscience,
15(3), 444–61.
Courchesne, E., Karns, C. M., Davis, H. R., Ziccar di, R., Carper, R. A., Tigue, Z. D., Chisum,
H. J., Moses, P., Pierce, K., Lord, C., Lincoln, A. J., Pizzo, S., Schreibman, L., Haas, R. H.,
Akshoomoff, N. A., & Courchesne, R. Y. (2001). Unusual brain growth patterns in early
life in patients with autistic disorder: an MRI study. Neurology, 57(2), 245–254.
Courchesne, E., Mouton, PR, Calhoun, ME, Semendeferi, K., Ahrens-Barbeau, C., Hallet,
M. J., Barnes, C. C., & Pierce, K. (2011). Neuron number and size in prefrontal cortex of
children with autism. JAMA, 306(18), 2001–10.

237
238 11 Atypische Sprache

Cross, K., Smith, E. E., & Grossman, M. (2008). Knowledge of natural kinds in semantic
dementia and Alzheimer’s disease. Brain and Language, 105(1), 32–40.
Cummings, J. L., Benson, F., Hill, M. A., & Read, S. (1985). Aphasia in dementia of the Alz-
heimer type. Neurology, 35(3), 394–97.
Damasio, H., Grabowski, T. J., Tranel, D., Hichwa, R. D., & Damasio, A. R. (1996). A neural
basis for lexical retrieval. Nature, 380(6574), 499–505.
Dapretto, M., Davies, M. S., Pfeifer, J. H., Scott, A. A., Sigman, M., Bookheimer, S. Y., Iacoboni,
M., & (2006). Understanding emotions in others: mirror neuron dysfunction in children
with autism spectrum disorders. Nature Neuroscience, 9(1), 28–30.
De Renzi, E., & Vignolo, L. A. (1962). The token test: A sensitive test to detect receptive
disturbances in aphasics. Brain, 85(4), 665–78.
Dronkers, N. F. (1996). A new brain region for coordinating speech articulation. Nature,
384, 159–61.
Ecker, C., Ronan, L., Feng, Y., Daly, E., Murphy, C., Ginestet, C. E., Brammer, M., Fletcher,
P. C., Bullmore, E. T., Suckling, J., Baron-Cohen, S., Williams, S., Loth, E.; MRC AIMS
Consortium, Murphy, D. G. (2013). Intrinsic gray-matter connectivity of the brain in
adults with autism spectrum disorder. Proceedings of the National Academy of Sciences,
110(32), 13222–7.
Emery, O. B., & Breslau, L. D. (1989). Language deficits in depression: comparisons with
SDAT and normal aging. Journal of Gerontology, 44(3), M85–92.
Fodor, J. A. (1983). The modularity of mind. Cambridge, MA: MIT Press.
Fombonne, E., Rogé, B., Claverie, J., Courty, S., & Frémolle, J. (1999). Microcephaly and
macrocephaly in autism. Journal of Autism and Developmental Disorders, 29(2), 113–19.
Forster, K. I. (1979). Levels of processing and the structure of the language processor. In W. E.
Cooper & E. Walker (eds.), Sentence processing: Psycholinguistics studies presented to
Merrill Garret. Hillsdale, NJ: Larence Erlbaum.
Frackowiak, R. S. (2001). New functional cerebral cartography: studies of plasticity of the
human brain. Bulletin de l’Académie nationale de médecine, 185(4), 707–24.
Frith, C. (2003). What do imaging studies tell us about the neural basis of autism? Novartis
Foundation Symposium, 251, 149–66.
Gainotti, G., Caltagirone, C., Miceli, G., & Masullo, C. (1981). Selective semantic-lexical
impairment of language comprehension in right-brain-damaged patients. Brain and
Language, 13(2), 201–11.
Gallese, V. (2007). Before and below “theory of mind”: embodied simulation and the neural
correlates of social cognition. Philosophical Transactions of the Royal Society B: Biological
Sciences, 362(1480), 659–69.
Gallese, V. (2008). Mirror neurons and the social nature of language: The neural exploitation
hypothesis. Social Neuroscience, 3(3–4), 317–33.
Gazzaniga, M. S. (1995). Principles of human brain organization derived from split-brain
studies. Neuron, 14(2), 217–28.
Gazzaniga, M. S., & Sperry, R. W. (1967). Language after section of the cerebral commissures.
Brain: A Journal of Neurology, 90(1), 131–48.
Golob, E. J., Johnson, J. K., & Starr, A. (2002). Auditory event-related potentials during
target detection are abnormal in mild cognitive impairment. Clinical Neurophysiology,
113(1), 151–61.
Goodglass, H., & E. Baker (1976): Semantic field, naming, and auditory comprehension in
aphasia. Brain and Language, 3, 359–74.
Literatur 239

Goodglass, H. (1976). Agrammatism. In H. Whitaker & H. A. Whitaker (eds.), Studies in


neurolinguistics, vol. 1. New York: Academic Press.
Goodglass, H., & Berko, J. (1960). Agrammatism and inflectional morphology in English.
Journal of Speech and Hearing Research, 3, 257–67.
Gordon, B., & Caramazza, A. (1983). Closed- and open-class lexical access in agrammatic
and fluent aphasics. Brain and Language, 19(2), 335–45.
Grober, E., Buschke, H., Kawas, C., & Fuld, P. (1985). Impaired ranking of semantic attributes
in dementia. Brain and Language, 26(2), 276–86.
Grossman, M., & Rhee, J. (2001). Cognitive resources during sentence processing in Alz-
heimer’s disease. Neuropsychologia, 39(13), 1419–31.
Grossman, M., & White-Devine, T. (1998). Sentence comprehension in Alzheimer’s disease.
Brain and Language, 62(2), 186–201.
Grossman, M., Koenig, P., DeVita, C., Glosser, G., Moore, P., Gee., J, Detre, J., & Alsop, D.
(2003). Neural basis for verb processing in Alzheimer’s disease: an fMRI study. Neu-
ropsychology, 17(4), 658–74.
Grossman, M., Mickanin, J., Onishi, K., & Hughes, E. (1995). An aspect of sentence processing
in Alzheimer’s disease: quantifier-noun agreement. Neurology, 45(1), 85–91.
Grossman, M., Mickanin, J., Robinson, K. M., & D’Esposito, M. (1996). Anomaly judgments
of subject-predicate relations in Alzheimer’s disease. Brain and Language, 54(2), 216–32.
Grossman, M., Robinson, K., Biassou, N., White-Devine, T., & D’Esposito, M. (1998).
Semantic memory in Alzheimer’s disease: representativeness, ontologic category, and
material. Neuropsychology, 12(1), 34–42.
Grossman, M., Peelle, J. E., Smith, E. E., McMillan, C. T., Cook, P., Powers, J., Dreyfuss, M.,
Bonner, M. F., Richmond, L., Boller, A., Camp, E., & Burkholder, L. (2013). Category-spe-
cific semantic memory: converging evidence from bold fMRI and Alzheimer’s disease.
Neuroimage, 68, 263–74.
Hamilton, A. F. de C. (2013). Reflecting on the mirror neuron system in autism: A systematic
review of current theories. Developmental Cognitive Neuroscience, 3, 91–105.
Happé, F. G. (1993). Communicative competence and theory of mind in autism: A test of
relevance theory. Cognition, 48(2), 101–19.
Happé, F. G. (1994). An advanced test of theory of mind: Understanding of story characters’
thoughts and feelings by able autistic, mentally handicapped, and normal children and
adults. Journal of Autism and Developmental Disorders, 24(2), 129–54.
Happé, F. G. (1995). The role of age and verbal ability in the theory of mind task performance
of subjects with autism. Child Development, 66(3), 843–55.
Heiss, W. D., Kessler, J., Thiel, A., Ghaemi, M., Karbe, H. (1999). Differential capacity of
left and right hemispheric areas for compensation of poststroke aphasia. Annals of
Neurology, 45(4), 430–8.
Hier, D. B., Hagenlocker, K., & Shindler, A. G. (1985). Language disintegration in dementia:
effects of etiology and severity. Brain and Language, 25(1), 117–33.
Hillert, D. (1990). Sprachprozesse und Wissensstrukturen [German]. Opladen: Westdeut-
scher Press.
Hillert, D. (1999). On Processing Lexical Concepts in Aphasia and Alzheimer’s disease.
Some (Re)considerations. Brain and Language 69, 95–118.
Hillert, D. G. (2004). Spared access to idiomatic and literal meanings: A single-case approach.
Brain and Language, 89(1), 207–15.

239
240 11 Atypische Sprache

Hillis, A. E. (2002). Does the right make it right? Questions about recovery of language after
stroke. Annals of Neurology, 51(5), 537–38.
Hodges, J. R., Salmon, D. P., & Butters, N. (1992). Semantic memory impairment in Alzhei-
mer’s disease: failure of access or degraded knowledge? Neuropsychologia, 30(4), 301–14.
Huff, F. J., Corkin, S., & Growden, J. H. (1986). Semantic impairment and anomia in Alzhei-
mer’s disease. Brain and Language, 28, 235–49.
Iacoboni, M. (1999). Cortical mechanisms of human imitation. Science, 286(5449), 2526–28.
Iacoboni, M., & Dapretto, M. (2006). The mirror neuron system and the consequences of its
dysfunction. Nature Reviews. Neuroscience, 12, 942–51.
Ingram, J. C. L. (2007). Neurolinguistics: An introduction to spoken language processing
and its disorders. Cambridge University Press.
Jucker, M., & Walker, L. C. (2011). Pathogenic protein seeding in Alzheimer disease and
other neurodegenerative disorders. Annals of Neurology, 70(4), 532–40.
Katz, W. F. (1988). An investigation of lexical ambiguity in Broca’s aphasics using an auditory
lexical priming technique. Neuropsychologia, 26(5), 747–752.
Kean, M-L. (1977). The Linguistic Description of Aphasic Syndromes. Cognition, 5, 9–46.
Kemper, S., LaBarge, E., Ferraro, F. R., Cheung, H., Cheung, H., & Storandt, M. (1993). On
the preservation of syntax in Alzheimer’s disease. Evidence from written sentences.
Archives of Neurology, 50(1), 81–6.
Kempler, D., Almor, A. Tyler, L. K., Andersen, E. S., MacDonald, M. C. (1998). Sentence com-
prehension deficits in Alzheimer’s disease: a comparison of off-line vs. on-line sentence
processing. Brain and Language, 64(3), 297–316.
Kempler, D., Van Lancker D., & Read, S. (1988). Proverb and idiom comprehension in Alz-
heimer disease. Alzheimer Disease and Associated Disorders, 2(1), 38–49.
Kertesz, A., Appell, J., & Fisman, M. (1986). The dissolution of language in Alzheimer’s dis-
ease. The Canadian Journal of Neurological Sciences. Le Journal Canadien Des Sciences
Neurologiques, 13(4), 415–18.
Kertesz, A., Lau, W. K., Polk, M. (1993). The structural determinants of recovery in Wernicke’s
aphasia. Brain and Language, 44, 153–64.
Kolk, H. H., & Blomert, L. (1985). On the Bradley hypothesis concerning agrammatism: the
nonword-interference effect. Brain and Language, 26(1), 94–105.
Kussmaul, A. (1877). Die Störungen der Sprache. Leipzig. [In German]
Kutas, M., & Van Petten, C. 1994. Psycholingusistics electrified: Event-related brain poten-
tial investigations. In M. Gernsbacher (ed.), Handbook of psycholinguistics. New York:
Academic Press, pp. 83–143.
Lainhart, J. E., Piven, J., Wzorek, M., Landa, R., Santangelo, S. L., Coon, H., & Folstein,
S. E. (1997). Macrocephaly in children and adults with autism. Journal of the American
Academy of Child and Adolescent Psychiatry, 36(2), 282–90.
Leslie, A. M., & Frith, U. (1988). Autistic children’s understanding of seeing, knowing and
believing. British Journal of Developmental Psychology, 6(4), 315–24.
Lesser, R. (1990). Linguistic investigations of aphasia. London; Jersey City: Whurr Publishers.
Lichtheim, L. (1884). Ueber Aphasie [German]. Deutsches Archiv Für Klinische Medicin,
36, 204–68.
Lopez, O. L., Jagust, W. J., DeKosky, S. T., Becker, J. T., Fitzpatrick, A., Dulberg, C., Breitner,
J., Lyketsos, C., Jones, B., Kawas, C., Carlson, M., & Kuller, L. H. (2003). Prevalence and
classification of mild cognitive impairment in the cardiovascular health study cognition
Study, Part 1. Archives of Neurology, 60, 1385–89.
Literatur 241

Lukatela, K., Crain, S., & Shankweiler, D. (1988). Sensitivity to inflectional morphology in
agrammatism: Investigation of a highly inflected language. Brain and Language, 33, 1–15.
Martin, A., & Fedio, P. (1983). Word production and comprehension in Alzheimer’s disease:
the breakdown of semantic knowledge. Brain and Language, 19(1), 124–41.
Martin, R. C. (1987). Articulatory and phonological deficits in short-term memory and their
relation to syntactic processing. Brain and Language, 32(1), 159–92.
Mazumdar, S., King, M., Liu, K.-Y., Zerubavel, N., & Bearman, P. (2010). The spatial structure
of autism in California, 1993–2001. Health & Place, 16(3), 539–546.
McClelland, J. L. (1987). The case for interactionism in language processing.In M. Coltheart
(ed.), Attention & performance XII: The psychology of reading. London: Erlbaum, pp. 1–36.
Meinzer, M., Flaisch, T., Breitenstein, C., Wienbruch, C., Elbert, T., & Rockstroh, B. (2008).
Functional re-recruitment of dysfunctional brain areas predicts language recovery in
chronic aphasia. NeuroImage, 39(4), 2038–46.
Mesulam, M. (1994). Neurocognitive networks and selectively distributed processing. Revue
Neurologique, 150(8–9), 564–69.
Miceli, G., Mazzucchi, A., Menn, L., & Goodglass, H. (1983). Contrasting cases of Italian
agrammatic aphasia without comprehension disorder. Brain and Language, 19(1), 65–97.
Milberg, W., & Blumstein, S. E. (1981a). Lexical decision and aphasia: evidence for semantic
processing. Brain and Language, 14(2), 371–85.
Milberg, W., Blumstein, S. E., & Dworetzky, B. (1987a). Processing of lexical ambiguities in
aphasia. Brain and Language, 31(1), 138–50.
Mohr, J. P. (1976). Broca’s area and Broca’s aphasia. In H. Whitaker & H. A. Whitaker (eds.),
Studies in neurolinguistics, vol. 1, New York: Academic Press.
Molloy, Brownell, & Gardner (1990). Discourse comprehension by right-hemisphere stroke
patients: Deficits in prediction and revision. In Y. Joanette & H. M. Brownell (eds.),
Discourse ability and brain damage: Theoretical and empirical perspectives. New York:
Springer Press, pp. 113–130.
Morris, J. C., Storandt, M., Miller, J. P., McKeel, D. W., Price, J. L., Rubin, E. H., & Berg, L.,
(2001). Mild cognitive impairment represents early-stage Alzheimer disease. Archive of
Neurology, 58 (3), 397–405.
Murdoch, B. E., Afford, R. J., Ling, A. R., & Ganguley, B. (1986). Acute computerized tomo-
graphic scans: their value in the localization of lesions and as prognostic indicators in
aphasia. Journal of Communication Disorders, 19(5), 311–45.
Murdoch, B. E., Chenery, H. J., Wilks, V., & Boyle, R. S. (1987). Language disorders in de-
mentia of the Alzheimer type. Brain and Language, 31(1), 122–37.
Musso, M., Weiller, C., Kiebel, S., Müller, S. P., Bülau, P., & Rijntjes, M. (1999). Training-in-
duced brain plasticity in aphasia. Brain: A Journal of Neurology, 122(9), 1781–90.
Myers, P. S., & Linebaugh, C. W. (1981). Comprehension of idiomatic expressions by right
hemisphere damaged adults. In R. H. Brookshire (ed.), Clinical Aphasiology. Minneapolis:
BRK Publishers, pp. 254–61.
Naeser, M. A., & Palumbo, C. L. (1994). Neuroimaging and language recovery in stroke.
Journal of Clinical Neurophysiology: Official Publication of the American Electroen-
cephalographic Society, 11(2), 150–74.
Nebes, R. D., Boller, F., & Holland, A. (1986). Use of semantic context by patients with Alz-
heimer’s disease. Psychology and Aging, 1, 261–69.

241
242 11 Atypische Sprache

Nebes, R. D., Brady, C. B., & Huff, F. J. (1989). Automatic and attentional mechanisms of
semantic priming in Alzheimer’s disease. Journal of Clinical and Experimental Neu-
ropsychology, 11(2), 219–30.
Nespoulous, J. L., Dordain, M., Perron, C., Ska, B., Bub, D., Caplan, D., Mehler, J., & Lecours,
A. R. (1988). Agrammatism in sentence production without comprehension deficits:
reduced availability of syntactic structures and/or of grammatical morphemes? A case
study. Brain and Language, 33(2), 273–295.
Nichelli, P., Grafman, J., Pietrini, P., Clark, K., Lee, K. Y., & Miletich, R. (1995). Where the
brain appreciates the moral of a story. Neuroreport, 6(17), 2309–13.
Nocentini, U., Goulet, P., Drolet, M., & Joanette, Y. (1999). Age-related evolution of the
contribution of the right hemisphere to language: absence of evidence. The International
Journal of Neuroscience, 99(1–4), 59–67.
Ober, B. A., & Shenaut, G. K. 1988. Lexical decision and priming in Alzheimer’s disease.
Neuropsychologia, 26, 273–86.
Oberman, L. M., & Ramachandran, V. S. (2007). The simulating social mind: The role of the
mirror neuron system and simulation in the social and communicative deficits of autism
spectrum disorders. Psychological Bulletin, 133(2), 310–27.
Ohyama, M., Senda, M., Kitamura, S., Ishii, K., Mishina, M., & Terashi, A. (1996). Role of
the nondominant hemisphere and undamaged area during word repetition in poststroke
aphasics. A PET activation study. Stroke; a Journal of Cerebral Circulation, 27(5), 897–903.
Ostrin, R. K., & Tyler, L. K. (1993). Automatic access to lexical semantics in aphasia: evidence
from semantic and associative priming. Brain and Language, 45(2), 147–159.
Peng, F. C. C. (2009). Language in the brain: critical assessments. London; New York: Con-
tinuum Intl Pub Group.
Petersen, R. C. (2003). Conceptual overview. In R. C. Petersen (ed), Mild cognitive impair-
ment: Aging to Alzheimer’s disease. New York: Oxford University Press.
Pick, A. (1913). Die agrammatischen Sprachstörungen. Berlin: Springer.
Poldrack, R. A., Wagner, A. D., Prull, M. W., Desmond, J. E., Glover, G. H., & Gabrieli, J. D.
(1999). Functional specialization for semantic and phonological processing in the left
inferior prefrontal cortex. NeuroImage, 10(1), 15–35.
Posner, M. I., & Snyder, C. R. R. (1975). Attention and cognitive control. In R. L. Solso (ed.),
Information Processing and Cognition: The Loyola Symposium. Hillsdale, NJ: Lawrence
Erlbaum.
Postman-Caucheteux, W. A., Birn, R. M., Pursley, R. H., Butman, J. A., Solomon, J. M., Pic-
chioni, D., McArdle, J., & Braun, A. R. (2010). Single-trial fMRI shows contralesional
activity linked to overt naming errors in chronic aphasic patients. Journal of Cognitive
Neuroscience, 22(6), 1299–318.
Prather, P. A., Zurif, E., Love, T., & Brownell, H. (1997). Speed of lexical activation in nonflu-
ent Broca’s aphasia and fluent Wernicke’s aphasia. Brain and Language, 59(3), 391–411.
Rochon, E., Waters, G. S., & Caplan, D. (1994). Sentence comprehension in patients with
Alzheimer’s disease. Brain and Language, 46(2), 329–49.
Rosen, H. J., Petersen, S. E., Linenweber, M. R., Snyder, A. Z., White, D. A., Chapman, L.,
Dromerick, A. W., Fiez, J. A., Corbetta, M. D. (2000). Neural correlates of recovery from
aphasia after damage to left inferior frontal cortex. Neurology, 55(12), 1883–94.
Roskies, A. L., Fiez, J. A., Balota, D. A., Raichle, M. E., & Petersen, S. E. (2001). Task-depen-
dent modulation of regions in the left inferior frontal cortex during semantic processing.
Journal of Cognitive Neuroscience, 13(6), 829–43.
Literatur 243

Salmon, D. P., Shimamura, A., Butters, N., & Smith, S. 1988. Lexical and semantic priming
deficits in patients with Alzheimer’s disease. Journal of Clinical and Experimental
Neuropsychology, 10, 477–494.
Saur, D., Lange, R., Baumgaertner, A., Schraknepper, V., Willmes, K., Rijntjes, M., & Wei-
ller, C. (2006). Dynamics of language reorganization after stroke. Brain: A Journal of
Neurology, 129(6), 1371–84.
Saykin, A. J., Flashman, L. A., Frutiger, S. A., Johnson, S. C., Mamourian, A. C., Moritz,
C. H., O’Jile, J. R., Riordan, H. J., Santulli, R. B., Smith, C. A.,Weaver, J. B. (1999). Neuro-
anatomic substrates of semantic memory impairment in Alzheimer’s disease: patterns
of functional MRI activation. Journal of the International Neuropsychological Society:
JINS, 5(5), 377–92.
Schlaug, G., Marchina, S., & Norton, A. (2009). Evidence for plasticity in white-matter tracts
of patients with chronic Broca’s aphasia undergoing intense intonation-based speech
therapy. Annals of the New York Academy of Sciences, 1169, 385–94.
Schneider, W., & R. . Shiffrin. (1977). Controlled and automatic human information pro-
cessing: 1. Detection, search, and attention. Psychological Review, 84, 1–66.
Schulte-Rüther, M., Greimel, E., Markowitsch, H. J., Kamp-Becker, I., Remschmidt, H.,
Fink, G. R., & Piefke, M. (2011). Dysfunctions in brain networks supporting empathy: An
fMRI study in adults with autism spectrum disorders. Social Neuroscience, 6(1), 1–21.
Schwartz, M., Marin, O., & Saffran, E. 1979. Dissociations of language function in dementia:
A case study. Brain and Language, 7, 277–306.
Schwartz, M. F., Linebarger, M. C., Saffran, E. M., & Pate, D. S. (1987). Syntactic transparency
and sentence interpretation in aphasia. Language and Cognitive Processes, 2(2), 85–113.
Scott, F. J., & Baron-Cohen, S. (1996). Imagining real and unreal things: evidence of a dis-
sociation in autism. Journal of Cognitive Neuroscience, 8(4), 371–82.
Seidenberg, M. S. (1985). Lexicon as module. The Behavioral and Brain Sciences, 8(1), 31–2.
Selnes, O. A., Knopman, D. S., Niccum, N., Rubens, A. B., & Larson, D. (1983). Computed
tomographic scan correlates of auditory comprehension deficits in aphasia: a prospective
recovery study. Annals of Neurology, 13(5), 558–66.
Shiffrin, R. M., & Schneider, W. (1977). Controlled and automatic human information pro-
cessing: II. Perceptual learning, automatic attending, and a general theory. Psychological
Review, 84, 127 190.
Sperber, D., & Wilson, D. (1987). Precis of relevance: Communication and cognition. Beha-
vioral and Brain Sciences. 10, 697–754.
Sperber, D. (2001). Relevance: communication and cognition (2nd edition). Oxford: Blackwell
Publishers.
Swettenham, J. G., Baron-Cohen, S., Gomez, J. C., & Walsh, S. (1996). What’s inside someo-
ne’s head? Conceiving of the mind as a camera helps children with autism acquire an
alternative to a theory of mind. Cognitive Neuropsychiatry, 1(1), 73–88.
Swinney, D., Zurif, E., & Nicol, J. (1989). The effects of focal brain damage on sentence pro-
cessing: an examination of the neurological organization of a mental module. Journal
of Cognitive Neuroscience, 1(1), 25–37.
Thompson, C. K. (2000). Neuroplasticity: evidence from aphasia. Journal of Communication
Disorders, 33(4), 357–66.
Thompson-Schill, S. L. (2003). Neuroimaging studies of semantic memory: inferring “how”
from “where.” Neuropsychologia, 41(3), 280–92.

243
244 11 Atypische Sprache

Thompson-Schill, S. L., Aguirre, G. K., D’Esposito, M., & Farah, M. J. (1999). A neural basis for
category and modality specificity of semantic knowledge. Neuropsychologia, 37(6), 671–76.
Thulborn, K. R., Carpenter, P. A., & Just, M. A. (1999). Plasticity of language-related brain
function during recovery from stroke. Stroke; a Journal of Cerebral Circulation, 30(4),
749–54.
Tompkins, C. A., Boada, R., & McGarry, K. (1992). The access and processing of familiar
idioms by brain-damaged and normally aging adults. Journal of Speech and Hearing
Research, 35(3), 626–37.
Van Lancker, D. (1990). The neurology of proverbs. Behavioural Neurology, 3, 169–87.
Van Lancker, D. R., & Kempler, D. (1987). Comprehension of familiar phrases by left- but not
by right-hemisphere damaged patients. Brain and Language, 32(2), 265–277.
Vandenberghe, R., Price, C., Wise, R., Josephs, O., & Frackowiak, R. S. (1996). Functional
anatomy of a common semantic system for words and pictures. Nature, 383(6597), 254–56.
Wagner, A. D., Paré-Blagoev, E. J., Clark, J., & Poldrack, R. A. (2001). Recovering meaning:
left prefrontal cortex guides controlled semantic retrieval. Neuron, 31(2), 329–38.
Warburton, L. (1999). Management of stroke: A practical guide for the prevention, evalua-
tion and treatment of acute stroke. Journal of Neurology, Neurosurgery, and Psychiatry,
66(5), 696A.
Waters, G., & Caplan, D. (2002). Working memory and online syntactic processing in Alzhei-
mer’s disease: studies with auditory moving window presentation. Journal of Gerontoly.
Series B. Psychology Sciences Social Sciences, 57(4), 298–311.
Waters, G. S., Rochon, E., & Caplan, D. (1998). Task demands and sentence comprehension
in patients with dementia of the Alzheimer’s type. Brain and Language, 62(3), 361–97.
Weiller, C., Isensee, C., Rijntjes, M., Huber, W., Müller, S., Bier, D., Dutschka, K., Woods,
R. P., Noth, J., Diener, H. C. (1995). Recovery from Wernicke’s aphasia: a positron emission
tomographic study. Annals of Neurology, 37(6), 723–32.
Wernicke, C. (1874). Der aphasische Symptomencomplex, eine psychologische Studie auf
anatomischer Basis [German]. Breslau: M. Cohn und Weigert.
Winner, E., & Gardner, H. (1977). The comprehension of metaphor in brain-damaged pa-
tients. Brain, 100(4), 717–29.
Yirmiya, N., Solomonica-Levi, D., & Shulman, C. (1996). The ability to manipulate behaviour
and to understand manupulation of beliefs: A comparison of individuals with autism,
mental retardation, and normal development. Developmental Psychology, 32, 62–9.
Zurif, E., Swinney, D., Prather, P., Solomon, J., & Bushell, C. (1993). An on-line analysis of
syntactic processing in Broca’s and Wernicke’s aphasia. Brain and Language, 45(3), 448–64.
Zurif, E. B., & Caramazza, A. (1976). Dissociation of algorithmic and heuristic processes
in language comprehension: evidence from aphasia. Brain and Language, 3(4), 572–82.
Spracherwerb
12 Spracherwerb 12

Zusammenfassung

Wie die Muttersprache erworben wird und wie Kinder und Erwachsene mehr als
eine Sprache erwerben, hängt vom Zusammenspiel zwischen neurogenetischen
und sozialen Prozessen ab. Neuronale Schaltkreise werden bereits während
der perinatalen Periode gebildet. Ein epigenetisches Modell unterscheidet
zwischen einer „erfahrungserwartenden“ und „erfahrungsabhängigen“ Phase,
wobei während der letztgenannten Phase die Parameter für sensitive Perioden
festgelegt werden. Ein genetisch vorherbestimmtes Programm der neuronalen
Verschaltung unterstützt das neuronale Netzwerk, aber verhindert keine Neu-
roplastizität während des gesamten Lebenszyklus. Entsprechend können wir
jederzeit eine neue Sprache lernen, obwohl sensitive Perioden, die vermutlich
nicht sprachspezifisch sind, den Lernprozess erleichtern und optimieren. Die
Fähigkeit, mehr als eine Sprache zu sprechen, ist aus neurologischer Sicht von
Vorteil, da es die Entwicklung der weißen Substanz und Neuroplastizität fördert,
einschließlich des „Code-Switchens“. Aus methodologischer Sicht erscheinen
Einzelfallstudien angemessener zu sein als Gruppenstudien, um den zahlreichen
subjektiven Variablen, die beim Zweitspracherwerb eine Rolle spielen, Rechnung
zu tragen. Diese Variablen beziehen sich u. a. auf: Alter beim Spracherwerb,
phonologische, grammatische und semantische Ähnlichkeiten zwischen Zweit-
sprache und Muttersprache, Grad der Sprechflüssigkeit und Gebrauchshäufigkeit.
Bildgebende Daten weisen darauf hin, dass eine sehr gute Sprachkompetenz
in der Zweitsprache die frontotemporalen Schaltkreise aktivieren, die für die
Muttersprache vorgesehen sind; eine weniger gute Sprachkompetenz in der
Zweitsprache aktiviert zusätzlich präfrontale Areale, die gewöhnlich nicht zum
neuronalen Netzwerk der Muttersprache gehören.

245
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5_13
246 12 Spracherwerb

Stichwörter

Alter beim Spracherwerb, Bilingualismus, Code-Switching, Kritische Periode,


Multilingualismus, Neuroplastizität, Perinatale Entwicklung, Sensitive Periode,
Spracherwerb, Sprachkompetenz, Sprechflüssigkeit, Zweitsprache.

12.1 Das genetische Programm


12.1 Das genetische Programm
Verschiedene Studien haben gezeigt, dass ein Neugeborenes es bevorzugt, auf
die Stimme seiner Mutter und nicht auf die Stimme anderer zu hören (DeCasper
und Fifer, 1980), und es bevorzugt die Sprache seiner Mutter (Moon et al., 1993).
Auf die Stimmen anderer zu achten, ist ein Prozess, der bereits vor der Geburt
stattfindet, denn verschiedene Studien haben den oben genannten Effekt auch bei
Föten festgestellt (Kisilevsky et al., 2003, 2009). Die Präferenz für die Sprache der
Mutter bezieht sich nicht auf eine Präferenz für höhere Frequenzen, da es auch im
Vergleich zur Stimme des Vaters oder zur Stimme einer neuen weiblichen oder
männlichen Stimme eine Bevorzugung der Stimme der Mutter gibt (z. B. DeCasper
und Prescott, 1984). Die neuronalen Schaltkreise, die auf die Stimme der Mutter
reagieren, werden perinatal gebildet. Es würde interessant sein zu erfahren, ob der
Fötus Präferenzen für mehr als eine Sprache entwickelt, wenn die Mutter im Alltag
mehr als eine Sprache verwendet.
Während der perinatalen Phase findet die synaptische Entwicklung im sensori-
schen, motorischen und assoziativen Cortex sehr schnell statt. Ein epigenetisches
Modell des Spracherwerbs impliziert, dass Genexpressionen mit dem neuronalen
Wachstum interagieren, welches wiederum mit den spezifischen Erfahrungen einer
Spezies interagiert (Werker und Tees, 1999). Auch wird vermutet, dass während der
perinatalen Phase das neuronale Wachstum imdurch den Übergang von Genex-
pressionen zur „erfahrungserwartenden“ Phase stattfindet. Während dieser Phase
sind externe ubiquitäre Stimuli, die für alle Mitglieder einer Spezies relevant sind
(z. B. Sprachwahrnehmung), erforderlich, um die neuronalen Schaltkreise zu mo-
difizieren. Überschüssige Neuronen werden beseitigt („Pruning“) und dendritische
Attrition bildet neue Schaltkreise. Diese Verschaltungen sind offensichtlich relativ
permanent, aber sie können auch für nachfolgende neuronale Formprägungen ver-
wendet werden. Während dieser Phase werden die Parameter für die Phänomene
der kritischen oder sensitiven Periode festgelegt. In der „erfahrungsabhängigen“
Phase werden idiosynkratische Informationen, die episodischer Natur sind und nur
12.1 Das genetische Programm 247

für ein Individuum zutreffen, abgespeichert. Hierbei werden aktive Formationen


neuer synaptischer Verbindungen als Antwort auf die Eingangsdaten gespeichert
(Greenough, Black und Wallace, 1987). Die Autoren heben allerdings auch hervor,
dass es schwierig ist, beide bei der kognitiven Entwicklung beteiligten corticalen
Mechanismen voneinander zu unterscheiden. Beide Mechanismen scheinen ge-
geneinander zu arbeiten: Stabile und optimierte neuronale Schaltkreise sind das
Ergebnis von Pruning, und zur gleichen Zeit können neue neuronale Schaltkreise
entstehen, um neue Informationen zu assimilieren. Die Bildung von spezifischen
neuronalen Schaltkreisen für die Sprachwahrnehmung scheint nach einem spezies-
spezifischen genetischen Programm abzulaufen, während andere Schaltkreise durch
neuronale Plastizität entstehen, um zum Beispiel neue lexikalische Informationen
zu integrieren. Der Erwerb von Syntax beruht vermutlich weder vollständig auf dem
einen noch auf dem anderen corticalen Mechanismus. Der Erwerb kanonischer
Strukturen zum Beispiel, der direkt auf unsere sensorisch-motorischen Erfahrungen
abgebildet wird, könnte durch den Erwerb von erfahrungserwartenden Prozessen
erfolgen, während der Erwerb anderer nicht-kanonischer syntaktischer Strukturen
primär auf der Grundlage von „erfahrungsabhängigen“ Prozessen geschieht. Es
bleibt offen, ob beide neuronalen Erwerbsmechanismen auch die Entwicklung
bestimmter Faserbahnen widerspiegelt (siehe Abb. 12.1)
Das Kind ist kein passiver Lerner, da die Spracherwerbsfähigkeit auch sprach-
liche Übungen im Rahmen eines natürlichen sozialen Umfelds erfordert, was vor
allem die verschiedenen Erwerbsphasen widerspiegeln (postnatal etwa 3-4 Jahre:
verschiedene Laute, sich wiederholende Konsonanten-Vokal(CV)-Muster (Babbeln:
6-8 Monate), Inhaltswörter (holophrastisch: 9-18 Monate), Zwei-Wort-Phrasen mit
semantischen Relationen (18-24 Monate), frühe Phase mit verschiedenen Wörtern
(telegraphisch: 24-30 Monate), späte Phase mit verschiedenen Wörtern und Morphe-
men (30+ Monate). Die bildhafte Sprache wird relativ spät erworben. Idiomatische
Ausdrücke werden im Alter von 6 bis 10 Jahren erworben, wenn einige sehr häufige
Redewendungen nicht berücksichtigt werden; Ironie und andere Sprechakte werden
sogar noch später erworben. Eines der meistdiskutierten Themen des Spracherwerbs
bezieht sich auf das Konzept der kritischen Periode.

247
248 12 Spracherwerb

Abb. 12.1 Faserverfolgung mit MR-DTI bei Erwachsenen (oben) und Neugeborenen
(unten). Zwei dorsale und eine ventrale Bahn sind bei Erwachsenen zu
erkennen und eine dorsale und eine ventrale Bahn bei Neugeborenen;
: Lobus temporalis ist dorsal über den Fasciculus arcuates (AF) und über
den superioren longitudinalen Fasciculus (SLF) mit dem Gyrus frontalis
inferior, einschließlich Broca-Areal, verbunden; : Lobus temporalis ist
dorsal über den AF und den SLF mit dem prämotorischen Cortex verbunden;
: Gyrus frontalis inferior ist ventral über das Fasersystem der Capsula
extrema (ECFS) mit dem Lobus temporalis verbunden. (Adaptiert und
modifiziert, Perani et al., 2011; © Proceedings of the National Academy of
Sciences.)

Das Konzept der kritischen Periode (im Unterschied zur sensitiven Periode)
bezieht sich auf den Lebensabschnitt einer Spezies, in dem diese eine spezielle Fä-
higkeit erwirbt. Sollte der Organismus während dieser kritischen Phase nicht den
relevanten Stimuli ausgesetzt sein, ist es, so wird behauptet, schwierig oder sogar
unmöglich, von diesen Fähigkeiten später Gebrauch zu machen. Der Buchfink
muss zum Beispiel vor dem Erwachsenwerden bzw. vor der sexuellen Reife dem
Lied eines erwachsenen Buchfinks ausgesetzt sein, um das relativ schwierige Lied
zu erwerben und singen zu können. Lenneberg (1967; siehe auch Pinker, 1994)
behauptete, dass es eine solche kritische Spracherwerbsphase beim Menschen gibt.
Lenneberg argumentierte, dass die kritische Spracherwerbsphase zwischen dem
12.1 Das genetische Programm 249

5. Lebensjahr und der Pubertät besteht, und bezieht sich hierbei auf die Beobach-
tung, dass wilde Kinder (z. B. „Genie“; siehe Rymer, 1994) oder taubstumme Kinder
Schwierigkeiten haben, die gesprochene Sprache nach der Pubertät zu erwerben.
Er vermutete weiter, dass Kinder mit neurologisch bedingten Sprachstörungen
sich deutlich leichter und schneller erholen als Erwachsene mit vergleichbaren
Störungen. Dieses Argument entspricht allerdings der Realität. Wilde oder isolierte
Kinder „vegetieren“ in einer unmenschlichen sozialen Umgebung, was natürlich
Konsequenzen für die physiologische, psychologische, kognitive und soziale Ent-
wicklung hat. Es scheint ziemlich naiv zu sein anzunehmen, dass die dramatischen
Auswirkungen einer sozialen Isolation aufgehoben werden können oder dass nach
der Rettung des Kindes das Lernverhalten (einschließlich das für Sprache) nicht
signifikant beeinträchtigt ist. Zudem sind beim Kind direkte Vergleiche zwischen
einem neuropsychologischen Wiederherstellungsprozess und einem typischen
Erwerbsprozess nur bedingt möglich. Zum Beispiel kann gesagt werden, dass es
eine sensitive Phase für die Wiederherstellung von neurologischen sprachlichen
Ausfällen gibt, aber gleichzeitig kann nicht angenommen werden, dass der gleiche
Prozess für den Spracherwerb bei Kindern zutrifft, die sich typisch entwickeln.
Neuronale Strukturen (re)organisieren sich während der gesamten Lebenszeit,
und es ist daher nicht überraschend, dass während der Bildung und Konnektivität
von Neuronen im Kindesalter (Kleinkind und frühe Kindheit) die Reversibilität
von Störungen am vielversprechendsten ist und dass dies im Laufe der Fixierung
neuronaler Schaltkreise abnimmt. Damit wird jedoch nicht die Reversibilität der
Störungen aufgehoben. Der genetisch bestimmte neurologische Entwicklungspro-
zess unterstützt dagegen die Neuroplastizität als einen Wiederherstellungsprozess
während der gesamten Lebenszeit. Neue Neuronen werden im Erwachsenenalter
kontinuierlich geboren und in bestehende neuronale Verschaltungen integriert.
Sollte die kritische Wiederherstellungsphase zutreffen, würden aphasische Patienten
nicht oder nur minimal in der Lage sein, sich von der Sprachstörung zu erholen.
Die klinische Realität verdeutlicht das Gegenteil, denn die neuronale Plastizität
ermöglicht eine gute Wiederherstellung zu jedem Zeitpunkt im Leben, wenn die
corticale Schädigung nicht einen bestimmten Schweregrad überschreitet (Heiss
et al., 2003).

249
250 12 Spracherwerb

12.2 Das multilinguale Gehirn


12.2 Das multilinguale Gehirn
Weniger als 25 % der etwa 200 Länder, die es in der Neuzeit gibt, besitzen mehr als
eine offizielle Sprache. Nur etwa ein Dutzend Länder besitzen mehr als zwei offizi-
elle Sprachen (z. B. Indien, Luxemburg, Nigeria). Allerdings gibt es weltweit mehr
bilinguale und multilinguale als monolinguale Sprecher und Gebärdensprachler.
Dies beruht auf der formalen Erziehung in der Schule und auf der informalen
Erziehung in einem bi- oder multilingualen Elternhaus. Der Hauptgrund ist, dass
einige Sprachen häufiger vorkommen, um der globalen Kommunikation zwischen
verschiedenen Sprachgemeinschaften gerecht zu werden (z. B. Englisch, Französisch,
Spanisch, Portugiesisch, Arabisch, Mandarin, Malaiisch). Manchmal bezieht sich
die Muttersprache nur auf eine kleine geographische Region, so dass es notwen-
dig ist, eine Zweitsprache zu erwerben. Eine gebildete Person in Eritrea lernt zum
Beispiel in Tigrigna, Arabisch und English zu sprechen und zu schreiben – drei
strukturell sehr unterschiedliche Muttersprachen jeweilig mit den Schriftsystemen
Ge’ez, Arabisch und dem lateinischen Alphabet.
Im Prinzip kann der Mensch mehr als eine Sprache zu jeder Zeit erwerben.
Der sprachliche Erwerbsprozess ist allerding während der Kindheit bis zu einem
bestimmten Punkt von Vorteil, da die Entwicklung und Fixierung der ersten neu-
ronalen Schaltkreise noch stattfindet. Dies trifft allerdings nicht nur für Sprache
zu, sondern für alle kognitiven Fähigkeiten. Die neuronalen Schaltkreise sind beim
Erwachsenen relativ fixiert. Allerdings ermöglicht die Neuroplastizität, bestehende
neuronale Schaltkreise zu modifizieren oder neue Schaltkreise zu schaffen. Das Ge-
hirn des Kindes entwickelt gewöhnlich neue Schaltkreise, ohne dass Interferenzen
von bereits bestehenden Schaltkreisen auftreten. Es kann optimal die kognitiven
Bedingungen erstellen, die für eine bestimmte Fähigkeit benötigt werden. Nachteilig
ist hierbei, dass das Kind automatisch das erwirbt, was als Stimulus zur Verfügung
steht. Dies umfasst auch weniger optimale Stimuli. Wenn das Kind bzw. sein Gehirn
fehlerhafte Kasusmarkierungen automatisiert, ist manchmal eine intensive formale
Schulung notwendig, um diese Fehler zu korrigieren. Erwachsene produzieren
oftmals fehlerhafte Strukturen ihrer noch nicht automatisierten Zweitsprache,
die die Strukturen der Muttersprache widerspiegeln. Viele Faktoren beeinflus-
sen den Erwerbs- bzw. Lernprozess wie zum Beispiel die Ähnlichkeit zwischen
Erst- und Zweitsprache, Alter beim Spracherwerb, sprachlich-soziales Umfeld,
Gebrauchshäufigkeit und persönliche Motivation. Einige grundlegende Fragen der
Zweitsprachenforschung sind: Inwieweit verarbeitet das Gehirn die Muttersprache
anders als die Zweitsprache oder als Nicht-Muttersprachen? Beruht der mögliche
Verarbeitungsunterschied zwischen Erst- und Zweitsprache auf dem Grad der
strukturellen Ähnlichkeit und/oder ist er vom Entwicklungsstadium des Gehirns
12.2 Das multilinguale Gehirn 251

abhängig? Ist die Anzahl der Sprachen, die das menschliche Gehirn erwerben kann,
begrenzt? Was sind die Vorteile und die Nachteile davon, mehr als eine Sprache
zu sprechen? Auch wenn wir diese und andere Fragen unten behandeln werden,
stehen die zeitlichen Parameter und die neuronalen Grundlagen im Mittelpunkt.

Abb. 12.2 Aktuelle Sprachfamilien. Oftmals werden Sprachen einer einzelnen Kategorie
zugeordnet, obwohl nicht alle Sprachen miteinander verwandt sind (z. B.
amerikanische (Indianer-)Sprachen. Vergleichbar mit den biologischen
Organismen bilden sich Sprachen im Laufe der Zeit heraus, und es ist nicht
selten, dass der gemeinsame Ursprung nicht mehr nachvollzogen werden
kann. Minoritäten-Sprachen werden an dieser Stelle nicht berücksichtigt
(adaptiert und modifiziert, Wikimedia).

Bevor elektrophysiologische und bildgebende Verfahren in den 80er und 90er


Jahren eingeführt wurden, waren Beobachtungen und Analysen der gestörten
Zweitsprache bei neurologischen Patienten die Hauptdatenquelle, um Näheres
darüber zu erfahren, wie das bilinguale Hirn funktioniert. Wie bereits angedeutet
wurde, kann mehr als die Hälfte der Weltbevölkerung als multilingual angesehen
werden und es ist daher nicht ungewöhnlich, dass aphasische Patienten unter
Störungen einer Zweitsprache leiden. Dies ist keine Ausnahme, sondern stellt die
251
252 12 Spracherwerb

Mehrheit der Fälle dar (Paradis, 1998). Die systematische Aphasiediagnose von
Zweitsprachenstörungen begann mit dem „Bilingual Aphasia Test“ (BAT, Paradis
et al., 1987). Spezifische psychometrische und linguistische Kriterien wurden mo-
difiziert, um die ursprüngliche englische Version anderen Sprachen anzupassen.
Neben neuropsychologischen Testbatterien wurden die Sprachstörungen durch
„Papier und Bleistift“-Tests untersucht. Dieser neurolinguistische Ansatz beschrieb
die Sprachstörung anhand entsprechender Symptome und Syndrome und versuchte
dies unter Berücksichtigung des Läsionsherds, der mit CT-Scans61 erfasst wurde,
zu interpretieren. Es ist offensichtlich, dass dieser duale Ansatz seine Grenzen
hat, da er nicht über spezifische corticale, über die neuronalen Schaltkreise der
Zweitsprachenverarbeitung oder über andere kognitive Funktionen wie AS-Ka-
pazitäten informiert. Es ist nicht möglich, allgemeine Schussfolgerungen über das
genaue Verhältnis von „Sprache und Gehirn“ bei bilingualen oder multilingualen
Patienten auf der Grundlage von Beobachtungen und entsprechenden Analysen zu
ziehen. Einige empirische Ergebnisse sind jedoch interessant und erwähnenswert.
In der Studie von Fabbro (2001) wurde die sprachliche Wiederherstellung bei 20
dextralen bilingualen (Italienisch und Friaulisch) Aphasikern, die ihre Zweitsprache
zwischen dem 5. und 7. Lebensalter erworben hatten, untersucht. Sie stellten Fol-
gendes fest: Etwa 65 % zeigten eine parallele Wiederherstellung in beiden Sprachen;
20 % waren in der Zweitsprache und 15 % in der Erstsprache stärker beeinträchtigt.
Es gab keinen spezifischen Faktor für die Wiederherstellungsmuster. Die Variablen
„Art und der Ort der Läsion“, „Art des aphasischen Syndroms“ und „Gebrauchshäu-
figkeit der Erst- und Zweitsprache“ schienen bei der Wiederherstellung keine Rolle
zu spielen. Es ist daher plausibel anzunehmen, dass eine Kombination verschiedener
Faktoren für den individuellen Wiederherstellungsprozess verantwortlich ist. In
andere Studien wurde das sogenannte „pathologische Code-Switchen“ (sprachliche
Interferenz) untersucht. Aphasische Patienten sind gelegentlich nicht in der Lage,
das Switchen zwischen zwei Sprachen zu kontrollieren. Zum Beispiel kann die
Produktion eines Wortes in der Zweitsprache nicht unterdrückt werden, obwohl
der Zuhörer gar nicht diese Sprache versteht (z. B. Mariën et al., 2005). Störungen
des „Code-Switchens“ sind mit tiefen frontalen Läsionen assoziiert. Auch ist die
Variable der „linguistischen Interferenz“, die zwischen zwei (oder mehreren) Spra-
chen auftreten kann, von Bedeutung. Zum Beispiel kann eine größere Interferenz
bei dem Sprachpaar „Spanisch und Italienisch“ als bei dem Sprachpaar „Spanisch
und Urdu“ erwartet werden. Betrachten wir zwei weitere Beispiele.

61 Eine Computertomographie (CT) ist eine Röntgenaufnahme mit berechneten Schicht-


aufnahmen.
12.2 Das multilinguale Gehirn 253

In Fabbros (2001) Studie zeigten die agrammatischen Aphasiker mit dem


Sprachpaar „Italienisch und Friaulisch“ eine vergleichbare Gesundung in beiden
Sprachen, aber die Pronomenauslassung fiel unterschiedlich aus. Dies ist allerdings
nicht überraschend, wenn wir die Typologie beider Sprachen berücksichtigen.
Italienisch ist eine „Pro-drop“-Sprache (z. B. dem Spanischen oder Japanischen
vergleichbar), aber nicht Friaulisch. Wenn ein Pronomen im Friaulischen ausgelassen
wird, handelt es sich offensichtlich um einen Fehler. Im Italienischen kann dieser
Fehler nicht entdeckt werden, da dort die Pronomenauslassung aus grammatischer
Sicht erlaubt ist. Es ist daher bei der Analyse einer Sprachstörung wichtig, die
Typologie der entsprechenden Sprache zu berücksichtigen: Das Englische ist zum
Beispiel eine schwach flektierende Sprache, es besitzt keinen grammatischen Genus
(jedoch das Altenglische); die meisten slawischen Sprachen und andere Sprachen
besitzen mehr als zwei grammatische Genera; die romanischen Sprachen verwenden
gewöhnlich zwei grammatische Genera (weiblich, männlich), aber es gibt häufig
Ausnahmen und oftmals ist eine sprachwissenschaftliche Expertise erforderlich,
um die spezifischen morphosyntaktischen Muster verstehen zu können. Spanisch
verwendet zum Beispiel zusätzlich zu den Genus-Markierungen Pronomen, deren
Nomen-Antezedenzien nicht genusspezifisch sind, sondern grammatisch neutrisch,
und sie beziehen sich auf eine ganze Idee, Phrase oder Objekte, die nicht im Diskurs
erwähnt werden (z. B. „ello“, „esto“, „eso“ und „acquello“).
Erwähnenswert sind auch die Versuche, spezialisiertes Verhalten mit besonderen
corticalen Eigenschaften zu korrelieren. Im Bereich der Sprache trifft dies zum
Beispiel auf die post-morteme Hirnuntersuchung des deutschen Sinologen und
Linguisten Emil Krebs (1867-1930) zu, der nach Familienberichten mehr als 68
Sprachen mündlich und schriftlich beherrschte und der etwa 120 Sprachen genauer
kannte. Es gibt gute Gründe zu bezweifeln, dass er 68 verschiedene muttersprach-
liche Kompetenzen beherrschte, aber ohne Zweifel war er extrem polyglott. Sein
meta-linguistisches Wissen sowie seine phonologischen Modulationsfähigkeiten
waren außergewöhnlich. Mögliche cytoarchitektonischen Unterschiede zwischen
Krebs’ Hirn und 11 Vergleichshirnen wurden mit Morphometrie und mit einer
multivariaten Datenanalyse untersucht (Amunts et al., 2004). Die Autoren nahmen
an, dass Krebs’ Hirn eine örtliche mikrostrukturelle Spezialisierung im Bereich
des Broca-Areals verdeutlicht: eine einzigartige Kombination von interhemisphä-
rischer Symmetrie beim BA 44 und eine Asymmetrie beim BA 45 in Bezug auf die
rechte Hemisphäre. Diese Ergebnisse sind schwierig zu interpretieren. Vermuten
wir für einen Moment, dass bei Krebs tatsächlich eine Korrelation zwischen lin-
guistischem Verhalten und corticalen Strukturen vorliegt. Wir können dennoch
nicht daraus schließen, dass sich die corticalen Unterschiede auf sprachliche Be-
rechnungseigenschaften beziehen oder auf bestimmte kognitive Operationen, die

253
254 12 Spracherwerb

die Grundlage für diese sprachlichen Berechnungen sind. Zum Beispiel können
corticale Unterschiede durch folgende Faktoren auftreten: Anforderungen an das
AS-System, kontrolliertes Code-Switchen, lexikalische Datenmenge. Es könnte aber
auch sein, dass die erwähnten corticalen Unterschiede keine Rolle beim Erwerb
von zahlreichen Sprachen spielen. Es ist allerdings durchaus möglich, dass eine sich
wiederholende kognitive Aktivität cytomorphologische Veränderungen verursacht,
und zwar genauso wie Sportler ihre Beinmuskeln trainieren, um schneller laufen
zu können. Im Fall von Emil Krebs bleibt der mögliche Zusammenhang zwischen
Sprachverhalten und Hirnstruktur eine spekulative Annahme.
Heute gibt es direktere Methoden, um die corticalen Grundlagen der sprach-
lichen Verarbeitung bei Polyglotten zu untersuchen. Unter Berücksichtigung von
Faktoren wie Zweitsprachenkompetenz, Alter beim Erwerb der Zweitsprache und
typologische Unterschiede zwischen Erst- und Zweitsprache wurden einige ERP-
und MRT-Studien durchgeführt. Die berichteten Ergebnisse unterstützen nicht
die Annahme, dass es eine kritische Phase für den Spracherwerb gibt. Weber-Fox
und Neville (1996) fanden einen Unterschied beim späten und frühen Erwerb
der Zweitsprache. Alle Gruppen (Muttersprachler, späte und frühe Sprecher der
Zweitsprache) zeigten einen N400-Effekt. Allerdings war der N400-Effekt bei den
späten Sprechern des Englischen (> 11 Jahre) um 20 ms verzögert. In der Studie von
Hahne und Mitarbeitern (2001) zeigten späte Sprecher der deutschen Zweitsprache
(Muttersprache: Japanisch) sowie Monolinguale einen vergleichbaren N400-Effekt
bei semantisch inkongruenten Sätzen. Der N400-Effekt dauerte bei den Bilingu-
alen 400 ms länger als bei den Monolingualen. Die Autoren vermuten, dass diese
Verzögerung den Versuch widerspiegelt, kritische Wörter in einen Satzkontext zu
integrieren, da die Lerner der Zweitsprache nicht über ausreichend lexikalisches
Wissen verfügen würden (siehe auch Sanders und Neville, 2003; Mueller, 2005).
Der N400-Effekt trifft sowohl für die Erst- als auch die Zweitsprache zu, aber die
Unterschiede manifestieren sich bei den späten Sprechern der Zweitsprache in
Bezug auf „Latenzzeit“ und „Amplitude“.
Bei morphologisch komplexen Wörtern zeigten russische späte Lerner des
Deutschen wie die Muttersprachler eine biphasische ERP-Wellenform (Hahne et
al., 2006). Während inkorrekte Partizipien eine frühe anteriore Negativität und
eine P600 erzeugten, generierten Pluralformen ausschließlich eine P600. Dieses
Ergebnis stimmt mit Produktionskompetenz überein, da die Zweitsprachler weniger
gute Ergebnisse bei Pluralformen erzielten als bei Partizipien, was wahrscheinlich
auf dem Unterschied bei der Regelkomplexität beruht. Diese Daten weisen darauf
hin, dass sogar späte Zweitsprachenlerner eine annähernde muttersprachliche
Kompetenz erwerben können. Eine von Rossi und Mitarbeitern (2006) durch-
geführte Studie verdeutlicht, dass nicht das Erwerbsalter der primäre Faktor ist,
12.2 Das multilinguale Gehirn 255

sondern die Kompetenz. Sie fanden bei späten hoch-kompetenten Zweitsprachlern


des Deutschen oder Italienischen und bei den jeweiligen Muttersprachlern ver-
gleichbare ERP (ELAN, Negativität, P600) für Aktivsätze und morphologische
Kongruenz (LAN, P600). Weniger kompetente Zweitsprachler lösten ähnliche
Muster für Phrasenstrukturverletzungen aus, jedoch nur eine P600 (keine LAN)
für Kongruenzverletzungen. Die weniger kompetenten Zweitsprachler zeigten eine
verzögerte P600 mit einer reduzierten Amplitude.
Verschiedene MEG-Studien mit japanischen Muttersprachlern, die Englisch
als Zweitsprache relativ spät erwarben (durchschnittlich im Alter von 25 bis 28
Jahren) berichteten über feine Unterschiede bei der syntaktischen Verarbeitung
in der Erst- und Zweitsprache (z. B. Kubota, Ferrari und Roberts, 2003, 2004;
Kubota et al., 2005). Die erste Studie prüfte phraseninterne (z. B. „*I believe him
is a spy“) und phrasenexterne Kasusverletzungen (z. B. *„I believe he to be a spy“).
Die M150 (vergleichbar mit ELAN, ungefähr 150 ms nach Stimulus-Onset) wurde
bei den phraseninternen Verletzungen nur für die Muttersprachler gefunden. Die
Zweitsprachler schienen nicht in der Lage zu sein, diese Strukturen automatisch zu
verarbeiten. Die zweite Studie prüfte Verletzungen von „NP-Anhebungen“ („Rai-
sing“) (z. B. „*The man was believed (t) was killed“) und von Kasusfilter (z. B. „*It
was believed the man to have been killed“). Im Unterschied zu den Verletzungen
der NP-Anhebungen erzeugten die Kasusfilter-Verletzungen keine M150-Antwort.
Sowohl die Muttersprachler als auch die Zweitsprachler zeigten dieses Antwort-
muster, was auf eine strukturell höhere syntaktische Sensitivität der Zweitsprachler
hinweist. Die dritte Studie prüfte Infinitive (z. B. „*He postponed to use it“) und
Gerundium-Komplementverletzungen (z. B. „*He happened using it“). Die Gerundi-
um-Komplementverletzungen erzeugten eine M150-Antwort bei Muttersprachlern
und Zweitsprachlern, dies traf jedoch nicht für die Komplementverletzungen der
Infinitive zu. Insgesamt verdeutlichen diese Ergebnisse, dass Zweitsprachler nur
bestimmte syntaktische Strukturen automatisch verarbeiten wie Muttersprachler
(siehe Schmidt und Roberts, 2009 für einen Überblick).
Einige fMRT-Studien haben sich mit folgender grundlegender Fragestellung
beschäftigt: Aktivieren Muttersprache und Zweitsprache die gleichen corticalen
Regionen oder hängt die anatomische Lokalisierung vom Erwerbsalter ab? Kim und
Kollegen (1997) untersuchten „frühe“ (Durchschnittsalter: 11,2 Jahre) und „späte“
(19,2 Jahre) bilinguale Sprecher. Das Alter des Zweitspracherwerbs bezog sich auf
den Zeitpunkt der dialogorientierten Sprechflüssigkeit. Die Probanden wurden
aufgefordert, im Stillen Sätze in Bezug auf vorgestellte Ereignisse zu produzieren.
Die Autoren stellten für späte Bilinguale fest, dass es bei der Erst- und Zweitsprache
corticale Aktivierungsunterschiede gibt; dagegen wurde bei späten Bilingualen
sowohl für die Muttersprache als auch für die Zweitsprache zwei nicht-überla-

255
256 12 Spracherwerb

gernde Subregionen im Broca-Areal entdeckt. Keine Unterschiede wurden für


die Wernicke-Region gefunden. Dehaene und Kollegen (1997) berichteten über
Satzverarbeitungsunterschiede bei Muttersprachlern und Zweitsprachlern für das
Sprachpaar „Französisch und Englisch“. Zweitsprachler zeigten mehr rechtshemi-
sphärische Aktivierungen. Nur frühe Bilinguale, die beide Sprachen bei Geburt
erworben hatten, zeigten eine Aktivierungsüberlagerung bei der Muttersprache
und der Zweitsprache (siehe auch Perani et al., 1996; Saur et al., 2009).
Zwei andere Studien, die eine Wortstammergänzungs- und Satzverarbei-
tungs-aufgabe verwendeten, verdeutlichten keine Unterschiede bezüglich des
Sprachpaars Mandarin und Englisch bei frühen (< 6 Jahre) und „späten“ (> 12 Jahre)
Bilingualen (Chee et al., 1999; Chee, Tan und Thiel, 1999). Wie bereits erwähnt,
ist das Erwerbsalter offensichtlich keine kritische Variable, zumindest auf der
Satzebene. Die Variable „Sprechflüssigkeit“ scheint dagegen sehr wichtig zu sein,
da bei Bilingualen mit sehr guter Sprechflüssigkeit die gleichen Areale im Lobus
temporalis aktiviert werden (Perani et al., 1998), jedoch nicht bei Bilingualen mit
weniger guter Sprechflüssigkeit in der Zweitsprache (Perani et al., 1996). Interessante
Ergebnisse wurden auch im Zusammenhang mit einer Positronen-Emissions-To-
mographie(PET)-Studie gefunden. PET-Scanning war vor der Anwendung von
MRT das Standardverfahren zur Bildgebung. Hierbei werden kleine Mengen eines
radioaktiven Kontrastmittels („Tracer“) verabreicht. Im Bereich der funktionalen
Bildgebung wird heute weitgehend auf das PET-Verfahren verzichtet. In der oben
angesprochenen Studie wurde die neuronale Aktivität beim Lesen und Übersetzen
von deutschen und englischen Wörtern gemessen (Price, 1999). Bei sechs Probanden
war die Muttersprache Deutsch, und sie erwarben Englisch als Zweitsprache etwa
im 9. Lebensjahr. Im Vergleich zur Leseaufgabe aktivierte die Übersetzungsaufgabe
corticale Regionen außerhalb der typischen Sprachzentren: Gyrus cingulus anterior
und bilaterale subcorticale Strukturen (Putamen und Kopf des Nucleus cuneatus).
Die Übersetzungsaufgabe impliziert weniger automatisierte Schaltkreise, jedoch
Abstimmungen zwischen verschiedenen Schaltkreisen. Zusätzlich verdeutlichten
die Kontrollfunktionen höhere Aktivierungen im supplementären motorischen
Cortex, im Cerebellum und in der linken anterioren Insula. Während des Switchens
zwischen beiden Sprachen (nicht den Funktionen, die bei einer Übersetzung eine
Rolle spielen) wurde eine höhere Aktivierung im Broca-Areal und in den bilateralen
Gyri supramarginalis festgestellt. Viele neuronale Aktivitäten, die zwischen der
Muttersprache und der Zweitsprache auftreten, finden außerhalb der typischen
sprachlichen Schaltkreise statt. In einer anderen bilingualen fMRT-Studie wurde
untersucht, wie Muttersprachler des Englischen visuell präsentierte einfache de-
klarative Sätze und mit der Gebärdensprache produzierte Sätze im Vergleich zu
Muttersprachlern der amerikanischen Zeichensprache (ASL) verstehen. Die klas-
12.2 Das multilinguale Gehirn 257

sischen Sprachzentren wurden in beiden Sprachen aktiviert, aber im Unterschied


zu den Muttersprachlern des Englischen wurden nur zuverlässige Aktivierungen
bei den Muttersprachlern der Gebärdensprache (taub oder hörend) in rechtshe-
misphärischen Arealen gefunden. Diese Studie bestätigt die besondere Rolle der
rechten Hemisphäre bei der visuoräumlichen Verarbeitung (Bavelier, 1998).
Betrachten wir die syntaktische Verarbeitung bei Bilingualen etwas genauer.
Dies ist eine kognitive Domäne, die bei Muttersprachlern gewöhnlich von der
Broca-Region unterstützt wird. Die fMRT-Studie von Suh und Mitarbeitern (2007)
verdeutlicht für beide Sprachen (Koreanisch: Muttersprache, Englisch: Zweitsprache),
dass neben anderen Arealen der linke Gyrus frontalis inferior und der (bilatera-
le) Gyri parietalis inferior aktiviert wurden, wenn späte Bilinguale aufgefordert
wurden, zentral-eingebettete (z. B. „The director that the maid introduced ignored
the farmer“) und konjunktive Sätze (z. B. „The maid introduced the director and
ignored the farmer“) zu lesen. Im linken Gyrus frontalis inferior (aber nicht in
anderen Arealen) war die Aktivierung für eingebettete vs. konjunktive Sätze bei der
Muttersprache höher als bei der Zweitsprache. Die Autoren vermuten daher, dass
beide Sprachen die gleichen corticalen Regionen rekrutieren, aber die zugrunde
liegenden neuronalen Mechanismen seien verschieden. Konträre Ergebnisse lieferte
die Studie von Hasegawa et al. (2002), in der berichtet wurde, dass aufgrund der
Satzkomplexität (negierte vs. affirmative Sätze) die neuronale Aktivierung bei der
Zweitsprache höher war als bei der Muttersprache. Suh und Kollegen vermuten,
dass in der Muttersprache weniger komplexe Sätze automatisch verarbeitet werden,
während komplexere Sätze nicht automatisch verarbeitet werden und daher einen
höheren kognitiven Aufwand involvieren würden. In der Zweitsprache sei dieser
Unterschied nicht messbar, da diese verschiedenen Satzstrukturen nicht automa-
tisiert verarbeitet würden. Dies ist eine plausible Interpretation. Es bleibt jedoch
unklar, warum die Verarbeitung von komplexeren, nicht-kanonischen syntaktischen
Strukturen nicht automatisiert werden kann, zumindest im Englischen. Im gegen-
wärtigen Fall korreliert die syntaktische Komplexität mit einem höheren kognitiven
Aufwand, aber es kann angenommen werden, dass verschiedene linguistische und/
oder pragmatische Faktoren der Grund für die erhöhte neuronale Aktivierung sind.
In einer neueren Studie, die Magnetresonanz-Diffusionstensor-Bildgebung
(siehe Basser et al., 2000) verwendete, wurde deutlich, dass es weiße Substanzun-
terschiede bei Muttersprachlern und Zweitsprachlern gibt (Mohades et al., 2012).
Die Teilnehmer dieser Studie waren Muttersprachler, simultane und konsekutive
Bilinguale (Durchschnittsalter: 9,5 Jahre). Der Begriff „konsekutiv“ bezieht sich hier
darauf, dass die Zweitsprache nach dem 3. Lebensjahr erworben wurde, und unter
dem Begriff „simultan“ wird hier der simultane Erst- und Zweitsprachenerwerb
direkt nach der Geburt verstanden. Die Erstsprache war entweder Französisch oder

257
258 12 Spracherwerb

Holländisch, und die Zweitsprache war eine romanische oder eine germanische
Sprache. Die Ergebnisse verdeutlichten u. a., dass die simultanen Bilingualen eine
höhere durchschnittliche fraktionelle Anisotropie (FA) in der linken inferioren
okzipital-frontalen Fasciculus-Bahn aufwiesen (verbindet anteriore Regionen des
Lobus frontalis mit posterioren Regionen im Lobus temporalis occipitalis) als
Monolinguale. Der Vergleich bei der Faserprojektion „Corpus callosum anterior“
nach „Lobus orbitalis“ zeigt einen niedrigeren durchschnittlichen FA-Wert bei si-
multanen Bilingualen im Vergleich zu den Monolingualen. In beiden Fällen hatten
die konsekutiven Bilingualen einen mittleren Wert im Vergleich zu den anderen
beiden Gruppen. FA spiegelt die Faserdichte, den axonalen Durchmesser und die
Myelinisierung der weißen Substanz wider. Aufgrund der Ergebnisse könnte man
vermuten, dass der gleichzeitige Erwerb von zwei Muttersprachen von Geburt
an für die Sprachverarbeitung vorteilhaft ist, da sich stärkere und schnellere an-
teriore-posteriore Faserverbindungen entwickeln. Da allerdings der Prozess der
Faserbahnen-Myelinisierung sich nicht nur auf die Kindheit beschränkt, ist es
möglich, dass das Ergebnis nur ein bestimmtes Zeitfenster der weißen Substanz-
entwicklung widerspiegelt. Wir können nicht ausschließen, dass bei erwachsenen
Monolingualen und Bilingualen hinsichtlich der anterioren-posterioren Verbindung
kein signifikanter FA-Unterschied festgestellt wird. Wenn die Entwicklung des
Faserystems abgeschlossen ist, ist es möglich, dass ein „Deckeneffekt“ erzielt wird.
Wir können allerdings nicht ausschließen, dass lebenslange Lernprozesse bereits
etablierte Eigenschaften der Faserverbindungen modifizieren oder verändern. Hierbei
ist anzunehmen, dass die neuronalen Modifikationen im Erwachsenenalter sich
von denen unterscheiden, die beim Kleinkind auftreten. Das zweite interessante
Ergebnis der Studie von Mohades und Mitarbeitern bezieht sich darauf, dass ein
niedrigerer durchschnittlicher FA-Wert in Bezug auf die Verbindung „Corpus
callosum nach Lobus frontalis“ bei simultanen (sehr frühen) Bilingualen ermittelt
wurde. Dies stimmt mit dem Ergebnis überein, dass frühe Bilinguale dazu tendie-
ren, bei der Sprachverarbeitung weniger linkslastig zu sein als Monolinguale oder
späte Bilinguale (Hull und Vaid, 2006; Josse et al., 2008). Ein größerer Umfang
des Corpus callosum scheint hierbei mit einer stärkeren linksseitigen sprachlichen
Lateralisierung zu korrelieren. Diese und andere Ergebnisse verdeutlichen, dass
der spezifische Spracherwerbsprozess das Fasersystem formt, das verschiedene
Sprachregionen miteinander verbindet. Mit anderen Worten: Die corticalen Regi-
onen werden dadurch sprachsensitiv, da das Fasersystem diese Regionen aufgrund
der eingegangenen linguistischen Daten miteinander verbindet.
Einige neurolinguistische Ergebnisse belegen, dass späte Zweitsprachler ver-
schiedene corticale Areale für die Erst- und die Zweitsprache aktivieren. Es gibt
eine klare Tendenz für die Annahme, dass frühe Zweitsprachler die gleichen
12.2 Das multilinguale Gehirn 259

corticalen Areale für die Erst- und die Zweitsprache aktivieren. Diese allgemeine
Schlussfolgerung ist schwierig zu interpretieren. Verwenden frühe Zweitsprachler
nur ein einziges Sprachsystem im Vergleich zu den späten Zweitsprachlern, die
offensichtlich für die Erst- und die Zweitsprache verschiedene Regionen aktivieren.
Wie viele verschiedene sprachlich-relevante Regionen gibt es dann bei nicht-frühen
polyglotten Personen? Momentan ist die Datenlagen unzureichend, um weitere
Schlussfolgerungen zu den neuronalen Grundlagen der Mehrsprachigkeit ziehen
zu können. Polyglotte Personen unterscheiden sich in Bezug auf „linguistische
Kompetenz“ und „Sprechflüssigkeit“ und die typologischen Eigenschaften der
unterschiedlichen Sprachen (einschließlich des Kommunikationsstils oder Wort-
schatzes) können sehr unterschiedlich sein. Es ist daher durchaus möglich, dass
aus der Sicht einer neurologischen Feinanalyse jedes Individuum sprachliche
Mechanismen unterschiedlich repräsentiert.
Unsere täglichen Beobachtungen sagen uns, dass der Erwerb von kognitiven
Fähigkeiten bei Kindern auf eine spielerische Weise erfolgt. Dies impliziert allerdings
nicht, dass Erwachsene nicht in der Lage sind, eine Zweitsprache auf dem Niveau
der Muttersprache zu erwerben. Unter typischen Bedingungen kann jede Person
zu jeder Zeit eine sehr gute Sprechflüssigkeit in einer Zweitsprache erwerben. Das
Gehirn des Menschen ist kein Organ, dessen Funktionen im Erwachsenenalter
abfallen. Die Hirnplastizität und adulte Neurogenese stellen dynamische Prozesse
dar und erleichtern den Erwerb einer Zweitsprache. Viele Variablen müssten be-
rücksichtigt werden, um zu verstehen, wie eine Einzelperson Zweitsprachenkennt-
nisse erwirbt. Die typologischen Eigenschaften der Erst- und Zweitsprache können
sehr ähnlich oder sehr unterschiedlich sein und vergleichbare Strukturen können
unterschiedlich automatisiert sein. Diese Unterschiede spiegeln vermutlich auch
nicht-überlappende, distinktive neuronale Korrelate wider. Es wäre daher voreilig zu
behaupten, dass die gleichen linguistischen „Strukturen“ der Erst- und Zweitsprache
in unterschiedlichen corticalen Regionen verarbeitet werden. Entsprechend soll
hier abschließend auf eine weitere Studie verwiesen werden. Die gleichen corticalen
Regionen waren für grammatische Prozesse der Erst- und Zweitsprache bei späten
bilingualen Zwillingen zuständig. Die Muttersprache der damals 13 Jahre alten
Zwillinge ist Japanisch, und zwei Monate lang wurden sie unterrichtet, englische
Verbkonjugationen zu lernen. Sowohl fMRT-Scans vor als auch nach der Trainings-
phase verdeutlichten linkshemisphärische dorsale Aktivierungen im Gyrus frontalis
inferior, die mit den Verhaltensdaten korrelierten. Trotz der unterschiedlichen
Erstsprachen- und Zweitsprachenkompetenz in Bezug auf die Verbkonjugation
wurde die gleiche corticale Region aktiviert (Sakai et al., 2004). Dies stimmt auch
mit dem Ergebnis überein, dass die grammatischen Regeln einer nicht-natürlichen
Sprache, die nicht mit den Regeln einer natürlichen Sprache zu vereinbaren sind,

259
260 12 Spracherwerb

nicht das Broca-Areal, sondern sprachkonsistente Regeln aktivieren (Tettamanti,


2002; Musso et al., 2003). Dies wird durch eine neuere fMRT-Studie bestätigt, die
eine neuronale Konvergenz bei sehr kompetenten Bilingualen in Bezug auf das
Satzverstehen und die Verb- und Nomenproduktion belegen konnte (Consonni
et al., 2013). Zusammenfassend ergibt sich momentan folgendes Bild: Wenn die
Kompetenz der Zweitsprache der der Erstsprache entspricht, treten gemeinsame
Aktivierungen im linksseitigen frontotemporalen Schaltkreis auf, wenn jedoch
die Kompetenz der Zweitsprachen deutlich niedriger ist als die der Erstsprache,
werden zusätzliche Areale im präfrontalen Cortex aktiviert.

Literatur
Literatur
Amunts, K., Schleicher, A., & Zilles, K. (2004). Outstanding language competence and
cytoarchitecture in Broca’s speech region. Brain and Language, 89(2), 346–353.
Basser, P. J., Pajevic, S., Pierpaoli, C., Duda, J., & Aldroubi, A. (2000). In vivo fiber tractography
using DT-MRI data. Magnetic Resonance in Medicine, 44(4), 625–632.
Bavelier, D., Corina, D., Jezzard, P., Clark, V., Karni, A., Lalwani, A., & et al.(1998). Hemi-
spheric specialization for English and ASL: Left invariance-right variability. Neuroreport,
9(7), 1537–1542.
Chee, M. W. L., Tan, E. W. L., & Thiel, T. (1999a). Mandarin and English single word pro-
cessing studied with functional magnetic resonance imaging. Journal of Neuroscience,
19(8), 3050–3056.
Chee, M. W., Caplan, D., Soon, C. S., Sriram, N., Tan, E. W., Thiel, T., & Weekes, B. (1999b).
Processing of visually presented sentences in Mandarin and English studied with fMRI.
Neuron, 23(1), 127–137.
Consonni, M., Cafiero, R., Marin, D., Tettamanti, M., Iadanza, A., Fabbro, F., & Perani,
D. (2013). Neural convergence for language comprehension and grammatical class
production in highly proficient bilinguals is independent of age of acquisition. Cortex,
49(5), 1252–1258.
DeCasper, A. J., & Fifer, W. P. (1980). Of human bonding: Newborns prefer their mothers’
voices. Science, 208(4448), 1174–1176.
DeCasper, A. J., & Prescott, P. A. (1984). Human newborns’ perception of male voices: Prefe-
rence, discrimination, and reinforcing value. Developmental Psychobiology, 17(5), 481–491.
Dehaene, S., Dupoux, E., Mehler, J., Cohen, L., Paulesu, E., & et al. (1997). Anatomical
variability in the cortical representation of first and second language. Neuroreport,
8(17), 3809–3815.
Fabbro, F. (2001). The bilingual brain: Bilingual aphasia. Brain and Language, 79(2), 201–210.
Greenough, W. T., Black, J. E., & Wallace, C. S. (1987). Experience and brain development.
Child Development, 58(3), 539–559.
Hahne, A., & Friederici, A. D. (2001). Processing a second language: Late learners’ com-
prehension mechanisms as revealed by event-related brain potentials. Bilingualism:
Language and Cognition, 4(2), 123–141.
Literatur 261

Hahne, A., Mueller, J. L., & Clahsen, H. (2006). Morphological processing in a second language:
Behavioral and event-related brain potential evidence for storage and decomposition.
Journal of Cognitive Neuroscience, 18(1), 121–134.
Hasegawa, M., Carpenter, P. A., & Just, M. A. (2002). An fMRI study of bilingual sentence
comprehension and workload. NeuroImage, 15(3), 647–660.
Heiss, W. D., Thiel, A., Kessler, J., & Herholz, K. (2003). Disturbance and recovery of language
function: Correlates in PET activation studies. NeuroImage, 20, 42–49.
Hull, R., & Vaid, J. (2006). Laterality and language experience. Laterality, 11(5), 436–464.
Josse, G., Seghier, M. L., Kherif, F., & Price, C. J. (2008). Explaining function with anatomy:
Language lateralization and corpus callosum size. Journal of Neuroscience, 28(52),
14132–14139.
Kim, K. H. S., Relkin, N. R., Lee, K.-M., & Hirsch, J. (1997). Distinct cortical areas associated
with native and second languages. Nature, 388(6638), 171–174.
Kisilevsky, B. S., Hains, S. M. J., Brown, C. A., Lee, C. T., Cowperthwaite, B., Stutzman, S. S.,
Swansburg, M. L., Lee, K., Xie, X., Huang, H., Ye, H. H., Zhang, K., & Wang, Z. (2009).
Fetal sensitivity to properties of maternal speech and language. Infant Behavior and
Development, 32(1), 59–71.
Kisilevsky, B. S., Hains, S. M. J., Lee,K., Xie, X., Huang, H., Ye, H. H., Zhang, K., & Wang,
Z. (2003). Effects of experience on fetal voice recognition. Psychological Science, 14(3),
220–224.
Kubota, M., Ferrari, P., & Roberts, T. P. L. (2003). Magnetoencephalography detection of
early syntactic processing in humans: Comparison between L1 speakers and L2 learners
of English. Neuroscience Letters, 353(2), 107–110.
Kubota, M., Ferrari, P., & Roberts, T. P. L. (2004). Human neuronal encoding of English
syntactic violations as revealed by both L1 and L2 speakers. Neuroscience Letters,
368(2), 235–240.
Kubota, M., Inouchi, M., Ferrari, P., & Roberts, T. P. L. (2005). Human magnetoencephalogra-
phic evidence of early syntactic responses to c-selection violations of English infinitives
and gerunds by L1 and L2 speakers. Neuroscience Letters, 384(3), 300–304.
Lenneberg, E. H. (1967). Biological foundations of language. New York: Wiley.
Mariën, P., Abutalebi, J., Engelborghs, S., & De Deyn, P. P. (2005). Pathophysiology of
language switching and mixing in an early bilingual child with subcortical aphasia.
Neurocase, 11(6), 385–398.
Mohades, S. G., Struys, E., Van Schuerbeek, P., Mondt, K., Van De Craen, P., & Luypaert, R.
(2012). DTI reveals structural differences in white matter tracts between bilingual and
monolingual children. Brain Research, 1435, 72–80.
Moon, C., Cooper, R. P., & Fifer, W. P. (1993). Two-day-olds prefer their native language.
Infant Behavior and Development, 16(4), 495–500.
Mueller, J. L. (2005). Electrophysiological correlates of second language processing. Second
Language Research, 21(2), 152–174.
Musso, M., Moro, A., Glauche, V., Rijntjes, M., Reichenbach, J., Büchel, C., & Weiller, C.
(2003). Broca’s area and the language instinct. Nature Neuroscience, 6(7), 774–781.
Paradis, M. (1998). Language and communication in multilinguals. In B. Stemmer & H. A.
Whitaker (eds.), Handbook of Neurolinguistics. San Diego: Academic Press.
Paradis, M., Libben, G., & Hummel, K. (1987). The bilingual aphasia test. Hillsdale: Larence
Erlbaum.

261
262 12 Spracherwerb

Perani, D., Dehaene, S., Grassi, F., Cohen, L., Cappa, S. F., Dupoux, E., Fazio, F., & Mehler,
J. (1996). Brain processing of native and foreign languages. Neuroreport, 7(15–17),
2439–2444.
Perani, D., Saccuman, M. C., Scifo, P., Anwander, A., Spada, D., Baldoli, C., Poloniato, A.,
Lohmann, G., & Friederici, A. D. (2011). Neural language networks at birth. Proceedings
of the National Academy of Science, 108(45), 18566.
Pinker, S. (1994). The language instinct. New York: Harper Perennial.
Price, C. I., Green, D. W., & von Studnitz, R. (1999). A functional imaging study of translation
and language switching. Brain, 122, 2221–2235.
Rossi, S., Gugler, M. F., Friederici, A. D., & Hahne, A. (2006). The impact of proficiency on
syntactic second-language processing of German and Italian: Evidence from event-related
potentials. Journal of Cognitive Neuroscience, 18(12), 2030–2048.
Rymer, A. (1994). Genie: A scientific tragedy. New York: Harper Perennial.
Sakai, K. L., Miura, K., Narafu, N., & Muraishi, Y. (2004). Correlated functional changes
of the prefrontal cortex in twins induced by classroom education of second language.
Cereb Cortex, 14, 1233–1239.
Sanders, L. D., & Neville, H. J. (2003). An ERP study of continuous speech processing. Co-
gnitive Brain Research, 15(3), 214–227.
Saur, D., Baumgaertner, A., Moehring, A., Büchel, C., Bonnesen, M., Rose, M., Musso, M.,
& Meisel, J. M. (2009). Word order processing in the bilingual brain. Neuropsychologia,
47(1), 158–168.
Schmidt, G. L., & Roberts, T. P. L. (2009). Second language research using magnetoencepha-
lography: A review. Second Language Research, 25(1), 135–166.
Suh, S., Yoon, H. W., Lee, S., Chung, J.-Y., Cho, Z.-H., & Park, H. (2007). Effects of syntactic
complexity in L1 and L2; An fMRI study of Korean–English bilinguals. Brain Research,
1136, 178–189.
Tettamanti, M., Alkadhi, H., Moro, A., Perani, D., Kollias, S., & Weniger, D. (2002). Neural
correlates for the acquisition of natural language syntax. NeuroImage, 17, 700–709.
Weber-Fox, C. M., & Neville, H. J. (1996). Maturational Constraints on Functional Specia-
lizations for Language Processing: ERP and Behavioral Evidence in Bilingual Speakers.
Journal of Cognitive Neuroscience, 8(3), 231–256.
Werker, J. F., & Tees, R. C. (1984). Cross-language speech perception: Evidence for perceptual
reorganization during the first year of life. Infant Behavior and Development, 7(1), 49–63.
Ausblick
Ausblick

Die „Natur der Sprache“ ist bereits eine Disziplin der Neurowissenschaften und
der Neurobiologie, auch wenn dies noch nicht in den entsprechenden Ausbil-
dungsprogrammen umgesetzt wurde. Es ist sicherlich nicht angemessen, für
einen bestimmten Ansatz zu plädieren, da alle „Anstrengungen“ unser Wissen
auf direkte und indirekte Art bereichern, vor allem auch negative Evidenz. Es ist
jedoch offensichtlich, dass bestimmte Ansätze angemessener sind, die Interaktionen
zwischen neurobiologischen, kognitiven und verhaltensorientierten Parametern
zu untersuchen. Die „Natur der Sprache“ ist wie jede Naturwissenschaft dualis-
tisch ausgelegt, da universelle Konzepte und Einzelbeispiele zwei Seiten derselben
Medaille sind. Aus der Sicht eines platonistischen Standpunkts gefragt: Sollte es
möglich sein, einige chemische Prozesse auf physikalische Prozesse abzubilden,
bedeutet dies dann, dass diese Unifizierung die Idee des Reduktionismus unterstützt?
Sicherlich nicht, Unifizierung beinhaltet, dass Konzepte und Beispiele verwendet
werden. Mit anderen Worten, ohne einen solchen Dualismus wären wir nicht in
der Lage zu unifizieren. Die Fähigkeit, Konzepte zu entwickeln und mit ihnen
zu arbeiten, ist für den Menschen fundamental und naturgegeben. Es handelt
sich um die Fähigkeit der symbolischen Kommunikation an sich, einschließlich
Mathematik, die uns ermöglicht, neue Konzepte zu schaffen. Konzepte beruhen
teilweise auf Beispielen (wie es auch für natürliche Sprachen zutrifft) und sind
erforderlich, um vorhersagen zu können und weitere relevante Beispiele erkennen
zu können. Der platonistische Standpunkt bezieht sich auf alle Wissenschaften,
die versuchen, Konzepte und Beispiele zu unifizieren. Die Konzepte der „Natur
der Sprache“ können nicht auf die Konzepte der Naturwissenschaften reduziert
werden. Der Fortschritt, wenn wir an dieser Stelle die Idee des Fortschritts für
einen Moment akzeptieren, besteht darin, dass neue Technologien neue Beispiele
kreieren, um dazu beizutragen, vorhersagbare Konzepte zu entwickeln, und diese
neuen Konzepte tragen dazu bei, neue Technologien zu entwickeln. Es ist dieses
Zusammenspiel, das den Erkenntnisgewinn ausmacht. Nicht alle Konzepte können
263
© Springer Fachmedien Wiesbaden GmbH 2018
D. Hillert, Die Natur der Sprache,
https://doi.org/10.1007/978-3-658-20113-5
264 Ausblick

allerdings empirisch verifiziert oder falsifiziert werden, aber sie müssen nicht zur
Seite geschoben werden, denn sie können von großer Bedeutung für neue Ansätze
sein. Was sind die innovativen Ansätze der Zukunft, die möglicherweise unseren
Kenntnisstand zur Funktion und Struktur des Sprachsystems erweitern? Hier sind
einige Ansätze, die vielversprechend zu sein scheinen:

t Unifizierung von sprachlichen und nicht-sprachlichen kognitiven Ansätzen


t Integration von kognitiv-emotionalen Faktoren und sprachspezifischen Be-
rechnungen
t Anwendung von molekularer Bildgebung im Bereich der Sprachverarbeitung
t Entwicklung von neuronalen Netzwerksimulationen vorantreiben
t Unifizierung von speziesübergreifenden Forschungen im Bereich der Kom-
munikation

Da bei den neuronalen Schaltkreisen verschiedener kognitiver Bereiche die gleichen


Mechanismen zum Tragen kommen, scheint es wichtig zu sein, die theoretischen
Grundlagen verschiedener kognitiver Bereich wie Sprache und Musik miteinander
zu unifizieren. Es besteht zudem ein großer Bedarf darin, kognitiv-emotionale
Aspekte und linguistische Berechnungen zu integrieren, um der Empirie gerecht
werden zu können. Die Entwicklung verbesserter Verfahren zur Bildgebung, ein-
schließlich der molekularen Bildgebung, ist ein vielversprechender Ansatz, um das
neuronale Substrat der Sprachverarbeitung zur erforschen. Zudem können neuronale
Netzwerksimulationen die menschlichen Hirnfunktionen teilweise abbilden, so
dass auch eine verbesserte Diagnose bei Sprachstörungen zur Verfügung gestellt
werden kann. Schließlich ist es auch wichtig, die theoretischen und empirischen
Grundlagen speziesübergreifend zu unifizieren, und zwar unter Berücksichtigung
der Evolutionsgeschichte und Speziation anderer Organismen. Nur im Kontext
der Evolution sind wir in der Lage, die menschliche Natur besser zu verstehen.
Obwohl sich die einzelnen fachlichen Disziplinen immer mehr spezialisieren, ist
es notwendig, dass sie sich ergänzen, um neue, kreative Ansätze zu ermöglichen.
Es wäre entsprechend wünschenswert, dass „die Natur der Sprache“ vor allem
durch fächerübergreifende Ansätze weiter erforscht wird. Das Ziel einer derartigen
Grundlagenforschung ist der Erkenntnisgewinn und ein Beitrag zur Verbesserung
der medizinischen Diagnose. Am Ende ist es „Sprache“, die all dies möglich macht.