Sie sind auf Seite 1von 301

Uni-Taschenbücher 1441

UTB
FÜR WISSEN
SCHAFT
Eine Arbeitsgemeinschaft der Verlage

Wilhelm Fink Verlag München


Gustav Fischer Verlag Jena und Stuttgart
Francke Verlag Tübingen und Basel
Paul Haupt Verlag Bern • Stuttgart • Wien
Hüthig Verlagsgemeinschaft
Decker & Müller GmbH Heidelberg
Leske Verlag + Budlich GmbH Opladen
J. C. B. Mohr (Paul Siebeck) Tübingen
Quelle & Meyer Heidelberg • Wiesbaden
Ernst Reinhardt Verlag München und Basel
F. K. Schattauer Verlag Stuttgart • New York
Ferdinand Schöningh Verlag Paderborn • München • Wien • Zürich
Eugen Ulmer Verlag Stuttgart
Vandenhoeck & Ruprecht in Göttingen und Zürich
Gisbert Fanselow / Sascha W. Felix

Sprachtheorie
Eine Einführung in die Generative Grammatik

Band 1:
Grundlagen und Zielsetzungen

3. Auflage

Francke Verlag Tübingen und Basel


Gisbert Fanselow, Dr. phil., geb. 1959, ist wissenschaftlicher Mitarbeiter am
Lehrstuhl für Allgemeine Sprachwissenschaft der Universität Passau.
Studium der Sprachwissenschaften und Philosophie an den Universitäten
Regensburg und Konstanz, Promotion und Habilitation an der Universität
Passau.

Sascha W. Felix, geb. 1945, ist o. Professor für Allgemeine Sprachwissen-


schaft an der Universität Passau. Studium der Anglistik, Romanistik und
Japanologie an den Universitäten Hamburg und Freiburg, Promotion und
Habilitation an der Universität Kiel.

Die Deutsche Bibliothek - CIP-Einheitsaufnahme

Fanselow, Gisbert:
Sprachtheorie: eine Einführung in die generative Grammatik /
Gisbert Fanselow; Sascha W. Felix. - Tübingen; Basel: Francke
NE: Felix, Sascha, W.:
Bd. 1. Grundlagen und Zielsetzungen. - 3. Aufl. - 1993.
(UTB für Wissenschaft: Uni-Taschenbücher ; 1441)
ISBN 3-8252-1441-9 (UTB)
ISBN 3-7720-1731-2 (Francke)
NE: UTB für Wissenschaft/Uni-Taschenbücher

1 . Auflage 1987
2. Auflage 1990
3. unveränderte Auflage 1993

© 1993 • A. Francke Verlag Tübingen und Basel


Dischingerweg 5 • D-7400 Tübingen
ISBN 3-7720-1731-2
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt.
Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes
ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbeson-
dere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Gedruckt auf chlorfrei gebleichtem und säurefreiem Werkdruckpapier.
Einbandgestaltung: Alfred Krugmann, Stuttgart
Satz: Lichtsatz Walter, Tübingen
Druck: Müller + Bass, Tübingen
Verarbeitung: Braun + Lamparter, Reutlingen
Printed in Germany
ISBN 3-8252-1441-9 (UTB-Bestellnummer)
Inhaltsverzeichnis

Vorwort ................................................................................... 7

Grammatik als System mentaler Repräsentationen

1.1 Gegenstand einer mentalistischen Linguistik ...................... 15


1.2 Kreativität sprachlichen Wissens .......................................... 22
1.3 Zur Begründung mentaler Repräsentationen ...................... 28
1.4 I-Struktur und E-Struktur ..................................................... 40

Autonomie der Syntax

2.1 Zum Begriff der Autonomie ................................................... 65


2.2 Syntax und Semantik ........................................................... 75
2.3 Syntax und Funktionalismus .............................................. 93

Das logische Problem des Spracherwerbs

3.1 Das Lernbarkeitskriterium .................................................. 101


3.2 Das Projektionsproblem ......................................................... 114
3.3 Universalgrammatik ............................................................... 126

Sprache und Kognition

4.1 Kognitivistische Lernkonzeptionen ...................................... 142


4.1.1 Die logische Struktur von Lerntheorien ............................ 146
4.1.2 Sprache und Kommunikation................................................ 149
4.1.3 Evolution und Sprache ........................................................ 153
4.1.4 Abstraktheit sprachlicher Gesetzmäßigkeiten ..................... 156
4.2 Piagets Konstruktivismus ....................................................... 160
Die Modularität der menschlichen Kognition

5.1 Zum Begriff der Modularität .................................................. 171


5.2 Sprachperzeption ................................................................. 174
5.3 Sprachproduktion ................................................................... 189
5.4 Spracherwerb ........................................................................... 199
5.5 Pidgin- und Kreolsprachen .................................................... 211
5.6 Sprachpathologie und Neuropsychologie ............................. 220
5.7 Biologie der Sprache ............................................................... 235
5.8 Perzeption ................................................................................ 258

Bibliographie ..................................................................................... 275

Index …………………………………………………….……………………………………. 297


Vorwort

Wer sich heutzutage entschließt, eine Einführung in die generative


Grammatik vorzulegen, sollte dafür gute Gründe haben. Ein Mangel
an derartigen Einführungsbüchern ist nun wahrlich nicht zu beklagen.
Letztlich sind nahezu alle Entwicklungsphasen der generativen Theo-
rie durch eine Vielzahl von hervorragenden Einführungen begleitet
worden, von Jacobs & Rosenbaum (1968) über Akmajian & Heny
(1975), Culicover (1976a) und Radford (1981) bis zu van Riemsdijk &
Williams (1986), um nur einige zu nennen. Auch im deutschsprachi-
gen Raum liegen zahlreiche exzellente Darstellungen vor, man denke
etwa an Huber & Kummer (1974) für die Standardtheorie oder von
Stechow & Sternefeld (1987), Haider (1987) und Grewendorf (1987)
für die Government and Binding (GB) Theorie. Wozu also noch eine
Einführung?
Zumeist läßt die Unzufriedenheit mit Bestehendem Autoren selbst
zur Feder greifen; und wir bilden hier keine Ausnahme. Die meisten
vorliegenden Einführungen beschränken sich entweder auf die Darstel-
lung des formalen Beschreibungsapparates der generativen Grammatik
oder auf die Darlegung des konzeptuellen und philosophischen Hinter-
grunds der Theorie, wie etwa Lightfoot (1982) oder Newmeyer (1983).
Wir halten dies für ein gravierendes Manko. Der Beschreibungsapparat
der generativen Grammatik ergibt in seiner spezifischen Form eigent-
lich nur dann einen Sinn, wenn man beachtet, worum es der generati-
ven Theorie eigentlich geht; und die philosophisch-konzeptuellen The-
sen Chomskys sind nur dann überhaupt verständlich, wenn man sich
die wichtigsten Einsichten der eher technisch orientierten syntakti-
schen Analysen vor Augen hält. Der eine Aspekt der Theorie ist ohne
den anderen kaum plausibel und eine Trennung dieser Aspekte kann
eigentlich nur zu Mißverständnissen und Fehleinschätzungen führen.
Die generative Theorie ist, wie Chomsky seit nunmehr ca. 30 Jahren
unermüdlich betont, an zwei sehr spezifischen Fragen interessiert, die
sich etwas vereinfacht und salopp wie folgt formulieren lassen: wie ist
unser sprachliches Wissen im Gehirn repräsentiert und wie kommt es
da hinein? Etwas technischer ausgedrückt: die generative Grammatik
ist eine Theorie über (spezifische) mentale Repräsentationen und deren
Erwerb. Die Fragestellungen der generativen Grammatik, die spezifi-
sche Form der Argumentation und die Art und Weise, empirische The-
sen aufzustellen und zu überprüfen, ist nur vor dem Hintergrund die-
ser Fragestellung verständlich. Ähnliches gilt für die rasante und von
vielen nur mit Kopfschütteln zur Kenntnis genommene Entwicklung
der Theorie in den vergangenen 20 Jahren. Die Gründe für die Erset-
zung des Aspects-Modells (Chomsky 1965) durch die sog. Extended
Standard Theory in den 70er Jahren und in jüngerer Zeit durch die Rek-
tions- und Bindungstheorie (Theory of Government and Binding) sind
nicht allein in Kriterien der deskriptiven Adäquatheit zu suchen, son-
dern ergeben sich vor allem aus den grundlegenden konzeptuellen Zie-
len der generativen Grammatik. In vielen Bereichen mag die Standard-
theorie der 60er Jahre unter deskriptivem Aspekt erfolgreicher als
spätere Versionen der Theorie gewesen sein; doch wurde schon recht
früh deutlich, daß sie als Theorie über die mentale Repräsentation und
den Erwerb sprachlichen Wissens scheitern mußte. Das grundlegende
Ziel der generativen Grammatik ist somit seit den frühesten Arbeiten
Chomskys bis heute unverändert. Gewandelt haben sich die Mittel, mit
denen man dieses Ziel zu erreichen versucht, und die konkreten Ein-
sichten, wie eine erklärungsstarke Theorie über sprachliches Wissen
auszusehen hat.
Demgegenüber wird namentlich in Deutschland die generative
Grammatik von vielen Linguisten oftmals allein als eine Trickkiste mit
raffinierten Beschreibungsverfahren angesehen, mit deren Hilfe man
auf intellektuell ansprechendem Niveau allerlei syntaktische Analyse-
spielereien betreiben kann. Die Faszination, die für viele in den 60er
Jahren von dem Instrument der Transformationsregel und heute von
der Bindungstheorie oder dem Theta-Kriterium ausgeht, scheint sich
vor allem aus der deskriptiven Mächtigkeit dieses Instrumentariums zu
ergeben. Dementsprechend wurde und wird die generative Grammatik
vielfach danach beurteilt, ob ihr Inventar an Konstrukten, Prinzipien,
Regelmechanismen, etc. geeignet ist, eine möglichst umfangreiche
Sammlung von sprachlichen Beobachtungen und Phänomenen adäquat
und in sich konsistent zu beschreiben. Wo in diesem Bereich Probleme
auftreten, wird das Beschreibungsinstrumentarium beliebig um einige
selbst entworfene Varianten und Deskriptionsmechanismen erweitert,
ohne dabei stets die empirischen und theoretischen Konsequenzen für
die Gesamttheorie zu berücksichtigen. Für viele (z.B. Boas 1984 oder
Block 1986) ist es völlig unverständlich, daß Chomsky und seine Mit-
streiter grundsätzlich bereit sind, mächtige und erfolgreiche Beschrei-
bungsinstrumente zugunsten von erklärungsstarken Prinzipien aufzu-
geben, die nur einen relativ eingeschränkten Phänomenbereich abzu-
decken vermögen.
Wir halten diese Einstellung - im Kontext der historischen Ent-
wicklung der Linguistik - zwar für verständlich, jedoch resultiert sie
aus einer völligen Verkennung dessen, was die generative Grammatik-
theorie eigentlich zu erklären versucht. Wir glauben auch, daß diese
letztlich aus einer eher strukturalistischen Tradition erwachsene Ein-
schätzung für die Fortentwicklung der generativen Theorie und für
ihren Status innerhalb der deutschen Forschungslandschaft verheeren-
de Folgen hat. Etwas überspitzt könnte man sagen, daß die generative
Grammatik in Deutschland eigentlich immer nur bezüglich ihres ober-
flächlichen Beschreibungsinstrumentariums rezipiert worden ist, wäh-
rend die grundlegenden Zielsetzungen und Perspektiven weitgehend
ignoriert wurden oder zumindest nicht ernsthaft diskutiert worden
sind. Nach einer kurzen Blütezeit nahmen zu Beginn der 70er Jahre
zahlreiche deutsche Linguisten Abschied von einer ernsthaften
Beschäftigung mit der generativen Grammatik. Man war einerseits
über die deskriptiven Schwierigkeiten bei der Analyse des Deutschen
enttäuscht und warf Chomsky insbesondere vor, daß er zu so wichti-
gen Bereichen wie Soziolinguistik und Pragmatik nichts Substantielles
zu sagen hatte. Hierbei wurde übersehen, daß die generative Gramma-
tik niemals mit dem Anspruch angetreten ist, alle sprachlichen Proble-
me dieser Welt zu lösen, sondern allein an der mentalen Repräsentation
grammatischen Wissens und dessen Erwerb interessiert ist. In dieser
Verkennung der konzeptuellen Grundlagen der generativen Gramma-
tik sehen wir einen primären Grund dafür, daß deutsche Forschung -
etwa im Gegensatz zu den Holländern, Italienern, Engländern oder
Skandinaviern - an der internationalen generativistischen Diskussion
kaum beteiligt ist. Es ist kaum möglich, substantielle Beiträge zu einer
Theorie zu liefern, ohne sich darüber bewußt zu sein, worum es der
betreffenden Theorie eigentlich geht. Um es deutlich zu sagen: wer
Syntax um der reinen Sprachbeschreibung willen betreibt, wer primär
an einer vollständigen Erfassung von Daten und möglichst hoher des-
kriptiver Adäquatheit interessiert ist, wer syntaktische Forschung unter
dem Aspekt einer reinen Sprachtypologie betreibt, für den ist die gene-
rative Grammatik und insbesondere die Government and Binding-
Theorie das denkbar ungeeignetste Instrument. Natürlich steht es
jederman frei, eine Theorie auf ihren Beschreibungsapparat zu reduzie-
ren und mit diesem beliebige Aufgaben anzugehen, jedoch sollte nicht
erwartet werden, daß die Ergebnisse solcher Unterfangen Niederschlag
in ernsthaften Auseinandersetzungen mit einer Theorie finden. Jedes
Instrumentarium und Werkzeug ist auf einen spezifischen Zweck aus-
gerichtet. Dies zu verkennen, kann nur zu Problemen und Desillusio-
nierung führen.
Unter diesem Aspekt scheint es uns durchaus gerechtfertigt zu sein,
dem Stapel von Einführungsbüchern in die generative Grammatik noch
ein weiteres Exemplar hinzuzufügen, das sich vor allem darum
bemüht, sowohl dem technischen Beschreibungsapparat als auch dem
konzeptuellen Rahmengerüst der generativen Grammatik gebührend
Rechnung zu tragen und beide in Beziehung zueinander zu setzen.
Unsere ursprüngliche Konzeption war es, in einem einzigen Einfüh-
rungsband beide Aspekte der Theorie unter ständigem Bezug aufeinan-
der darzustellen. Nachdem der erste Teil im Laufe der Arbeit einen
Umfang annahm, der für die Darstellung der technisch-deskriptiven
Aspekte der GB-Theorie bestenfalls einige wenige Seiten übriggelassen
hätte, mußten wir uns mit dem Gedanken befreunden, die beiden Teile
in jeweils einem eigenen Band darzustellen. Aus offenkundigen Grün-
den konterkariert eine solche zweibändige Darstellung unsere Absicht,
dem Leser sozusagen in einem Guß sowohl die grundlegenden konzep-
tuellen Zielsetzungen als auch deren eher technische Ausführungen zu
vermitteln.
Wenngleich die beiden Bände einerseits zwei unabhängige und in
sich abgeschlossene Darstellungen präsentieren, so manifestiert sich
unsere ursprüngliche Konzeption doch andererseits darin, daß wir ver-
sucht haben, durch ständige Querverweise einen Bezug zwischen den
philosophischen und technischen Aspekten der GB-Theorie herzustel-
len. Während Band II eine Einführung in den Beschreibungsapparat
der Rektions- und Bindungstheorie ist und dabei die einschlägige Lite-
ratur bis etwa Chomskys (1985) »Barriers« berücksichtigt, vermittelt
Band I die konzeptuellen Grundlagen und Zielsetzungen der generati-
ven Grammatik. Band II kommt daher wohl eher dem nahe, was ein
ausgebildeter Linguist von einer Einführung in die generative Gramma-
tik erwartet, während sich Band I nicht nur an professionelle Lingui-
sten, sondern auch an Psychologen, Biologen, Philosophen sowie inter-
essierte Laien wendet.
Wie bereits oben angedeutet, ist die rationalistische Grundhaltung
der generativen Grammatik eigentlich nur vor dem Hintergrund dessen
zu verstehen, was derzeit über die formalen Eigenschaften natürlicher
Sprachen bekannt ist. Dies bedeutet vor allem, daß auch in Band I nicht
auf die Darstellung konkreter sprachlicher Daten und detaillierter syn-
taktischer Analysen verzichtet wird. Dies bringt eine Fülle von Proble-
men mit sich. Insbesondere wird die Geduld derer, die mit linguisti-
scher Terminologie und Analysemethodik wenig vertraut sind, zuwei-
len arg auf die Probe gestellt. Im allgemeinen haben wir bei der Bespre-
chung konkreter sprachlicher Beispiele die formalen Analyseaspekte
nur soweit dargestellt, wie sie für ein Verständnis des Argumentations-
ganges unbedingt vonnöten sind. Es folgt dabei stets ein Verweis auf
das entsprechende Kapitel in Band II, in dem die relevanten Prinzipien
bzw. Gesetzmäßigkeiten ausführlich begründet und expliziert werden,
so daß der interessierte Leser dort ausführlichere Informationen über
technische Details vorfindet.
Eine Einführung sollte natürlich auch für diejenigen verständlich
sein, die mit der Linguistik, ihren Fragestellungen und ihrer histori-
schen Entwicklung nicht oder nur wenig vertraut sind. Andererseits
war es von Beginn der Arbeit an unser Bestreben, aus den bereits
genannten Gründen den konzeptuellen Hintergrund der generativen
Grammatik denjenigen professionellen Linguisten nahezubringen, die
diese Theorie bislang ausschließlich oder primär unter dem Aspekt des
Beschreibungsinstrumentes betrachtet haben. Wir fürchten, daß der
Versuch, den jeweiligen Bedürfnissen dieser beiden Zielgruppen glei-
chermaßen Rechnung zu tragen, in verschiedenen Fällen zu Inkonsi-
stenzen geführt hat; hier bitten wir den Leser um Nachsicht. So setzt
etwa unsere Darstellung der generativen Semantik in Kapitel 2.2 gewis-
se Grundkenntnisse in der historischen Entwicklung der generativen
Grammatik voraus und mag für den Biologen oder Psychologen ent-
behrlich sein. Andererseits richten sich verschiedene Abschnitte in
Kapitel 5 (z.B. 5.8 über visuelle Perzeption) vor allem an Nicht-Lingui-
sten und versuchen, eine Verbindung zwischen Linguistik und anderen
kognitiven Wissenschaften aufzuzeigen.
Wenngleich es in der akademischen Welt üblich und dem eigenen
Ansehen auch eher förderlich ist, aus einer quasi überparteilichen Per-
spektive bestehende Theorien kritisch zu evaluieren, d.h. vor allem
durch zur Vorsicht mahnende und auf tatsächliche oder vermeintliche
Schwächen hinweisende Anmerkungen das eigene Denkvermögen
unter Beweis zu stellen, haben wir uns zunächst darum bemüht, die
generative Grammatiktheorie aus ihrem eigenen Selbstverständnis her-
aus möglichst adäquat darzustellen. Dies geschieht in Kapiteln 1-3.
Soweit uns bekannt, sind die ernstzunehmenden Argumente gegen die
Grundkonzeption der generativen Grammatik in der einschlägigen
Literatur ausführlich diskutiert worden, und wir haben den Eindruck,
daß in diesem Bereich seit spätestens Mitte der 70er Jahre nichts grund-
sätzlich Neues vorgebracht worden ist. Daher gibt es von Chomsky,
Fodor, Hornstein, Lightfoot und anderen ausführliche Stellungnah-
men zu diesen Kritikpunkten, die jedermann in publizierter Form
zugänglich sind. Aus diesem Grunde haben wir es auch nicht für sinn-
voll gehalten, uralte Argumente in der Verpackung scheinbar neuer,
eigenständiger Geistesblitze in die Diskussion zu führen. Vielmehr
haben wir den bekannten Kritikpunkten an der generativen Gramma-
tik ein eigenes Kapitel gewidmet, und zwar Kapitel 4. Dort werden die
wichtigsten Einwände gegen die generative Grammatik dargestellt und
erörtert.
Die Thesen der generativen Grammatik zur Struktur der menschli-
chen Kognition sind sowohl von Chomsky selbst als auch von For-
schern wie Lightfoot, Hornstein, White, Newmeyer usw. fast aus-
schließlich mit Evidenz aus dem relativ engen Bereich der Syntaxanaly-
se begründet worden, mit z.T. eher sporadischen Querverweisen zur
visuellen Perzeption (eine Ausnahme hierzu bildet vermutlich J.A.
Fodor). Dennoch gibt es nach unserer Einschätzung gerade im psycho-
linguistischen und patholinguistischen Bereich eine Fülle von Daten,
die für die generativistischen Thesen eine vielleicht noch überzeugen-
dere Evidenz abgeben als reine Syntaxdaten. Diese Evidenz haben wir
in Kapitel 5 dargestellt. Ein Blick in das Inhaltsverzeichnis mag dieses
Kapitel als äußerst prätentiöses Unterfangen erscheinen lassen, da alle
sprachrelevanten Bereiche auf wenigen Seiten angesprochen werden. Es
ist zu erwarten, daß Spezialisten in diesen Gebieten dort mehr vermis-
sen als vorfinden werden. Zu unserer Entlastung ist nur vorzubringen,
daß wir natürlich nicht so umfangreiche Bereiche wie Sprachperzep-
tion oder Kreolsprachen in ihrer Gesamtheit darzustellen versucht
haben. Vielmehr geht es uns ausschließlich darum, über diejenigen For-
schungsergebnisse zu berichten, die für die Thesen der generativen
Grammatik von unmittelbarer Relevanz sind. Die dort enthaltenen
Literaturangaben mögen demjenigen weiterhelfen, der sich in die ent-
sprechenden Gebiete detaillierter einlesen möchte.
Eine Einführung wie die vorliegende läßt sich kaum ohne den steti-
gen Gedankenaustausch mit Kollegen und Freunden schreiben. Unser
Dank gilt insbesondere C. L. Baker, Harald Clahsen, Karin Donhauser,
Rudolf Emons, Hans-Werner Eroms, Günther Grewendorf, Hubert
Haider, Tilman Höhle, Georgette Ioup, Siegfried Kanngießer, Jan
Koster, Helen Leuninger, David Lightfoot, Marga Reis, Arnim v. Ste-
chow, Wolfgang Sternefeld, Theo Vennemann, Lydia White und Hen-
ning Wode. Aus den zahllosen Gesprächen mit ihnen haben wir viel
gelernt und konnten dadurch manches präziser überdenken. Vor allem
gilt unser Dank Peter Staudacher, dessen nimmer abreißende Diskus-
sionsbereitschaft und scharfsinnige Kritik manche Unzulänglichkeit
der vorliegenden Darstellung verhindert haben. Ihm sowie Josef Bayer,
Jenny Kien und Jürgen Meisel danken wir für kritische Kommentare
zu verschiedenen Teilen des Manuskripts. Was an Schwächen übrig-
bleibt, geht natürlich auf unser Konto. Luise Haller und Gabi Neszt
danken wir für ihre unermüdliche Geduld bei der Herstellung immer
neuer Manuskripte, und Andreas Hertl und Michael Schötensack für
die mühevolle Erarbeitung der Bibliographie und des Index.

Gisbert Fanselow Passau, April 1986


Sascha W. Felix
Grammatik als System mentaler Repräsentationen

I.I Gegenstand einer mentalistischen Linguistik

Natürliche Sprachen lassen sich unter einer Vielfalt von Perspektiven


betrachten. Man kann ihre historische Entwicklung über die Jahrhun-
derte verfolgen, ihre Funktion als Kommunikationsmittel untersuchen,
ihre Beziehung zum Denken thematisieren oder ihren Einfluß auf
menschliches Handeln analysieren. Bei all diesen Betrachtungsweisen
kann man sich auf unterschiedliche Strukturaspekte natürlicher Spra-
chen konzentrieren, etwa auf lautliche, grammatische, semantische
oder pragmatische. Wenngleich die Linguistik im Laufe ihrer histori-
schen Entwicklung stets durch wechselnde inhaltliche Schwerpunkte
geprägt wurde (cf. Helbig 1971; Brekle 1985), so war sie doch zu allen
Epochen ihrer Geschichte in ihrer thematischen Ausrichtung äußerst
vielschichtig und hat all diese unterschiedlichen Perspektiven unter
einem gemeinsamen Dach vereinigt. Man kann daher die Linguistik
durchaus als ein Ensemble von z.T. recht heterogenen Fragestellungen
und Erkenntnisinteressen betrachten.
Mit dem Aufkommen der generativen Grammatiktheorie gegen
Ende der 50er Jahre wurde dieser Perspektivenvielfalt eine weitere
Blickrichtung hinzugefügt. Oberflächlich schien es sich zunächst allein
um eine Perspektivenerweiterung im Kanon linguistischen Bemühens
zu handeln; jedoch zeigte sich in den folgenden Jahren sehr bald, daß
diese Erweiterung zugleich eine theoretische Neubesinnung grundsätz-
licher Art mit sich brachte. Für Noam Chomsky, den Begründer der
generativen Grammatik, eröffnet die Beschäftigung mit natürlichen
Sprachen und den ihnen zugrundeliegenden Strukturphänomenen eine
Möglichkeit, zu Einsichten in die Struktur der menschlichen Kognition
zu gelangen. Somit ist die Analyse von Sprache für Chomsky kein
Selbstzweck - wie dies etwa für weite Bereiche der strukturalistisch
geprägten Grammatiktradition gilt -, sondern primär ein Mittel, Ein-
blicke in den Aufbau und die Funktionsweise des »human mind« zu
gewinnen. Durch diese Zielsetzung wird die Linguistik letztlich zu
einer Teildisziplin der Kognitiven Psychologie.
Wenngleich die Grundidee Chomskys, über die Analyse natürlicher
Sprachen vor allem Zugang zur Struktur des menschlichen Kognitions-
systems zu finden, in der damaligen Zeit neu war und in gewissem
Sinne zu einer fachinternen »Revolution« führte (cf. Kuhn 1962; Chafe
1968; Herrmanns 1977), so waren die Überlegungen, die zu dieser Idee
führten, eher traditioneller Natur (cf. Chomsky 1980:24-26). Im ein-
leitenden Kapitel seines wohl bekanntesten Werks Aspects of the Theory
of Syntax schrieb Chomsky jene nunmehr schon klassische Passage, die
in den damaligen Linguistenkreisen zum Teil Irritation und Ablehnung
hervorrief:
»Linguistic theory is concerned primarily with an ideal speaker-listener, in a
completely homogeneous speech-community, who knows its language perfectly
and is unaffected by such grammatically irrelevant conditions as memory limita-
tions, distractions, shifts of attention and interest, and errors (random or charac-
teristic) in applying his knowledge of the language in actual Performance.«
(Chomsky 1965:3)

Viele Linguisten (cf. Watt 1970; Kanngießer 1971; Labov 1971a) sahen
in dieser Aussage die programmatische Erklärung eines neuen For-
schungsansatzes. Dabei empfand man zunächst ein gewisses Unbeha-
gen darüber, daß hier der Gegenstandsbereich der Linguistik scheinbar
abseits der sprachlichen Wirklichkeit unserer realen Welt in sehr merk-
würdiger Weise idealisiert und eingeschränkt wird. Dennoch ist die
zitierte Aussage im Grunde nicht mehr als die explizite Charakterisie-
rung einer Grundposition, die in den Arbeiten der modernen Sprach-
wissenschaft seit jeher implizit vorhanden war. »This seems to me to
have been the position of the founders of modern general linguistics,
and no cogent reason for modifying it has been offered« (Chomsky
1965:3-4). Chomskys Aussage spiegelt somit allein die (an sich triviale)
Erkenntnis wider, daß die Linguistik, wie jede andere Wissenschaft
auch, mit bestimmten Idealisierungen und Abstraktionen arbeiten
muß. Erst dadurch ist es ihr möglich, über die Aufzählung beliebiger
Einzelbeobachtungen hinaus zu generalisierten Aussagen und Gesetz-
mäßigkeiten zu gelangen. Eine derartige Idealisierung ist also kein Spe-
zifikum der generativen Sprachtheorie, sondern gilt und galt für
sprachwissenschaftliches Bemühen jedweder Prägung schlechthin.
Bereits eine Aussage wie im Deutschen kongruieren Subjekt und Verb,
die sich in jeder traditionellen Grammatik findet, geht von einem idea-
lisierten Sprecher aus und wird nicht allein durch die Beobachtung fal-
sifiziert, daß ein bestimmter realer Sprecher in einer spezifischen Situa-
tion gegen die entsprechende Regel verstößt. Selbstverständlich ist stets
zu fragen, ob eine bestimmte Idealisierung sinnvoll und legitim ist;
jedoch scheint Chomsky auch hier weitgehend Standardannahmen der
modernen Linguistik zu übernehmen, die sich bei genauer Betrachtung
theoretisch wie empirisch sehr wohl begründen lassen1. Ebenso waren
die von Chomsky in Aspects benutzten Notationsformalismen zur
Beschreibung natürlicher Sprachen keineswegs revolutionär. Phrasen-
strukturregeln (cf. Band II, Kap. 2) sind letztlich nichts anderes als die
strikte Formalisierung von Beschreibungskonventionen, die seit jeher
zum Standardrepertoire linguistischer Analysen gehörten, wie etwa
Postal (1964) ausführlich dargelegt hat. Und auch die Transformations-
regel - vielfach als Markenzeichen von Chomskys Theorie angesehen
- wurde bereits von Harris (1951, 1957) verwendet und war implizit
bereits in weitaus früheren Analysen vorhanden2.
Die eigentliche programmatische Novität der zitierten Passage liegt
- eher verborgen - in der Formulierung »... applying his knowledge of
the language in actual performance ...« (Hervorhebung GFSF). Bereits
hier deutet sich der für die generative Theorie entscheidende Bruch
zum traditionellen Deskriptivismus an3. Sprache wird nicht mehr als
ein rein abstraktes und unabhängig vom Menschen existierendes
System von Regularitäten über »the totality of utterances that can be
made in a speech Community« (Bloomfield 1926:155) aufgefaßt; viel-
mehr wird Sprache als eine mentale Größe betrachtet, als ein im
»human mind« verankertes Wissenssystem. Dieser Sichtweise liegt die

1 Die Rechtfertigung der Annahme eines idealisierten Sprechers in einer homoge-


nen Sprachgemeinschaft ergibt sich vor allem aus den unsinnigen Konsequen-
zen, die aus einer Ablehnung dieser Annahme folgen würden. »To deny these
assumptions would be bizarre indeed. It would be to claim either that language
can be learned only under conditions of diversity and conflicting evidence,
which is absurd, or that the property P exists - there exists a capacity to learn
language in the pure and uniform case - but the actual learning of language does
not involve this capacity. In the latter case, we would ask why P exists; is it a
>vestigial organ< of some sort«. (Chomsky 1984:26)
2 Cf. Jespersen 1914, 1 :283ff., II:142ff./202/228ff.; Drach 1940; Bech 1955.
3 Dies gilt, streng genommen, nur für die vorherrschende Strömung des amerika-

nischen Deskriptivismus der 50er Jahre. Die Frage der psychologischen Rele-
vanz und Implikation linguistischer Beschreibung ist bereits lange vor Chomsky
diskutiert worden. »...we have no recourse but to accept language as a fully for-
med functional system within man's psychic or >spiritual< Constitution« (Sapir
1921:11). Auch Bloomfield ging es letztlich bei der linguistischen Analyse um
psychologische Aussagen, wenngleich er im Gegensatz zu Chomskys Mentalis-
mus von einer materialistischen Psychologie ausging (cf. Bloomfield 1933:32ff.).
an sich triviale Beobachtung zugrunde, daß jeder (erwachsene) Mensch
zumindest eine Sprache, nämlich seine Muttersprache, beherrscht und
daß die Verwendung von Sprache offensichtlich deren Kenntnis voraus-
setzt. Da Kenntnis und Wissen offensichtlich Phänomene des kogniti-
ven Bereichs sind, so ist klar, daß die Spezifizierung des sprachlichen
Wissens, über das ein Sprecher verfügt, zu Aussagen über mentale
Strukturphänomene führt. Ziel einer derart konzipierten Linguistik ist
die Beantwortung der Frage: »what exactly does a person know when
we say he knows his language?« (Jackendoff 1977:2). Das sprachliche
Wissen, über das ein Sprecher verfügt und das die Voraussetzung für
den Gebrauch von Sprache bildet, wird üblicherweise als Kompetenz
bezeichnet. Dieser Kompetenz steht die Performanz gegenüber, i.e. die
Anwendung des sprachlichen Wissens in konkreten Sprechsituationen.
Gegenstandsbereich der generativen Theorie ist zunächst die Kom-
petenz, also das sprachliche Wissen, das der Verwendung von Sprache
zugrunde liegen muß. Ziel der linguistischen Analyse ist es nicht, eine
beliebige Sammlung sprachlicher Daten allein konsistent und in sich
widerspruchsfrei zu beschreiben; vielmehr ist es die Aufgabe der Lin-
guistik, zu Aussagen über einen spezifischen Bereich mentaler Phäno-
mene zu gelangen, d.h. über jenes System kognitiver Strukturen, das
das sprachliche Wissen ausmacht. Da sprachliches Wissen sicherlich
Merkmale aufweist, die sich aus dem spezifischen Strukturaufbau des
menschlichen Kognitionssystems ergeben, ist zu erwarten, daß eine
hinreichend präzise Spezifizierung der sprachlichen Kompetenz letzt-
lich Einsichten eben in die Organisation der menschlichen Kognition,
i.e. des »human mind« zu liefern vermag. Somit geht es der generativen
Theorie nicht allein um Sprache und sprachliches Wissen, sondern um
»the structure of the human mind«, um »human cognitive capacities
and the mental structures that serve as vehicles for the exercise of these
capacities« (Chomsky 1980:3). Es geht um die Frage, wie die menschli-
che Kognition aufgebaut und strukturiert ist, wie unser Wissen mental
repräsentiert, i.e. kognitiv verankert ist und wie verschiedene Wissens-
systeme miteinander interagieren. Eine so konzipierte linguistische
Theorie eröffnet »the possibility of learning something, from the study
of language, that will bring to light inherent properties of the human
mind« (Chomsky 1972:103).
Unter dieser Perspektive stellt sich u.a. die Frage, ob es überhaupt
ein eigenständiges Wissenssystem »Sprache« gibt, oder ob sich das, was
wir als sprachliches Wissen bezeichnen, nicht vielmehr aus dem Zusam-
menspiel verschiedener Wissenssysteme ableitet. Chomsky neigt aus
Gründen, auf die wir ausführlich in Kap. 2 eingehen werden, zu der
Ansicht, daß zwar für unser grammatisches Wissen ein autonomes
System mentaler Repräsentationen besteht, daß jedoch der Begriff
>Sprache< eher ein Epiphänomen ist, das auf dem Wechselspiel verschie-
dener kognitiver Systeme beruht:
»I do not know why I never realized that clearly before, but it seems obvious
when you think about it, that the notion language is a much more abstract
notion than the notion of grammar. The reason is that grammars have to have a
real existence, that is, there is something in your brain that corresponds to the
grammar. That has got to be true.« (Chomsky 1982a:107)

Da es also um eine Theorie über ein bestimmtes autonomes System


mentaler Strukturen geht und da vermutlich Grammatik, nicht aber
Sprache in ihrer Gesamtheit, ein solches autonomes System darstellt
(cf. Kap. 2), ist das Ziel der generativen Linguistik im strengen Sinne
die Grammatiktheorie und nicht die Sprachtheorie.
Aus der Zielsetzung, eine Theorie der sprachlichen Kompetenz,
d.h. des grammatischen Wissens eines erwachsenen Sprechers zu ent-
wickeln, ergeben sich eine Reihe wichtiger Konsequenzen. Zunächst ist
festzuhalten, daß das System kognitiver Strukturen, das unser gramma-
tisches Wissen ausmacht, ein real existierendes Objekt ist, d.h. »the Sta-
tements of grammar are ... Statements about structures of the brain for-
mulated at a certain level of abstraction from mechanisms. These struc-
tures are specific things in the world, with their specific properties«
(Chomsky 1984:34). Wissenssysteme und somit auch grammatisches
Wissen sind ein konstitutiver Aspekt der menschlichen Natur, ebenso
wie andere psychische oder physische Eigenschaften des Menschen
auch. Unter diesem Aspekt ist jede linguistische Analyse eine empiri-
sche Aussage über einen realen Aspekt der menschlichen Natur und
kann daher nur entweder wahr oder falsch sein. Ebenso wie etwa eine
physikalische Theorie über das Innere der Sonne die tatsächlichen
Gegebenheiten entweder korrekt oder unzutreffend darstellt, ist auch
eine linguistische Theorie über das Wissenssystem »Grammatik« ent-
weder richtig oder falsch. Die Grammatik existiert als mentales Faktum
unabhängig von ihrer Beschreibung. Bezogen auf eine kognitive Reali-
tät kann von zwei alternativen linguistischen Beschreibungen also nur
eine richtig sein. Während der strukturalistische Deskriptivist davon
ausgeht, daß sprachliche Phänomene auf unterschiedliche Weise glei-
chermaßen angemessen beschrieben werden können, solange diese
Beschreibungen bestimmte Adäquatheitskriterien erfüllen, ist eine sol-
che Sichtweise mit der Zielsetzung der generativen Theorie unverein-
bar. Für diese ist jede ernsthafte grammatische Beschreibung eine empi-
rische Aussage über die Struktur der menschlichen Kognition im allge-
meinen und über das Wissenssystem »Grammatik« im besonderen.
Somit impliziert jede solche Aussage einen Wahrheitsanspruch; d.h. sie
bezieht sich auf eine reale Gegebenheit der menschlichen Natur. Natür-
lich mag sich durch weitere Forschung herausstellen, daß eine bestimm-
te Aussage aus empirischen oder konzeptuellen Gründen falsch ist;
jedoch gilt zunächst jede empirisch wohl-begründete Aussage bis zum
Beweis des Gegenteils als wahr. In dieser Sichtweise zeigt sich eine
deutliche Parallele zu den Naturwissenschaften. Wenn etwa ein Chemi-
ker ein Strukturmodell einer bestimmten Aminosäure aufstellt, so geht
er natürlich davon aus, daß dieses Modell den tatsächlichen Aufbau der
Säure wiedergibt. Auch hier mag sein, daß spätere Generationen von
Forschern sein Modell als falsch erkennen; jedoch enthält zunächst
jede ernsthafte Aussage über chemische Strukturen einen Wahrheitsan-
spruch.
Diese Sichtweise, insbesondere die Dichotomie zwischen Kompe-
tenz und Performanz, ist von der linguistischen Fachwelt keineswegs
ohne Widerspruch hingenommen worden, sondern vielmehr mit einer
Fülle von Argumenten als inadäquat bzw. überflüssig kritisiert worden
(cf. Bever 1970; Derwing 1973; Clark & Haviland 1974). Soweit die Kri-
tik an der Kompetenz-Performanz Dichotomie nicht eine Kritik am
Mentalismus schlechthin bzw. am mentalistischen Wissensbegriff war
(wir gehen darauf ausführlich in Kap. 1.3 ein), wurde vor allem darauf
hingewiesen, daß diese Dichotomie recht willkürlich und durch keiner-
lei empirische Evidenz abgesichert sei. Gerade empirische Überlegun-
gen - so wurde behauptet - lassen jedoch die genannte Unterschei-
dung als äußerst problematisch erscheinen. Insbesondere lassen sich
auch in jenen Bereichen, die Chomsky der Performanz zurechnet, eine
Vielzahl von interessanten Gesetzmäßigkeiten nachweisen. So konnte
etwa Labov (1972) bei seinen Untersuchungen zum Black English zei-
gen, daß bei der individuellen Sprachverwendung, d.h. der Performanz,
Gesetzmäßigkeiten auftreten, die unter Chomskys Perspektive eigent-
lich als sprachliches Wissen, also als Kompetenz ausgewiesen werden
müßten. Mit anderen Worten, Sprachverwendung unterliegt Regulari-
täten, die entscheidend von Faktoren beeinflußt werden, die in Choms-
kys Kompetenzdefinition gerade als irrelevant apostrophiert werden.
So weiß ein Sprecher des Deutschen z.B., daß raus! und würden Sie bitte
mein Zimmer verlassen in unterschiedlichen Situationen, mit unter-
schiedlichen Personen und in unterschiedlichen Gemütsverfassungen
geäußert werden. Dieses Wissen ist jedoch ein Wissen über Anwen-
dungsaspekte von Sprache. Insofern läßt sich Kompetenz sowohl auf
das Anwendungsobjekt (i.e. das, was angewendet wird) als auch auf die
Anwendungsform (i.e. den Mechanismus, der die Anwendung aus-
macht) beziehen. Damit verliert aber die Kontrastierung von Kompe-
tenz gegenüber Performanz viel von ihrer zunächst einsichtigen Klar-
heit und Präzision. Mit anderen Worten, eine strikte und konzeptuell
saubere Kompetenz-Performanz-Unterscheidung kollidiert mit der
empirisch beobachtbaren sprachlichen Wirklichkeit.
Valian (1979) hat in diesem Kontext darauf hingewiesen, daß die
Unterscheidung zwischen Kompetenz und Performanz eine logische
und keineswegs eine empirische Unterscheidung ist4. Wer den Begriff
>Wissen< akzeptiert, muß notwendigerweise auch annehmen, daß es
prinzipiell so etwas wie Wissensanwendung gibt bzw. geben kann.
Umgekehrt, wer etwas wie Wissensanwendung akzeptiert, muß logi-
scherweise auch annehmen, daß das, was angewendet wird, i.e. das Wis-
sen selbst, ebenso existiert. Der empirische Aspekt des Kompetenzbe-
griffes bezieht sich hingegen auf die Frage, wie das entsprechende Wis-
sen im einzelnen zu charakterisieren ist:
»What is an empirical matter is the character of the knowledge (if any) and the
character of the device that accesses and uses the knowledge ... With respect to
syntax and logic it is a question of empirical fact whether people's syntactic
knowledge takes the form specified in the syntactic component of a transforma-
tional grammar, and a matter of empirical fact whether a predicate calculus cha-
racterizes a portion of people's logical knowledge.« (Valian 1979:2)

Unter empirischen Gesichtspunkten steht somit die Grenzlinie zwi-


schen Kompetenz und Performanz zur Diskussion, nicht jedoch die
Dichotomie selbst. Die Kritik an der Kompetenz-Performanz-Dicho-
tomie beruht vielfach auf der fälschlichen Vorstellung, daß alle sprach-
lichen Phänomene, die Gesetzmäßigkeiten aufweisen, ipso facto der
Kompetenz zuzurechnen sind, während Performanz sozusagen den
irregulären Aspekt von Sprache erfaßt. Diese Zuordnung ist sicher

4 Chomsky (1980:59-60) weist darauf hin, daß eine solche zunächst rein logisch-
konzeptuelle Distinktion natürlich empirische Konsequenzen hat. So folgt aus
ihr etwa, daß es im Prinzip möglich sein sollte, daß jemand in einem gegebenen
Bereich (z.B. Sprache) über volle Kompetenz verfügt, diese jedoch nicht anwen-
den kann, da der entsprechende Anwendungsmechanismus - etwa aus patholo-
gischen Gründen - defekt ist. In der Tat scheint es Sprachstörungen zu geben
(cf. Blank et al. 1979), bei denen just dies der Fall ist. Wir werden auf diese Phä-
nomene noch näher in Kap. 5 eingehen.
inkorrekt. Natürlich unterliegt auch der Gebrauch von Sprache
erkennbaren Gesetzmäßigkeiten; jedoch stellt sich die Frage, ob diese
Gesetzmäßigkeiten der gleichen Natur sind wie diejenigen, die sich im
Kompetenzbereich erkennen lassen. Ob ein gegebenes sprachliches
Phänomen zur Kompetenz oder zur Performanz gehört, läßt sich hier-
bei weder a priori noch rein mechanistisch feststellen, sondern kann
letztlich nur im Kontext der Gesamttheorie entschieden werden.
Der empirische Gehalt der Kompetenz-Performanz-Dichotomie
läßt sich am Beispiel der englischen Sätze (1a) und (2a) illustrieren:

(1a) the boat floated down the river sank


(2a) the students expect that each other will win the prize

Legt man derartige Sätze einem Sprecher des Englischen vor, so wird
er vermutlich beide spontan als ungrammatisch bezeichnen. Dies hat
offenkundig nichts mit der Bedeutung der Sätze zu tun, da der Aussa-
gegehalt in beiden Fällen völlig klar ist. In (1a) wird über ein Boot aus-
gesagt, daß es den Fluß hinuntertrieb und dann sank; in (2a) erwartet
jeder Student, daß der andere den Preis gewinnen wird. Dennoch
besteht ein entscheidender Unterschied zwischen den beiden Sätzen;
die Ungrammatikalität von (1a) besteht nämlich nur scheinbar. Der
Satz wird sofort als korrekt erkannt, wenn seine Struktur durch ver-
gleichbare Konstruktionen wie in (1b) und (1c) deutlich gemacht wird:

(1b) the boat (which was) floated down the river sank
(1c) the boat taken down the river sank

Das Problem liegt offensichtlich darin, daß floated zwar grundsätzlich


sowohl Vergangenheitsform als auch Partizip Passiv sein kann, in (1a)
jedoch nur als Partizip Passiv einen grammatischen Satz ergibt. Demge-
genüber scheint der menschliche Spracherkennungsmechanismus die
Tendenz zu haben, in einer Struktur wie (1a) floated spontan stets als
Vergangenheitsform zu interpretieren, so daß der Satz ungrammatisch
erscheint. Wir sehen hier einen typischen Unterschied zwischen Kom-
petenz und Performanz. Jeder Sprecher des Englischen weiß - im
Sinne seiner Kompetenz -, daß Konstruktionen wie in (1) völlig gram-
matisch sind, bei der konkreten Sprachverarbeitung - der Performanz
- treten jedoch systematische Schwierigkeiten auf, die korrekte Struk-
tur von (1a) spontan zu erkennen. Sobald ein Sprecher - etwa durch
kontextuelle Hinweise oder durch analoge Bildungen wie (1b) und (1c)
- die tatsächlichen Strukturverhältnisse erkannt hat, erscheint ein Satz
wie (1a) völlig normal.
Demgegenüber hat die Ungrammatikalität von (2a) nichts mit Verar-
beitungsschwierigkeiten zu tun. Im Englischen kann each other grund-
sätzlich nicht als Subjekt eines finiten Satzes erscheinen. Jeder Sprecher
des Englischen erkennt, daß derartige Sätze ungrammatisch sind. Der
Sachverhalt, der durch (2a) verbalisiert werden soll, läßt sich im Engli-
schen nur durch Strukturen wie (2b) und (2c) ausdrücken:
(2b) each student expects that the other will win the prize
(2c) the students expect each other to win the prize

1.2 Kreativität sprachlichen Wissens

Die generativistische Zielsetzung, das grammatische Wissen eines idea-


lisierten Sprecher-Hörers zu spezifizieren, führt natürlich sofort zu der
Frage, über welchen methodischen Weg man Zugang zu diesem Wissen
erlangen kann, da mentale Phänomene offenkundig nicht direkt beob-
achtbar sind. Mit anderen Worten, was sind relevante empirische Daten
für das anvisierte Ziel? Grundsätzlich kann man sich hier eine Vielzahl
von unterschiedlichen Datentypen und methodischen Zugriffen vor-
stellen. In der Tat läßt sich hier keine apriorische Vorentscheidung tref-
fen; wichtig ist allein, inwieweit durch einen bestimmten Datentyp
bzw. einen bestimmten methodischen Zugriff interessante und nicht-
triviale Einsichten über den Gegenstand erlangt werden können.
Der traditionelle methodische Zugriff in der generativen Gramma-
tik erfolgt über sog. Grammatikalitätsurteile, und zweifellos sind auf
diesem Weg in der Vergangenheit die wichtigsten und umfassendsten
Erkenntnisse erlangt worden (cf. hierzu Wexler & Culicover 1980; van
Riemsdijk & Williams 1986). Doch ist gerade in jüngerer Zeit in ver-
stärktem Maße auch Evidenz aus anderen Bereichen herangetragen
worden, z.B. Spracherwerb (Baker 1979; Roeper et al. 1981), Spracher-
kennung (Marcus 1980; Berwick & Weinberg 1984), Sprachproduktion
(Cooper & Paccia-Cooper 1980) oder Lernbarkeitstheorie (Wexler &
Culicover 1980). Wir werden auf diese Bereiche noch ausführlicher in
Kap. 5 eingehen.
Dem Zugriff über Grammatikalitätsurteile liegt zunächst die schein-
bar triviale Beobachtung zugrunde, daß ein zentraler Aspekt der gram-
matischen Kompetenz eines Sprechers sich in der Fähigkeit manifestiert,
einerseits beliebig viele Sätze zu produzieren bzw. zu verstehen und
andererseits Sätze u.a. danach zu beurteilen, ob sie in der eigenen Spra-
che möglich sind oder nicht. So kann etwa jeder Sprecher des Deut-
schen erkennen, ob ein bestimmter Satz strukturell möglich, i.e. gram-
matisch ist oder nicht (>*< kennzeichnet einen ungrammatischen Satz):

(3) Hans fällt die Treppe runter


(4) *Hans Treppe die fällt runter
(5a) ein Foto von Boris Becker ist in der Zeitung erschienen
(5b) von wem ist ein Foto in der Zeitung erschienen?
(6a) ein Foto von Boris Becker kostet die Zeitung viel Geld
(6b) *von wem kostet ein Foto die Zeitung viel Geld
(7) Hans sagt, daß er morgen fortfahren will
(8) er sagt, daß Hans morgen fortfahren will

Jeder Sprecher des Deutschen erkennt, daß ( 3 ) grammatisch ist, wäh-


rend in (4) die Wortstellung wohl etwas durcheinandergeraten ist. Wich-
tig ist in diesem Kontext, daß die Fähigkeit, die Ungrammatikalität von
(4) zu erkennen, offenkundig nichts mit Bedeutungsfragen zu tun hat.
Die Bedeutung von (4) ist trotz der Ungrammatikalität des Satzes völlig
klar. Ebenso erkennt jeder Sprecher, daß (5b) als Frage zu (5a) wohlge-
formt ist, während (6b) als Frage zu (6a) wiederum ungrammatisch ist.
Im Gegensatz zu (4) ist es für den Laien jedoch weitaus schwieriger, den
Grund für die Ungrammatikalität von (6b) anzugeben. In (4) ist offen-
sichtlich die Wortstellung inkorrekt; doch warum (6b) nicht in Ord-
nung ist, wird vermutlich nur ein Linguist, der mit der einschlägigen
Literatur (z.B. Ross 1967a) vertraut ist, auf den ersten Blick erkennen.
Hierin manifestiert sich ein weiterer, wichtiger Aspekt unseres sprachli-
chen Wissens: die Fähigkeit, Sätze als ungrammatisch zu erkennen, ist
offenbar unabhängig davon, ob wir jeweils auch die Gründe für die Un-
grammatikalität angeben können. Wir wissen, ob ein Satz richtig ist oder
nicht, aber wir können im Regelfall nicht erklären, warum dies so ist.
Die Verhältnisse im Satzpaar (7) und (8) sind etwas komplexer.
Beide Sätze sind offenkundig korrekt; der Unterschied liegt jedoch
darin, daß (7) zwei Lesarten, i.e. Interpretationen, zuläßt, während für
(8) nur eine Lesart möglich ist. In (7) können sich Hans und er auf die
gleiche Person beziehen (Hans sagt, daß er (=Hans) morgen fortfahren
will) oder sie können sich auf zwei verschiedene Personen beziehen
(Hans sagt, daß er (=Hubert, Günter, etc.) fortfahren will). Beziehen sich
zwei Ausdrücke auf die gleiche Person, so sprechen wir von Koreferenz.
Während (7) also eine koreferente und eine nicht-koreferente Lesart
hat, ist in (8) nur die nicht-koreferente Lesart möglich. Er kann sich
nur auf eine andere Person als Hans beziehen. Auch diesen Unterschied
kennt jeder Sprecher des Deutschen in dem Sinne, daß er einem Satz
wie (8) niemals eine koreferente Lesart zuordnen würde, d.h. mit kore-
ferenter Lesart ist (8) ungrammatisch. Trotz der Fähigkeit, die Sätze (7)
und (8) jeweils korrekt zu interpretieren, ist sich der normale Sprecher
des Deutschen dieses Unterschieds gar nicht bewußt und kann ihn in
der Regel auch nicht erklären.
Interessanterweise sind Sprecher, sobald sie auf derartige Regulari-
täten aufmerksam gemacht werden, sehr schnell bereit, spontan allerlei
Erklärungen für solche Ungrammatikalitäten anzubieten. Eine der häu-
figsten Erklärungen besagt, daß sich er in (8) natürlich deshalb nicht
auf Hans beziehen kann, weil Personalpronomina nur etwas aufgreifen
können, was bereits zuvor im Satz genannt wurde. Da Hans jedoch erst
nach er auftritt, ist Korefenz ausgeschlossen. Leider sind die Verhältnis-
se jedoch weitaus komplizierter. Pronomina können durchaus früher in
einem Satz auftreten als das Nomen, auf das sie sich beziehen, wie etwa
Satz (9) zeigt:

(9) Studenten, die ihn erlebt haben, schätzen Arnim

Wenngleich Sprecher also durchaus bereit sind, Erklärungen anzubie-


ten, so bedeutet dies keineswegs, daß die entsprechenden Erklärungen
das tatsächliche Wissen, auf das die Sprecher bei der Beurteilung eines
Satzes offenkundig zurückgreifen, auch korrekt wiedergeben. Die tat-
sächlichen Gesetzmäßigkeiten, die derartigen Koreferenzbeziehungen
zugrunde liegen, hängen eng mit dem Begriff des C-Kommandos
zusammen (Culicover 1976b; Reinhart 1976), das wir ausführlich in
Band II, Kap. 2.4, darstellen werden.
Diese wenigen Beispiele deuten bereits auf einen wichtigen Aspekt
unserer sprachlichen Fähigkeit hin. Wir sind u.a. imstande, Sätze
danach zu beurteilen, ob sie grammatisch oder ungrammatisch sind.
Wie Satz (4) zeigt, läßt sich diese Fähigkeit nicht daraus ableiten, ob
dem betreffenden Satz eine Bedeutung zugeordnet werden kann. Eben-
sowenig schließt sie die gleichzeitige Fähigkeit ein, die Grundlage der
jeweiligen Grammatikalitätsurteile hinreichend zu erklären. Damit ist
natürlich nicht impliziert, daß dies unsere einzige oder auch nur wich-
tigste Fähigkeit in Bezug auf Sprache ist; es geht allein um die Beobach-
tung, daß Grammatikalitätsurteile einen wesentlichen Aspekt unseres
sprachlichen Vermögens ausmachen und somit ein geeignetes Mittel
sind, uns Zugang zu unserem sprachlichen Wissen zu verschaffen.
Ein weiterer entscheidender Aspekt unserer Fähigkeit, Sätze bezüg-
lich ihrer Grammatikalität zu beurteilen, besteht darin, daß wir solche
Urteile über beliebig viele Sätze abgeben können, insbesondere auch
über solche, die wir zuvor niemals gehört bzw. geäußert haben. Man
kann die Zahl der in einer Sprache möglichen Sätze als unendlich groß
ansetzen (cf. Chomsky 1964:50); dies hängt u.a. damit zusammen, daß
natürliche Sprachen offensichtlich einen Rekursionsmechanismus ent-
halten, durch den Sätze beliebiger Länge erzeugt werden können:

(10) Hans sagt, daß Fritz glaubt, daß Maria weiß, daß Egon
behauptet hat,...., daß Flugzeuge gefährlich sind

Man kann sich natürlich darüber streiten, ob ein Satz wie (10) ein stili-
stisches Meisterstück ist; dennoch erkennt jeder Sprecher des Deut-
schen, daß (10) - etwa im Gegensatz zu (4) und (6b) - völlig gramma-
tisch ist. Daran scheint sich auch nichts zu ändern, wenn wir diesen
Satz durch weitere Einschübe noch etwas länger machen. Demnach
scheint sich unsere Fähigkeit, die Grammatikalität von Sätzen zu beur-
teilen, grundsätzlich auf eine unbeschränkt große Anzahl von Sätzen
zu erstrecken. Diese Beobachtung ist aus zwei Gründen von entschei-
dender Bedeutung. Zunächst ist unsere sprachliche Erfahrung, d.h. die
Sätze, die wir bereits einmal geäußert bzw. gehört haben, aus offen-
sichtlichen Gründen endlich. Darüber hinaus ist aber auch die Spei-
cherkapazität unseres Gehirns, in dem das dieser Urteilsfähigkeit
zugrunde liegende Wissen verankert ist, eben nicht unbeschränkt groß.
Diese Überlegungen machen zunächst einmal deutlich, in welcher
Form unser grammatisches Wissen im Gehirn nicht repräsentiert sein
kann. Rein logisch wäre denkbar, daß alle Sätze, die wir jemals in unse-
rer sprachlichen Umgebung hören, kognitiv abgespeichert werden;
d.h. unser sprachliches Wissen bestünde dann aus einer Liste von abge-
speicherten Sätzen. Bei der Grammatikalitätsbeurteilung würden wir
einfach in diesem Speicher »nachschauen«, ob der entsprechende Satz
dort vorhanden ist. Im positiven Falle beurteilen wir ihn als gramma-
tisch, im negativen als ungrammatisch. Offensichtlich kann diese
Lösung nicht richtig sein. Wir könnten dann stets nur eine endliche
Anzahl von Sätzen, nämlich die, die wir bereits einmal gehört haben,
beurteilen; tatsächlich sind wir aber auch imstande, völlig neue Sätze
zu verstehen und zu beurteilen. Dieses Faktum würde jedoch bei der
oben skizzierten »Lösung« eine unendlich große Speicherkapazität des
Gehirns voraussetzen, eine offenkundig unsinnige Idee.
Die Vorstellung, daß Wissen in Form einer endlichen Liste von Ein-
trägen im Gehirn abgespeichert wird, ist keineswegs von vornherein
abwegig. In der Tat scheint es durchaus auch sprachliche Bereiche zu
geben, in denen gerade dies vermutlich der Fall ist. Betrachten wir etwa
den lexikalischen Bereich, also unser Wortschatzwissen. Gibt es im
Deutschen etwa das Wort Göpel oder Luppe? Einige Sprecher werden
diese Frage positiv beantworten und hinzufügen, daß Göpel ein fach-
sprachlicher Ausdruck für Förderband ist und Luppe eine Hündin in
der Jägersprache bezeichnet. Anderen werden diese Wörter nicht
bekannt sein und sie werden die Frage daher mit »nein« oder »ich weiß
nicht« beantworten. Worauf gründet sich das unterschiedliche lexikali-
sche Wissen dieser beiden Personengruppen? Offenkundig hängt die
Kenntnis eines bestimmten Wortes von der konkreten sprachlichen
Erfahrung des jeweiligen Sprechers ab. Man kennt ein Wort nur dann,
wenn man es schon einmal gehört bzw. gelesen hat. Man kann also ver-
muten, daß unterschiedliche Personengruppen z.T. auch über einen
unterschiedlichen Wortschatz verfügen, und zwar jeweils in Abhängig-
keit ihrer spezifischen sprachlichen Erfahrung. So steht etwa der Wort-
schatz von Fachsprachen in der Regel nur denjenigen zur Verfügung,
die in diesem Fach tätig sind. Somit läßt sich annehmen, daß unser
Wortschatzwissen in der Tat aus einer endlichen Liste lexikalischer Ein-
heiten besteht, die mental abgespeichert ist. Wird nach der Existenz
bzw. Nicht-Existenz eines Wortes gefragt, so überprüft der Befragte
lediglich, ob dieses Wort in der mentalen Liste vorhanden ist oder
nicht. Lexikalisches Wissen erstreckt sich somit auf eine endliche Liste
von Wörtern, grammatisches Wissen hingegen auf eine unbestimmt
große Anzahl von Satzstrukturen.
Wir stoßen hier auf den entscheidenden Aspekt unserer grammati-
schen Kompetenz: ihre Kreativität. Unser grammatisches Wissen
gestattet es, eine im Prinzip unbegrenzte Zahl neuer Sachverhalte aus-
zudrücken. Wir sind imstande, beliebig viele neue Sätze und Äußerun-
gen zu produzieren und zu verstehen, und zwar unabhängig von der
jeweiligen individuellen sprachlichen Erfahrung. Demgegenüber ist die
Kreativität unseres lexikalischen Wissens weitaus eingeschränkter5:
man kennt genau die Wörter einer Sprache, mit denen man in der Ver-
gangenheit schon einmal konfrontiert worden ist. Kreativität in diesem
Sinne, i.e. die Fähigkeit, unabhängig von konkreter Erfahrung beliebig

5 Diese Aussage gilt natürlich nur für einfache Wörter. Es gibt selbstverständlich
auch im lexikalischen Bereich Kreativität, d.h. Regeln, mit denen aus einfachen
komplexe Wörter gebildet werden können (cf. Aronoff 1976; Selkirk 1982; Lie-
ber 1983; Fanselow 1985a). Allerdings bemerkt Chomsky (1982a:96) zu diesem
Bereich: »where we have options to get an infinite vocabulary, it appears to be
through pretty trivial mechanisms usually«.
viele Urteile zu treffen, ist natürlich nicht allein auf unsere sprachliche
Fähigkeit beschränkt. So erstreckt sich etwa unsere Fähigkeit, bestimm-
te Lebewesen z.B. als Menschen zu identifizieren, ebenfalls auf eine im
Prinzip beliebig große Zahl von Fällen. Desgleichen ist die Fähigkeit,
Zahlen miteinander zu multiplizieren, nicht auf bestimmte Zahlen
beschränkt, sondern umfaßt grundsätzlich alle, d.h. eine unendliche
Menge von Zahlen.
Ein weiterer spezifischer Aspekt unserer grammatischen Kompe-
tenz manifestiert sich u.a. in der Tatsache, daß wir Sätze nicht nur nach
den Kategorien »grammatisch« und »ungrammatisch« beurteilen kön-
nen, sondern darüber hinaus imstande sind, unterschiedliche Grade
der Grammatikalität zu erkennen:

(11a) ich kann mir vorstellen, warum niemand die Maria leiden
kann
(11b) ?die Maria kann ich mir vorstellen, warum niemand leiden
kann
(12a) ich kann mir vorstellen, warum die Maria niemanden lei-
den kann
(12b) *die Maria kann ich mir vorstellen, warum niemanden lei-
den kann
(13 a) ?the person that John described without examining any
pictures of
(13b) *the person that John described without any pictures of
being on file

Für sich allein betrachtet, werden die meisten Sprecher des Deutschen
(insbesondere norddeutsche Sprecher) (11b) wohl eher als ungramma-
tisch beurteilen. Erst im Kontrast mit (12b) wird deutlich, daß (11b)
zwar schlecht, aber doch erheblich besser als (12b) ist. Würde unsere
grammatische Urteilsfähigkeit nun in irgendeiner Weise direkt damit
zusammenhängen, ob wir einen Satz schon einmal gehört haben, so
wären derartige differenzierte Urteile im Bereich ungrammatischer
Strukturen völlig unerklärbar. Da weder (11b) noch (12b) im Deut-
schen möglich sind, gehören sie auch nicht zu unserer sprachlichen
Erfahrung. Dennoch sind wir in der Regel imstande, auch im rein
ungrammatischen Bereich abgestufte Grammatikalitätsurteile zu fäl-
len. Noch deutlicher fällt der Kontrast im Satzpaar (13) aus, das aus
Kayne (1983) stammt. Beide Sätze sind deutlich ungrammatisch und
werden erst dann akzeptabel, wenn ein Pronomen wie his oder her hin-
ter der Präposition of erscheint. Dennoch erkennt ein Sprecher des
Englischen, daß (13b) deutlich schlechter als (13a) ist. Unser grammati-
sches Wissen schließt somit die Fähigkeit ein, Grammatikalitätsunter-
schiede in Bereichen festzustellen, die offenkundig überhaupt nicht zu
unserer sprachlichen Erfahrung gehören.
Es zeigt sich also deutlich, daß die mentale Repräsentation unseres
grammatischen Wissens nicht aus einer Liste aller in der jeweiligen
Sprache möglichen Sätze bzw. Äußerungen bestehen kann, da eine sol-
che Vorstellung nicht die Kreativität unseres sprachlichen Vermögens
zu erklären vermag und darüber hinaus an der Unendlichkeitsproble-
matik scheitert. Es gilt also, nach einer plausibleren und adäquateren
Lösung Ausschau zu halten. In Aspects of the Theory of Syntax stellte
Chomsky ursprünglich die (im Grunde eher traditionelle) Hypothese
auf, daß das grammatische Wissen eines Sprechers in Form eines Regel-
apparats mental repräsentiert ist. Mit anderen Worten, das, was unser
grammatisches Wissen ausmacht, ist ein endliches System von Regeln,
die so beschaffen sind, daß sie eine unendliche Anzahl von Satzstruktu-
ren spezifizieren. Wie ein solcher Regelapparat konkret aussieht, ist
natürlich zunächst eine rein empirische Frage, und die generative For-
schung der vergangenen 25 Jahre hat sich intensiv darum bemüht, spe-
zifische Antworten und Vorschläge auszuarbeiten. In jüngerer Zeit
mehrt sich jedoch Evidenz dafür, daß die Vorstellung, grammatische
Kompetenz sei ausschließlich als ein System von Regeln anzusehen,
vermutlich falsch ist. Sowohl konzeptuelle Überlegungen als auch
empirische Evidenz aus einer Vielzahl von Sprachen deuten darauf hin,
daß grammatische Kompetenz wohl eher als ein System von interagie-
renden Prinzipien zu betrachten ist, die auf verschiedenen Ebenen
strukturelle Repräsentationen auf bestimmte Wohlgeformtheitsbedin-
gungen hin überprüfen. Diese Einsicht führte zur Formulierung der
Rektions- und Bindungstheorie (Theory of Government and Binding),
die wir ausführlich in Band II darstellen werden.

1.3 Zur Begründung mentaler Repräsentationen

Ziel der generativen Theorie ist die Spezifizierung eines Wissenssy-


stems, genauer: die Spezifizierung des grammatischen Wissens eines
idealisierten Sprecher-Hörers. Gegen eine derartige Konzeption lingui-
stischer Theoriebildung sind in der Vergangenheit vor allem zwei Ein-
wände erhoben worden, auf die wir etwas ausführlicher eingehen wol-
len. Der erste Einwand bezieht sich primär auf die Verwendung des
Begriffs >Wissen< (knowledge) im Kontext sprachlicher (bzw. gramma-
tischer) Kompetenz, weil - so wird argumentiert - mit diesem Begriff
üblicherweise Fähigkeiten assoziiert werden, die im sprachlichen
Bereich in der Regel gerade nicht gegeben sind. Soweit wir erkennen
können, handelt es sich hier eigentlich nur um ein terminologisches
Problem. Der zweite Einwand wiegt schwerer, da er sich gegen die
mentalistische Grundposition der generativen Grammatik schlechthin
richtet. Bestritten wird eine der Hauptthesen des Mentalismus, näm-
lich, daß für bestimmte komplexe und gesetzmäßige Verhaltensweisen
eines Organismus ein in der Kognition verankertes mentales Programm
anzunehmen ist. Es geht somit um die empirische und philosophische
Rechtfertigung des Begriffs »mental representation«.
Zentraler Begriff der generativen Theorie ist das grammatische
>Wissen<. Entscheidend ist jedoch, daß es sich hierbei um einen Typus
von Wissen handelt, das einerseits nicht dem Bewußtsein zugänglich ist
und andererseits auch nicht die individuelle Fähigkeit zur Explikation
einschließt, d.h. derjenige, der über dieses Wissen verfügt, kann in der
Regel nicht angeben, worin denn dieses Wissen konkret besteht. Aus
diesem Grunde wird dieser Typ von Wissen zumeist als »intuitive
knowledge« oder »tacit knowledge« bezeichnet. Gegen diesen Wis-
sensbegriff ist eingewandt worden, daß er im Gegensatz zu so ziemlich
allem steht, was man üblicherweise unter Wissen versteht. Wissen, so
wird argumentiert (cf. Edgley 1970; Searle 1976; Baker & Hacker
1984:316ff.), impliziert quasi per definitionem, daß sein Inhalt zumin-
dest prinzipiell bewußt gemacht und auch von demjenigen, der über
dieses Wissen verfügt, erklärt werden kann:
»A necessary condition for someone to know the rules which govern some acti-
vity is that he must be able to say or show us what the rules are...we can say that
someone follows a rule only if he knows what the rule is and can tell us what it
is...« (Davis 1976:78-80; zitiert nach Chomsky 1980:129)

Die gängige Vorstellung von >Wissen< schließt demnach typischerweise


die explizite Erklärbarkeit des Wissensinhaltes ausdrücklich mit ein.
Somit wäre der Begriff »tacit knowledge« im Grunde eine contradictio
in adjecto.
Gegen diesen Einwand ist solange nichts zu sagen, wie es sich allein
um eine Kritik an der Verwendung des Wortes »Wissen« handelt. Um
Assoziationen, die üblicherweise mit diesem Begriff verbunden sind,
auszuschließen, genügt es letztlich, einfach einen anderen, eher unbela-
steten Terminus einzuführen. Unter diesem Aspekt hat Chomsky
(1980:69ff.) »know«/»knowledge« durch den Terminus »cognize«/
»cognizance« ersetzt, wobei mit dieser Begriffsänderung letztlich
nichts anderes erreicht werden soll als »to account for examples of what
anyone would call >knowledge<« (Chomsky 1980:73).
Natürlich geht es nicht allein um terminologische Finessen. Hinter
der Kritik am generativen Wissensbegriff verbirgt sich zumeist die
Ablehnung bestimmter mentalistischer Grundpositionen, insbesonde-
re der Auffassung, daß auch für stets unbewußt ablaufende und indivi-
duell nicht explizierbare Fähigkeiten unter bestimmten Bedingungen
so etwas wie ein zugrundeliegendes Wissen anzunehmen ist. Mit ande-
ren Worten, ob eine gegebene Fähigkeit gleichzeitig die generelle Mög-
lichkeit einschließt, die sie konstituierenden Gesetzmäßigkeiten ins
Bewußtsein zu rufen und dementsprechend individuell zu explizieren,
ist für die Wissensproblematik eher von sekundärer Bedeutung; ent-
scheidend ist vielmehr, ob die betreffenden Gesetzmäßigkeiten und
Regelkomplexe allein z.B. auf ein spezifisches Motorprogramm redu-
zierbar sind, das im jeweiligen Anwendungsfall ein System konkreter,
wenngleich komplexer Bewegungsabläufe steuert, oder ob über derarti-
ge konkrete Bewegungsabläufe hinaus ein System abstrakter Regeln
bzw. Prinzipien anzunehmen ist, die in höchst indirekter Beziehung zu
der jeweiligen Instantiierung der betreffenden Fähigkeit stehen. Ist in
einem spezifischen Fall die Annahme eines solchen abstrakten Regelsy-
stems (bzw. Prinzipiensystems) notwendig, so mag man plausiblerwei-
se davon ausgehen, daß dieses System in der kognitiven Struktur des
betreffenden Individuums verankert ist, technisch: mental repräsen-
tiert ist. Wissen bedeutet demnach nichts anderes als sich in einem
bestimmten mentalen Zustand zu befinden, der durch besagtes System
abstrakter Regeln/Prinzipien charakterisiert ist.
Der grundlegende Gedankengang läßt sich am besten an einem ein-
fachen, da vermutlich unstrittigen Beispiel illustrieren, das aus dem
Bereich jener Fähigkeiten stammt, deren zugrundeliegenden Gesetz-
mäßigkeiten dem Bewußtsein zugänglich und somit individuell expli-
zierbar sind. Ein Schachspieler etwa wird üblicherweise nicht nur
imstande sein, die Figuren auf dem Brett nach bestimmten Regeln zu
bewegen, sondern er kann darüber hinaus die Regeln, die er beim Spiel
befolgt, auch erklären. Entscheidend ist nun, daß diese Regeln abstrak-
ter Natur sind und nicht etwa als Anweisungen für konkrete Bewe-
gungsabläufe verstanden werden können. Ein Schachspieler wird
sagen: »den Läufer darf man nur diagonal bewegen«; »der Bauer darf
jeweils ein Feld vorwärts bewegt werden« etc. und nicht etwa: »strecke
den rechten Arm aus, bis die Finger die Spitze der Figur >Bauer< errei-
chen; schließe die Finger und hebe den Bauern vom Brett; strecke den
Arm horizontal weiter bis...«. Letztlich sind die konkreten Bewe-
gungsabläufe, die während des Schachspiels auftreten, völlig irrelevant;
man kann sich ohne Zweifel eine beliebig große Zahl von konkreten
Handlungen und Bewegungen vorstellen, die alle die Regel »den Bau-
ern ein Feld vorwärts bewegen« instantiieren. In der Tat ist das tatsäch-
liche Vorhandensein von Brett und Spielfiguren und das tatsächliche
Ausführen von Bewegungen nicht einmal notwendig, wie die spektaku-
lären Demonstrationen von Großmeistern zeigen, die allein über Tele-
fon miteinander verbunden sich Spielzüge der Form »Bauer D5« -
»Läufer E8« mitteilen, ohne daß irgendwelche tatsächlichen Bewegun-
gen auf einem Schachbrett ausgeführt werden. Die Fähigkeit, Schach
zu spielen, bedeutet somit sicher nicht, imstande zu sein, bestimmte
Bewegungen mit Hilfe von Figuren auf einem Brett durchzuführen,
sondern vielmehr ein System abstrakter Regeln zu kennen, die sich
prinzipiell auf beliebig verschiedene Art und Weise realisieren lassen.
Somit lassen sich das Schachspiel und seine Regeln auch nicht als
Motorprogramm darstellen, das ein System spezifischer Handlungen
und Bewegungen repräsentiert; vielmehr verfügt eine Person, die des
Schachspiels mächtig ist, über die Kenntnis eines abstrakten Regelsy-
stems, und Kenntnis bedeutet in diesem Sinne nichts anderes, als daß
das Regelsystem in der kognitiven Struktur repräsentiert ist. Die Fähig-
keit des Schachspielens zu besitzen heißt also, sich in einem bestimm-
ten mentalen Zustand zu befinden, der (u.a.) durch die abstrakte
Repräsentation der Schachregeln charakterisiert ist. Zur terminologi-
schen Vereinfachung ist es sicher nicht abwegig, die mentale Repräsen-
tation von X als das Wissen von X zu bezeichnen.
Was den Fall des Schachspielers wohl als relativ unproblematisch
und unstrittig erscheinen läßt, ist die Tatsache, daß sich das Wissen um
die Schachregeln, also deren mentale Repräsentation, jederzeit ins
Bewußtsein rufen läßt. Man kann also direkt erkennen und sozusagen
am Bewußtsein ablesen, worin die Fähigkeit des Schachspielens
besteht, nämlich nicht aus einem Motorprogramm, sondern aus einem
mental repräsentierten System abstrakter Regeln. Entscheidend ist nun
jedoch, daß unser Motiv, für die Fähigkeit des Schachspielens ein
zugrundeliegendes Wissen, i.e. eine mentale Repräsentation von
Regeln, anzunehmen, nicht darin bestand, daß dieses Wissen dem
Bewußtsein zugänglich gemacht werden kann - dieser Umstand mach-
te den Fall höchstens etwas einsichtiger; vielmehr resultierte die
Annahme eines Wissenssystems aus der Einsicht, daß die betreffende
Fähigkeit sich nicht hinreichend über ein System konkreter Hand-
lungsabläufe bzw. ein entsprechendes Motorprogramm spezifizieren
läßt. Das, was das Schachspiel ausmacht, ist abstrakter Natur und
muß aufgrund dieser Tatsache zur Annahme einer mentalen Repräsen-
tation der relevanten Regeln führen. Wir sehen also, daß die Frage der
individuellen Explizierbarkeit zunächst unabhängig davon ist, ob für
eine bestimmte Fähigkeit ein zugrundeliegendes Wissen(ssystem)
anzusetzen ist.
An einigen alltäglichen Beispielen verdeutlicht J.A. Fodor (1981a),
daß auch im Bereich der im allgemeinen unbewußt ablaufenden Fähig-
keiten die Frage der individuellen Explizierbarkeit und Bewußtseins-
machung losgelöst von dem Problem betrachtet werden muß, wie die
der betreffenden Fähigkeit zugrundeliegenden Gesetzmäßigkeiten
letztlich zu erklären sind. Bei diesen Beispielen handelt es sich um
höchst komplexe Handlungen und Bewegungsabläufe, deren interne
Strukturierung im allgemeinen dem Bewußtsein nicht zugänglich ist
und daher auch nicht erklärt werden kann.
»...There are cases where we know how to X and can give an account of what
we do when we do X, but where it seems clear that the ability to give an account
is logically and psychologically independent of the abilities involved in X-ing.
Thus if I think about it, I can tell you which fingers I put where when I type
>Afghanistan< or tie my shoes. So, I know how to do it, and I know that when I
do it I do it that way. But what I do when I do it has, I imagine, very little or
nothing to do with what I do when I explain how I do it. What suggests that this
is so is that I don't have to think when I type »Afghanistan« or tie my shoes, but
I do have to think when I try to explain how I type »Afghanistan* or tie my shoes
...there is a real and important distinction between knowing how to do a thing
and knowing how to explain how to do that thing.« (Fodor 1981a:70-71)

Diese Überlegungen zeigen zunächst einmal nur, daß sich Fähigkeiten


bezüglich ihrer inhärenten Eigenschaften unterscheiden können. Es
gibt einerseits solche, die die Möglichkeit der bewußten Reflexion und
der individuellen Explizierbarkeit einschließen, und andere, bei denen
der exakte Mechanismus, aus dem die entsprechende Handlung resul-
tiert, entweder vollständig unbewußt oder zumindest vom Bewußtsein
unabhängig ist. Was aus dieser Distinktion keineswegs folgen muß, ist,
daß für Fähigkeiten, die der bewußten Kontrolle zugänglich sind, stets
ein zugrundeliegendes Wissenssystem anzusetzen ist, bzw. - umge-
kehrt - daß für ausschließlich unbewußt ablaufende Fähigkeiten
grundsätzlich kein zugrundeliegendes System mentaler Repräsentatio-
nen anzunehmen ist.
Ein entscheidender Gesichtspunkt ist nun folgender: selbst wenn
ein Organismus eine bestimmte Fähigkeit oder Verhaltensweise allein
durch Nachdenken nicht korrekt erklären oder spezifizieren kann, so
muß eine solche korrekte Spezifizierung/Erklärung im Prinzip doch
möglich sein. Selbst wenn ein Mensch nicht im einzelnen erklären
kann, wie er seine Schuhe zubindet oder die Grammatikalität von Sät-
zen beurteilt, so muß es dennoch eine solche Erklärung geben. Gäbe es
sie grundsätzlich nicht, so könnte man kaum sagen, der Mensch verfü-
ge über diese Fähigkeit bzw. Verhaltensweise. Existieren kann nur, was
prinzipiell spezifizierbar ist, unabhängig davon, ob jeder einzelne zu
einer solchen Spezifizierung imstande ist. »Although an organism can
know how to X without knowing the answer to the question >How
does one X?<, it cannot know how to X unless there is an answer to the
question >How does one X?< Now, one kind of requirement it would
be rational to place upon a psychological theory is this: for every beha-
vior an organism knows how to perform, a psychological theory of that
organism must supply an answer to the question >how does one produ-
ce behaviors of that kind?<« (Fodor 1981a:74).
Somit ist klar, daß es für jedes regelhafte Verhalten, das ein Organis-
mus auszuführen imstande ist, ein Schema geben muß, das die Baustei-
ne des Verhaltens und deren Zusammenwirken spezifiziert. Daß der
Organismus diese Bausteine und die zwischen ihnen bestehenden
Beziehungen selbst nicht kennen mag, ist dabei unerheblich. Selbst
wenn ein Sänger nicht weiß, welche Schwingungssequenzen seine
Stimmbänder im einzelnen durchführen, so muß seinem Singen den-
noch irgendein spezifisches Schwingungsschema zugrunde liegen.
Gäbe es ein solches Schema nicht, etwa weil zwischen Tonhöhe und
Stimmbandaktivität keine gesetzmäßige Beziehung besteht, so könnten
wir kaum von einer einheitlichen Handlung >Singen< sprechen. Die
Erklärung einer Verhaltensweise scheint nun gerade in der Spezifizie-
rung des sie konstituierenden Handlungsschemas zu liegen.
Ausgehend von diesen Überlegungen stellt sich zunächst die Frage,
aufgrund welcher Kriterien für eine bestimmte dem Bewußtsein nicht
zugängliche Fähigkeit ein zugrundeliegendes System mentaler Reprä-
sentationen, also ein Wissenssystem anzusetzen ist. Mit anderen Wor-
ten, unter welchen Bedingungen ist es sinnvoll, eine Fähigkeit als Aus-
druck kognitiv verankerten Wissens anzusehen, wobei Wissen (tacit
knowledge) bedeutet »to be in a certain mental state, which persists as
a relatively steady component of transitory mental states« und »to have
a certain mental structure consisting of a system of rules and principles
that generate and relate mental representations of various types«
(Chomsky 1980:48)? Diese Frage kann natürlich nicht a priori entschie-
den werden; vielmehr ist das entscheidende Kriterium, ob durch die
Annahme einer zugrundeliegenden Wissenskomponente bestimmte
Aspekte einer Fähigkeit erklärt werden können, die ohne diese Annah-
me unerklärbar bleiben. Unter heuristischen Gesichtspunkten ist es
sicherlich sinnvoll, sich im Bereich unbewußter Fähigkeiten grundsätz-
lich an den gleichen Merkmalen zu orientieren, die auch bei den dem
Bewußtsein zugänglichen Fähigkeiten die Annahme eines zugrundelie-
genden Wissenssystems rechtfertigen.
Wir erinnern uns daran, daß im Falle des Schachspiels unser primä-
res Motiv, ein zugrundeliegendes Wissenssystem anzunehmen, darin
bestand, daß die entscheidenden Gesetzmäßigkeiten abstrakter Natur
sind und daß diesbezügliche Erklärungen des Schachspielers ebenfalls
auf abstrakte Regeln abzielen. Es gibt eine vermutlich unendliche
Anzahl von konkreten Arten und Weisen, in denen man eine Schachfi-
gur regelgemäß auf dem Brett bewegen kann. Jedoch sind gerade diese
konkreten Bewegungsabläufe völlig irrelevant. Wenn wir also sagen,
der Schachspieler kennt die Regeln des Spiels, so ist sein entsprechen-
des Wissen höchst abstrakter Natur, und es scheint gerade ein Merkmal
dessen zu sein, was wir als Wissen bezeichnen, daß es sich auf abstrakte
und nicht auf konkrete Sachverhalte bezieht.
Die entscheidende Beobachtung ist nun, daß derartige abstrakte
Regelschemata auch solchen Fähigkeiten zugrundezuliegen scheinen,
die weder explizierbar noch dem Bewußtsein zugänglich sind, d.h. die
entsprechende Fähigkeit besteht nicht in der Durchführbarkeit
bestimmter konkreter Handlungsabläufe, sondern darin, daß sich in
ihr eine Vielzahl z.T. recht heterogener Verhaltensweisen auf einer
abstrakten Ebene konzeptuell vereinigen; und es ist gerade der abstrak-
te Charakter derartiger Fähigkeiten, der es nahelegt, den Begriff »tacit
knowledge« anzusetzen und dem entsprechenden Organismus eine
mentale Repräsentation des jeweils zugrundeliegenden abstrakten
Regelschemas zuzusprechen.
Dieser Gedankengang läßt sich etwa am Beispiel musikalischer
Fähigkeiten illustrieren. Wenn jemand eine bestimmte Melodie kennt,
so ist er prinzipiell imstande, diese in jeder beliebigen Tonart bzw. Ton-
höhe und von jedem beliebigen Instrument gespielt zu identifizieren.
Sofern er über entsprechende technische Fähigkeiten verfügt, kann er
eine solche Melodie grundsätzlich auch auf jedem Instrument reprodu-
zieren. Dies zeigt, daß die Fähigkeit, Melodien zu kennen bzw. zu
identifizieren, nicht darin besteht, etwa bestimmte Fingerbewegungen
auf dem Klavier ausführen oder bestimmte Schallwellen auf konkrete
akustische Eigenschaften hin überprüfen zu können; vielmehr liegt die-
ser Fähigkeit offensichtlich die Kenntnis bestimmter musikalischer
Strukturen und Gesetzmäßigkeiten zugrunde, die - wie Lerdahl & Jak-
kendoff (1983) gezeigt haben - äußerst komplexer und vor allem
abstrakter Natur sind. Wenngleich die betreffenden Regeln und Prinzi-
pien - zumindest für den musikalischen Laien - weder dem Bewußt-
sein zugänglich noch individuell explizierbar sind, so scheint es doch
plausibel zu sein (und auch dem »common sense< Verständnis zu entspre-
chen), hier von einem kognitiv verankerten Kenntnis- bzw. Wissenssy-
stem zu sprechen, eben von >tacit knowledge<.
Fodor et al. (1974:5ff.) erläutern den Begriff des >tacit knowledge<
am Beispiel des Namenschreibens. Wenn jemand in einer konkreten
Situation seinen Namen schreibt, so läßt sich diese Handlung als »tem-
porally ordered sequence of gestures or of effector states« beschrei-
ben. Diese spezifische Folge von Bewegungen ist jedoch nur eine unter
im Prinzip unendlich vielen Arten und Weisen, in denen jemand sei-
nen Namen schreiben kann. All diese verschiedenen Bewegungsabläu-
fe lassen sich unter dem abstrakten Konzept »seinen Namen schrei-
ben« subsumieren. Ob eine bestimmte Handlung als »seinen Namen
schreiben« charakterisiert werden kann, hängt nicht von dem sich in
ihr manifestierenden spezifischen Bewegungsablauf ab, sondern viel-
mehr davon, ob diese Handlung als Instantiierung eines bestimmten
abstrakten Konzepts, in diesem Falle des Konzepts »seinen Namen
schreiben«, angesehen werden kann. »When we say of a man that he
knows how to write his name, we do not mean that he is able to execu-
te some specific sequence of gestures, nor that his muscles are capable
of assuming some specific sequence of states .... the man who writes
his name is guided in his performance by some concept, plan, schema,
idea, or mental content; and however he writes, large or small, in ink
or in chalk, etc.; there is some sense in which his behavior is guided
by the same mental content on each of the occasions when he writes
his name« (op.cit. 3/4).
Der Grund dafür, daß z.T. extrem unterschiedliche Bewegungsab-
läufe (z.B. die Unterschrift auf einem Brief vs. das Meißeln des Namens
in einen Stein) als Ausdruck der gleichen Handlung angesehen werden
können, liegt ex hypothesi darin, daß derartige Bewegungsabläufe auf
dem Hintergrund kognitiv verankerter Konzeptualisierungen interpre-
tiert werden. »... In the analysis of behavior, we frequently find that
while the output of the organism can be viewed as a temporally ordered
sequence of gestures or of effector states, there is, nevertheless, reason
to suppose that behavior is organized by reference to an internal repre-
sentation of the action as a whole« (op.cit. 5). Diese interne mentale
Repräsentation, die als Referenzpunkt für die Identifizierung und Klas-
sifizierung verschiedener konkreter Bewegungsabläufe fungiert, ist nun
genau das, was mit »tacit knowledge« gemeint ist. Diese Repräsenta-
tion muß offenkundig abstrakter Natur sein und kann sich nicht auf
konkrete Bewegungsabläufe beziehen, da es von diesen eine im Prinzip
unendliche Zahl gibt, die als Ausdruck der gleichen Handlung gelten
können. Die Annahme von »tacit knowledge« erfährt ihre Rechtferti-
gung also daraus, daß mit Hilfe dieses Begriffs erklärt werden kann,
inwiefern unterschiedliche konkrete Handlungsabläufe als »instances
of the same behavior« gelten können.
Vor diesem Hintergrund wird deutlich, in welchem Sinne die gram-
matische Kompetenz eines Sprechers als »tacit knowledge« aufzufassen
ist. Die Fähigkeit, für eine im Prinzip infinite Anzahl von Sätzen anzu-
geben, ob sie in einer gegebenen Sprache möglich sind oder nicht, läßt
sich eben durch die Annahme erklären, daß das Kognitionssystem des
erwachsenen Sprechers u.a. ein abstraktes Regelschema enthält, das
genau die Klasse der in der Sprache möglichen Sätze spezifiziert. Eine
Sprache zu kennen heißt demnach, mit kognitiven Strukturen ausge-
stattet zu sein, die dieses Regelschema ausmachen. Der entscheidende
Gesichtspunkt ist hier der abstrakte Charakter des anzusetzenden
Regelschemas. Es ist unser Eindruck, daß viele Kritiker dieses Erklä-
rungsansatzes (cf. Strawson 1972; Quine 1969, 1972) einfach die enor-
me Komplexität und Abstraktheit sprachlicher bzw. grammatischer
Regularitäten übersehen und in ihren Argumentationen von ausge-
wählten Phänomenen ausgehen, die in ihrer Struktur relativ einfach
sind und für die die Annahme eines mental repräsentierten Regelappa-
rates in der Tat überflüssig ist.
Es ist nun zuweilen darauf hingewiesen worden (z.B. Comrie 1984),
daß Aussagen über kognitive Strukturen und mentale >Objekte< eigent-
lich nur dann plausibel sind, wenn gleichzeitig gezeigt werden kann,
wie sich diese konkret auf neurophysiologischer Ebene manifestieren.
Mit anderen Worten, wenn wir eine bestimmte grammatische Regel
oder ein Prinzip dem menschlichen Kognitionssystem zuschreiben, so
muß gleichzeitig das entsprechende hirnphysiologische Korrelat nach-
gewiesen werden. Psychologische Aussagen wären in diesem Sinne auf
physiologische Aussagen zu reduzieren.
Zunächst ist hier anzumerken, daß aus der Sicht der Biologie kaum
bestritten wird, daß die Sprachfähigkeit des Menschen auf spezifischen
hirnphysiologischen Strukturen beruht, die etwa bei anderen Organis-
men in dieser Funktion nicht vorhanden sind (cf. Changeux 1984; Frie-
dend 1984; Lieberman 1984). Was bestenfalls umstritten sein kann, ist
die Frage, inwieweit eine direkte Korrelation zwischen konkreten, von
der Linguistik vorgeschlagenen Prinzipien und physiologischen Gege-
benheiten des Gehirns besteht. Insofern kann es sich bei diesem Ein-
wand nicht um eine grundsätzliche Kritik am Mentalismus handeln,
sondern lediglich um einen Hinweis auf einzelne empirische Defizite in
der gegenwärtigen Forschungslage.
Grundsätzlich kann man natürlich nicht die Möglichkeit ausschlie-
ßen, daß psychische bzw. mentale Gesetzmäßigkeiten auf entsprechen-
de physiologische Regularitäten vollständig reduzierbar sind. Selbst
wenn man eine solche extrem materialistische Position ernst nimmt,
scheint es durchaus möglich und sinnvoll zu sein, bei unserem derzeiti-
gen Kenntnisstand Prinzipien auf einer abstrakteren als der molekular-
biologischen Ebene zu formulieren. Ein solches Vorgehen ist selbst in
der Biologie nicht unbekannt, wie sich etwa an dem Mendel'schen
Gesetz der Vererbung erkennen läßt, das zunächst rein abstrakt und
völlig ohne Rekurs auf die spezifische chemische Struktur des Zell-
kerns formuliert wurde. Es scheint unklar, warum diese Möglichkeit
im Bereich sprachlicher Phänomene grundsätzlich nicht bestehen soll-
te. In diesem Sinne charakterisiert Chomsky (1980:5) den Ansatz lin-
guistischer Theoriebildung:

»When I use such terms as >mind<, >mental representations »mental computa-


tion<, and the like, I am keeping to the level of abstract characterization of the
properties of certain physical mechanisms, as yet almost entirely unknown. There
is no further ontological import to such references to mind or mental representa-
tions and acts. In the same way, a theory of human vision might be formulated
in concrete terms, referring, say, to specific cells in the visual cortex and their
properties; or it might be formulated abstractly in terms of certain modes of
representation (say, images, or stick figure sketches), computations on such
representations, organizing principles that determine the nature of such repre-
sentations and rules, and so on.« (Chomsky 1980:5)

J.A. Fodor (1975:9-26) nimmt in dieser Frage eine etwas andere Hal-
tung ein. Er weist zunächst darauf hin, daß hinter dem »physiological
reductionism« die Auffassung steht, daß Aussagen der »special scien-
ces« auf Aussagen einiger weniger Grundwissenschaften zurückgeführt
werden sollten, zu denen sicherlich die Physik, möglicherweise auch
die Physiologie gehören. Eine derart angestrebte Reduktion erfolgt
über sog. Brückengesetze, d.h. jedem Phänomen etwa auf der psycho-
logischen Ebene entspricht ein bestimmtes Phänomen auf der physio-
logischen Ebene, und diese Entsprechung ist in striktem Sinne gesetz-
mäßig. Aufgrund dieser Gesetzmäßigkeit lassen sich Aussageprädikate
der einen Ebene systematisch in Aussageprädikate der anderen Ebene
umformen.
Fodor argumentiert gegen diese Form des Reduktionismus mit dem
Hinweis, daß bei derartigen Reduktionen wichtige Generalisierungen
verlorengehen können bzw. auf der reduzierten Ebene nicht mehr for-
mulierbar sind; d.h. es lassen sich etwa auf der psychologischen Ebene
Generalisierungen und Gesetzmäßigkeiten über Phänomene ausdrük-
ken, deren physiologische und letztendlich physikalische Korrelate
entweder nichts gemeinsam haben oder deren mögliche Gemeinsam-
keiten für die Generalisierung selbst irrelevant sind. »It is often the case
that whether the physical descriptions of the events subsumed by such
generalizations have anything in common is, in an obvious sense,
entirely irrelevant to the truth of the generalizations, or to their inter-
estingness, or to their degree of confirmation, or, indeed, to any of their
epistemologically important properties« (Fodor 1975:15).
Zur Illustration dieses Gedankenganges verwendet Fodor ein Bei-
spiel aus der Ökonomie, und zwar das Gresham'sche Gesetz6, das die
Auswirkungen monetären Tausches betrifft. Es gilt nun sicherlich,
daß sich jeder Vorgang, der im Sinne des Gresham'schen Gesetzes als
monetärer Tausch charakterisiert werden kann, ebenfalls mit Hilfe des
Beschreibungsvokabulars der Physik darstellen läßt und somit gleich-
zeitig unter die Gesetze der Physik fällt. Entscheidend ist jedoch, daß
bei einer rein physikalischen Beschreibung aller als monetärer Tausch
zu bezeichnenden Vorgänge das, was einen monetären Tausch zum
monetären Tausch macht, verlorengeht bzw. daß die physikalischen
Gemeinsamkeiten dieser Vorgänge im Sinne des Gresham'schen
Gesetzes völlig irrelevant sind. »The point is that monetary exchan-
ges have interesting things in common; Gresham's law, if true, says
what one of these interesting things is. But what is interesting about
monetary exchanges is sure not their commonalities under physical
description. A kind like a monetary exchange could turn out to be co-

6 Greshams Gesetz besagt: Bei quantitativ oder qualitativ unterschiedlichem Edel-


metallgehalt von Münzen verdrängt die schlechtere Währung die bessere, d.h.
die metallisch wertvolleren Münzen verschwinden allmählich aus dem Verkehr.
extensive with a physical kind; but if it did, that would be an accident
on a cosmic scale« (Fodor 1975:15).
Die Unabhängigkeit und Eigenständigkeit einer bestimmten
Beschreibungsebene hängt folglich davon ab, ob sich auf ihr Gesetzmä-
ßigkeiten und Generalisierungen ausdrücken lassen, die auf einer ande-
ren Beschreibungsebene nicht formulierbar sind. Analoges gilt für die
Beziehung zwischen psychologischen und neurophysiologischen Aus-
sagen. Wenn sich in einem Bereich erweisen sollte, daß eine psychologi-
sche Generalisierung exhaustiv mit einer bestimmten physiologischen
Gesetzmäßigkeit korreliert, so ist anzunehmen, daß es sich eben um ein
primär physiologisches Phänomen handelt und daß der psychologische
Aspekt ein Derivat bzw. ein Epiphänomen der involvierten Physiologie
ist. Doch eine derartige Korrelation muß offenkundig nicht in allen Fäl-
len gegeben sein und kann erst recht nicht a priori postuliert werden.
Es ist durchaus denkbar, daß psychologische Generalisierungen eben
nicht analoge neuronale Generalisierungen implizieren. Dementspre-
chend ist es durchaus statthaft, psychologische Aussagen zu formulie-
ren, ohne die Struktur der zugrundeliegenden neuronalen >hardware<
zu kennen. Entscheidend ist, ob eine Aussage interessante Generalisie-
rungen enthält, und nicht, ob sie auf ein anderes Beschreibungsvokabu-
lar reduzierbar ist. Die Bedeutsamkeit der bisher erzielten Ergebnisse
und Einsichten rechtfertigen es daher, zunächst eine eigenständige psy-
chologische Beschreibungsebene anzusetzen, ohne die physiologische
Manifestation der involvierten Phänomene zu kennen. Die Auffassung,
Aussagen über psychologische Sachverhalte seien nur dann sinnvoll,
wenn deren neuronales Substrat aufgezeigt werden kann, ist demnach
völlig unmotiviert.
Letztlich sollte man in diesem Kontext nicht vergessen, daß die
Frage der Reduzierbarkeit psychischer auf physikalische Gesetzmäßig-
keiten im Kontext eines grundsätzlichen Problems steht, das die
abendländische Philosophie seit ihren Anfängen beschäftigt und
üblicherweise unter dem Terminus >Leib-Seele-Problem< bekannt ist.
Derzeit scheint sich abzuzeichnen (cf. v.Kutschera 1982:384ff.), daß
weder ein radikaler Physikalismus noch ein extremer Dualismus geeig-
net ist, aus psycho-physischen Wechselwirkungen resultierende Phä-
nomene zu erklären. Gerade die moderne Physik hat mittlerweile die
Vorstellung aufgegeben, »das Physische sei ein in sich geschlossener
Bereich, in dem sich alle Phänomene ohne Bezugnahme auf Psychi-
sches beschreiben und erklären lassen« (v.Kutschera 1982:385). Daher
ist nicht einmal aus allgemein-philosophischer Sichtweise zu erwarten,
daß sich für die von der Linguistik postulierten Prinzipien und Gesetz-
mäßigkeiten notwendigerweise sie erklärende physikalische Korrelate
finden lassen.

1.4 I-Struktur und E-Struktur

Die Überlegungen im vorangegangenen Abschnitt haben deutlich


gemacht, warum es sinnvoll ist, für bestimmte Formen des menschli-
chen Handelns und insbesondere des sprachlichen Verhaltens ein
zugrundeliegendes System mentaler Repräsentationen anzunehmen,
und zwar unabhängig davon, ob dessen Existenz dem Bewußtsein
zugänglich gemacht werden kann oder nicht. Für jeden Wissensbe-
reich lassen sich nun rein logisch zwei Strukturebenen angeben: die
externe oder E-Struktur, die den Gegenstandsbereich des Wissens spe-
zifiziert, also das, worüber ein Wissen besteht (z.B. die Gesetze der
Physik, das Periodensystem der Chemie, die Operationen der Mathe-
matik, oder der Stadtplan von Passau), und die interne oder I-Struk-
tur, die angibt, wie, d.h. nach welchen Regularitäten und Prinzipien
das Wissen in dem jeweiligen Gebiet mental repräsentiert ist (z.B. wie
etwa das Chemie-Wissen oder das Mathematik-Wissen im Gehirn
kognitiv organisiert ist).
Somit stellt sich die interessante Frage, in welcher Beziehung
E-Struktur und I-Struktur im jeweiligen Wissensgebiet zueinander ste-
hen. Einerseits wäre denkbar, daß E-Struktur und I-Struktur im
wesentlichen voneinander unabhängig sind, so daß jede für sich allein
zu spezifizieren ist. Andererseits ließe sich vorstellen, daß die I-Struk-
tur weitgehend ein Derivat der E-Struktur ist, bzw. umgekehrt. Dar-
über hinaus stellt sich die Frage, ob beide Strukturebenen in gleicher
Weise dem wissenschaftlichen Zugriff offen stehen, d.h. es wäre denk-
bar, daß nur über die E-Struktur oder nur über die I-Struktur sinnvolle
und interessante Aussagen möglich sind.
Die eigentliche Novität des generativen Forschungsprogramms liegt
nun keineswegs darin, daß für den sprachlichen bzw. grammatischen
Bereich ein System mentaler Repräsentationen, i.e. ein zugrundeliegen-
des Wissenssystem, angenommen wird - dies würde vermutlich auch
ein am strukturalistischen Deskriptivismus orientierter Linguist zuge-
stehen; vielmehr steht hinter dem generativen Programm die Auffas-
sung, daß sprachliche E-Strukturen ein Derivat der I-Strukturen sind
und daß sinnvolle Aussagen eigentlich nur über die I-Strukturen, i.e.
das mental repräsentierte Wissenssystem, gemacht werden können.
Diese Auffassung würde weder ein traditioneller Deskriptivist noch ein
Montague-Grammatiker oder Funktionalist teilen. Aus diesem Grunde
wollen wir etwas ausführlicher auf die Grundlagen dieser Auffassung
eingehen.
Um die grundlegende Problematik zu verdeutlichen, wollen wir zu-
nächst beispielhaft einige Wissensbereiche betrachten. Hierbei wird
offenbar werden, daß die Beziehung zwischen E-Struktur und I-Struk-
tur nicht grundsätzlich für den mentalen Bereich insgesamt festgesetzt
ist, sondern in verschiedenen Wissensgebieten durchaus unterschied-
lich sein kann.
Zunächst scheint unbestreitbar zu sein, daß I-Struktur und E-Struk-
tur - sofern beide für einen gegebenen Bereich existieren - zumindest
in einem trivialen Sinne unabhängig voneinander sein müssen. Die Art
und Weise, in der Datenbereiche im Gehirn abgespeichert sind, kann
nicht allein von deren Strukturierung abhängen, sondern muß offen-
kundig auch in irgendeiner Weise Eigenschaften und Gesetzmäßigkei-
ten kortikaler Neurophysiologie widerspiegeln. Man könnte aller-
dings im Sinne eines strengen Empirismus annehmen, daß diese neu-
rophysiologischen Gesetzmäßigkeiten eben weitgehend trivialer
Natur sind; dementsprechend würde etwa die visuelle Perzeption bzw.
die Repräsentation visueller Eindrücke im Gehirn nach einem einfa-
chen »Kameraprinzip« (cf. Rock 1985) funktionieren. In diesem Falle
wäre die I-Struktur im wesentlichen durch die E-Struktur determi-
niert, d.h. die mentalen Repräsentationen wären ein weitgehend
getreues Abbild der Gegebenheiten der E-Struktur. Unter einer sol-
chen Perspektive wäre allein die E-Struktur, nicht aber die I-Struktur
ein interessanter Forschungsgegenstand.
Unter einer schwächeren Version des Empirismus ließe sich zuge-
stehen, daß es in der Tat auch nicht-triviale kognitive Prinzipien/
Gesetzmäßigkeiten gibt. Diese würden die Modalitäten festlegen, unter
denen jeder beliebige Datenbereich im Gehirn des Menschen mental
repräsentiert wird. Derartige Prinzipien lassen sich als eine Funktion f
auffassen, die jeden Wissensgegenstand WE auf sein mentales Korrelat
f(WE)= W I abbildet. W I existiert dann zwar - aufgrund von f - in nicht-
trivialer Weise unabhängig von WE, die spezifische Form von W I , d.h.
das, was verschiedene W I voneinander unterscheidet, hängt jedoch ent-
scheidend von WE ab. Insofern ist auch in diesem Falle WE der determi-
nierende Faktor von W I .
Nun muß eine solche Funktion f schon aus rein logischen Gründen
existieren, d.h. es muß Wissensbereiche geben, in denen die I-Struktur in
einem strikten Abhängigkeitsverhältnis zur E-Struktur steht. Eine völli-
ge Unabhängigkeit der I-Struktur von der korrespondierenden E-Struk-
tur würde bedeuten, daß die I-Struktur als eigenständige Größe mate-
riell im Gehirn ausgezeichnet sein muß, d.h. sie existiert allein qua
mentale Repräsentation. Da es jedoch unbegrenzt viele Wissensberei-
che gibt, müßten bei einer völligen Unabhängigkeit aller I-Strukturen
ebenfalls unbegrenzt viele WI im Gehirn materiell vorgegeben sein.
Eine solche These kollidiert jedoch mit der trivialen Tatsache, daß das
Gehirn eben endlich und nicht unbegrenzt groß ist. Aus diesem Grun-
de muß es Wissensbereiche geben, deren mentale Repräsentationen
sich aus einer allgemeinen Adaptation an vorgegebene E-Strukturen
ergeben.
Demgegenüber scheint jedoch ebenso unzweifelhaft zu sein, daß es
auch I-Strukturen gibt, die völlig unabhängig von E-Strukturen sind,
und zwar deshalb, weil entsprechende E-Strukturen gar nicht existie-
ren. Dies mag etwa für den Bereich menschlicher Gefühle und Emp-
findungen gelten, also für Liebe, Haß, Glück, Freude, Trauer, Eifer-
sucht, etc. Sicher würde man nicht einer innerpsychisch determinier-
ten I-Liebe so etwas wie eine davon unabhängig existierende E-Liebe
gegenüberstellen wollen. Zumindest ist uns nicht bekannt, daß jemand
jemals so etwas behauptet hätte. Um eine Gegenposition zu vertreten,
könnte man bestenfalls im Sinne eines psychologischen Empirismus
derartige psychische Zustände auf Reiz-Reaktionsschemata zurück-
führen wollen bzw. grundsätzlich bestreiten, daß sich über derartige
Zustände sinnvolle Aussagen machen lassen.7
Ebenso wie es offenkundig I-Systeme gibt, die kein erkennbares
E-Korrelat besitzen, existieren jedoch auch I-Systeme, die zwar mit
einem E-System korrespondieren, jedoch von diesem strukturell völlig
unabhängig sind. Dies scheint z.B. für den logischen und mathemati-
schen Bereich zu gelten. So ist etwa die Multiplikation innerhalb der
Mathematik, also der E-Struktur, als allgemeingültige Operation über
zwei beliebige Zahlen definiert. Die mentale Repräsentation der Multi-
plikation, also die I-Struktur, ist jedoch vielfach völlig anderer Natur.
So haben wir etwa in der Schule das kleine Einmaleins gelernt, und es
ist anzunehmen, daß eine einfache Multiplikation wie 4 • 7 = 28
zumeist nicht über die Anwendung der allgemeinen mathematischen

7 Cf. Carnap (1928) und Wittgenstein (1967).


Operation durchgeführt wird, sondern daß das Ergebnis vielmehr aus
einer fest gespeicherten Liste von Multiplikationsergebnissen abgeru-
fen wird. Ebenso werden bei komplexeren Multiplikationen wie etwa
99 • 18 vielfach bestimmte Kombinationsstrategien verwendet, die von
der mathematisch definierten Multiplikationsoperation unabhängig
sind, z.B. 100 • 18 = 1800; 1800 - 18 = 1782. Unsere mentale Reprä-
sentation der Multiplikation enthält also ein Bündel von Wissenssyste-
men, zu dem u.a. das Einmaleins und bestimmte Kombinationsprinzi-
pien gehören. Die I-Struktur ist also in diesem Bereich kein Derivat
der E-Struktur, sondern wird durch eigenständige spezifische Prinzi-
pien und Gesetzmäßigkeiten geprägt.
Im Bereich der Logik gelang Johnson-Laird (1983) der Nachweis,
daß die internen mentalen Mechanismen des Schließens anders struk-
turiert sind als die externen Gesetzmäßigkeiten logischer Schlüsse. Die
E-Logik ist zunächst nichts anderes als eine Theorie des gültigen
Schließens, das auf unterschiedliche Weise als ein abstraktes Objekt
dargestellt werden kann, etwa durch ein System von Axiomen und
Schlußregeln, durch Venn-Diagramme oder durch modellsemantische
Konstrukte. Man hat lange Zeit angenommen8, daß der Mensch des-
halb gültig schließen kann, weil eben genau ein solches abstraktes
System logischer Schlüsse im Gehirn mental repräsentiert ist. Mit ande-
ren Worten, man glaubte, daß unsere mentalen Repräsentationen im
Bereich der Logik etwa die aristotelischen Syllogismen oder die Axio-
matisierungen von Kalish & Montague (1964) enthalten. Johnson-
Laird konnte nun zeigen, daß bestimmte Verhaltensweisen des Men-
schen mit einer solchen Annahme unvereinbar sind. Für den Menschen
sind manche Schlüsse leichter als andere; unter bestimmten Bedingun-
gen werden mögliche Schlüsse systematisch übersehen bzw. es treten

8 »There is a fundamental riddle to be resolved: how is it possible for people to


reason validly, that is, to draw a conclusion that must be true given that the pre-
mises are true? Psychologists have solved the riddle by postulating that there is
a logic in the mind. An extreme form of this idea of a mental logic is that reason-
ing is nothing more than the propositional calculus itself< (Inhelder & Piaget
1958:305). But some version of the doctrine appears to have been held by every
psychologist who has considered that human beings are capable of rational
thought« (Johnson-Laird 1983:24). Eine vergleichbare Auffassung vertreten
auch Autoren wie Osherson (1975), Braine (1978) oder Rips (1982). Allerdings
weist uns Peter Staudacher (persönliche Mitteilung) darauf hin, daß von Vertre-
tern der Formalen Logik kein Anspruch auf psychologische Realität oder Rele-
vanz erhoben wird.
regelmäßig Fehlschlüsse auf. Vor allem konnte Johnson-Laird die Kon-
textabhängigkeit menschlichen Schließens experimentell nachweisen:
Schlußfolgerungen werden um so leichter gefunden, je eher die invol-
vierten Sachverhalte sich in einem realistischen Modell darstellen las-
sen. All diese Befunde sind jedoch unvereinbar mit der Auffassung, for-
mal-logische Systeme seien direkt im Gehirn mental repräsentiert, da
derartige Systeme per definitionem neutral gegenüber inhaltlichen
Gegebenheiten sind.
Die Frage stellt sich nun, wie sich I-Struktur und E-Struktur im
sprachlichen Bereich zueinander verhalten. Nach eher traditioneller
Auffassung ist der Gegenstandsbereich der Linguistik die E-Struktur,
d.h. natürliche Sprachen werden als abstrakte Objekte angesehen,
deren Existenz unabhängig von ihrer mentalen Repräsentation im
menschlichen Gehirn ist. Die Aufgabe der Linguistik ist es demnach,
die diese abstrakten Objekte charakterisierenden strukturellen Gesetz-
mäßigkeiten zu beschreiben und zu spezifizieren. In jüngerer Zeit ist
diese Auffassung explizit von Katz (1981, 1984) vertreten worden, der
damit die Linguistik als einen Teilbereich der Mathematik und nicht
der Psychologie ansieht. Diese Auffassung liegt auch Arbeiten im
Bezugsrahmen der Montague-Grammatik zugrunde (cf. Thomason
1974a:1-3). Selbstverständlich wird nicht in Abrede gestellt, daß man
über die Beschäftigung mit Sprachen als abstrakten Objekten hinaus
auch nach deren mentaler Repräsentation im Gehirn fragen kann, doch
handelt es sich dabei sozusagen um eine zusätzliche Aufgabe, vergleich-
bar mit der eines Psychologen, der die mentale Repräsentation unseres
mathematischen Wissens untersucht.
Für die folgende Diskussion ist es sinnvoll, zunächst zwischen I-Spra-
che und I-Grammatik einerseits und E-Sprache und E-Grammatik ande-
rerseits zu unterscheiden. Diese Unterscheidung zwischen Sprache und
Grammatik soll nichts weiteres leisten als die Beziehung zwischen den
empirischen Daten und der Theorie über die diesen Daten zugrundelie-
genden Gesetzmäßigkeiten auszudrücken. I-Sprache ist demnach die
Menge aller Sätze, die ein >native speaker< als in seiner Sprache gramma-
tisch bzw. möglich klassifiziert, und die I-Grammatik ist jenes mental
repräsentierte System von Prinzipien und Regeln, aufgrund dessen der
Sprecher eben zu dieser Leistung fähig ist. Aus generativer Sicht ist das
eigentliche Forschungsobjekt der Linguistik (bzw. der Grammatik-
theorie) die I-Grammatik, d.h. das qua mentaler Repräsentation im
Gehirn real existierende Objekt, während die I-Sprache nichts anderes
ist als die empirische Datenbasis, die dem Linguisten den Zugriff auf
die I-Grammatik erlaubt, da ein direkter Zugang offensichtlich nicht
möglich ist. Somit ist die I-Sprache ein Derivat der I-Grammatik und
nicht etwa umgekehrt. Mit anderen Worten, ein gegebener Satz in einer
Sprache wird genau deshalb als grammatisch beurteilt, weil dieser Satz
den Prinzipien und Regeln der I-Grammatik folgt; die I-Grammatik
determiniert die Extension der I-Sprache, die folglich nicht unabhängig
von der I-Grammatik existieren kann. Demgegenüber ist aus traditio-
neller Perspektive die E-Sprache das eigentliche Forschungsobjekt der
Linguistik. Die E-Grammatik ist nichts anderes als eine Menge des-
kriptiver Aussagen über die E-Sprache, i.e. eine abstrakte Funktion, die
die Elemente der E-Sprache aufzählt. »The E-language is now under-
stood to be the real object of study. Grammar is a derivative notion; the
linguist is free to select the grammar one way or another as long as it
correctly identifies the E-language« (Chomsky 1984:30).
Versuchen wir unter dieser Perspektive den sprachlichen E-Bereich
näher zu spezifizieren, so ist zunächst klar, daß die E-Sprache eine
Menge tatsächlicher oder möglicher Sätze (bzw. Äußerungen oder
Sprechhandlungen) sein muß. Der entscheidende Unterschied zwi-
schen I-Sprache und E-Sprache ist nun, daß sich die I-Sprache aus der
Kompetenz des >native speaker< (i.e. der I-Grammatik) ergibt, während
die E-Sprache per definitionem unabhängig vom Menschen und seinen
Urteilen gegeben ist, ebenso wie etwa ein mathematisches Faktum
unabhängig davon existiert, ob und wie dieses Faktum im menschli-
chen Gehirn mental repräsentiert ist. Mit anderen Worten, E-Sprache
kann daher zunächst jede beliebige Menge von Sätzen (bzw. Äußerun-
gen etc.) sein, und zwar unabhängig davon, ob es für sie überhaupt eine
E-Grammatik gibt, also ein System von Regeln und Prinzipien, die
genau diese Sätze spezifizieren (cf. Maurer 1969).
Die Frage stellt sich nun, ob jede beliebige Menge von natürlich-
sprachlichen Sätzen für den Linguisten ein interessantes Forschungsob-
jekt darstellt oder nur bestimmte Mengen. Denkbar wäre etwa, eine
Menge real existierender Sätze, z.B. alle die in diesem Buch vorkom-
menden, im Sinne einer solchen E-Sprache zu betrachten. Zweifellos
existieren diese Sätze unabhängig davon, ob sie ein Sprecher über seine
I-Grammatik oder ein Computer mit Hilfe eines Zufallsgenerators
erzeugt hat. Dementsprechend ist es natürlich möglich, eine E-Gram-
matik zu formulieren, die genau diese E-Sprache, also die Sätze in die-
sem Buch, spezifiziert. Man könnte sich etwa vorstellen, daß eine sol-
che E-Grammatik im trivialsten Fall einfach aus einer Auflistung der
betreffenden Sätze besteht. Ebenso ließen sich beliebige Adäquatheits-
kriterien an diese Grammatik stellen, etwa bezüglich der Form und
Anzahl ihrer Regeln. Wenngleich dies eine logisch denkbare und prak-
tisch wohl auch durchführbare Möglichkeit ist, wäre ein solches Unter-
fangen aus linguistischer Sicht völlig unsinnig und uninteressant. Kein
Linguist würde ernsthaft auf die Idee kommen, eine solche E-Gramma-
tik zu schreiben.
Nun ist das Verfahren, bei der sprachlichen Analyse von einer festge-
legten Menge von Sätzen auszugehen, in der Linguistik eine etablierte
Vorgehensweise, die unter dem Terminus >Korpusanalyse< bekannt ist.
Vor allem in den 40er und 50er Jahren schwärmten Linguisten in abgele-
gene Sprachgebiete, sammelten ein Korpus von Sätzen bzw. Äußerun-
gen und versuchten, auf der Grundlage eines solchen Korpus eine Ana-
lyse der betreffenden Sprache auszuarbeiten. Doch auch hier schrieb
man nicht etwa eine Grammatik für das betreffende Korpus, also ein
System von Regeln, das genau die in dem Korpus auftretenden Sätze
spezifiziert; vielmehr diente das Korpus letztlich nur als heuristisches
Mittel, als grobe Orientierungshilfe. Ziel jeder linguistischen Analyse
ist es natürlich nicht, eine Grammatik für eine letztlich zufällig entstan-
dene Satzmenge zu schreiben, sondern eine Grammatik, die genau die in
einer natürlichen Sprache möglichen Sätze spezifiziert; ein Korpus wird
normalerweise als eine repräsentative Auswahl dieser möglichen Sätze
angesehen und kann daher als sinnvoller Ausgangspunkt, nicht jedoch
als Endziel dienen. Doch wie ist festgelegt, was in einer natürlichen
Sprache ein möglicher Satz ist? Offenkundig allein durch die I-Gram-
matik; denn das, was in diesem Sinne zur E-Sprache gehört und demzu-
folge letztlich von der E-Grammatik zu spezifizieren ist, ergibt sich allein
daraus, was ein >native speaker< als grammatischen Satz akzeptiert.
Durch diesen notwendigen Rekurs auf die I-Grammatik verlassen
wir jedoch den reinen E-Sprachenbereich, d.h. offensichtlich sind nur
solche E-Sprachen linguistisch interessant, die extensional identisch
mit einer I-Sprache sind, und zwar in dem Sinne, daß die E-Sprache
ein Derivat der I-Sprache ist. Linguistisch interessante E-Sprachen
existieren somit nur in Abhängigkeit von I-Grammatiken. Mit ande-
ren Worten, auch der an Korpusanalysen ausgerichtete Linguist
beschreibt eine Datenmenge, die sich nicht aus einem abstrakten
Objekt ergibt, sondern aus der mental repräsentierten sprachlichen
Kompetenz, i.e. der I-Grammatik.
Wenn nun nur solche E-sprachlichen Datenbereiche linguistisch
interessant sind, die mit dem I-sprachlichen Bereich identisch sind, so
ist klar, daß es eine I-Grammatik geben muß, die genau diesen Daten-
bereich spezifiziert. Diese I-Grammatik bildet das tatsächliche
System von Regeln und Prinzipien ab, das im menschlichen Gehirn
mental repräsentiert ist. Wenn der fragliche Datenbereich jedoch hin-
reichend durch eine I-Grammatik spezifizierbar ist, so stellt sich
natürlich die Frage, unter welchen Aspekten neben der I-Grammatik
auch eine E-Grammatik linguistisch interessant sein kann, da ja beide
den gleichen Phänomenbereich erfassen, wenngleich möglicherweise
in unterschiedlicher Form. Um diese Frage zu beantworten, ist
zunächst festzustellen, welche prinzipiellen Unterschiede zwischen
einer I-Grammatik und einer E-Grammatik bestehen (können). Da die
I-Grammatik eine kognitive Realität abbildet, während die E-Gramma-
tik ein rein abstraktes Objekt ist, unterliegt die I-Grammatik offenkun-
dig anderen Beschränkungen als die E-Grammatik. So kann die I-Gram-
matik zweifellos nur solche Mechanismen enthalten, die in einem endli-
chen Gehirn mental repräsentierbar sind. Diese mentalen Repräsenta-
tionen müssen darüber hinaus das Kriterium der Lernbarkeit erfüllen
(cf. Wexler & Culicover 1980), d.h. es muß prinzipiell erkennbar sein,
wie diese Repräsentationen unter den gegebenen Bedingungen des
Spracherwerbs vom Kind erlernt werden können (cf. Kap. 3 ) . Und letzt-
lich muß die I-Grammatik so beschaffen sein, daß sie in einen Sprach-
verarbeitungsmechanismus eingehen kann (cf. Bresnan 1978, 1982; Ber-
wick & Weinberg 1984). Mit anderen Worten, eine adäquate I-Gramma-
tik muß allen Kriterien genügen, die sich aus der Struktur der Kogni-
tion bzw. des Gehirns ergeben. Da die E-Grammatik hingegen ein rein
abstraktes Objekt ist, das per definitionem in keinerlei Beziehung zu
mentalen Repräsentationen stehen muß, ist klar, daß die genannten
Restriktionen für die E-Grammatik irrelevant sind; insbesondere
kann die E-Grammatik weitaus abstrakter sein als die I-Grammatik
(cf. Katz 1981, 1984). Allerdings ist umgekehrt denkbar, daß an eine
E-Grammatik Anforderungen gestellt werden, die wiederum für eine
I-Grammatik irrelevant sind, z.B. bestimmte Kriterien formaler Ele-
ganz, Übereinstimmung mit den mathematischen Eigenschaften
abstrakter Objekte, etc.
Den Unterschied zwischen den formalen Anforderungen, die an
I-Grammatiken und E-Grammatiken zu stellen sind, wollen wir am
Beispiel der Passivbildung illustrieren. Betrachten wir hierzu die bei-
den folgenden Sätze:

(14a) Fritz hat Maria ausgelacht


(14b) Maria wurde von Fritz ausgelacht
Offensichtlich besteht zwischen dem Aktivsatz (14a) und dem Passiv-
satz (14b) eine systematische Beziehung. Das Objekt Maria in (14a)
erscheint im Passivsatz (14b) als Subjekt, und das Subjekt des Aktivsat-
zes Fritz tritt im Passivsatz als Präpositionalphrase auf. Diese systema-
tische Beziehung manifestiert sich u.a. auch darin, daß ein Passivsatz
stets nur dann möglich ist, wenn es einen dazu analogen grammati-
schen Aktivsatz gibt, wie (15a) und (15b) zeigen:

(15a) *Fritz hat Maria gelacht


(15b) *Maria wurde von Fritz gelacht

Um die strukturelle Abhängigkeit zwischen diesen beiden Satztypen


auszudrücken, wird bereits in traditionellen Grammatiken zumeist
eine Passivregel angesetzt, die den Passivsatz aus dem entsprechenden
Aktivsatz ableitet, indem die grammatischen Funktionen - d.h. Sub-
jekt und Objekt - der Aktivkonstruktion entsprechend den passivi-
schen Verhältnissen umstrukturiert werden.
Wenngleich eine solche Regel intuitiv plausibel erscheint und den
meisten wohl auch aus dem Fremdsprachenunterricht bekannt ist, so
reicht sie dennoch nicht aus, um tatsächlich sämtliche möglichen Pas-
sivfälle zu erfassen. Während nämlich das Objekt des Aktivsatzes bei
der Passivbildung obligatorisch zum Subjekt werden muß, ist es mög-
lich, das Subjekt des Aktivsatzes bei der Passivierung fortfallen zu las-
sen. Ein derartig verkürzter Passivsatz kann nun offenkundig nicht
direkt aus einer entsprechenden Aktivstruktur abgeleitet sein, da es
eine solche überhaupt nicht gibt. Mit anderen Worten, (16b) kann nicht
das Ergebnis der Passivierung von (16a) sein, da ein Aktivsatz ohne
Subjekt ungrammatisch ist:

(16a) *hat Maria ausgelacht


(16b) Maria wurde ausgelacht

Aus diesem Grunde scheint es sinnvoll zu sein, (16b) aus (14b) abzulei-
ten, und zwar durch Anwendung einer sog. Tilgungsregel, die die Prä-
positionalphrase von Fritz löscht. Die Passivregel transformiert somit
(14a) in (14b) und die Tilgungsregel leitet daraus fakultativ (16b) ab.
Eine solche Behandlung des Passivs entspricht - von Details abgesehen
- weitgehend den in vielen Grammatiktheorien üblichen Beschrei-
bungsansätzen.
Unter E-grammatischen Gesichtspunkten ist gegen einen derarti-
gen Regelmechanismus zunächst nichts einzuwenden. Eine Gramma-
tik, die die oben skizzierte Passivregel wie auch die Tilgungsregel ent-
hält, ist imstande, die im Deutschen (und auch in anderen Sprachen)
möglichen Passivstrukturen korrekt zu spezifizieren. Aus formaler
Sicht erfüllt also eine solche Grammatik durchaus das Kriterium der
Beschreibungsadäquatheit. Es läßt sich jedoch zeigen, daß der darge-
stellte Regelapparat nicht Bestandteil der I-Grammatik sein kann, da
eine Tilgungsregel, die (16b) aus (14b) ableitet, zu prinzipiellen Schwie-
rigkeiten bei der Sprachverarbeitung führt.
Zunächst ist klar, daß der Hörer einer Äußerung in der Lage sein
muß, eventuell getilgte Elemente in einem Satz wieder rekonstruieren
zu können, da es sonst nicht möglich wäre, den Satz vollständig zu
interpretieren. Eine solche Rekonstruierbarkeit ist aber nur dann gege-
ben, wenn die Möglichkeit der Tilgung in sehr spezifischer Weise einge-
schränkt ist bzw. wenn aus der übrigen Satzstruktur klar erkennbar ist,
welche Elemente getilgt wurden. In der Tat zeigen Beispiele wie in (17)
und (18), daß Tilgungen spezifischen Restriktionen unterliegen:

(17a) Dagmar hat ein neues Auto gekauft und Egon auch
(17b) Dagmar hat ein neues Auto gekauft und Egon hat auch
ein neues Auto gekauft
(17c) Dagmar hat ein neues Auto gekauft und Egon hat auch
viel Geld ausgegeben
(18a) John finally left Boston, although he really didn't want to
(18b) John finally left Boston, although he really didn't want to
leave Boston
(18c) John finally left Boston, although he really didn't want to
find a job somewhere else

(17a) und (18a) können nur im Sinne von (17b) bzw. (18b) interpretiert
werden, nicht jedoch in der Bedeutung von (17c) bzw. (18c). Konkret:
es können in den genannten Beispielen nur die Elemente getilgt wer-
den, die zuvor im Satz bereits angesprochen wurden. Nur durch diese
Restriktion ist gewährleistet, daß ein Hörer Sätze wie (17a) und (18a)
überhaupt interpretieren kann. Wären Tilgungen völlig frei, so müßte
der Hörer eine im Prinzip unendlich große Zahl von Möglichkeiten
durchspielen, um die Intention des Sprechers zu erkennen. Damit
wären aber Sätze wie (17a) und (18a) überhaupt nicht, oder nur unter
großen Schwierigkeiten interpretierbar. In Wirklichkeit sind aber der-
artige Sätze für den Hörer völlig problemlos.
Betrachten wir nun wiederum den Passivsatz (16b), so wird deut-
lich, daß er keinerlei Hinweise darauf enthält, welche Präpositional-
phrase - wie in (14b) - getilgt worden sein könnte. Wenn die Tilgungs-
regel auf (14b) angewandt werden darf, so muß sie ebenfalls auf Sätze
wie (19a)-(19c) angewandt werden dürfen. In allen Fällen entsteht das
gleiche Resultat: (16b):

(19a) Maria wurde von Egon und seiner Mutter ausgelacht


(19b) Maria wurde von ihren Mitschülern ausgelacht
(19c) Maria wurde von dem Mann mit dem roten Hemd ausge-
lacht

Die Liste der Beispiele in (19) läßt sich beliebig fortsetzen. In der Tat
gibt es eine im Prinzip unendliche Anzahl von Sätzen, aus denen (16b)
per Tilgung abgeleitet sein könnte. Dies bedeutet aber, daß das oben
skizzierte Beschreibungsverfahren nur funktioniert, wenn freie Tilgung
der Präpositionalphrase wie in (14b) und in (19) zugelassen ist. Wie wir
jedoch anhand der Beispiele in (17) und (18) gezeigt haben, kann eine
solche freie Tilgungsregel aus I-grammatischer Perspektive nicht
akzeptiert werden, da die entsprechenden Strukturen vom Hörer nicht
mehr bzw. nur unter enormen zeitlichen Aufwand analysiert werden
könnten.
Dieses Beispiel verdeutlicht, daß eine Grammatik, die eine Passiv-
struktur wie (16b) über Tilgung aus (14b) ableitet, offenkundig nicht als
adäquate I-Grammatik angesehen werden kann, da sie das Kriterium
der Verarbeitbarkeit (und vermutlich auch der Lernbarkeit) verletzt.
Eine adäquate I-Grammatik (des Englischen oder des Deutschen) muß
die strukturellen Gegebenheiten der Passivbildung auf andere Weise
spezifizieren als durch die genannten Regeln. Andererseits ist klar, daß
eine E-Grammatik diesen Restriktionen nicht unterliegt und somit
ohne weiteres eine freie Tilgungsregel, die mit einer unendlichen Zahl
zugrundeliegender Strukturen arbeitet, enthalten kann. Eine E-Gram-
matik ist unter dieser Perspektive letztlich ein mathematisches Objekt,
das diesbezüglich keinen prinzipiellen Beschränkungen unterliegt (cf.
Katz 1984:37). Solange eine E-Grammatik die in einer Sprache mögli-
chen Sätze (und deren Struktur) korrekt spezifizieren kann, ist sie
unter rein deskriptivem Aspekt als adäquat anzusehen. Kriterien der
Lernbarkeit oder Verarbeitbarkeit sind hier irrelevant.
Somit stellt sich die Frage, unter welchen Bedingungen es sinnvoll
ist, neben einer I-Grammatik auch eine E-Grammatik zu schreiben.
Offensichtlich ist dies dann angezeigt, wenn natürliche Sprachen im
oben definierten Sinne interessante mathematische Objekte sind, d.h.
über Eigenschaften verfügen, die aus der Perspektive des Mathemati-
kers Einsichten in die allgemeine Struktur formal-abstrakter Objekte
liefern. Ob dies in der Tat der Fall ist, scheint bei unserem derzeitigen
Kenntnisstand noch weitgehend unklar zu sein. Natürlich ist unbe-
streitbar, daß sich natürliche Sprachen durchaus als mathematische
Objekte darstellen lassen; es ist jedoch keineswegs sicher, ob ein sol-
ches Unterfangen aus mathematischer Sicht lohnenswert ist.
So sehen etwa Gazdar et al. (1985) Linguistik als eine Teildisziplin
der Mathematik, und nicht etwa der Psychologie an. Im Gegensatz zu
der Auffassung von Chomsky versucht die von Gazdar entwickelte
Generalized Phrase Structure Grammar (GPSG), die Gesetzmäßigkeiten
natürlicher Sprachen nicht aus der Struktur der menschlichen Kogni-
tion, sondern aus mathematischen Prinzipien abzuleiten. Mit anderen
Worten, nach Gazdar et al. ergeben sich die universalen Eigenschaften
natürlicher Sprachen aus der Tatsache, daß natürliche Sprachen zu einer
ganz bestimmten mathematisch spezifizierbaren Klasse von abstrakten
Objekten gehören. Eine grundlegende empirische These der GPSG
besteht in der Aussage, daß für die Beschreibung der Strukturen natürli-
cher Sprachen nicht auf den Formalismus einer kontextsensitiven Gram-
matik zurückgegriffen werden muß, sondern daß diese Strukturen auch
durch eine kontextfreie Grammatik erfaßt werden können. Diese These
ergibt natürlich nur dann einen Sinn, wenn es unabhängige Gründe
dafür gibt, - ceteris paribus - eine kontextfreie Grammatik einer kon-
textsensitiven vorzuziehen, und man mag fragen, welcher Art diese
Gründe sind. Nach Auffassung der GPSG liegt der entscheidende
Grund in der Tatsache, daß über die mathematischen Eigenschaften
kontextfreier Grammatiken erheblich mehr bekannt ist als über die kon-
textsensitiver Grammatiken; insbesondere besitzen kontextfreie Spra-
chen Eigenschaften (cf. Hopcroft & Ullman 1979), die sie leichter pars-
bar und leichter lernbar erscheinen lassen. Wenn man sich also bei der
Beschreibung natürlicher Sprachen auf kontextfreie Grammatiken
beschränkt, so ergibt sich »the beginning of an explanation for the
obvious, but largely ignored, fact that humans process the sentences
they hear very rapidly« (Gazdar 1981:155). Hier zeigt sich jedoch, daß
die Beschränkung auf kontextfreie Beschreibungsformalismen durch
psychologische bzw. biologische Überlegungen motiviert wird, denn
Parsbarkeit und Lernbarkeit sind nur dann sinnvolle Adäquatheitskrite-
rien, wenn man Sprachen nicht allein im mathematischen Kontext be-
trachtet, sondern auf ein spezifisches kognitives Leistungsvermögen des
Menschen Bezug nimmt. Mit anderen Worten, es sind nicht rein mathe-
matische, sondern vor allem psychologische Gründe, die - sofern mög-
lich - für eine Bevorzugung kontextfreier Beschreibungen sprechen.
Wenn wir nun mit Gazdar et al. annehmen, daß natürliche Sprachen
in der Tat kontextfrei sind, so verlangt diese Tatsache selbst eine Erklä-
rung. Allgemeiner ausgedrückt: wenn natürliche Sprachen zu einer
bestimmten mathematischen Klasse von abstrakten Objekten gehören,
so stellt sich die Frage, warum dies so ist, d.h. warum natürliche Spra-
chen gerade zu dieser und keiner beliebig anderen Klasse gehören. Wie
immer die Antwort auf diese Frage im einzelnen lauten mag, sie kann
nicht aus mathematischen, sondern allein aus biologischen bzw. psy-
chologischen Überlegungen folgen. Die essentiellen, d.h. nicht-akzi-
dentellen Eigenschaften natürlicher Sprachen ergeben sich aus der
Struktur der menschlichen Kognition. Die Kriterien der Lernbarkeit,
Parsbarkeit und Repräsentierbarkeit zusammen mit der spezifischen,
biologisch vorgegebenen Struktur des »human mind« erfordern und
begründen die essentiellen formalen Eigenschaften natürlicher Spra-
chen. Der mathematische Formalismus liefert lediglich eine Beschrei-
bung sprachlicher Strukturen; allein der Rekurs auf psychologische
und biologische Fakten, nicht aber der mathematische Formalismus
bietet eine Erklärung für die Struktur natürlicher Sprachen. Mit ande-
ren Worten, es gibt keinen mathematischen Grund dafür, daß die Klasse
natürlicher Sprachen etwa durch das Subjazenzprinzip (cf. Band II,
Kap. 3 . 3 ) oder durch Bindungsprinzipien (cf. Band II, Kap. 2.4) einge-
schränkt ist. Offenkundig resultieren derartige Beschränkungen aus
der spezifischen Struktur der menschlichen Kognition und es ist denk-
bar, daß Organismen mit einer anderen mentalen Organisationsform
auch andere Typen von Sprachen erlernen und benutzen könnten.
Ebenso lassen sich etwa die Mendel<schen Vererbungsgesetze zwar
mathematisch beschreiben, jedoch wird man vergeblich in der Mathe-
matik nach einer Antwort auf die Frage suchen, warum die Vererbung
genau diesen und keinen anderen Gesetzmäßigkeiten folgt. Die Erklä-
rung liegt offensichtlich in der spezifischen Struktur der Gene. Lingu-
istik wie Biologie sind eben nicht mathematische, sondern empirische
Wissenschaften und mathematische Resultate sind für diese Wissen-
schaften nur in dem Maße relevant, wie sie zu spezifischen empirischen
Fakten in Beziehung gesetzt werden können.
Nun ließe sich natürlich vorstellen, daß die Klasse natürlicher Spra-
chen mit einer bestimmten mathematisch definierten Klasse von
abstrakten Objekten zusammenfällt. In diesem Falle wäre die mathe-
matische Charakterisierung wiederum nichts anderes als eine Beschrei-
bung, jedoch läge die Vermutung nahe, daß die entsprechenden mathe-
matischen Prinzipien eben in der Struktur der menschlichen Kognition
verankert wären, so daß sich daraus die Erklärung für die spezifischen
Eigenschaften natürlicher Sprachen ergäbe. Bislang ist jedoch noch nie-
mandem der Nachweis einer solchen Korrelation zwischen der Klasse
natürlicher Sprachen und einer mathematisch definierten Klasse von
abstrakten Objekten gelungen. Selbst wenn es zutrifft, daß alle natürli-
chen Sprachen kontextfrei sind, so sind offenkundig nicht alle kontext-
freien Sprachen auch mögliche natürliche Sprachen (cf. Berwick &
Weinberg 1984). So ist etwa die Sprache, die sich durch die Regel anbn
spezifizieren läßt9, zwar kontextfrei, aber offenkundig kein Kandidat
für eine natürliche Sprache. Mit anderen Worten, die Klasse der natür-
lichen Sprachen ist bestenfalls eine Untermenge der kontextfreien Spra-
chen; die Prinzipien, die diese Untermenge spezifizieren, sind jedoch
nicht aus der Kontextfreiheit ableitbar. Mit anderen Worten, es gibt kei-
nen erkennbaren mathematischen Grund, warum zwar das Deutsche
aber nicht die anbn-Sprache eine natürliche Sprache ist. Insofern geht
die mathematische Charakterisierung an dem grundlegenden Problem
völlig vorbei, nämlich, warum sehen natürliche Sprachen so aus, wie
sie aussehen. Darüber hinaus weisen Berwick & Weinberg (1984) dar-
auf hin, daß die »negativen« mathematischen Eigenschaften einer Klas-
se formaler Sprachen, wie schlechte Parsbarkeit oder Lernbarkeit, sich
stets auf den »worst case« beziehen. Da diese »worst cases« gleichzeitig
mathematische Eigenschaften haben10, die in natürlichen Sprachen
nicht auftreten, bleibt nach Berwick & Weinberg fraglich, inwieweit
diese mathematischen Resultate für linguistische Fragestellungen über-
haupt von Belang sind.
Die Vorstellung, Linguistik sei ein Teilbereich der Mathematik, ist
also eigentlich nur dann sinnvoll, wenn sich zeigen läßt, daß genau die
Klasse der natürlichen Sprachen ein mathematisch in sich konsistentes
und interessantes Objekt ist. Nur in diesem Fall lassen sich die Struk-
tureigenschaften natürlicher Sprachen plausiblerweise aus mathemati-
schen Prinzipien ableiten. Unseres Wissens steht ein solcher Nachweis
jedoch noch aus. Im Augenblick ist nur schwer erkennbar, inwieweit
derartig konzipierte E-Grammatiken linguistisch interessante Informa-
tionen liefern, die über das hinausgehen, was bereits durch die I-Gram-

9 In dieser Sprache, die nur die beiden Wörter a und b enthält, sind all diejenigen
Sätze grammatisch, in denen auf eine beliebige Zahl von a eine gleichgroße Zahl
von b folgt.
10 Hierzu gehören etwa formale Systeme, mit denen man das Entscheidungspro-
blem der Aussagenlogik lösen kann. Dies ist mit natürlichen Sprachen nachweis-
lich nicht möglich (cf. Berwick & Weinberg 1984).
matik ausgedrückt ist. Dies bedeutet natürlich nicht, daß mathemati-
sche Überlegungen bei der Erstellung von I-Grammatiken nicht von
erheblichem Wert sein können.11
In diesem Kontext haben vor allem Searle (1980) und Katz (1981)
darauf hingewiesen, daß auch mentalistisch orientierte Linguisten bei
der tatsächlichen Konzipierung von I-Grammatiken letztlich nicht
anders vorgehen als diejenigen, die Sprache als ein abstraktes und von
seiner mentalen Repräsentation unabhängiges Objekt ansehen. In bei-
den Fällen besteht das übliche Vorgehen darin, für eine bestimmte
Menge natürlich-sprachlicher Sätze eine optimale Grammatik zu
schreiben, wobei die Definition von >optimal< weitgehend formalen
Eleganz- und Konsistenzkriterien folgt (cf. hierzu Chomsky
1965:37-45). Es gibt nun keinerlei zwingende Gründe für die Annah-
me, daß eine in diesem Sinne optimale Grammatik auch tatsächlich die
in unserer Kognition verankerte ist. »It makes perfectly good sense to
ask whether the best theory we can devise about language is also a theo-
ry of psychological reality« (Katz 1981:70/71). Es ist denkbar, daß das
System mentaler Repräsentationen, das real im Gehirn existiert - etwa
durch evolutionären Zufall bedingt - Redundanzen oder Inkonsisten-
zen enthält. Mit anderen Worten, wir können nicht einfach annehmen,
daß die Evolution und die menschliche Biologie nach den gleichen Kri-
terien arbeiten wie der Linguist.

11 Natürlich ist nicht zu bestreiten, daß die Untersuchung der mathematischen


Eigenschaften realer Objekte auch für die empirischen Wissenschaften von
grundsätzlicher Bedeutung sein kann. So ist der vehemente Fortschritt der
modernen Physik sicher in erheblichem Maße auf die gleichzeitige Entwicklung
in der Mathematik zurückzuführen. Ebenso gewinnen mathematische Modelle
in der Biologie zunehmend an Bedeutung (cf. Dawkins 1979). In ähnlicher Weise
hat auch die mathematische Theorie der logisch denkbaren Sprachen Einsichten
geliefert, die für den an natürlichen Sprachen interessierten Linguisten von Inter-
esse sind. So kann etwa gezeigt werden, daß nur eine Teilklasse von Sprachen
durch Finite-State-Grammatiken erzeugt werden können und daß natürliche
Sprachen nicht zu dieser Klasse gehören. Vermutlich gehören natürliche Spra-
chen nicht einmal zur Klasse logisch denkbarer Sprachen, die allein mit Phrasen-
strukturgrammatiken erzeugbar sind (cf. Postal 1964; Huybregts 1976; Langen-
doen 1977; und Gazdar (1982) für eine Gegenposition). Auch die Theorie der
Lernbarkeit logisch denkbarer Sprachen hat wichtige Ergebnisse für die Lin-
guisten erbracht (cf. Gold 1967; Wexler & Culicover 1980). Demgegenüber ist
jedoch keineswegs erwiesen, daß natürliche Sprachen selbst interessante mathe-
matische Objekte wären, d.h. daß sie sich durch interessante mathematische
oder logische Eigenschaften von anderen logisch denkbaren Zeichensystemen
unterscheiden.
Der Grundgedanke von Searle und Katz läßt sich am Beispiel der
englischen Fragebildung illustrieren. Im Englischen werden wh-Fragen
üblicherweise dadurch gebildet, daß die zu erfragende Konstituente
durch ein wh-Wort ersetzt wird, das dann am Satzanfang erscheint. Aus
Gründen, die ausführlich in Band II, Kap. 3.2, erläutert werden, nimmt
man an, daß derartige Fragen über eine Regel gebildet werden, die das
wh-Wort von seiner ursprünglichen Konstituentenposition an den Satz-
anfang bewegt. Wir finden also zunächst Sätze wie in (20):

(20a) John will buy a car


(20b) what will John buy -?

Bereits zu Beginn der 60er Jahre erkannte man, daß die wh-Bewegungs-
regel in bestimmten Konstruktionen nicht angewandt werden darf bzw.
zu ungrammatischen Sätzen führt:

(21a) John met Mary and Tom


(21b) *who did John meet Mary and -
(22a) John believes the claim that Bill met Mary
(22b) *who does John believe the claim that Bill met -
(23a) for John to win the race will be easy
(23b) *what will for John to win - be easy

Ross (1967a) schlug zur Erklärung dieser Ungrammatikalitäten drei


Prinzipien vor, und zwar den Coordinate Structure Constraint für Struk-
turen wie (21b), den Complex NP Constraint für (22b) und den Senten-
tial Subject Constraint für (23b). Jedes dieser Prinzipien spezifiziert eine
bestimmte strukturelle Konfiguration, in der wh-Bewegungen nicht
erlaubt sind. Chomsky (1973) gelang es nun, die Ross'schen Constraints
(sowie einige weitere Daten) unter einem einzigen Prinzip zu vereini-
gen, und zwar dem sog. Subjazenzprinzip (cf. Band II, Kap. 3.3). Aus
der allgemein akzeptierten Perspektive der Grammatiktheorie war
Chomskys Analyse gegenüber Ross' Vorschlag ein Fortschritt, weil
sich nunmehr die gleiche Datenlage statt durch mehrere nur durch ein
einziges Prinzip erklären ließ. Nun ist jedoch keineswegs klar, warum
die Perspektive der Grammatiktheoretiker auch die Perspektive der
Natur sein muß. Es ist eben denkbar, daß die biologische I-Grammatik
- aus welchen Gründen auch immer - tatsächlich mit den Ross'schen
Prinzipien und nicht mit der Subjazenz arbeitet. In diesem Falle wäre
das tatsächliche System mentaler Repräsentationen zwar weniger ele-
gant und ökonomisch, aber es mag sein, daß die Biologie eben so
beschaffen ist. Aus diesen Überlegungen heraus vertreten Searle und
Katz die Auffassung, daß Linguisten, selbst wenn sie als Zielsetzung
die I-Grammatik angeben, letztlich nur abstrakte Objekte spezifizie-
ren, deren biologische Realität fraglich bzw. unentscheidbar ist.
Den Einwand von Searle und Katz kann man unter zwei Gesichts-
punkten betrachten. Zunächst ist natürlich immer vorstellbar, daß für
eine bestimmte Menge empirischer Daten zwei (oder auch mehr) glei-
chermaßen adäquate Lösungen existieren. Dies bedeutet allerdings
lediglich, daß auf der Grundlage dieser Daten nicht entscheidbar ist,
welche dieser Lösungen im Sinne der tatsächlichen mentalen Repräsen-
tation die richtige ist. In einer solchen Situation ist es angezeigt, nach
weiteren Daten und Evidenzen Ausschau zu halten, die für eine Ent-
scheidung zwischen den verschiedenen Lösungen relevant sind. Dies
ist die normale wissenschaftliche Praxis. Unter diesem Gesichtspunkt
ist der Einwand von Searle und Katz nicht prinzipieller Natur, sondern
spiegelt nur die triviale - weil allerseits bekannte - Tatsache wider, daß
unser derzeitiger Erkenntnisstand noch sehr lückenhaft ist und durch
weitere Forschung vertieft werden muß. Man kann den Einwand aller-
dings auch als einen prinzipiellen Einwand verstehen. Selbst wenn wir
oder künftige Generationen alle denkbare und verfügbare empirische
Evidenz zusammengetragen und analysiert hätten, so bestünde den-
noch die Möglichkeit, daß mehrere Lösungen mit den Daten kompati-
bel sind und wir daher nicht entscheiden können, wie die mentale
Repräsentation unseres grammatischen Wissens tatsächlich organisiert
ist. In dieser Lesart besagt der Einwand letztlich nichts anderes, als daß
die uns interessierende Frage aus prinzipiellen Gründen empirisch
nicht entscheidbar ist, d.h. daß es Bereiche geben mag, die in letzter
Konsequenz der menschlichen Erkenntnisfähigkeit entzogen sind.
Unter diesem Aspekt ist der Einwand zwar zutreffend, aber im Grunde
uninteressant, weil aus ihm nichts folgt außer der Einsicht, daß der
Mensch - und daran zweifeln nur wenige - nicht alles erkennen kann,
was er erkennen möchte. Aus dem Einwand folgt insbesondere nicht,
daß man die wissenschaftliche Erkenntnisfähigkeit nicht so weit wie
möglich ausschöpfen sollte. Dies wäre nämlich offenkundig eine Bank-
rotterklärung jeglichen wissenschaftlichen Bemühens. Im Grunde ist
die prinzipielle Lesart des Einwandes auch deshalb nicht ernstzuneh-
men, weil die Begrenztheit wissenschaftlicher Erkenntnismöglichkeit
natürlich nicht auf die Linguistik beschränkt ist, sondern für alle Wis-
senschaften gilt. Dies zeigt sich auch in trivialen Bereichen. Wenn etwa
ein Physiker eine Theorie über die Beschaffenheit des Kerns der Sonne
aufstellt, so gibt es aus prinzipiellen Gründen (er kann nämlich nicht
vor Ort nachschauen) keine Möglichkeit festzustellen, ob seine Aussa-
ge auch tatsächlich zutreffend ist. Doch diese Einsicht hindert den Phy-
siker nicht daran, weiterhin Physik zu betreiben; somit sollte auch der
Einwand von Searle und Katz den Linguisten nicht daran hindern, über
I-Grammatiken so viele Erkenntnisse wie möglich zu sammeln,
obwohl vielleicht eben doch nicht alles möglich ist.
Hinter Katz' und Searles Einwand steckt natürlich letztlich die Vor-
stellung, die optimale Beschreibung einer Sprache - etwa des Engli-
schen - sei prinzipiell gleichwertig mit oder sogar höherwertig als die
nicht-optimale, aber psychologisch reale Beschreibung dieser Sprache.
Bei diesem Einwand wird jedoch der entscheidende Unterschied zwi-
schen deskriptiven und explanatorischen Theorien übersehen. Eine
deskriptive Theorie zielt allein auf die präzise Spezifizierung eines Phä-
nomenbereichs ab; sie ist daher genau dann korrekt, wenn ihre
Beschreibungen mit dem jeweiligen Datenbereich exakt übereinstim-
men bzw. diesen exakt wiedergeben. Unter diesem deskriptiven Aspekt
sind alle verschiedenen Grammatiken einer Sprache gleichermaßen kor-
rekt, sofern sie die Daten in zutreffender Weise charakterisieren. Man
kann sich nun die Frage stellen, welche dieser verschiedenen, aber glei-
chermaßen korrekten Beschreibungen »gut« oder »optimal« ist. Offen-
sichtlich hängt dies vom jeweiligen Beschreibungszweck ab. Eine opti-
male Beschreibung des Englischen zum Zwecke des Fremdsprachenun-
terrichts wird vermutlich anders aussehen als eine Beschreibung, die als
Grundlage für eine Computerimplementierung dienen soll. Im ersten
Falle mag leichte allgemeine Verständlichkeit, im zweiten Fall formale
Nähe zu Prolog oder Lisp das entscheidende Kriterium sein.
Wenngleich es durchaus sinnvoll sein kann, Linguistik in diesem
Sinne als eine beschreibende Wissenschaft zu betreiben, so sind doch
die Kriterien optimal und korrekt identisch, sobald es nicht um Des-
kription, sondern um explanatorische Theorien geht. Fragen wir etwa,
warum der Satz wen widersprach Hans der Behauptung, daß Fritz ver-
führt hat als Frage zu Hans widersprach der Behauptung, daß Fritz Maria
verführt hat ungrammatisch ist, so mag man zunächst darauf hinwei-
sen, daß Fragebildungen aus komplexen Nominalphrasen generell
nicht erlaubt sind. Man mag weiterhin fragen, warum dies der Fall ist,
und nach der Analyse weiterer Datenbereiche als umfassendere Gene-
ralisierung für dieses und andere Phänomene auf das Subjazenzprinzip
hinweisen. Doch irgendwann wird der Rekurs auf das menschliche
Kognitionssystem unausweichlich. Warum natürliche Sprachen dem
Subjazenzprinzip unterliegen, läßt sich nicht aus allgemeinen Eigen-
schaften abstrakter Objekte ableiten; vielmehr unterliegen natürliche
Sprachen dem Subjazenzprinzip, weil spezifische Struktureigenschaf-
ten der menschlichen Kognition dies erfordern und weil nur die Exi-
stenz solcher kognitiv verankerten Prinzipien Lernbarkeit unter den
real gegebenen Bedingungen des kindlichen Aufwachsens garantieren
(cf. Kap. 3 ) . In einer erklärenden Wissenschaft ist die optimale
Beschreibung weder die ästhetisch einfachste noch die mathematisch
eleganteste, sondern diejenige, die die tatsächlichen - und nicht allein
theoretisch denkbaren - Ursachen für ein Faktum angibt und somit
eine Erklärung der Zusammenhänge liefert. Hierin liegt der zentrale
Unterschied zwischen Mathematik und Linguistik. Während sowohl
in der Mathematik als auch in der Linguistik einzelne Fakten wie all-
gemeingültige Gesetzmäßigkeiten über die Ableitung aus zugrundelie-
genden Prinzipien bzw. Axiomen erklärt werden, sind die Axiome in
der Mathematik innerhalb der Grenzen von Konsistenz und Wider-
spruchsfreiheit prinzipiell beliebig wählbar; in der Linguistik hinge-
gen unterliegen die Prinzipien der empirischen Überprüfung und
Rechtfertigung.
Der Begriff der E-Grammatik ließe sich nun allerdings auch in einer
etwas anderen Form konzipieren, und zwar als System von sozialen
Normen und Konventionen, auf die sich eine Sprachgemeinschaft geei-
nigt hat. Diese Vorstellung von Sprache als sozialem Normensystem
hat in der Linguistik und Philosophie eine lange Tradition und ist in
jüngerer Zeit explizit von Lewis (1969) vertreten worden. Das Interes-
sante an Lewis' Konventionsbegriff ist, daß er - im Gegensatz zu frü-
heren Ansätzen - auch solche Konventionen einschließt, die eine
Gemeinschaft nicht bewußt verabredet hat, sondern die vielmehr
durch einen sog. »invisible hand process« quasi wie von selbst entste-
hen. Dementsprechend müssen die Individuen der Gemeinschaft der-
artige Konventionen und Normen auch nicht explizieren können.
Durch diesen erweiterten Konventionsbegriff gelingt es Lewis erst,
gerade die für die natürliche Sprachfähigkeit typischen Merkmale
einem auf soziale Normen abzielenden Erklärungsansatz zuzuführen.
Somit scheint es zunächst in der Tat plausibel zu sein, Sprache als ein
System solcher Konventionen anzusehen und (E-)Grammatik als eine
explizite Formulierung dieses Systems aufzufassen.
Bei einem solchen Ansatz stellt sich zunächst die Frage, worin denn
die sprachbezogenen Konventionen konkret bestehen. Einerseits sind
hier sicherlich solch relativ triviale Phänomene zu nennen wie die Tat-
sache, daß man sich in Bayern üblicherweise mit Grüß Gott, in den mei-
sten anderen Teilen Deutschlands jedoch mit Guten Tag begrüßt.
Sprachliche Konventionen erstrecken sich also zunächst darauf, Sätze
situations- und kontextadäquat zu verwenden. In diesem Bereich lassen
sich zweifellos eine Fülle von Beispielen finden, bei denen der Begriff
der Konvention zunächst eine intuitiv plausible Erklärung liefert. Als
Alternative zum mentalistischen Erklärungsansatz der generativen
Grammatik ist der Begriff der Konvention jedoch nur dann tauglich,
wenn er den gleichen zur Erklärung anstehenden Phänomenbereich
abdeckt. Dies bedeutet aber, daß die Konvention über die situations-
adäquate Verwendung von Sprache hinaus auch die Tatsache mit ein-
schließen muß, daß Sprecher einer Gemeinschaft stets nur die in der
betreffenden Sprache möglichen Sätze überhaupt verwenden. Mit ande-
ren Worten, die Konvention muß nicht nur spezifizieren, welcher Satz
bzw. welche Äußerung in welcher Situation angemessen ist, sondern
sie muß auch angeben, was in einer Sprache überhaupt ein möglicher
Satz ist. Konkret: die Konvention muß u.a. die Klasse der in einer Spra-
che möglichen Sätze festlegen. Bereits in Kap. 1.2 hatten wir jedoch
gezeigt, daß diese Klasse prinzipiell unbegrenzt groß ist, so daß nicht
etwa einzelne Sätze bzw. eine Liste von Sätzen Gegenstand der Kon-
vention sein können, sondern nur ein diesen Sätzen zugrundeliegendes
endliches Regelsystem. Würde sich die Konvention auf Sätze beziehen,
so wäre sie selbst unendlich und könnte somit in endlicher Zeit weder
spezifiziert noch durch den einzelnen Sprecher überprüft werden.
Diese Beobachtung drückt die vielfach von Philosophen wie auch Lin-
guisten übersehene Tatsache aus, daß die Sätze einer natürlichen Spra-
che aufgrund der Unendlichkeitsproblematik allein durch das sie spezi-
fizierende Regelsystem, sprich: die Grammatik, existieren. Ohne
Rekurs auf den Begriff der Grammatik ist es schlichtweg nicht möglich,
etwas Sinnvolles darüber auszusagen, was in einer Sprache ein mögli-
cher Satz ist. Dies bedeutet aber, daß der Gegenstand der Konvention
letztendlich eine Grammatik sein muß, und nicht etwa eine Sprache im
Sinne einer spezifischen Satzmenge (cf. auch Chomsky 1980:85)12.
Wenn nun der Gegenstand der Konvention aufgrund der oben darge-
stellten Überlegungen eine Grammatik sein muß, so stellt sich die
Frage, welcher Natur diese Grammatik ist. Einerseits wäre nun denk-

12 Hierbei ist zu beachten, daß es Lewis selbst nicht um eine Erklärung grammati-
scher Fähigkeiten geht, sondern allein um den wahrheitsgemäßen Gebrauch von
Äußerungen. Insofern betrifft die nachfolgende Diskussion nur in bedingtem
Maße die speziell von Lewis explizierte Position.
bar, daß sich die Konvention schlicht und einfach darin manifestiert, daß
alle Sprecher einer Gemeinschaft - also etwa alle Sprecher des Deut-
schen - über eine mental repräsentierte Grammatik, d.h. eine I-Gram-
matik, verfügen, die in den zentralen Bereichen für alle Individuen
gleich ist und daher die sprachliche Kommunikation miteinander
ermöglicht. Die Konvention bestünde also in dem Besitz der gleichen
I-Grammatik und genau dieser gemeinsame Besitz wäre das entschei-
dende Merkmal, das die Sprecher der gleichen Sprachgemeinschaft aus-
zeichnet und sie von den Sprechern anderer Gemeinschaften - etwa
den Sprechern des Englischen - unterscheidet. Unter dieser Perspekti-
ve ist die Konvention jedoch vollständig auf die I-Grammatik reduzier-
bar; d.h. eine vollständige und adäquate Spezifizierung der I-Gramma-
tik ist gleichzeitig eine vollständige und adäquate Charakterisierung
der Konvention. Durch den Rekurs auf den Begriff der Konvention
wird also nichts erklärt, was über die Spezifizierung der I-Grammatik
hinausgeht. Der Begriff der Konvention ist somit völlig überflüssig und
würde bestenfalls das triviale Faktum benennen, daß das, was die Spre-
cher des Deutschen im hier relevanten Bereich auszeichnet, eben der
Umstand ist, Sprecher des Deutschen zu sein.
Abgesehen von diesen Überlegungen führt die Vorstellung, die Kon-
vention bestünde im gemeinsamen Besitz einer bestimmten I-Gramma-
tik, auch zu vielfältigen konzeptuellen Unverträglichkeiten. I-Gram-
matiken spezifizieren das grammatische Wissen eines Sprechers und
charakterisieren somit einen bestimmten mentalen Zustand. Nach
Lewis beziehen sich Konventionen jedoch stets auf Handlungen und
das grammatisches Wissen eines Sprechers kann wohl kaum selbst als
Handlung bezeichnet werden, sondern nur als die den sprachlichen
Handlungen zugrundeliegende Kompetenz. Zweifellos ist es auch
wenig sinnvoll, den Konventionsbegriff dahingehend zu erweitern, daß
auch mentale Zustände - also Wissen - eingeschlossen sind. Zumin-
dest scheint es uns eher ungewöhnlich bzw. kontraintuitiv zu sein,
wenn man behaupten wollte, daß etwa zwischen Schachspielern die
Konvention besteht, die Regeln des Schachspiels zu kennen (cf. Kap.
1.3). Bei einer derartigen Ausweitung wäre der Begriff der Konvention
eher geeignet, Sachverhalte und deren Zusammenhänge zu verschleiern
anstatt sie zu erklären. Darüber hinaus kann in einem intuitiven Sinne
von Konvention nur dann sinnvollerweise gesprochen werden, wenn zu
einer konventionalisierten Handlung prinzipiell Alternativen gegeben
sind, die ein Individuum bzw. eine Gemeinschaft ebensogut wählen
könnte, faktisch aber nicht wählt. Was das Wesen einer Kon-
vention auszumachen scheint, ist gerade der Umstand, daß sich eine
Gruppe von Individuen auf eine von verschiedenen prinzipiell ebenso
möglichen Handlungsweisen einigt, weil eine solche Einigung etwa für
das Funktionieren der Gemeinschaft vernünftig oder von Vorteil ist.
Der Begriff der Konvention scheint also stets die prinzipielle Möglich-
keit zu implizieren, die Konvention zu verletzen. So besteht etwa in
Deutschland die Konvention, im Straßenverkehr rechts zu fahren, wäh-
rend man in England oder Japan links fährt. Eine solche Konvention
besteht, weil die entsprechende Regelung für das Funktionieren eines
reibungslosen Straßenverkehrs förderlich ist. Zu dieser konventionali-
sierten Handlung gibt es natürlich sowohl für die Gemeinschaft als
auch für das Individuum prinzipiell verschiedene realisierbare Alterna-
tiven. Man könnte etwa - wiederum per Konvention - beschließen,
zukünftig in Deutschland links zu fahren oder auch jegliche Regelung
aufzuheben. Ebenso kann offenkundig jedes Individuum alternative
Handlungsweisen wählen und damit gegen die Konvention verstoßen.
Nur weil zu einer Konvention für jeden realisierbare Alternativen exi-
stieren, werden Konventionsverstöße vielfach durch die Gemeinschaft
- etwa in Form der Strafjustiz - geahndet. Demgegenüber würde man
sicher das Schließen der Augen beim Niesen nicht als Konvention
bezeichnen wollen. Man schließt die Augen beim Niesen nicht auf-
grund einer Konvention, sondern weil hier ein biologisch determinier-
ter Reflex abläuft. Selbst in Situationen, in denen diese Handlung
unvernünftig ist - etwa beim Fahren auf der Autobahn mit hoher
Geschwindigkeit - kann sie nicht vermieden werden. Und genau weil
es zu dieser Handlung keine realisierbare Alternative gibt, käme keine
Gemeinschaft auf den Gedanken, das Schließen oder Nicht-Schließen
der Augen beim Niesen unter Strafe zu stellen oder auf andere Weise
zu ahnden.
Unter diesem Aspekt ist es nun jedoch äußerst fraglich, ob man in
der Tat Spracherwerb und Sprachverwendung als Konvention bezeich-
nen kann. Kindern lernen ihre Muttersprache nicht, weil dies aufgrund
irgendeiner Konvention festgelegt ist, um ansonsten potentiell realisier-
bare Alternativen auszuschließen. Kinder haben gar keine andere Wahl.
Sie können weder den Spracherwerb insgesamt verweigern noch etwa
sich auf den Erwerb bestimmter sprachlicher Teilbereiche beschränken
(cf. Felix 1987). Wenn Kinder in der Tat ihre Muttersprache nicht oder
nur teilweise erwerben, so liegt dies an biologisch determinierten
Pathologien und nicht an der Weigerung, sich einer Konvention zu
unterwerfen. Dies gilt gerade auch in Situationen, in denen dem Kind
scheinbar Alternativen zur Verfügung stehen. Kinder, die in mehrspra-
chigen Umgebungen aufwachsen oder deren Eltern unterschiedliche
Sprachen verwenden, haben zwar logisch, aber eben nicht faktisch eine
Wahlmöglichkeit. Sie können nicht entscheiden, ob sie beide oder nur
eine der Sprachen erlernen wollen. Kinder lernen in derartigen Situatio-
nen stets beide der angebotenen Sprachen. Wie wir in Kap. 5.4 noch
ausführlich zeigen werden, ist der Spracherwerb ein Prozeß, der aus
biologischer Notwendigkeit abläuft und dem sich das Kind nicht ent-
ziehen kann. Auch im Bereich der Sprachverwendung scheint der
Begriff der Konvention im hier diskutierten Sinne kaum eine vernünfti-
ge Interpretation zuzulassen. Wenn Deutsche Deutsch oder Franzosen
Französisch sprechen, so ist dies sicher keine Konvention, die eine
unter verschiedenen alternativen Handlungsmöglichkeiten auszeich-
net. Jeder lernt und verwendet notwendigerweise die Sprache seiner
Umgebung; die Frage von Konvention und potentiellen Alternativen
stellt sich hier gar nicht. Ebensowenig würde man sagen wollen, daß
zwischen den Menschen die Konvention besteht, sich regelmäßig zu
ernähren. Auch in diesem Bereich folgt der Mensch biologischen, nicht
sozialen Notwendigkeiten.
Es wäre nun - im Gegensatz zu der oben skizzierten Vorstellung -
denkbar, daß die Konvention nicht im gemeinsamen Besitz einer I-Gram-
matik besteht, sondern daß es unabhängig von der (mental repräsentier-
ten) I-Grammatik eine weitere (deskriptiv adäquate) Grammatik gibt,
die eben nicht die Kriterien der Repräsentierbarkeit, Lernbarkeit, etc.
erfüllen muß. Dies wäre sozusagen der »klassische« Fall einer E-Gram-
matik, deren Existenz zunächst nichts mit der Struktur der menschli-
chen Kognition oder dem grammatischen Wissen eines Sprechers zu
tun hat. Hier stellt sich nun vor allem die Frage, unter welchem Aspekt
die Charkaterisierung dieser E-Grammatik interessant sein könnte. In
dem hier diskutierten Kontext könnte man sich nun vorstellen, daß
eben diese E-Grammatik Gegenstand der Konvention ist, und zwar im
Sinne einer Überprüfungsinstanz, an der sich der individuelle Sprecher
ausrichten kann. Mit anderen Worten, die in der E-Grammatik kodifi-
zierte Konvention bietet dem einzelnen Sprecher die Möglichkeit fest-
zustellen, ob die von seiner I-Grammatik spezifizierten Sätze (und
deren Strukturen) übereinstimmen mit denen, die auch andere Spre-
cher der Gemeinschaft als mögliche Sätze der betreffenden Sprache
ansehen. Die Aussage, Sprachverwendung sei Konvention, wäre
dementsprechend so zu verstehen, daß der einzelne Sprecher - wenn-
gleich unbewußt - die durch seine I-Grammatik erzeugten Sätze auf
Übereinstimmung mit der Konvention, i.e. der durch die E-Gramma-
tik spezifizierten Sätze, überprüfen kann.
Die Vorstellung, Gegenstand der Konvention sei eine E-Gramma-
tik, die als Überprüfungsinstanz dient, impliziert nun zumindest, daß
der Sprecher die E-Grammatik kennt, da er sonst nicht feststellen
kann, ob ein gegebener Satz (aus der unendlichen Menge möglicher
Sätze), den seine I-Grammatik erzeugt, ebenfalls von der E-Gramma-
tik erzeugt wird. Dies bedeutet aber, daß die E-Grammatik mental
repräsentierbar sein muß. Darüber hinaus muß die E-Grammatik aber
auch offensichtlich das Kriterium der Verarbeitbarkeit (Parsbarkeit)
erfüllen, denn nur dadurch ist gewährleistet, daß der Sprecher (in end-
licher Zeit) feststellen kann, ob ein gegebener Satz von der E-Gram-
matik erzeugt wird.
Somit reduziert sich der Vergleich zwischen der I-Grammatik und
der E-Grammatik auf das Kriterium der Lernbarkeit. Nun kann ein
Sprecher die E-Grammatik nur dann kennen, wenn er sie auf irgendei-
ne Art und Weise gelernt hat, da die E-Grammatik offenkundig nicht
angeboren ist. Allerdings ist »Lernen« hier nicht notwendigerweise im
engen Sinne des natürlichen Spracherwerbs zu verstehen. Es wäre denk-
bar, daß die E-Grammatik explizit gelehrt wird. Doch diese Möglich-
keit scheidet aus offenkundigen Gründen aus, denn die E-Grammatik
könnte nur dann gelehrt werden, wenn sie irgendwo in explizit kodifi-
zierter Form vorliegt. Uns ist nicht bekannt, daß dies für irgendeine
natürliche Sprache zutrifft. Für die meisten Sprachen liegen nicht ein-
mal halbwegs deskriptiv-adäquate Grammatiken für die wichtigsten
grammatischen Teilbereiche vor; ein Umstand, der letztlich den Berufs-
stand der Linguisten rechtfertigt.
Da die E-Grammatik also nicht gelehrt werden kann, muß sie -
genau wie die I-Grammatik - unter den Bedingungen des natürlichen
Spracherwerbs erworben werden. Nun ist aber eine E-Grammatik per
definitionem eine Grammatik, für die das Kriterium der Lernbarkeit -
im Sinne des natürlichen Spracherwerbs (cf. Kap. 3) - gerade nicht gilt.
Mit anderen Worten, eine E-Grammatik muß allein das Kriterium der
deskriptiven Adäquatheit erfüllen; Faktoren wie Lernbarkeit oder
Repräsentierbarkeit spielen keinerlei Rolle. Wären diese Faktoren bei
der Charakterisierung einer E-Grammatik zu berücksichtigen, würden
letztlich wiederum psychologische bzw. biologische Überlegungen als
Adäquatheitskriterium heranzuziehen sein: die E-Grammatik wäre
damit eine potentielle I-Grammatik. Wenn also der Gegenstand der
Konvention eine tatsächliche E-Grammatik sein soll, so könnte kein
Sprecher einer Gemeinschaft jemals in Erfahrung bringen, worin denn
die Konvention besteht. Eine Konvention, die jedoch niemand kennt
und demnach auch von niemandem befolgt oder verletzt werden kann,
verdient kaum diesen Namen.
Würden wir nun der Grammatik, die den Gegenstand der Konven-
tion ausmacht, das Kriterium der Lernbarkeit auferlegen (und ihr
somit den Status einer I-Grammatik zusprechen), so läßt sich die Vor-
stellung einer allen Sprechern gemeinsamen Überprüfungsinstanz nur
unter einer äußerst bizarren Gedankenkonstruktion aufrechterhalten.
Dies würde nämlich bedeuten, daß jeweils zwei I-Grammatiken von
jedem Kind erworben und von jedem Sprecher mental repräsentiert
werden. Eine dieser I-Grammatiken kann von Individuum zu Indivi-
duum verschieden sein, die andere hingegen ist bei allen Sprechern
einer Gemeinschaft gleich. Sprachliches Wissen bedeutet dann u.a., daß
der Sprecher bei der Sprachverwendung kontinuierlich überprüft, ob
die von den beiden Grammatiken spezifizierten Satzmengen identisch
sind, und nur solche Sätze verwendet, für die diese Identität zutrifft.
Wenngleich eine solche Möglichkeit a priori nicht auszuschließen ist, so
scheint uns jedoch die Verfolgung dieser Perspektive beim derzeitigen
Stand der Linguistik kein unaufschiebbares Forschungsdesiderat zu
sein, zumal bislang keinerlei Evidenz für die Richtigkeit dieser Vorstel-
lung vorliegt.
Autonomie der Syntax

2.1 Zum Begriff der Autonomie

Im vorangegangenen Kapitel haben wir zu zeigen versucht, warum es


sinnvoll ist, die mentalen Repräsentationen unseres sprachlichen Wis-
sens als zentralen Gegenstandsbereich der Linguistik zu betrachten.
Unter einer solchen Forschungsperspektive ist nun zunächst konkret
zu fragen, wie dieses System mentaler Repräsentationen qualitativ zu
charakterisieren ist, d.h. welche Bereiche in welcher Form repräsentiert
sind und wie eventuell verschiedene Komponenten miteinander inter-
agieren. Mit anderen Worten, wie »sieht« das System konkret aus? Eine
solche qualitative Charakterisierung ist dann in einer entsprechenden
Theorie exakt in Form eines Regel- bzw. Repräsentationssystems aus-
zubuchstabieren. Während wir die in den vergangenen Jahren von einer
Vielzahl von Linguisten ausgearbeiteten spezifischen Vorschläge für die
konkrete Ausgestaltung des Regel- und Repräsentationssystems in
Band II dieser Einführung ausführlich darstellen werden, wollen wir
uns hier zunächst der allgemeinen qualitativen Charakterisierung
zuwenden.
Traditionell hat man den Gegenstandsbereich der Linguistik in die
Teilbereiche Phonetik/Phonologie, Morphologie/Wortbildung, Syntax
und Semantik eingeteilt. Diese Einteilung ist keineswegs willkürlich,
sondern geht auf die vor allem in den 40er Jahren von amerikanischen
Strukturalisten aufgestellte These zurück, daß sich die Teilbereiche
jeweils durch ein eigenständiges System von Beschreibungskategorien
erfassen lassen1. In jüngerer Zeit sind vor allem Pragmatik, Stilistik,

1 Der strukturalistische Deskriptivismus ging von der These der >separation of


levels< aus (cf. Bolinger 1968), d.h. jede Strukturebene (Phonologie, Morpholo-
gie, Syntax, Semantik) kann als ein in sich geschlossenes und unabhängiges
System beschrieben werden, wobei die einzelnen Systeme hierarchisch geordnet
sind. »Language was split into levels, each higher level depending on the one
below. Until the lower floors were put in order, the upper ones were not to be
entered. The result was that in their theoretical work the structuralists gave great
attention to phonology, a fair amount to morphology, very little to syntax, and
practically none to meaning« (Bolinger 1968:518).
Sprachproduktion und Sprachperzeption als weitere linguistische Teil-
disziplinen hinzugekommen. Diese Einteilung impliziert nun zunächst
keinerlei Aussage über die Struktur sprachbezogener mentaler Reprä-
sentationen; die traditionelle Klassifizierung linguistischer Teildiszipli-
nen orientiert sich an rein deskriptiven Kategorien. Alle Daten, d.h. alle
sprachlichen Phänomene, die in einem intuitiven Sinne z.B. etwas mit
Bedeutung zu tun haben, werden als Gegenstand der Semantik angese-
hen. Aus dieser Klassifizierung folgt aber nicht, daß einer solchen intui-
tiv definierten Teildisziplin Semantik nun auch auf der Ebene der men-
talen Repräsentationen ein kohärentes und einheitliches Struktursy-
stem entspricht. Bedenkt man etwa, welche Phänomene üblicherweise
dem Bereich der »Bedeutung« zugerechnet werden - etwa Referenz
von Pronomina, Skopus von Quantoren, natürliche Schlüsse, Relatio-
nen zwischen Inhaltswörtern, perzeptuell bedingte Begrifflichkeiten,
Wissen über die Welt usw. - so scheinen diese Bereiche derart disparat
und mit so unterschiedlichen Fragestellungen und Regularitäten ver-
bunden zu sein, daß nicht notwendigerweise zu erwarten ist, hierfür
ein einheitliches kognitives System vorzufinden. Mit anderen Worten,
es kann nicht a priori angenommen werden, daß in unserem Gehirn so
etwas wie eine »Semantikkomponente« existiert, die genau das regelt,
was üblicherweise Gegenstand der linguistischen Semantik ist. Viel-
mehr scheint zu gelten, daß sich semantische Phänomene vermutlich
aus dem Zusammenspiel verschiedener Systeme ergeben, z.B. der
Grammatik, dem Weltwissen, pragmatischer Regeln, der allgemeinen
Struktur des menschlichen Begriffssystems usw. (siehe dazu Gazdar
1979; Johnson-Laird 1983; Jackendoff 1983; Hornstein 1984; May
1985; Fanselow 1985b, 1987a).
Die Forschungen der vergangenen zwei Jahrzehnte deuten nun dar-
auf hin, daß vor allem zwei Bereichen unseres sprachlichen Wissens ein
eigenständiges, d.h. in sich geschlossenes System kognitiver Strukturen
entspricht, und zwar der Syntax und der Phonologie. Üblicherweise
werden diese beiden Bereiche unter der Bezeichnung »Grammatik«
oder »formale Kompetenz« zusammengefaßt. Dementsprechend erge-
ben sich alle übrigen Aspekte sprachlichen Wissens aus dem Zusam-
menspiel dieser formalen Kompetenz mit anderen kognitiven Struktur-
systemen, die sich jedoch auch auf nicht-sprachliches Wissen erstrek-
ken. In diesem Zusammenhang spricht Chomsky (1980) vom »concep-
tual System«, einem allgemeinen, d.h. nicht-sprachspezifischen
Begriffssystem (cf. hierzu auch Fodor 1981a), und er geht davon aus,
daß sich ein Großteil der semantischen Gesetzmäßigkeiten aus den
Eigenschaften dieses konzeptuellen Systems ergeben. Ebenso mag man
annehmen, daß der Mensch auch im Handlungsbereich über allge-
meine, d.h. nicht allein auf Sprache bezogene Fähigkeiten verfügt, die
man unter dem Begriff »Pragmatik« zusammenfassen könnte. Die
Prinzipien der Pragmatik erklären somit nicht allein Gesetzmäßigkei-
ten sprachlichen Handelns, sondern ebenso etwa, wie sich im Zusam-
menhang mit Ethik Selbstverpflichtungen ergeben. Vermutlich lassen
sich die wichtigsten Gesetzmäßigkeiten von Sprechakten wie etwa
»Versprechen« oder »Befehlen« (cf. Austin 1962; Searle 1969) aus Kate-
gorien ableiten, die nicht nur sprachliches Handeln, sondern auch
menschliches Handeln generell determinieren. Somit scheint es kaum
plausibel zu sein, für den pragmatischen Bereich eine sprachspezifische
kognitive Fundierung anzunehmen, d.h. Pragmatik als einen spezifi-
schen Aspekt unseres sprachlichen Wissens anzusehen. Demgegenüber
scheint es aber gerade im Bereich der formalen Kompetenz, also der
Syntax und Phonologie, Gesetzmäßigkeiten zu geben, die sich in kei-
nerlei anderen Wissensdomänen wiederfinden und daher auch nicht
auf andere kognitive Struktursysteme reduzierbar sind. Mit anderen
Worten, diese Gesetzmäßigkeiten sind Spezifika unseres grammatischen
Wissens und müssen daher in einem eigenständigen System mentaler
Repräsentationen verankert sein. Genau in diesem Sinne ist die Aussage
der generativen Sprachtheorie zu verstehen, daß Syntax, i.e. unsere for-
male Kompetenz autonom ist; ihre Gesetzmäßigkeiten sind nur mit
eigenständigen grammatischen Kategorien formulierbar und erklären
sich auch nur aus grammatischen Prinzipien, nicht aber etwa aus prag-
matischen Prinzipien oder den Gesetzmäßigkeiten der allgemeinen
menschlichen Problemlösungskompetenz.
Bevor wir nun auf die Gründe für diese als Autonomiehypothese
bezeichnete Auffassung näher eingehen, soll zunächst noch auf einige
Mißverständnisse hingewiesen werden, die vielfach im Kontext der
Autonomiehypothese entstanden sind und dann zu ihrer Ablehnung
geführt haben. Chomsky selbst spricht in seinen Arbeiten häufig von
der language faculty und meint damit jenen Bereich der menschlichen
Kognition, in dem die spezifischen grammatischen Prinzipien und
Gesetzmäßigkeiten verankert sind. Language faculty ist in diesem Sinne
mit I-Grammatik gleichzusetzen (cf. Kapitel 1.4). Dieser Sichtweise
wird dann häufig der Vorwurf gemacht, daß »language . . . is in effect
reduced to grammar« (Foley & Van Valin 1984:3) und daß Sprache »as
a set of structural descriptions of sentences« (op.cit. 3/4.) definiert
wird. Einer solchen Perspektive wird entgegengehalten, daß Menschen
Sprache schließlich dazu benutzen, in einem soziokulturell definierten
Umfeld mit anderen Menschen zu kommunizieren; entsprechend sei der
korrekte Sprachbegriff eher der einer »form of social action« (op.cit. 8).
Diese Kritik an der Autonomiehypothese kann eigentlich nur ver-
wundern. In allen einschlägigen generativen Publikationen (cf. etwa
Chomsky 1975, 1980; Fodor 1981a; Lightfoot 1982) wird immer wieder
betont, daß Sprache als Gesamtphänomen vermutlich das Ergebnis
eines Zusammenspiels mehrerer Systeme und Faktoren ist. Unter die-
sen zeichnet sich die Grammatik (also unsere formale Kompetenz)
dadurch aus, daß sie die einzige sprach spezifische Komponente ist. Eine
Erklärung von Sprache involviert somit die Spezifizierung sowohl der
formalen als auch der pragmatischen Gesetzmäßigkeiten (und ver-
mutlich weiterer Komponenten). »... we could ... search for explanato-
ry theories that are concerned with the state of knowledge attained by
someone who knows a language and the basis in the human genetic
constitution for the acquisition of such knowledge, recognizing that
even full success will still not have answered all questions, for example,
the question »how we talk«, just as an account of our knowledge would
still leave open the question of »how we act«. It would be quite correct
to say that something very important is left out, in both cases; I not only
agree, but insist on that« (Chomsky 1980:80; Hervorhebung GFSF).
Chomskys These impliziert also geradezu, daß bestimmte Faktoren
sprachlichen Wissens - etwa semantische oder pragmatische - nicht
ausschließlich im engen sprachlichen Kontext betrachtet werden dür-
fen, sondern stets im Zusammenhang mit Soziologie, Handlungstheo-
rie oder Semiotik. Die Autonomiethese besagt lediglich, daß Gramma-
tik - und nur sie - sprachspezifisch, d.h. nicht auf andere kognitive
Domänen reduzierbar ist. Diese These kann nicht mit dem bloßen Ver-
weis abgetan werden, daß Sprache auch zur Kommunikation gebraucht
wird. Genausowenig widerlegt die Beobachtung, daß Schweine in
nicht-mohammedanischen Gesellschaften zu Nahrungsmitteln verar-
beitet werden, die Tatsache, daß die Genetik der Schweine nicht durch
die Gesetzmäßigkeiten menschlicher Ernährung bedingt ist.
Darüber hinaus stellt sich natürlich die Frage, wie stark der Faktor
Kommunikation im Sinne eines strukturbestimmenden Elements bei
Sprache wirklich ist. Wenngleich natürliche Sprachen zweifellos zur
Kommunikation verwendet werden, so folgt daraus nicht notwendiger-
weise, daß die Kommunikation ein so hochkomplexes Regelsystem wie
eine natürlichsprachliche Grammatik erforderlich macht. In der Tat ist
erfolgreiche und effiziente Kommunikation bereits mit Kindern im
Alter von 2-3 Jahren sehr gut möglich, obwohl diese keineswegs das
vollständige System von Regularitäten und Gesetzmäßigkeiten ihrer
Muttersprache beherrschen (cf. hierzu Felix 1987).
Ein entscheidendes Merkmal natürlicher Sprachen liegt hingegen in
der Möglichkeit, bestimmte Sachverhalttypen auszudrücken, die prin-
zipiell nur über eine strukturelle Repräsentation wiedergegeben werden
können. Wie schon Wittgenstein (1921) in seinem Traktat betonte und
Johnson-Laird (1983) empirisch nachwies, scheint eine bildliche Dar-
stellung von Gegebenheiten bei der kognitiven Verarbeitung von zen-
traler Bedeutung zu sein. Bestimmte Sachverhalte mit charakteristi-
schen Eigenschaften lassen sich jedoch grundsätzlich nicht auf bildliche
Weise darstellen; hierzu gehören etwa universelle Quantifikation, Dis-
junktion oder Negation, d.h. es scheint nicht möglich zu sein, ein Bild
zu erstellen, das »alle Menschen« oder »kein grüner Baum« darstellt.
Um solche logischen bzw. logiknahen Bedeutungselemente wiederge-
ben zu können, benötigt man offenkundig ein strukturiertes Aus-
druckssystem, das auch nicht-bildliche Repräsentationen einschließt;
natürliche Sprachen verfügen nun über genau diese Eigenschaft. In die-
sem Kontext sind vor allem auch die Ergebnisse von Untersuchungen
mit Menschenaffen (z.B. Premack 1983; Premack & Premack 1983) ein-
schlägig. Bei einem Menschenaffen, dem der Umgang mit einem belie-
bigen Gegenstand gelehrt wird, läßt sich ein Intelligenzzuwachs beob-
achten, der jedoch nicht global, sondern auf die Lösung ganz spezifi-
scher Aufgaben beschränkt ist. Es zeigt sich nun, daß eine Vielzahl von
Aufgaben, z.B. die Beurteilung kausaler Sachverhalte, nur dann von
Menschenaffen korrekt gelöst werden können, wenn ihnen zuvor pri-
mitive sprachähnliche Zeichensysteme gelehrt wurden (cf. Kap. 5.6).
Offensichtlich setzt die Lösungskompetenz etwa für kausale Probleme
die Existenz eines nicht-bildlichen strukturierten Repräsentationssy-
stems voraus. Unter dieser (eher evolutionären Perspektive) kann man
daher die eigentliche Bedeutung von Sprache für den Menschen in ihrer
Funktion als nicht-bildliches Repräsentationssystem für bestimmte
Problemlösungen sehen (cf. Monod 1971; Chomsky 1980; Premack
1983). In diesem Sinne setzt Marquardt (1984) die explosionsartige Ver-
größerung des Neokortex in der menschlichen Evolution mit dem
Erwerb der Sprachfähigkeit in Beziehung. Damit aber tritt automatisch
der Strukturaspekt und nicht der Kommunikationsaspekt von Sprache
in den Vordergrund; i.e. das, was Sprache ausmacht, ist nicht, daß man
mit ihr kommunizieren kann, sondern, über welchen Strukturmechanis-
mus man mit ihr kommunizieren kann.
Ein weiteres Mißverständnis der Autonomiehypothese manifestiert
sich in der vielfach publizierten Auffassung, die generative Theorie
impliziere, daß zwischen syntaktischen Strukturen und semantisch-
funktionalen Gegebenheiten kein Zusammenhang bestehe. So schrei-
ben Schank & Birnbaum (1984:209) aus der Perspektive der Künstli-
chen Intelligenz: »... our successes and failures in trying to construct
computational models capable of performing significant linguistic
tasks seem to point in another direction: they indicate that language
and thought are inextricably bound together«. Somit wird vielfach der
Nachweis einer irgendwie gearteten Beziehung zwischen Syntax und
Semantik bereits als Widerlegung der Autonomiehypothese angesehen.
Die Logik dieses Argumentes läßt sich leicht am Beispiel der deutschen
Verbstellung illustrieren. Im Deutschen kann das finite Verb am Satzan-
fang stehen, und diese Stellung signalisiert stets entweder einen Frage-
oder Bedingungssatz:

(1a) wird Hans seine Kinder heute in die Schule bringen?


(1b) bringt Hans seine Kinder heute in die Schule, so wird er
sein neues Auto schon bekommen haben
(1c) *Fritz behauptet: wird Hans seine Kinder heute in die
Schule bringen

(1a)-(1c) zeigen, daß die Verbvoranstellungsregel offenkundig semanti-


sche Effekte hat; Ähnliches gilt etwa auch für die Passivregel oder die
Imperativregel (Stein 1979; Foley & Van Valin 1984). Aus derartigen
semantischen oder funktionalen Effekten syntaktischer Regeln wird
vielfach geschlossen, die Autonomiehypothese der generativen Gram-
matik sei widerlegt.
Solche Argumentationen sind in der Regel schon aus empirischen
Gründen zumeist recht problematisch, da zwar manche, aber keines-
wegs alle Wortstellungsregeln semantische Effekte haben. Wie wir aus-
führlich in Band II darstellen werden, sind im Deutschen u.a. folgende
Verbstellungsregularitäten zu berücksichtigen:
(a) im Nebensatz steht das finite Verb stets am Ende, wenn eine
Konjunktion vorhanden ist:

(2a) ich glaube, daß Peter Maria liebt


(2b) ich glaube, Peter liebt Maria
(2c) *ich glaube, daß Peter liebt Maria
(2d) *ich glaube, Peter Maria liebt
(2e) *ich glaube, daß liebt Peter Maria
(b) im Hauptsatz steht das finite Verb stets an der zweiten Position 2;
davor kann jede beliebige Konstituente gestellt werden:

(3a) *der Mann den Hund gestern an den Baum führte


(3b) der Mann führte den Hund gestern an den Baum
(3c) den Hund führte der Mann gestern an den Baum
(3d) gestern führte der Mann den Hund an den Baum
(3e) an den Baum führte der Mann den Hund gestern

Aus Gründen, die wir in Band II, Kap. 3 darstellen werden, herrscht
unter Grammatiktheoretikern weitgehend Übereinstimmung darüber,
daß Sätze wie in (3) mit den sog. Drach'schen Regeln zu beschreiben
sind (cf. Drach 1940; Thiersch 1978; v.Stechow 1979b). Zunächst wer-
den alle Sätze mit Verbendstellung erzeugt; unter bestimmten Bedin-
gungen kann danach eine Regel angewendet werden, die das finite Verb
an die Satzspitze stellt (wie in (1a) und (1b)). Nach dieser Regel kann
dann eine beliebige Konstituente vor das vorangestellte Verb gesetzt
werden; daraus ergeben sich Sätze wie (3b)-(3e). Dies bedeutet aber,
daß die Verbvoranstellungsregel auch in (3b)-(3e), d.h. bei jedem
Hauptsatz angewendet wird. Da (3b)-(3e) aber weder Frage- noch
Bedingungssätze sind, darf die Voranstellungsregel keine diesbezügli-
chen semantischen Effekte besitzen; sie muß bedeutungsmäßig neutral
sein. Die semantische Verbindung besteht lediglich zu bestimmten
Satzkonfigurationen, aber nicht zu den Regeln, die diese erzeugen. Wir
werden in Band II, Kap. 3.1 noch zeigen, daß dasselbe auch für das
Passiv gilt.
Neben diesen empirischen Problemen ist der Einwand jedoch auch
konzeptuell irregeleitet. Die These der Autonomie der Syntax besagt
ja keineswegs, daß Grammatik nichts mit Semantik oder Pragmatik zu
tun hat. Autonomie bedeutet ausschließlich, daß die grammatischen
Regeln nicht auf semantische bzw. pragmatische Phänomene reduzier-
bar sind, d.h. es gibt keine semantische/pragmatische Gesetzmäßig-
keit, aus denen die grammatischen Regeln notwendigerweise folgen.
Zur Illustration betrachten wir nochmals das Beispiel der deutschen
Verbstellung. Enthält ein Satz mehrere Verben, so dürfen nur Verben
des Hauptsatzes vorangestellt werden, und zwar nur dann, wenn sie
finit sind.

2 »Zweite Position« bezieht sich hier auf die Konstituentenabfolge maximaler


Projektionen (cf. Koster 1975; Thiersch 1978)
((4a) (ich glaube, daß) der Mann, den Maria liebt, uns zur Party
4 einlädt
a(4b) lädt der Mann, den Maria liebt, uns zur Party ein?
)
(4c) *liebt der Mann, den Maria, uns zur Party einlädt
(4d) (ich glaube, daß) Maria uns einladen können wird
(
(4e) wird Maria uns einladen können?
4
(4f) *einladen Maria uns können wird
b
(4g) *können Maria uns einladen wird
)
(4h) lädt Maria uns ein?
(
Wie4 die Sätze (4b) und (4h) zeigen, müssen darüber hinaus bei den sog.
c
Partikelverben wie einladen die Partikel bei der Verbvoranstellung
)
zurückbleiben. Die These der Autonomie der Syntax besagt nun, daß
allein syntaktische Gründe dafür verantwortlich sind, daß nur Matrix-
(
verben vorangestellt werden dürfen, daß nur finite Verbformen von die-
ser 4Regel betroffen sind und daß Partikel stets zurückbleiben müssen.
d
Dementsprechend kann die Autonomiethese nicht durch die Beobach-
tung) widerlegt werden, daß der Sprechakt »Frage« im Deutschen mit
Verbanfangsstellung verbunden ist, sondern allein durch den Nachweis,
daß( aus semantischen bzw. pragmatischen Gesetzmäßigkeiten notwen-
4
digerweise folgt, daß Verbpartikel zurückbleiben müssen, oder daß die
e
Voranstellungsregel nur Matrixverben betrifft.
)
Ein weiteres verbreitetes Mißverständnis der Autonomiethese be-
zieht sich auf die Interpretation der Begriffe »Grammatik« bzw. »Syn-
tax«.( Hier geht es vor allem um die Frage, welche Phänomene als syntak-
tisch4 anzusehen sind. Oftmals wird unterstellt, daß der Phänomenbe-
reich,
f auf den sich die Autonomiehypothese bezieht, identisch mit
jenem) Gegenstandsbereich ist, der in der traditionellen deskriptiven Lin-
guistik als Syntax bezeichnet wird. Daraus schließt man, die Autonomie-
these( würde besagen, daß alles, was in einem intuitiven Sinne mit dem
Satzbau
4 zu tun hat, allein aus grammatischen Regeln bzw. Prinzipien zu
erklären
g wäre. Denken wir etwa an die Kasuszuweisung, so ist offenkun-
dig,) daß sie sowohl syntaktische als auch semantische Aspekte hat (cf.
Fillmore 1968;Eroms 1981;Reis 1982). So können die Argumente eines
Verbs( einerseits nach semantischen Begriffen wie Agens, Patiens, Instru-
ment 4 usw. klassifiziert werden, andererseits besteht die syntaktische Ge-
setzmäßigkeit,
h daß bei zweiwertigen Verben im Aktiv stets das Agens
den) Nominativkasus trägt. Dieses Phänomen zeigt- so wird behauptet-,
daß zur Erklärung syntaktischer Regularitäten wie der Nominativzu-
weisung auch semantische Erwägungen herangezogen werden müssen.
Wir haben bereits zu Anfang dieses Kapitels darauf hingewiesen,
daß die Systematik innerhalb der mentalen Repräsentation unseres
sprachlichen Wissens nicht notwendigerweise mit den traditionellen
deskriptiven Einteilungen der Linguistik korrelieren muß. In der Tat
wäre eine solche enge Korrelation auch eher verwunderlich. Aus der
Perzeptionspsychologie weiß man etwa, daß das, was wir als eine
bestimmte Farbe oder einen bestimmten Helligkeitswert wahrneh-
men, auf sehr unterschiedliche physiologische Mechanismen zurück-
gehen kann (cf. Rock 1985). Dementsprechend ist auch nicht zu
erwarten, daß jede Regularität, die intuitiv etwas mit Satzbau zu tun
zu haben scheint, auch notwendigerweise aus den Prinzipien der
mentalen I-Grammatik folgen muß. Andererseits ist denkbar, daß
Phänomene, die wir intuitiv als semantisch klassifizieren, in der Tat
aus Gesetzmäßigkeiten der mentalen I-Grammatik ableitbar und
somit im Sinne der Autonomiethese als syntaktisch zu klassifizieren
sind. Die generative Theorie geht von einer grundlegenden Annahme
aus (zur Begründung dieser Annahme cf. insbesondere Kap. 3): es
gibt ein autonomes mentales System >Grammatik<, dessen Prinzipien
und Regularitäten allein auf grammatischen Kategorien und Begriff-
lichkeiten aufgebaut sind. Zunächst ist es eine rein empirische Frage,
ob diese Annahme im Kern richtig ist oder nicht. Erweist sie sich
als korrekt oder zumindest plausibel, so stellt sich dann die wieder-
um rein empirische Frage, welche sprachlichen Regularitäten von
diesem autonomen System erfaßt werden. Eine Vielfalt von For-
schungsergebnissen der letzten Jahre deutet darauf hin, daß zahl-
reiche intuitiv als syntaktisch empfundene Regularitäten sich nicht
aus der I-Grammatik ergeben, sondern vielmehr ein Reflex des
menschlichen Sprachverarbeitungssystems sind (cf. Kap. 5.2 und J.D.
Fodor 1978; J.A. Fodor 1983; Berwick & Weinberg 1984); demge-
genüber weisen eine Reihe von scheinbar semantischen Phänome-
nen, wie etwa Quantorenskopus oder Pronominalreferenz Gesetz-
mäßigkeiten auf, die aus den Prinzipien der autonomen Grammatik-
komponente folgen (cf. Band II, Kap. 3.5 und May 1977, 1985;
Hornstein 1984).
Da die Autonomiethese also die Existenz eines spezifischen kogni-
tiven Systems postuliert und keinesfalls impliziert, daß alles, was in
der traditionellen Grammatik zur Syntax gerechnet wird, auch zum
Wirkungsbereich dieses kognitiven Systems gehört, läßt sie sich nicht
allein durch den Hinweis widerlegen, daß einige nach traditioneller
Auffassung syntaktische Prozesse offensichtlich funktional oder
semantisch begründet sind. Chomsky selbst hat mehrfach auf die Unlo-
gik derartiger Widerlegungsversuche hingewiesen:

»Let me first try to make a simple logical point, without trying to resolve the
issues. Suppose I were to say that something in the room is green, and suppose
somebody were to respond: >well, that is not so because there is something that
is white< - that wouldn't convince me that I was wrong in saying that something
in the room was green. Correspondingly, if I say that some properties of lan-
guage use and structure are determined in the initial state by language-specific
principles, it does not convince me that I am wrong if I am told that some aspects
of language use and structure are related to other aspects of cognitive development
- that is a simple point of logic.« (Chomsky in Piattelli-Palmarini 1980:138)

Wer also die Autonomiehypothese widerlegen will, muß zeigen, daß


genau diejenigen Phänomene, für die in der generativen Grammatik
rein autonom-syntaktische Erklärungen angeboten wurden, im kon-
kreten Fall auf semantische bzw. pragmatische Gesetzmäßigkeiten
zurückgeführt werden können. Dies ist von den Gegnern der Autono-
miethese bisher in noch keinem einzigen Fall versucht, geschweige
denn erfolgreich durchgeführt worden. In der Regel werden zumeist
nur Versprechungen angeboten (z.B. Bates 1984; Wang 1984). In diesem
Kontext ist darauf hinzuweisen, daß etwa der Funktionalismus eine im
Vergleich zur Autonomiethese weitaus stärkere These vertritt. Aus der
Beobachtung einiger Beziehungen zwischen Syntax und Semantik lei-
tet er die These ab, daß alle syntaktischen Phänomene funktional-
semantisch erklärbar sein müssen.
Die empirische Rechtfertigung der Autonomiehypothese setzt nun
zunächst eine umfangreiche und tiefgehende Analyse sprachlicher
Gesetzmäßigkeiten voraus, d.h. es ist ein System von Regeln und Prin-
zipien zu erarbeiten, aus dem sich die beobachtbaren Regularitäten
natürlicher Sprachen in einem nicht-trivialen Datenbereich ableiten
lassen. In Band II werden wir darstellen, wie beim derzeitigen Kennt-
nisstand ein solches System aussehen mag. Sollte sich nachweisen las-
sen, daß dieses System als vollständiges Derivat eines anderen kogni-
tiven Bereichs dargestellt werden kann, so wäre die Autonomiethese
widerlegt. Ein solcher Nachweis ist bislang noch niemandem gelun-
gen; in der Tat scheint der Versuch, die bekannten syntaktischen Prin-
zipien auf andere mentale Systeme zurückzuführen, immer aussichts-
loser zu werden, da zunehmend deutlich wird, daß die Prinzipien, die
den beobachteten sprachlichen Gesetzmäßigkeiten zugrunde liegen,
eben sehr spezifischer Art sind und nicht erkennbar in anderen kogni-
tiven Bereichen auftreten.
Prinzipiell lassen sich ohnehin nicht sonderlich viele Bereiche aus-
machen, auf die die Erklärung syntaktischer Fakten plausiblerweise
reduzierbar sein könnte. Einerseits wäre denkbar, daß grammatische
Gesetzmäßigkeiten ein Reflex semantischer oder pragmatischer Prinzi-
pien sind, wie dies zumeist von Funktionalisten behauptet wird. Wei-
terhin wäre vorstellbar, daß unser Sprachverarbeitungssystem in einer
Weise strukturiert ist, daß aus ihm die grammatischen Prinzipien natür-
licher Sprachen notwendigerweise folgen. Mit anderen Worten, unser
Sprachverarbeitungssystem könnte strukturelle Eigenschaften besit-
zen, die nur mit bestimmten mentalen Repräsentationen umzugehen
erlauben, so daß die Restriktionen des Verarbeitungssystems die Orga-
nisation des sprachlichen Wissens vollständig determinieren. Letztlich
ist ebensowenig auszuschließen, daß unsere Intelligenz nicht ausreicht,
um bestimmte logisch denkbare syntaktische Strukturen zu handha-
ben. Dementsprechend können derartige Strukturen in natürlichen
Sprachen auch nicht auftreten. In diesem Falle wären die Prinzipien
natürlicher Sprachen lediglich ein Reflex von Beschränkungen unserer
allgemeinen Intelligenz. In den folgenden Abschnitten wollen wir eini-
ge dieser Möglichkeiten näher betrachten.

2.2 Syntax und Semantik

Die Vorstellung, syntaktische Gesetzmäßigkeiten seien letztlich nichts


anderes als ein Reflex semantischer Phänomene und Prinzipien und
somit auch nur im Zusammenhang mit diesen zu beschreiben, hat in
der Sprachwissenschaft eine sehr lange Tradition. Diese Idee taucht in
der einschlägigen Literatur in einer stärkeren und einer schwächeren
Version auf. Der stärkeren Version liegt die Annahme zugrunde, gram-
matische Prozesse seien prinzipiell identisch mit semantischen Prozes-
sen, so daß Grammatik als eigenständiger Beschreibungsbereich im
Grunde nicht existiert. Unter dieser Perspektive liefert eine vollständi-
ge und adäquate semantische Theorie gleichzeitig und automatisch
sämtliche Erklärungen auch für diejenigen Phänomene, die traditionell
als syntaktisch angesehen werden. Diese Auffassung wurde vor allem
von der Generativen Semantik vertreten, die gegen Ende der 6oer Jahre
die linguistische Forschung in weiten Bereichen dominierte. In der
schwächeren Version wird zwar die Existenz syntaktischer Begriffe
und Regeln zugestanden, jedoch wird gleichzeitig postuliert, daß die
Prinzipien und Restriktionen, denen diese unterliegen, stets semanti-
scher Natur sind. Im folgenden wollen wir diese beiden Positionen aus
der Perspektive der Autonomiehypothese etwas näher betrachten.
Die Generative Semantik entwickelte sich vor allem aus der als
Katz-Postal-Hypothese bekannten Beobachtung (Katz & Postal 1964;
Katz & Fodor 1964), daß Transformationsregeln, wie sie in den 60er
Jahren im Mittelpunkt der linguistischen Forschung standen, üblicher-
weise die Bedeutung einer Struktur nicht verändern. So ist etwa ein Pas-
sivsatz wie (5b) im wesentlichen bedeutungsgleich mit dem dazugehö-
rigen Aktivsatz (5a). Ebenso drücken (6a) und (6b) den gleichen Sach-
verhalt aus, so daß die Transformationen, die die jeweilige Position des
eingebetteten Satzes festlegen, wiederum die Bedeutung der Gesamt-
struktur nicht verändern:

(5a) der Autohändler hat Dagmars neues Auto zugelassen


(5b) Dagmars neues Auto wurde vom Autohändler zugelassen
(6a) daß Dagmar sich über ihr Auto freut, ist offensichtlich
(6b) es ist offensichtlich, daß Dagmar sich über ihr Auto freut

Im Rahmen der sog. Standardtheorie (Chomsky 1965) wurden Sätze


wie (5a) und (5b) bzw. (6a) und (6b) über verschiedene Transformatio-
nen aus einer gemeinsamen zugrundeliegenden Struktur erzeugt.
Dementsprechend bestand die Grammatik aus zwei wesentlichen
Strukturebenen: der Tiefenstruktur, die für die obigen (a)- und (b)-
Sätze jeweils gleich ist, und der Oberflächenstruktur, die über Transfor-
mationsregeln aus der Tiefenstruktur abgeleitet wird und die struktu-
rellen Besonderheiten des jeweiligen Satzes ausdrückt. Die Tiefenstruk-
tur übernahm somit zwei wichtige Funktionen: einerseits wurden die
bedeutungsrelevanten Beziehungen zwischen den Konstituenten spezi-
fiziert und andererseits war sie die Ebene, auf der die lexikalischen Ele-
mente, also die Wörter, in eine zunächst abstrakte Struktur eingefügt
wurden. Diese Unterscheidung zwischen Tiefenstruktur und Oberflä-
chenstruktur scheint auch intuitiv plausibel zu sein, da sie die Tatsache
widerspiegelt, daß die obigen Satzpaare einerseits etwas gemeinsam
haben, nämlich die grundlegende Bedeutung, und andererseits sich
etwa in der Wortstellung oder der Besetzung der Subjektposition von-
einander unterscheiden. Aus einer derartigen Behandlung von Struktu-
ren wie (5) und (6) ergibt sich nun, daß die semantische Interpretation
eines Satzes allein durch die Tiefenstruktur bestimmt wird, und daß die
Transformationen zwar die Konstituentenstruktur, nicht aber die
Bedeutung eines Satzes verändern können.
Die Beobachtung, daß Transformationen bedeutungserhaltend
sind, und daß sich dementsprechend die semantische Interpretation
eines Satzes vollständig aus der Tiefenstruktur ergibt, wurde von der
Generativen Semantik nun zum grundlegenden Prinzip erhoben (cf.
Lakoff 1968). Dies führte zu einer Reihe entscheidender Konsequen-
zen. Zunächst mußte für alle Sätze, die (im wesentlichen) bedeutungs-
gleich sind, eine gemeinsame Tiefenstruktur angesetzt werden3; dies
galt insbesondere auch für solche Sätze, die oberflächenstrukturell sehr
stark voneinander abweichen, wie etwa die folgenden Beispiele zeigen:
(7a) Peter hackte das Holz mit einer Axt
(7b) Peter benutzte eine Axt, um das Holz zu hacken
(8a) daß die Feinde die Stadt zerstörten, löste eine Panik unter
den Bewohnern aus
(8b) durch die Zerstörung der Stadt durch die Feinde gerieten
die Bewohner in Panik
(9a) der Schmied hat das Metall flach gehämmert
(9b) der Schmied hat das Metall so lange gehämmert, bis es
flach war
In analoger Weise mußten für Sätze, die verschiedene semantische
Interpretation erlauben, auch unterschiedliche Tiefenstrukturen ange-
setzt werden:
(10) die armen Bewohner dieses Hauses sollten einen Miet-
nachlaß bekommen
(11) Hans hat ihn fast zu Tode geprügelt
(12) Fritz hat Maria nicht verlassen, weil sie ein Kind erwartet
(10) kann entweder bedeuten, daß alle Bewohner aufgrund der Tatsa-
che, daß sie in einem solchen Haus wohnen müssen, arm sind und des-
halb einen Mietnachlaß bekommen sollten, oder daß nur denjenigen
Bewohnern des Hauses, die auch arm sind, ein Nachlaß gewährt wird.
Ebenso hat auch (11) zwei verschiedene Lesarten: a) es wäre fast so
weit gekommen, daß Hans ihn brutal verprügelt (aber glücklicherweise
hat jemand zuvor den Streit geschlichtet); b) Hans hat ihn so stark ver-
prügelt, daß er fast gestorben wäre. In (12) kann sich nicht entweder
auf das Prädikat des Matrixsatzes oder auf die kausale Beziehung zwi-

3 Dies ist in der Tat keine logische Notwendigkeit. Es wäre denkbar, daß ein ent-
scheidender Anteil der semantischen Interpretation nicht aus der syntaktischen
Tiefenstruktur, sondern aus interpretativen Projektionsregeln abgeleitet wird
(cf. hierzu Newmeyer 1980:96).
schen den beiden Sätzen beziehen. Dementsprechend bedeutet (12) ent-
weder, daß Fritz Maria zwar verlassen hat, aber der Grund ist nicht die
Schwangerschaft, oder daß aufgrund der Schwangerschaft Fritz bei
Maria geblieben ist.
Diese wenigen Beispiele zeigen bereits, daß bei einer sehr engen
Auslegung der Katz-Postal-Hypothese Tiefenstrukturen anzusetzen
sind, die sich in extremer Weise von den aus ihnen transformationell
abgeleiteten Oberflächenstrukturen unterscheiden. Während sich also
etwa (5a) und (5b) strukturell noch relativ ähnlich sind und sich im
Grunde nur durch die Position von Subjekt und Objekt unterscheiden,
zeigen etwa (7a) und (7b) doch einen in wichtigen Aspekten völlig
unterschiedlichen strukturellen Aufbau. Da die den beiden Sätzen
zugrundeliegende Tiefenstruktur jedoch in gewissem Sinne neutral
gegenüber den jeweiligen oberflächenstrukturellen Besonderheiten
sein muß, ist klar, daß derartige Tiefenstrukturen relativ zur Oberflä-
chenstruktur äußerst abstrakter Natur sein müssen. Gegen Ende der
60er Jahre erschienen eine Vielzahl von Publikationen (z.B. Bach 1968;
Lakoff 1968; Ross 1969; Postal 1970), die sich in umfangreichen Analy-
sen um den Nachweis bemühten, daß wichtige Generalisierungen in
der Tat nur dann erfaßt werden können, wenn sehr abstrakte Tiefen-
strukturen angesetzt werden.
Der extrem abstrakte Charakter derartiger Tiefenstrukturen führte
nun zunächst dazu, daß sich die Ebene der Tiefenstruktur im Grunde
nicht mehr als syntaktische Ebene auffassen ließ (cf. McCawley 1968;
Postal 1972), da die syntaktischen Eigenschaften eines Satzes in der Tie-
fenstruktur eben noch völlig unspezifiziert waren und sich erst aus der
Anwendung der Transformationen ergaben. Die Tiefenstruktur wurde
somit zu einer rein semantischen Ebene, auf der einzig und allein bedeu-
tungsrelevante Relationen und Distinktionen ausgedrückt wurden.
Aus der Perspektive der Generativen Semantik bestand die Gram-
matik daher einerseits aus einer (rein) semantischen Repräsentations-
ebene (cf. Newmeyer 1970; Lakoff 1972), der Tiefenstruktur, und einer
(rein) syntaktischen Repräsentationsebene, der Oberflächenstruktur.
Die Aufgabe der Transformationen bestand darin, die semantischen
Strukturen in syntaktische Strukturen zu überführen. Hier stellt sich
nun die Frage, ob diese Transformationen ihrem Wesen nach syntakti-
sche Regeln sind - wie dies in der Standardtheorie (Chomsky 1965)
angenommen wurde -, oder ob Transformationen im Grunde auch
nichts anderes als semantische Prozesse spezifizieren. Die Vertreter der
Generativen Semantik brachten nun eine Vielzahl von Argumenten vor,
die darauf hindeuteten, daß Transformationen in der Tat semantische
und nicht syntaktische Regeln sind. Zunächst ließ sich zeigen, daß lexi-
kalische Elemente nicht mehr wie in der Standardtheorie als unanaly-
siertes Ganzes in die Tiefenstruktur einzuführen sind, sondern vielmehr
transformationell eingesetzt werden müssen. Das hierfür nunmehr klas-
sische Beispiel (cf. Morgan 1969) ist die Ambiguität von Satz (13), dem
die zugrundeliegenden Strukturen (14a) und (14b) zugeordnet werden:

(13) I almost killed John


(14a) I almost caused John to die
(14b) I caused John almost to die

Das oberflächenstrukturelle Verb kill taucht als solches auf der tiefen-
strukturellen Ebene gar nicht auf, sondern muß durch eine Transforma-
tion aus cause to die abgeleitet werden. Mit anderen Worten, Transforma-
tionen operieren in einem Bereich, der sozusagen die Manifestation der
Semantik par excellence ist, nämlich dem Bereich lexikalischer Elemente.
Darüber hinaus konnte gezeigt werden, daß Restriktionen, die auf
den ersten Blick rein syntaktischer Natur zu sein scheinen, auch im
lexikalischen, i.e. rein semantischen Bereich auftreten, so daß hier die
Unterscheidung zwischen Syntax und Semantik bedeutungslos ist. Seit
Ross (1967a) war bekannt, daß die wh-Transformation, die bei der Fra-
gebildung wh-Konstituenten an die Satzanfangsposition bewegt, nicht
auf die Konstituenten eines Relativsatzes angewendet werden darf:

(15a) John loves Mary


(15b) John loves who
(15c) who does John love
(16a) John loves the woman who wears the red dress
(16b) John loves the woman who wears what
(16c) *what does John love the woman who wears

Ross nannte derartige Strukturen wh-islands, da wh-Phrasen nicht aus


ihnen herausbewegt werden dürfen. Wenngleich es sich hierbei um ein
rein syntaktisches Phänomen zu handeln scheint, konnte McCawley
(1968) zeigen, daß auch die mögliche Bedeutung von Wörtern offen-
kundig den Restriktionen der wh-islands unterliegt. McCawley prägte
hierzu das im Englischen nicht existierende Verb to flimp und stellte die
Frage, welche Bedeutungen ein solches Verb potentiell übernehmen
könnte. Es zeigt sich nun, daß ein solches Verb eine Vielzahl auch recht
komplexer Bedeutungsstrukturen annehmen kann, aber keine, die
einen Relativsatz involviert:
(17a) John liked to drive big cars when he was in New York
(17b) John flimped when he was in New York
(18a) John always teils scary stories to his girlfriend
(18b) John always flimps to his girlfriend
(19a) John kissed a girl who is allergic to bananas
(19b) *John flimped bananas

In den Beispielen (17)-(18) soll die Bedeutung von flimp jeweils dem
kursiv gedruckten komplexen Ausdruck im (a)-Satz entsprechen. Dies
scheint in (17) und (18) problemlos zu sein, d.h. es ist denkbar, daß es
im Englischen ein Verb to flimp mit der Bedeutung to like to drive big
cars geben könnte. Andererseits haben Sprecher des Englischen starke
Intuitionen darüber, daß ein Verb to flimp eben nicht die Bedeutung
von (19a), i.e. to kiss a girl who is allergic to haben kann. Der Grund
dafür scheint zu sein, daß ein solches Verb das Subjekt des Matrixsat-
zes mit dem Objekt des eingebetteten Satzes in Beziehung setzt. Mit
anderen Worten, es scheint nahezuliegen, die Ungrammatikalität von
(16c) und die Unmöglichkeit einer Bedeutung von flimp wie in (19a)
auf das gleiche Prinzip zurückzuführen.
Diese Beispiele zeigen nun, daß zentrale Transformationen und
Restriktionen sowohl den syntaktischen als auch semantischen
Bereich betreffen. Nun könnte man natürlich durchaus Transforma-
tionen danach unterscheiden, ob sie in einem intuitiven Sinne syn-
taktische oder semantische Phänomenbereiche betreffen; jedoch
wäre eine solche Unterscheidung völlig belanglos, da derartige >syn-
taktische< bzw. >semantische< Transformationen keinerlei formale
Unterschiede aufweisen. Mit anderen Worten, grammatische Pro-
zesse und semantische Prozesse fallen zusammen und sind letztlich
bezüglich ihrer formalen Eigenschaften identisch. Wenn jedoch die
Tiefenstruktur eine rein semantische Repräsentationsebene ist, und
wenn Transformationen auch im wesentlichen semantische Prozesse
spezifizieren, so bedeutet dies, daß sich die syntaktischen Eigen-
schaften der Oberflächenstruktur vollständig aus semantischen
Strukturen und Prozessen ableiten lassen. Aus diesen Beobachtun-
gen leitet sich die zentrale These der Generativen Semantik ab:
wenngleich natürliche Sprachen oberflächlich zweifellos Eigenschaften
aufweisen, die intuitiv syntaktischer Natur sind, so sind diese jedoch
nicht über ein separates und eigenständiges Regelsystem zu erfassen,
sondern lassen sich vollständig aus semantischen Strukturphänomenen
ableiten.
Gegen Ende der 6oer und zu Beginn der 70er Jahre war die Generative
Semantik unbestreitbar - zumindest in den USA - die dominierende
Forschungsrichtung im Bereich der theoretischen Linguistik (cf. New-
meyer 1980). Dennoch wurde sehr bald klar, daß eine konsequente An-
wendung des generativ-semantischen Ansatzes sowohl unter deskripti-
ven als auch konzeptuellen Gesichtspunkten in eine Sackgasse führen
mußte. Aus diesem Grunde kann man das Programm der Generativen Se-
mantik spätestens seit Mitte der 70er als gescheitert ansehen; in der aktu-
ellen linguistischen Diskussion betrachtet eigentlich niemand mehr die
Generative Semantik als ernstzunehmende linguistische Theorie. »To-
day many of these hypotheses have no public adherents at all, and the
term >generative semantics< itself evokes nostalgia rather than partisan
fervor« (Newmeyer 1980:133). Die Gründe für das Scheitern dieser For-
schungsrichtung sind mannigfaltiger Art; jedoch scheinen insbesondere
drei Faktoren ausschlaggebend gewesen zu sein. Zunächst zeigte sich,
daß die Katz-Postal-Hypothese, die entscheidende theoretische Grund-
lage der Generativen Semantik, schon rein empirisch nicht zu rechtferti-
gen war. Darüber hinaus mehrte sich Evidenz dafür, daß sich wichtige
syntaktische Generalisierungen nicht mehr erfassen lassen, wenn die
Grammatik ausschließlich aus semantischen Strukturen und semanti-
schen Prozessen besteht. Und letztlich wurde deutlich, daß die extreme
Abstraktheit der Tiefenstruktur und die daraus folgende enorme Kom-
plexität der transformationellen Komponente zu einer Grammatikkon-
zeption führt, die nicht mehr die Kriterien der Lernbarkeit und Reprä-
sentierbarkeit erfüllt und darüber hinaus offensichtlich absurde Aussa-
gen über die Beziehung zwischen sprachlichem und nicht-sprachlichem
Wissen impliziert. Wir wollen hier kurz auf diese drei Bereiche eingehen.
Die Idee, daß Transformationen nicht die Bedeutung eines Satzes ver-
ändern, war in der Standardtheorie nicht mehr als eine Arbeitshypothe-
se. Sie entstand aus aus der Beobachtung, daß in den meisten damals
betrachteten Fällen, insbesondere bei der Passivtransformation, die
zugrundeliegende Struktur und die daraus transformationell abgeleitete
Struktur in der Tat im wesentlichen bedeutungsgleich waren. Bereits
Chomsky (1965:224) wies in einer Fußnote darauf hin, daß dies aller-
dings nicht grundsätzlich zu gelten scheint; sobald Strukturen Quanto-
ren enthalten, unterscheidet sich die Bedeutung eines Passivsatzes von
der des zugrundeliegenden Aktivsatzes:

(20a) everyone in the room knows at least two languages


(20b) at least two languages are known by everyone in the room
Wenngleich nach der damals gängigen Auffassung (20b) über die Passiv-
transformation aus (20a) abgeleitet ist, so unterscheiden sich die beiden
Sätze doch in ihrer Bedeutung. (20a) besagt, daß jeder zwei Sprachen
kennt, wobei dies bei jedem zwei unterschiedliche Sprachen sein kön-
nen. (20b) hingegen bedeutet, daß für zwei bestimmte Sprachen gilt,
daß jeder in dem Zimmer sie kennt. Chomsky vermutete schon damals,
daß zumindest in bestimmten Fällen nicht nur die Tiefenstruktur, son-
dern auch die Oberflächenstruktur für die semantische Interpretation
von Bedeutung ist. »... I think that a reasonable explication of the term
>semantic interpretation< would lead to the conclusion that surface
structure also contributes in a restricted but important way to semantic
interpretation ...« (Chomsky 1967:407).
In den Folgejahren mehrte sich die Evidenz dafür, daß der Skopus
(i.e. die Reichweite) eines Quantors bzw. Operators prinzipiell allein
über die Oberflächenstruktur bestimmt werden kann. Dementspre-
chend ergeben sich jeweils unterschiedliche Lesarten für die folgen-
den (nunmehr schon klassischen) Satzpaare (cf. Jackendoff 1969a, b;
Kuroda 1969):

(21a) everyone loves a woman


(21b) a woman is loved by everyone
(22a) many arrows did not hit the target
(22b) the target was not hit by many arrows

Ein weiterer Bereich, in dem die oberflächenstrukturellen Verhältnisse


für die semantische Interpretation von Bedeutung sind, ist die Kore-
ferenz. Ob zwei Ausdrücke koreferent sein können, d.h. sich auf die
gleiche Person bzw. das gleiche Objekt beziehen können, hängt von
deren Position in der Oberflächenstruktur ab. In den folgenden Bei-
spielen sind die koindizierten Elemente als koreferent zu interpretie-
ren:

(23a) everyone; loves his; mother


(23b) *his; mother is loved by everyone;
(24a) which book that John; read did he; like
(24b) *he; liked the book that John; read

Diese Beispiele zeigen, daß die semantische Interpretation in wesentli-


chen Bereichen von der Oberflächenstruktur abzulesen ist (cf. Choms-
ky 1967; Partee 1971; Jackendoff 1972; Wasow 1979). In gewissem
Sinne sind Koreferenz und Quantorenskopus die stärksten Argumente
gegen die Katz-Postal-Hypothese und somit gegen die Generative
Semantik4. Sie zeigen, daß spezifische syntaktische Strukturverhältnisse
die semantische Interpretation bestimmen. Mit anderen Worten, hier
determiniert die Syntax die Semantik, während die Generative Seman-
tik davon ausging, daß stets die Semantik die Syntax bestimmt.
Eine wesentliche Konsequenz des generativ-semantischen Ansatzes
ist die transformationelle Behandlung von Nominalisierungen, d.h.
deverbale Nomina werden aus zugrundeliegenden Satzstrukturen abge-
leitet, da beide die gleiche semantische Interpretation haben (cf. Lees
1960; Brekle 1970). Dementsprechend sind die folgenden (b)-Sätze aus
den jeweiligen (a)-Sätzen abgeleitet:
(25 a) that the enemies destroyed the city surprised everyone
(25b) the destruction of the city by the enemies surprised every-
one
(26a) John believes that Mary kissed Tom
(26b) John's belief that Mary kissed Tom
Es läßt sich nun leicht zeigen, daß Nominale und Satzstrukturen ein
Vielzahl völlig unterschiedlicher Eigenschaften haben. Zunächst sind
Subjekte und Objekte in Sätzen obligatorisch, während ein deverbal
abgeleitetes Nomen allein auftreten kann:
(27a) the destruction of the city surprised everyone
(27b) the destruction surprised everyone
(27c) *that destroyed the city surprised everyone
(27d) *that destroyed surprised everyone
Williams (1982) führt eine große Zahl von Beispielen auf, die zeigen,
daß Nominalisierungen vielfach nicht in den gleichen strukturellen
Kontexten wie ihre zugrundeliegenden Verben auftreten können:
(28a) John appears to love Mary
(28b) *John's appearance to love Mary
(29a) John arrived dead
(29b) *John's arrival dead
Darüber hinaus können bestimmte Strukturen zwar als Verbkomple-
mente, nicht jedoch als Nominalkomplemente auftreten:
(30a) John believes Tom to be an idiot
(30b) *John's belief of Tom to be an idiot

4 Im Prinzip ließen sich natürlich für diese bedeutungsverschiedenen Aktiv- vs.


Passivsätze unterschiedliche Tiefenstrukturen ansetzen. Doch damit gehen sämt-
liche Generalisierungen über die Aktiv-Passiv-Relation verloren.
Offenkundig müssen diese syntaktischen Unterschiede zwischen Ver-
ben und den ihnen entsprechenden Nominalisierungen auf irgendeiner
Ebene der Grammatik erfaßt werden (cf. Chomsky 1971; Aronoff
1976). In der Standardtheorie war dies die Ebene der syntaktischen Tie-
fenstruktur. Auf ihr wurde etwa spezifiziert, daß sich Nomina wie
destruction oder belief trotz ihrer semantisch engen Beziehung zu
destroy bzw. believe in vielerlei Hinsicht syntaktisch genauso verhalten
wie etwa table oder hat. Eine solche Generalisierung läßt sich jedoch in
einem generativ-semantischen Modell nicht ausdrücken, da eine unab-
hängige syntaktische Ebene fehlt. Mit anderen Worten, die obigen Bei-
spiele zeigen, daß es - entgegen der Behauptung der Generativen
Semantik - eben doch syntaktische Gesetzmäßigkeiten gibt, die mit
keinerlei semantischen Regularitäten korrespondieren und somit auch
nicht aus ihnen ableitbar sind.
Wie bereits mehrfach erwähnt, führt der Ansatz der Generativen
Semantik notwendigerweise zur Annahme einer extrem abstrakten Tie-
fenstruktur und einer äußerst komplexen transformationellen Kompo-
nente. Diese Annahme bringt nun eine Vielzahl grundsätzlicher kon-
zeptueller Probleme mit sich, die vor allem den Bereich der Lernbar-
keit und Repräsentierbarkeit betreffen. Zunächst legt der Ansatz der
Generativen Semantik nahe5, Pronomina transformationell über eine
Pronominalisierungsregel einzuführen, da Pronomina ja semantisch
mit den Nominalphrasen, die sie ersetzen, identisch sind. Dementspre-
chend werden die folgenden (b)-Sätze aus den ihnen zugrundeliegen-
den (a)-Sätzen abgeleitet, d.h. bei zwei koreferenten Nominalphrasen,
wird die zweite - unter bestimmten Bedingungen - durch ein Prono-
men ersetzt:

(31a) John; believes that Mary loves John;


(31b) John believes that Mary loves him
(32a) [the man next door]; believes that Mary loves [the man
next door];
(32b) the man next door believes that Mary loves him

5 Die Generative Semantik ist natürlich nicht gezwungen, an der Pronominalisie-


rungsregel festzuhalten. Um die mit dieser Regel verbundenen Schwierigkeiten
zu umgehen, setzte man für Pronomina gebundene Variablen mit Quantorensen-
kung an. Dies führte jedoch notwendigerweise zur Annahme von globalen
Regeln und >transderivational constraints< die aus unabhängigen Gründen eine
Reihe konzeptueller Probleme mit sich bringen (cf. Newmeyer 1980:156ff.)
Bach (1970) konnte nun zeigen, daß bei einer solchen Behandlung der
Pronominalisierung in bestimmten Fällen eine unendliche zugrundelie-
gende Struktur angenommen werden muß, auf die die betreffende Pro-
nominalisierungsregel anzuwenden ist. Dieses Phänomen wird in der
einschlägigen Literatur üblicherweise als das Bach-Peters-Paradox
bezeichnet. Der entscheidende Beispielsatz ist (33):

(33) the woman who wrote to him saw the man who loves her

Her ist hier über Pronominalisierung für die NP the woman who wrote
to him einzusetzen. Diese NP wiederum enthält das Pronomen him,
das ebenfalls erst über die Pronominalisierungsregel eingesetzt wird,
und zwar anstelle von the man who loves her. Doch nun geraten wir in
eine infinite Rekursion, denn diese NP enthält erneut das ursprüngli-
che her, das wiederum anstelle von the woman who wrote to him einge-
setzt wird. Wie sich der Leser leicht selbst überzeugen kann, läßt sich
dieser Pronominalisierungsprozeß infinit fortsetzen. Stets enthält die
NP, auf die die Pronominalisierung anzuwenden ist, selbst ein Prono-
men, das aus einer zugrundeliegenden NP abzuleiten ist.
Das Bach-Peters-Paradox zeigt also, daß bei einer generativ-seman-
tischen Behandlung der Pronominalisierung für bestimmte Strukturen
eine unendlich tiefe semantische Repräsentationsebene und somit eine
unendliche Anzahl von Transformationen angesetzt werden müssen.
Eine Grammatik, die mit diesen Mechanismen arbeitet, ist nun offen-
kundig nicht einmal imstande, Sätze wie (33) zu erzeugen, d.h. die tat-
sächlich in der Sprache auftretenden Sätze aufzuzählen. Allein dieser
Umstand zeigt schon, daß das Modell der Generativen Semantik als lin-
guistische Theorie nicht in Frage kommt. Darüber hinaus ist ebenso
klar, daß unendliche Tiefenstrukturen nicht im Gehirn repräsentiert
werden können, und es stellt sich weiterhin die Frage, wie ein derart
komplexer und durch keinerlei Prinzipien eingeschränkter Regelappa-
rat durch ein Kind auf der Grundlage der ihm verfügbaren Evidenz
überhaupt erlernbar sein soll. Wir werden auf diesen Problemkreis aus-
führlich in Kap. 3 eingehen.
Die semantischen Repräsentationen, die generative Semantiker in
ihren Analysen vorlegten, ähnelten im Laufe der Zeit immer mehr den
Notationen, die aus der Prädikatenlogik bekannt sind. »The base com-
ponent suggested here looks in some ways very much like the logical
Systems familiar from the work of modern logicians like Rudolf Car-
nap, Hans Reichenbach, and others. In particular, such Systems do not
have any subdivision of >lexical items< into nouns, verbs, and adjectives.
Much more basic is the distinction between variables, names, and gene-
ral >predicates< ...« (Bach 1968:121). Diese Entdeckung führte nun zu
der These, daß ein solches Logiksystem Bestandteil unserer Kognition
ist; somit läßt sich sowohl die menschliche Sprachfähigkeit als auch die
Fähigkeit zu logischen Schlüssen auf einer gemeinsamen Basis erklären.
Wie die Untersuchungen von Johnson-Laird (1983) jedoch zeigen,
können die logischen Fähigkeiten des Menschen nicht über die Annah-
me einer >mental logic< erklärt werden (cf. Kap. 1.4). Da somit alles
dafür spricht, daß in unserer Kognition kein formales Logiksystem
direkt abgespeichert ist, entbehren semantische Repräsentationen, die
unmittelbar als logische Notationen konzipiert sind, jeglicher psycho-
logischen Plausibilität.
Wenngleich die These der Generativen Semantik, Sprache sei letzt-
lich nichts anderes als ein rein semantisches Phänomen, aus den oben
beschriebenen Gründen nicht haltbar ist und heutzutage auch von nie-
mandem mehr ernsthaft vertreten wird, so kann man sich dennoch
einer schwächeren Version der Semantikthese anschließen, nämlich der,
daß zwischen Syntax und Semantik ein sehr enges Verhältnis besteht,
bzw. daß die Struktur syntaktischer Repräsentationen weitgehend von
semantischen Gesetzmäßigkeiten bestimmt wird. So geht etwa die
Montague-Grammatik (Montague 1970a; 1970b; 1973; Dowty et al.
1981) von einer eins-zu-eins-Beziehung zwischen syntaktischen und
semantischen Prozessen aus, d.h. jeder syntaktischen Gesetzmäßigkeit
entspricht genau eine semantische Gesetzmäßigkeit et vice versa. Eben-
so wird von ernstzunehmenden Kritikern wie etwa Seebaß (1981) häu-
fig der Vorwurf erhoben, die generative Theorie übersehe bei der Spezi-
fizierung sprachbezogener mentaler Repräsentationen schlicht und ein-
fach die zentrale Rolle der Bedeutung für diesen Phänomenbereich.
Wir hatten bereits mehrfach darauf hingewiesen, daß die Autono-
miethese natürlich nicht bestreitet, daß bestimmte Fakten, die man
unter deskriptiven Gesichtspunkten dem traditionellen Bereich der
Syntax zuordnen kann, durchaus eine semantische Erklärung finden
können. So zeigt etwa Fanselow (1986a), daß die Datenverteilung bei
pränominalen Adjektivphrasen vermutlich semantisch zu begründen
ist. Die Autonomiethese besagt lediglich, daß es einen nicht-trivialen
Bereich sprachlicher Phänomene gibt, die eben nicht semantisch erklär-
bar sind; und genau aus diesem Grunde ist eine autonome syntaktische
Komponente anzusetzen. In der Tat zeigt sich zumeist bei der genauen
Betrachtung semantischer Erklärungen, daß in dem betreffenden Phä-
nomenfeld noch ein Rest »übrigbleibt«, der sich der semantischen
Begründung entzieht und offenbar rein syntaktischer Natur ist. Wir
wollen dies an einem Datenbereich illustrieren, der auf den ersten Blick
eine rein semantische Erklärung geradezu herausfordert, und zwar den
sog. Kontrollphänomenen.
Vergleichen wir die Sätze in (34) miteinander, so lassen sich sowohl
Gemeinsamkeiten als auch Unterschiede feststellen:
(34a) ich verspreche ihm, zu kommen
(34b) ich bitte ihn, zu kommen
Beiden ist gemeinsam, daß der eingebettete Satz zu kommen infinit ist
und daß das Subjekt dieses eingebetteten Satz lexikalisch nicht realisiert
ist. Darin unterscheiden sich die Sätze in (34) von denen in (35):
(35 a) ich verspreche ihm, daß ich komme
(35 b) ich bitte ihn, daß er kommt
Wenngleich das Subjekt zu kommen in (34) lexikalisch nicht vorhanden
ist, so wird es doch sozusagen »mitverstanden«, und zwar als identisch
mit ich in (34a) und ihn in (34b). Dieser Unterschied hat nun einige syn-
taktische Konsequenzen:
(36a) *ich verspreche ihm; sich; zu rasieren
(36b) ich bitte ihn; sich; zu rasieren
Das Reflexivpronomen sich beispielsweise darf nur dann auftreten,
wenn - wie in (36b) - das mitverstandene Subjekt nicht ich, sondern
eine Nominalphrase in der dritten Person ist.
Man mag nun vermuten, daß das »mitverstandene« Subjekt des ein-
gebetteten Satzes stets vom jeweiligen Verb des Matrixsatzes abhängt:
bei versprechen etwa ist das »mitverstandene« Subjekt identisch mit
dem Subjekt des Matrixsatzes, bei bitten ist es identisch mit dem
Objekt des Matrixsatzes. Technisch spricht man bei Verben wie verspre-
chen und bitten von Subjektkontrolle bzw. Objektkontrolle. In der
Standardtheorie (Chomsky 1965) betrachtete man die Kontrolleigen-
schaften eines Verbs im wesentlichen als ein syntaktisches Phänomen.
Eine erste Schwierigkeit dieses Ansatzes besteht darin, daß Verben
wie glauben sowohl Subjektkontrolle als auch Objektkontrolle aus-
üben können:
(37) ich glaubte ihm, gestern abend besoffen gewesen zu sein

(= ich glaubte ihm, daß ich gestern abend besoffen war)


(= ich glaubte ihm, daß er gestern abend besoffen war)
Gravierender ist jedoch (cf. Abraham 1983a; Manzini 1983; Ruzicka
1983), daß syntaktische Variationen im eingebetteten Satz die Kontroll-
eigenschaften des Matrixverbs zu verändern scheinen. Ist etwa ein Pas-
sivsatz oder ein Satz mit einem Modalverb eingebettet, so zeigen
sowohl bitten als auch versprechen Subjekt- und Objektkontrolle, d.h.
in (38) kann das Subjekt des eingebetteten Satzes sich sowohl auf das
Subjekt als auch auf das Objekt des Matrixsatzes beziehen. Dement-
sprechend haben alle Sätze zwei Lesarten:

(38 a) ich versprach ihm, eingeladen zu werden


(38b) ich bat ihn, eingeladen zu werden
(38c) ich versprach ihm, nicht in die Schule gehen zu müssen
(38d) ich bat ihn, in die Schule gehen zu dürfen

In (39) hingegen scheint die Lesart mit Objektkontrolle naheliegender


zu sein:

(39a) ich versprach ihm, nicht von der Klippe fallen zu müssen
(39b) der Chefarzt versprach dem Patienten, diese Nacht schla-
fen zu können

Durch eine leichte Veränderung des verbalen Elements im eingebette-


ten Satz lassen sich die Kontrollverhältnisse in (34a) auch ohne Passivie-
rung bzw. Modalisierung umkehren.

(40a) ich versprach ihm, nicht von der Klippe zu stürzen


(40b) der Chefarzt versprach dem Patienten, diese Nacht zu
überstehen

Diese Daten demonstrieren letztlich, daß es so etwas wie eine syntakti-


sche Eigenschaft »Kontrolle« nicht gibt. Welcher nominale Ausdruck
eines Infinitivsatzes zum mitverstandenen Subjekt wird, hängt sowohl
vom Matrixverb als auch vom Gehalt des Infinitivsatzes ab. Die
zugrundeliegenden Regularitäten sind bereits an den obigen Daten
leicht zu erkennen. Offenkundig kann man sich selbst im Sinne eines
Versprechens nur zu eigenen Handlungen verpflichten. Drückt der ein-
gebettete Satz also einen Handlungssachverhalt aus, so legt allein die
Semantik von versprechen nahe, daß in (34a) ich das mitverstandene
Subjekt ist.
Versprechen kann sich nun selbstverständlich nur auf eigene Hand-
lungen, nicht aber etwa auf Zustände oder Handlungen anderer bezie-
hen. Dennoch kann man natürlich eine Handlung versprechen, die
einen bestimmten Zustand oder die Handlung eines Dritten herbei-
führt. Auf dem Hintergrund dieser rein semantischen Überlegungen
ergeben sich weitgehend die unterschiedlichen Referenzmöglichkeiten
des »mitverstandenen« Subjekts. In (34a) bezieht sich das Versprechen
auf die Handlung des Kommens; da sich nun Versprechen primär auf
eigene Handlungen bezieht, wird das lexikalisch nicht spezifizierte
Subjekt des Kommens auf denjenigen bezogen, der das Versprechen
gibt. In (38a) hingegen ergibt sich aus der Passivkonstruktion, daß die
Handlung des Einladens von einem nicht genannten Dritten vollzogen
wird. Da man offenkundig die Handlung eines anderen nicht verspre-
chen kann, wird das Versprechen als Bereitschaft zu einer Handlung
verstanden, die den Dritten zum Aussprechen der Einladung veranlaßt.
Auf wen sich diese Einladung jedoch bezieht, bleibt offen, und so
gestattet (38a) eine zweifache Lesart. Bei bitten verhalten sich die Kon-
trolleigenschaften in analoger Weise. Zweifellos sind die Verhältnisse im
Bereich der Kontrolle noch weitaus komplexer als wir sie hier darstel-
len (cf. Fanselow 1983; Manzini 1982); an dieser Stelle geht es zunächst
allein darum, die Abhängigkeit syntaktischer Phänomene von semanti-
schen Gegebenheiten aufzuzeigen.
Wenngleich sich wichtige Gesetzmäßigkeiten der Kontrolle aus der
Semantik der involvierten Verben ableiten lassen, so ist damit keines-
wegs der Bereich erklärungsbedürftiger Phänomene erschöpft. Zu fra-
gen ist etwa, warum in derartigen Infinitivsätzen stets nur das Subjekt,
nicht aber das Objekt fehlen darf (cf. Chomsky 1965). Wenn die Seman-
tik des Verbs eine ausreichende Erklärung für Kontrollphänomene
wäre, so wäre zu erwarten, daß ein Satz wie (41a) mit der Bedeutung
von (41b) möglich sein sollte.

(41a) *ich versprach ihm, mein Bruder einzuladen


(41b) ich versprach ihm, von meinem Bruder eingeladen zu
werden

Rein semantisch ist ebenfalls nicht zu erklären, weshalb das »mitver-


standene Subjekt« sich immer nur auf ein Argument des Matrixverbs
beziehen darf, nicht aber auf zwei (cf. Chomsky 1981). Da die Bedeu-
tung von (42a) unproblematisch ist, sollte auch (42b) möglich sein:

(42a) Hans glaubte Maria, daß sie sich eines Tages wieder tref-
fen werden
(42b) *Hans; glaubte Mariaj, sichij eines Tages zu treffen
Wenngleich das mitverstandene Subjekt aus semantischen Gründen
offensichtlich irgendeine Referenz haben muß, so läßt sich semantisch
eigentlich nicht erklären, warum diese Referenz nicht höher als ein Satz
liegen darf (cf. Manzini 1983). Warum ist also (43b) in der Bedeutung
(43a) nicht möglich?

(43a) ich glaube, Hans hat Maria versprochen, daß ich eingela-
den werde
(43b) ich glaube, Hans hat Maria versprochen, eingeladen zu
werden

Diese Beispiele zeigen, daß die bei Kontrollphänomenen auftretenden


Gesetzmäßigkeiten sich nicht allein aus semantischen Prinzipien ablei-
ten lassen, sondern daß ein offenkundig nicht-trivialer Bereich rein
syntaktischer Natur zu sein scheint. Nichts anderes jedoch behauptet
die Autonomiethese. Die gesamte Datenverteilung ergibt sich aus
einem Zusammenspiel semantischer und syntaktischer Prinzipien, aber
eben nicht allein aus semantischen Überlegungen.
Ein weiterer Bereich, bei dem zunächst eine rein semantische Erklä-
rung naheliegt, ist die Verwendung von Reziprokpronomina wie etwa
deutsch einander oder englisch each other. So ist die Ungrammatikalität
von (44) sicher darauf zurückzuführen, daß die Verwendung eines
Reziprokpronomens das Vorhandensein von mindestens zwei Bezugs-
personen voraussetzt (cf. Dougherty 1969):

(44) *John likes each other

Wenngleich eine solche semantische Erklärung sicherlich zutreffend


ist, so hat Chomsky (1973) gezeigt, daß die Verteilung von each other
auch von rein syntaktischen Prinzipien gesteuert wird. Betrachten wir
zunächst die gleichbedeutenden Sätze (45a) und (45b):

(45 a) each of the men likes the other


(45 b) the men like each other

Entscheidend ist jedoch, daß nur die Konstruktion (45 a) über eine Satz-
grenze hinaus gehen kann, wie (46) zeigt:

(46a) each of the men believes that John likes the other
(46b) *the men believe that John likes each other

Daß sich each other in (46b) nicht auf the men beziehen kann, kann
offensichtlich keine semantischen Gründe haben, da sonst auch (46a)
ungrammatisch sein müßte. Auch hier zeigt sich, daß neben semanti-
schen Regularitäten auch autonome syntaktische Prinzipien die Daten-
verteilung steuern (cf. Chomsky 1980).
Ein weiteres Phänomen, das zunächst eine semantische Erklärung
nahezulegen scheint, betrifft die Tatsache, daß Konstituenten, die sich
etwa innerhalb indirekter Fragen oder innerhalb von Koordinations-
strukturen befinden, selbst nicht erfragt werden können (cf. Ross
1967a; Chomsky 1973):
(47a) Hans traf Egon und Fritz
(47b) *wen traf Hans Egon und - (Antwort: Fritz)
(47c) *wen traf Hans - und Fritz (Antwort: Egon)
(48a) Hans weiß nicht, warum Dagmar ein Auto gekauft hat
(48b) *was weiß Hans nicht, warum Dagmar - gekauft hat
Man mag nun im Sinne einer semantischen Erklärung annehmen, daß
(47b) und (47c) deshalb ungrammatisch sind, weil ein koordinierter
Ausdruck wie Egon und Fritz eine inhaltliche Einheit ist, die nicht
durch die Erfragung einer Konstituenten »aufgebrochen« werden darf.
In ähnlicher Weise ließe sich vermuten, daß eine Konstituente innerhalb
eines Fragesatzes deshalb nicht erfragt werden kann, weil Fragen inner-
halb einer Frage aus semantisch-logischen Gründen nicht möglich
sind. Bei genauerer Betrachtung erweisen sich diese Erklärungen
jedoch als nicht haltbar. In einer Sprache wie etwa dem Japanischen
sind die zu (47b), (47c) und (48b) analogen Sätze völlig grammatisch.
Der hier entscheidende Unterschied zwischen dem Japanischen und
dem Deutschen betrifft die Tatsache, daß im Japanischen das Fragewort
nicht am Satzanfang erscheint, sondern in seiner ursprünglichen Kon-
stituentenposition verbleibt:
(49a) Hans-wa Egon-to Fritz-ni atta
Hans(nom.) Egon- und Fritz(dat.) traf
»Hans traf Egon und Fritz«
(49b) Hans-wa dare-to Fritz-ni atta (dare = wer)
»Hans traf wen und Fritz«
(49c) Hans-wa Egon-to dare-ni atta
»Hans traf Egon und wen«
(50a) Dagmar-ga doshite kuruma-o katta-ka Hans-ga shi-
ranai
Dagmar(nom.) warum Auto(acc.) kaufte Hans weiß
nicht
»Hans weiß nicht, warum Dagmar ein Auto kaufte«
(50b) Dagmar-ga doshite nani-o katta-ka Hans-ga shiranai
(nani = was)
»Hans weiß nicht, warum Dagmar was kaufte«
Die Ungrammatikalität von (47b), (47c) und (48b) ergibt sich also nicht
aus dem Umstand, daß Koordinationen oder indirekte Fragesätze
semantische Inseln für die Fragen sind, sondern daß im Deutschen die
Fragebildung einen syntaktischen Prozeß involviert, der Fragewörter an
die Satzanfangsposition bewegt. Koordination und indirekte Fragesät-
ze sind aber Inseln für diesen syntaktischen Prozeß.
Daß es sich hier um ein syntaktisches Phänomen handelt, kann man
auch daran erkennen, daß die japanischen Sätze ungrammatisch wer-
den, sobald das Fragewort nicht mehr an seiner ursprünglichen Posi-
tion verbleibt, sondern aus der betreffenden Struktur herausbewegt
wird. Dies geschieht etwa bei der Topikalisierung, durch die das Frage-
wort eine besondere Hervorhebung erfährt:

(51a) Hans-wa dare-ni atta


Hans(nom.) wen(dat.) traf
»wen traf Hans?«
(51b) Hans-wa atta-no-wa dare desuka
Hans(nom.) traf-NOM wer ist
»wer ist es, den Hans traf?«

In (51b) wird der Satz Hans traf durch die Partikel no-wa nominalisiert;
dare (=wer) erscheint nun nicht mehr innerhalb dieses Satzes, sondern
wird offenkundig in eine Position vor der Kopula herausbewegt. Ent-
scheidend ist nun, daß eine Konstruktion wie (51b) den gleichen
Restriktionen wie die deutsche Fragebildung unterliegt. Dementspre-
chend sind (52a)-(52c) ungrammatisch:

(52a) *Hans-wa Egon-to atta-no-wa dare desuka


Hans Egon-und traf-NOM wer ist
»wer ist die Person, für die gilt, daß Hans Egon und diese
Person traf?«
(52b) *Hans-wa (to) Fritz-ni atta-no-wa dare desuka
Hans und Fritz traf-NOM wer ist
»wer ist die Person, für die gilt, daß Hans diese Person
und Fritz traf?«
(52c) *Dagmar-ga doshite katta-ka Hans-ga shiranai-no-wa
Dagmar warum kaufte Hans weiß nicht-NOM
nan desuka
was ist
»welches ist die Sache, für die gilt, daß Hans nicht weiß,
warum Dagmar diese Sache gekauft hat?«
Auch diese Beispiele zeigen, daß die Fragebildung Regularitäten auf-
weist, die offenkundig unabhängig von der Semantik von Fragen sind.
Derartige Regularitäten spiegeln vielmehr syntaktische Prozesse wider,
die Restriktionen unterliegen, die nur auf der Grundlage eines gramma-
tischen Vokabulars spezifiziert werden können. Nicht mehr und nicht
weniger behauptet die Autonomiethese. Wer also diese These widerle-
gen will, kann sich nicht darauf beschränken, irgendwelche semanti-
schen Regularitäten und Abhängigkeiten aufzuzeigen, sondern er muß
für die einschlägigen Phänomene, von denen wir hier nur einzelne Bei-
spiele aufgeführt haben, eine adäquate semantische Erklärung vorle-
gen; soweit uns bekannt, ist dies bislang noch niemandem gelungen.

2.3 Syntax und Funktionalismus

Einen weitverbreiteten Ansatz, der sich ebenfalls als Konkurrenz zur


Autonomiehypothese versteht, stellt die Funktionale Grammatik dar
(cf. etwa Erteshik-Shir 1973; Dik 1978, 1981; Givon 1979a; Bates &
McWhinney 1982; Foley & Van Valin 1984). Sie geht von der These aus,
daß sich die syntaktischen Gesetzmäßigkeiten natürlicher Sprachen aus
pragmatischen und textstrukturellen Prinzipien im Wechselspiel mit
semantischen Faktoren ableiten lassen. Zur funktionalistischen Kritik
an der Autonomiethese läßt sich im Grunde nur wiederholen, was wir
bereits in Kap. 2.2 im Zusammenhang mit semantischen Erklärungen
gesagt haben. Die Autonomiethese bestreitet keineswegs, daß für
bestimmte sprachliche Phänomene, die sich intuitiv dem Bereich der
Syntax zuordnen lassen, eine funktionalistische Erklärung möglich
und plausibel ist; sie bestreitet lediglich, daß sich sämtliche syntakti-
schen Phänomene aus semantisch-pragmatischen bzw. textstrukturel-
len Prinzipien ableiten lassen. Die Autonomiethese behauptet, daß es
eben einen autonomen syntaktischen Bereich gibt, der sich auf keinerlei
nicht-syntaktische Gesetzmäßigkeiten reduzieren läßt. Wir haben
bereits im vorangegangenen Kapitel eine Reihe von Beispielen aufge-
führt, für die von der Autonomiethese eine rein syntaktische Erklärung
postuliert wird. Hierzu gehören u.a. auch die folgenden Phänomene:
a) aus bestimmten komplexen Nominalphrasen dürfen Fragewör-
ter nicht herausbewegt werden:
(53a) who did you see pictures of
(53b) *who did you see John's pictures of
b) Anaphern wie each other können nur als Subjekt eines Infinitivsat-
zes, nicht jedoch als Subjekt eines finiten Satzes erscheinen:

(54a) the students expect each other to win the game


(54b) *the students expect that each other will win the game

c) aus that-Sätzen darf das Subjekt bei der Fragebildung nicht extra-
hiert werden; fehlt die Konjunktion that, so ist die Extraktion möglich:

(55a) who does John believe that Mary loves


(55b) who does John believe Mary loves
(55c) *who does John believe that loves Tom
(55d) who does John believe loves Tom

Die einschlägige funktionalistische Literatur schweigt sich zu solchen


Datenverteilungen beständig aus und präsentiert statt dessen ein Viel-
zahl von sprachlichen Phänomenen, für die - zu Recht oder zu
Unrecht - eine funktionale Begründung vermutet wird. Damit argu-
mentieren die Vertreter des Funktionalismus an den zentralen Aussa-
gen der Autonomiethese vorbei.
Ein bevorzugter Bereich funktionalistischer Erklärungen ist die
Passivkonstruktion, so daß wir die grundlegende Problematik exem-
plarisch an diesem Strukturtyp darstellen wollen. Zunächst zeigt sich
bei funktionalistischen Erklärungsansätzen vielfach, daß Gesetzmä-
ßigkeiten bei der Verwendung optionaler Regeln gerne mit deren
struktureller Fundierung verwechselt werden. So weisen etwa Foley &
Van Valin (1984) darauf hin, daß die Funktion des Passivs darin
besteht, das Agens eines transitiven Verbs zu detopikalisieren und das
logische Objekt zu topikalisieren. Das Passiv dient also dazu, die
Fokusverteilung des Aktivs umzukehren. Ebenso betonen die beiden
Autoren, daß Subjekte weitaus mehr syntaktische Optionen als
Nicht-Subjekte besitzen, so daß die Passivkonstruktion dem logi-
schen Objekt eine Möglichkeit eröffnet, diese syntaktischen Optio-
nen auszuschöpfen, wenn dies für die Textgestaltung sinnvoll oder
erforderlich ist. So können etwa im Englischen nur Subjekte, nicht
aber Objekte bei Identität mit einem vorangehenden nominalen Aus-
druck getilgt werden. (56a) in der Bedeutung von (56b) ist somit mög-
lich, nicht hingegen (57a) in der Lesart (57b). Ebenso erlauben Gerun-
dial- und Infinitivkonstruktion unter bestimmten Bedingungen die
Auslassung des Subjekts, aber nicht des Objekts; dadurch ergeben
sich die Kontraste in (58) und (59).
(56a) John kissed Mary and attacked Tom
(56b) »Johni kissed Mary and Johni attacked Tom«
(57a) *John kissed Mary and Bill attacked
(57b) »John kissed Mary; and Bill attacked Maryi«
(58a) knowing the answer, John responded immediately
(58b) *John knowing, he gave the answer immediately
(59a) I began to attack my brother
(59b) *I began my brother to attack
Die Passivkonstruktion bietet nun die Möglichkeit, unter Beibehaltung
der Tilgungsverhältnisse entsprechend grammatische Sätze zu bilden:
(57a') John kissed Mary and was attacked by Bill
(58b') being known to John, the answer did not surprise anyone
(59b') I began to be attacked by my brother
Nun ist es durchaus legitim und sinnvoll, die Verwendungsgesetzmä-
ßigkeiten einer Regel zu beschreiben; nur ersetzt eine solche Beschrei-
bung nicht die Spezifizierung der Regel selbst. Die Funktion einer
Regel ist also nicht gleichzusetzen mit den strukturellen Eigenschaften
der Regel. Dies läßt sich etwa an der deutschen Passivkonstruktion illu-
strieren, die eine Vielzahl von interessanten Gesetzmäßigkeiten auf-
weist, die mit ihrer Funktion im Sinne von Foley & Van Valin (1984)
überhaupt nichts zu tun haben:
a) Verben mit Dativobjekt bilden ein »unpersönliches Passiv«, wäh-
rend bei Verben mit Akkusativobjekt dies im Passiv als Subjekt auftritt:
(60a) der Arzt half dem Mann
(60b) dem Mann wurde geholfen
(60c) *der Mann wurde geholfen
(61a) der Arzt heilte den Mann
(61b) *den Mann wurde geheilt
(61c) der Mann wurde geheilt
b) Zwar können sowohl transitive als auch intransitive Verben das Pas-
siv mit werden bilden, aber nur transitive Verben erlauben das Passiv
mit bekommen (cf. Höhle 1978; Eroms 1978):
(62a) Hans widerlegte mir meine Theorie
(62b) mir wurde meine Theorie widerlegt
(62c) ich bekam meine Theorie widerlegt
(63 a) man tanzte auf der Terrasse
(63b) auf der Terrasse wurde getanzt
(63c) *auf der Terrasse bekam getanzt
c) Nur bei wenigen Verben ist die Passivierung eines eingebetteten
Objekts erlaubt, so daß sich Kontraste wie in (64) und (65) ergeben (cf.
Höhle 1978):

(64a) man begann, einen neuen Stall zu bauen


(64b) ein neuer Stall wurde zu bauen begonnen
(65a) man bat, einen neuen Stall zu bauen
(65b) *ein neuer Stall wurde zu bauen gebeten

d) Intransitive Verben können nur dann ein Passiv bilden, wenn sie ihr
Perfekt mit haben und nicht mit sein bilden (cf. Burzio 1981; Fanselow
1987b):

(66a) es wurde bis spät in die Nacht getanzt


(66b) hier darf nicht so viel geschimpft werden
(67a) *es wurde die Treppe heruntergefallen
(67b) *heute darf nicht so früh angekommen werden

Diese Beispiele zeigen, daß die Passivkonstruktion einer Vielzahl von


äußerst subtilen und komplexen Restriktionen unterliegt, deren
zugrundeliegende Prinzipien wir ausführlich in Band II darstellen wer-
den. Es ist nicht erkennbar, wie diese Restriktionen unter funktiona-
listischer Perspektive erklärt werden können, und in der Tat liegen hier-
für keinerlei ernstzunehmende Vorschläge von Seiten der Vertreter des
Funktionalismus vor. In der Tat könnte das Passiv seine Fokussierungs-
funktion weitaus besser erfüllen, wenn derartige Restriktionen nicht
bestünden.
Vollends merkwürdig wird der funktionalistische Ansatz freilich
dann, wenn man - wie Foley & Van Valin - die Betrachtung auf Spra-
chen ausdehnt, in denen das Passiv eine völlig andere Funktion zu
haben scheint. So kennen etwa die Bantu-Sprachen eine syntaktisch
relevante Prominenzhierarchie im Bereich der nominalen Ausdrücke:
Nominalphrasen in der 1. Person sind prominenter als solche in der 2.
Person; es folgen Nominalphrasen der 3. Person, wobei menschliche
Denotata vor belebten nicht-menschlichen, und diese wiederum vor
Abstrakta und unbelebten Konkreta rangieren. Nach Foley & Van
Valin besteht die Aufgabe des Passivs im Bantu darin, die jeweils promi-
nenteste Nominalphrase zum Satzsubjekt zu machen. Andererseits
zeigt sich jedoch, daß das Bantu-Passiv alle wesentlichen syntaktischen
Eigenschaften des deutschen Passivs zu teilen scheint. Daraus ergibt
sich, daß die syntaktischen Eigenschaften des Bantu-Passivs eben nicht
- im Sinne einer funktionalistischen Erklärung - Reflex der Pronomi-
nahierarchie bzw. der damit einhergehenden pragma-stilistischen Fak-
toren sein können; denn diese Faktoren fehlen im Deutschen. Mit
anderen Worten, die syntaktischen Charakteristika des Passivs beste-
hen offensichtlich im Deutschen oder im Bantu unabhängig davon, für
welche Zwecke man das Passiv in der jeweiligen Sprache verwendet.
Besonders anfällig für funktionalistische Erklärungsversuche schei-
nen auch die Begriffe Subjekt und Objekt zu sein (cf. Chafe 1976;
Givon 1976). Intuitiv liegt durchaus die Vermutung nahe, Subjekt und
Objekt seien ein Reflex pragmatischer Distinktionen. So könnte man
etwa annehmen, daß das Subjekt den Ausgangspunkt oder den Initiator
einer Handlung bzw. eines Geschehens bezeichnet, während das
Objekt das Ziel oder den Rezipienten angibt.
Bei genauer Betrachtung zeigt sich jedoch, daß Subjekt und Objekt
eben doch rein syntaktische Begriffe sind (cf. Keenan 1976; Marantz
1984), die sich nicht über pragmatische oder stilistische Regularitäten
erfassen lassen. Das Subjekt kann in der Tat eine Vielzahl von sehr
unterschiedlichen semantischen Rollen und thematischen Rollen über-
nehmen (cf. Reis 1982):

(68a) Hans schreibt einen Brief (=Agens)


(68b) Hans erhält einen Brief (=Empfänger)
(68c) Hans kennt die Wahrheit (=>Experiencer<)
(68d) die Dose enthält ein Loch ( = Ort)
(68e) dieses Messer schneidet schlecht (=Instrument)
(68f) es regnet (keine Rolle)

Darüber hinaus können sich die thematischen Rollen bei verschiedenen


Verben komplementär in Subjekt und Objekt verteilen:

(69a) Hans verkaufte Fritz ein Auto


(69b) Fritz kaufte von Hans ein Auto
(70a) dem Lehrer unterlief ein Fehler
(70b) der Lehrer machte einen Fehler

Ebenso können nicht nur nominale Ausdrücke, sondern auch Sätze in


Subjektposition auftreten, ohne daß hier eine eindeutige thematische
Funktion spezifizierbar wäre (cf. Reis 1982):

(71) daß Fritz verlieren wird ist doch klar


(72) in Passau Linguistik zu studieren erfreut jeden Studenten

Andererseits unterliegt die Besetzung der Subjektposition Restriktio-


nen, die einer funktionalistischen Perspektive geradezu zuwiderlaufen:
(73) *auf dem Berg liegt in Wolken

Unter semantisch-pragmatischen Gesichtspunkten ist (73) völlig in


Ordnung. Die Präpositionalphrase auf dem Berg gibt einen Ort an und
von diesem Ort wird gesagt, daß er in Wolken liegt. Daß Subjekte eine
Ortsangabe enthalten ist nicht ungewöhnlich, wie etwa (68d) zeigt.
(73) ist nicht deshalb ungrammatisch, weil pragmatische oder semanti-
sche Prinzipien verletzt sind, sondern allein, weil im Deutschen Präpo-
sitionalphrasen nicht in Subjektposition auftreten können; und dies ist
eine rein syntaktische Regularität.
Die meisten Sprachen verfügen über die Möglichkeit, einzelne Ele-
mente eines Satzes besonders hervorzuheben. Im Deutschen geschieht
dies etwa dadurch, daß die Elemente an die Satzanfangsposition bewegt
werden:

(74a) Hans hat in Passau von seinem Freund ein Auto gekauft
(74b) in Passau hat Hans von seinem Freund ein Auto gekauft
(74c) von seinem Freund hat Hans in Passau ein Auto gekauft
(74d) ein Auto hat Hans von seinem Freund in Passau gekauft

Auf den ersten Blick scheint eine solche Topikalisierungsregel eine


funktionalistische Erklärung geradezu herauszufordern (cf. Engel
1977:217-221). Letztlich dient diese Regel dazu, eine bestimmte stilisti-
sche Funktion auszuüben, nämlich ein Satzelement hervorzuheben. Es
zeigt sich jedoch, daß diese Topikalisierung einigen sehr merkwürdigen
Restriktionen unterliegt, die sich kaum pragmatisch erklären lassen. So
läßt sich der verbale Ausdruck gekauft mit beliebigen Konstituenten in
beliebiger Reihenfolge topikalisieren, nur nicht mit dem Subjekt Hans
(cf. Thiersch 1982; Haider 1983):

(75a) in Passau ein Auto gekauft hat Hans von seinem Freund
(75b) in Passau von seinem Freund gekauft hat Hans ein Auto
(75c) ein Auto in Passau von seinem Freund gekauft hat Hans
(75d) *Hans gekauft hat in Passau von seinem Freund ein Auto

Auch im Englischen ist die Topikalisierung Restriktionen unterworfen,


die aus pragmatisch-funktionalistischer Perspektive rätselhaft erschei-
nen müssen. So lassen sich zwar finite, aber keine infiniten Sätze topi-
kalisieren (Koster 1979):
(76a) John had never expected that Mary would come to the
party
(76b) that Mary would come to the party, John had never
expected
(76c) John had never expected Mary to come to the party
(76d) *Mary to come to the party, John had never expected

Zuweilen zeigen natürliche Sprachen Gesetzmäßigkeiten, die sich nicht


nur nicht funktionalistisch erklären lassen, sondern einer funktiona-
listisch naheliegenden und sinnvollen Interpretation geradezu zuwider-
laufen. Mit anderen Worten, unter pragmatischen Gesichtspunkten
drängen sich Lesarten auf, die die entsprechenden Strukturen gerade
nicht haben. Ein besonders augenfälliges Beispiel hierfür findet sich in
Chomsky (1984):

(77a) John is eating an apple


(77b) John is eating
(78a) John is too stubborn to talk to Bill
(78b) John is too stubborn to talk to

Betrachten wir zunächst das Satzpaar (77). Die beiden Sätze unterschei-
den sich darin, daß in (77a) das, was gegessen wird, explizit genannt
wird, i.e. ein Apfel. In (77b) hingegen bleibt das Objekt des Essens
unspezifiziert. (77b) ließe sich also paraphrasieren als Hans ißt irgend-
etwas, aber was dies ist, bleibt offen. Unter funktionalistisch-pragmati-
schen Gesichtspunkten ist dieser syntaktische Kontrast durchaus ver-
ständlich. Es ist vernünftig, einen Gegenstand oder eine Handlung nur
dann explizit zu nennen, wenn dies für die intendierte Mitteilung wich-
tig und essentiell ist. Natürlich weiß jeder Gesprächspartner, daß die
Handlung des Essens impliziert, daß irgendetwas gegessen wird; aber
es mag Situationen geben, in denen es unnötig oder unerwünscht ist,
das Objekt des Essens näher zu spezifizieren. Unter einer funktionali-
stischen Perspektive wäre daher zu erwarten, daß natürliche Sprachen
so strukturiert sind, daß das Objekt einer Handlung entweder lexika-
lisch spezifiziert wird, oder bei Bedarf ungenannt bleibt und somit
irgendein beliebiges Objekt ist. Betrachten wir nun (78a). Das implizite
Subjekt des eingebetteten Satzes to talk to Bill ist offensichtlich John.
Das Objekt der Sprechhandlung ist explizit genannt, i.e. es ist Bill. Der
Satz ließe sich also wie folgt paraphrasieren: Hans ist zu halsstarrig als
daß er (=Hans) mit Bill sprechen würde. In (78b) hingegen bleibt das
Objekt von to talk to ungenannt. In Analogie zu (77b) wäre nun unter
Berücksichtigung der genannten pragmatischen Gesichtspunkte zu
erwarten, daß nunmehr irgendeine beliebige Person, die nicht näher
genannt werden soll, gemeint ist. Dementsprechend wäre (78b) zu
paraphrasieren als: Hans ist zu halsstarrig, als daß er (=Hans) mit irgend-
einer beliebigen Person sprechen würde. Doch diese Lesart ist für (78b)
gerade nicht möglich. Der Satz kann nur bedeuten: Hans ist zu halsstar-
rig, als daß irgendeine Person mit ihm (=Hans) sprechen würde. Dies
bedeutet, daß in (78b) - im Gegensatz zu (77b) - das explizite Fehlen
des Objekts nunmehr Hans und nicht etwa irgendeine beliebige Person
zum Objekt der Sprechhandlung macht. Demgegenüber tritt nun die
beliebige Person als implizites Subjekt auf. Auch dieses Phänomen deu-
tet in sehr drastischer Weise darauf hin, daß sich die Struktur natürli-
cher Sprachen eben nicht strikt nach funktionalistischen oder pragmati-
schen Kriterien richtet, sondern derartigen Gesichtspunkten sogar
zuwiderlaufen kann.
Im Prinzip ließe sich die Liste von Beispielen beliebig fortführen.
Sie alle zeigen, daß natürliche Sprachen eben nicht rein funktionale
Gebilde sind, sondern über Struktureigenschaften verfügen, die zuwei-
len dem pragmatisch Sinnvollen und Naheliegenden eher entgegenwir-
ken. Natürlich haben Sprachen mannigfaltige Funktionen und diese
spiegeln sich zweifellos auch in einer Reihe von Merkmalen wider, aber
natürliche Sprachen lassen sich nicht auf ihre Funktionalität reduzie-
ren. Genau diese Einsicht liegt jedoch der Autonomiethese zugrunde:
das, was wir als Sprache bezeichnen, ergibt sich aus dem Zusammen-
spiel höchst unterschiedlicher Komponenten, von denen eine eben die
Grammatik als eigenständiges und autonomes Struktur- und Wissens-
system ist.
Das logische Problem des Spracherwerbs

3.1 Das Lernbarkeitskriterium

Die erklärte Zielsetzung der generativen Sprachtheorie, das unserem


grammatischen Wissen zugrundeliegende System mentaler Repräsen-
tationen zu spezifizieren, führt natürlich zu der Frage, wie bei der
Bewerkstelligung dieser Aufgabe im einzelnen vorzugehen ist. Dies ist
zunächst, aber nicht ausschließlich, ein methodisches Problem. Wie
wir bereits in Kap. 1.2 dargestellt haben, basiert das am weitesten ver-
breitete und bislang erfolgreichste Verfahren auf Grammatikalitätsur-
teilen1. Dahinter steht die Idee, daß es für die Bestimmung der menta-
len Fundierung eines bestimmten Wissenssystems zunächst sinnvoll ist
zu fragen, worin denn das Wissen in dem betreffenden Gebiet besteht
(cf. Chomsky 1975), und offenkundig manifestiert sich ein Aspekt die-
ses Wissens in der prinzipiellen Fähigkeit des erwachsenen Sprechers,
für beliebige Sätze anzugeben, ob sie in seiner Sprache möglich sind
oder nicht. Eine grundsätzlich analoge Verfahrensweise finden wir
auch in anderen Disziplinen der kognitiven Wissenschaften, etwa in der
Wahrnehmungspsychologie. Hier versucht man zunächst, die perzep-
tuellen Leistungen, zu denen z.B. der Mensch prinzipiell fähig bzw.
nicht fähig ist, möglichst umfassend und präzis zu spezifizieren, um
sich darauf aufbauend die Frage zu stellen, über welche Struktureigen-
schaften ein kognitiver Mechanismus verfügen muß, der genau diese
Leistungen erbringt. In ähnlicher Weise geht die generative Sprachtheo-
rie von Grammatikalitätsurteilen aus und versucht, einen formalen
Mechanismus (i.e. einen Algorithmus) zu erstellen, der das den Gram-

1 In jüngerer Zeit hat man verstärkt auch auf Daten aus dem Bereich der Sprach-
verarbeitung (z.B. Marcus 1980; Frazier & Fodor 1978; Berwick & Weinberg
1982, 1983), der Aphasiologie (cf. Kean 1985) und der Psycholinguistik (cf. Wan-
ner & Gleitman 1982; White 1982; Felix 1987) zurückgegriffen. Dennoch sind
Grammatikalitätsurteile nach wie vor das vorherrschende Arbeitsinstrument
generativer Grammatiker. Dieser Umstand hat jedoch keine prinzipiellen Grün-
de; grundsätzlich sind alle Datenbereiche heranzuziehen, aus denen Einsichten
in theoretisch relevante Aspekte des menschlichen Sprachvermögens gewonnen
werden können (cf. auch Chomsky 1981:9)
matikalitätsurteilen zugrundeliegende Wissen modelliert. Dieser Algo-
rithmus muß offensichtlich so beschaffen sein, daß er in systematischer
Art und Weise genau die Klasse der in der betreffenden Sprache mögli-
chen Sätze spezifiziert und sie somit von den ungrammatischen Sätzen
unterscheidet. In der generativen Terminologie wird ein solcher Algo-
rithmus als »Grammatik« bezeichnet.
Hierbei taucht nun ein grundsätzliches Problem auf. Mathematisch
läßt sich nachweisen, daß es für einen gegebenen Satz von Daten stets
mehr als eine Grammatik gibt, die das oben genannte Kriterium erfüllt
(cf. Kratzer et al. 1974). Die Vielfalt derartiger Grammatiken hängt u.a.
davon ab, welche formalen Anforderungen man an sie stellt (cf. Baker
1979:537-541). So könnte man etwa von der betreffenden Grammatik
lediglich verlangen, daß sie angibt, ob ein gegebener Satz in einer Spra-
che möglich ist oder nicht. Eine Grammatik, die diese Bedingung
erfüllt, bezeichnet man als beobachtungsadäquat (»observationally
adequate«). Eine stärkere Anforderung wäre, daß die Grammatik nicht
nur angibt, welche Sätze möglich sind, sondern jedem dieser möglichen
Sätze auch eine ganz bestimmte Struktur zuordnet. Grammatiken sol-
cher Art nennt man beschreibungsadäquat (»descriptively adequate«).
Zwei Grammatiken, die für eine gegebene Menge von Sätzen das Krite-
rium der Beobachtungsadäquatheit erfüllen, nennt man schwach äqui-
valent (»weakly equivalent«), während zwei entsprechend beschrei-
bungsadäquate Grammatiken stark äquivalent (»strongly equivalent«)
sind. Wenngleich die Klasse der stark äquivalenten Grammatiken
erheblich kleiner ist als die Klasse der schwach äquivalenten Grammati-
ken, so ist sie immer noch so groß, daß sich die Frage stellt, welche die-
ser Grammatiken denn nun der tatsächlichen mentalen Repräsentation
im »human mind« entspricht.
An einigen einfachen Beispielen aus Baker (1979) wollen wir die
Grundproblematik illustrieren und betrachten hierzu die folgenden
Sätze:

(1a) John gave the book to Alice


(1b) John gave Alice the book
(2a) we sent a letter to him
(2b) we sent him a letter

In der Standardtheorie (Chomsky 1965) wurde eine Transformationsre-


gel wie (3) angenommen, die Dativkonstruktionen mit to wie in (1a)
und (2a) in entsprechende Sätze ohne to wie in (1b) und (2b) umformt.
Diese Regel wird üblicherweise als dative movement bezeichnet. Der
Doppelpfeil ist eine notationelle Konvention, nach der die durchnumme-
rierten Konstituenten in der angegebenen Weise umgestellt werden
sollen:

(3) X-V-NP-to-NP
1 2 3 4 5
=> 1, 2, 5 + 3, Ø, Ø

Das Grundproblem dieser Transformationsregel liegt darin, daß sie


auch ungrammatische Sätze wie in (4b) und (5b) generiert:

(4a) George said something uncharitable to Maxine


(4b) *George said Maxine something uncharitable
(5a) we reported the accident to the police
(5b) *we reported the police the accident

Die Anwendbarkeit der Regel (3) ist somit bestimmten lexikalischen


Restriktionen unterworfen, die von dem jeweiligen Verb abhängen;
d.h. bei give und send ist (3) anwendbar, bei say und report nicht. Derar-
tige Restriktionen lassen sich im Lexikoneintrag der jeweiligen Verben
spezifizieren: Verben wie say oder report enthalten dementsprechend
in ihrem Lexikoneintrag ein negatives Regelmerkmal [-dative move-
ment], das die Anwendung von (3) verbietet. In allen anderen Fällen ist
(3) grundsätzlich anwendbar.
Zu dieser transformationellen Behandlung der obigen Daten gibt es
eine phrasenstrukturelle Alternative, die gleichermaßen beschreibungs-
adäquat ist, d.h. sie generiert exakt die gleichen Sätze mit den gleichen
Strukturbeschreibungen. Im Rahmen dieser Alternative werden zwei
verschiedene Phrasenstrukturregeln angesetzt, eine für die Konstruk-
tion mit und eine für die Konstruktion ohne to:

(6a) VP -> V NP PrepP


(6b) VP -> V NP NP

Um die korrekte Datenverteilung zu erhalten, werden nunmehr für die


einzelnen Verben verschiedene Subkategorisierungsrahmen2 spezifi-
ziert:

2 Subkategorisierung bezieht sich auf die unterschiedlichen syntaktischen Struk-


turen, in denen verschiedene Verben obligatorisch auftreten müssen. So ver-
langt etwa sehen ein direktes Objekt, geben ein direktes und indirektes Objekt,
glauben ein direktes Objekt, eine Präpositionalphrase oder einen eingebetteten
Satz.
(7a) send <_____NP to NP>, <_____NP NP>
(7b) give <_____NP to NP>, <_____NP NP>
(7c) say <_____NP to NP>
(7d) report <_____NP to NP>

Der hier geschilderte Fall ist keineswegs ein Einzelphänomen. Auch die
folgende Datenlage läßt sich auf unterschiedliche Weise gleichermaßen
beschreibungsadäquat erfassen:

(8a) the child seems to be happy


(8b) the child seems happy
(9a) John appears to be reluctant to leave
(9b) John appears reluctant to leave
(10a) Fred happens to be sleepy
(10b) *Fred happens sleepy
(11a) the baby seems to be sleeping
(11b) *the baby seems sleeping
(12) X - to be - Y
1 2 3
=> 1, Ø, 3

Auch bei diesen Daten ließe sich einerseits eine Transformationsregel


wie (12) ansetzen, die auf die jeweiligen (a)-Sätze angewandt wird und
die Kopula to be tilgt. Um ungrammatische Sätze wie (10b) und (11b)
auszuschließen, wäre die lexikalische Umgebung zu spezifizieren, in
der (12) nicht zulässig ist. Andererseits könnte man aber auch - wie im
vorangehenden Fall - zwei verschiedene Phrasenstrukturregeln (eine
mit Satzkomplement und eine mit Adjektivphrasenkomplement) anset-
zen, wobei der für jedes einzelne Verb im Lexikon eingetragene Subka-
tegorisierungsrahmen angibt, welches Verb mit welcher dieser beiden
Phrasenstrukturen auftreten kann. Weitere ähnlich gelagerte Beispiele
finden sich in Baker (1979).
Aufgrund dieses Sachverhaltes ergibt sich für eine Grammatiktheo-
rie, deren erklärtes Ziel die Spezifizierung der mentalen Repräsentation
sprachlichen Wissens ist, ein fundamentales Problem. Da die relevan-
ten Daten auf unterschiedliche Weise beschreibungsadäquat erfaßt wer-
den können, stellt sich die Frage, welches dieser alternativen Regelsy-
steme nun dasjenige ist, das tatsächlich im Kognitionsapparat des
erwachsenen Sprechers repräsentiert ist. Da diese Frage ex hypothesi (es
handelt sich ja in allen Fällen um beschreibungsadäquate Regelsysteme)
nicht über die reine Datenanalyse beantwortet werden kann, muß ein
ein zusätzliches Entscheidungskriterium gefunden werden. Mit ande-
ren Worten, wir brauchen ein Maß, das alternative beschreibungsadä-
quate Grammatiken bzw. Teilgrammatiken hinsichtlich ihrer kognitiven
Verankerung evaluiert. Welche ist die tatsächliche mentale Grammatik?
Das entscheidende Kriterium zur Evaluierung unterschiedlicher
beschreibungsadäquater Grammatiken kommt aus dem Bereich des
Spracherwerbs. Eine Grammatik ist offenkundig nur dann ein plausi-
bles Modell der mentalen Repräsentation sprachlichen Wissens, wenn
sie unter den üblichen Bedingungen des natürlichen Spracherwerbs
auch erlernt werden kann. Da Kinder ja nicht mit der Kenntnis ihrer
Muttersprache geboren werden, sondern diese erst erwerben müssen,
scheidet eine Grammatik, die aus prinzipiellen Gründen nicht erlern-
bar ist, als Modell sprachlichen Wissens aus. Etwas salopp ausge-
drückt: wenn eine Grammatik Wissen beschreibt, das wir im Kopf
haben, so muß grundsätzlich auch gewährleistet sein, daß ein solches
Wissen in den Kopf hineinkommen kann. Das Lernbarkeitskriterium
ist somit der entscheidende Maßstab für die Beurteilung unterschiedli-
cher, aber gleichermaßen beschreibungsadäquater Analysen. Ziel der
linguistischen Theorie ist es, ein Modell grammatischen Wissens zu ent-
werfen, das einerseits die tatsächlichen Fähigkeiten des erwachsenen
Sprechers widerspiegelt und andererseits das Lernbarkeitskriterium
erfüllt.
In sehr allgemeiner Form läßt sich das Lernbarkeitsproblem etwa
wie folgt formulieren: was versetzt ein Kind in die Lage, unter den übli-
chen Bedingungen eine beliebige natürliche Sprache als Muttersprache
zu erwerben? Eine offenkundige Voraussetzung für den Spracherwerb
ist nun sicherlich, daß das Kind der betreffenden Sprache in seiner
Umgebung ausgesetzt ist. Diese Beobachtung scheint trivial zu sein,
und so ist der Laie vielfach geneigt, das Lernbarkeitsproblem mit dem
Hinweis abzutun, daß Kinder ihre Muttersprache deshalb erlernen,
weil sie tagtäglich mit dem Gebrauch von Sprache und mit sprachlichen
Handlungen konfrontiert sind. Bei genauer Betrachtung kann eine sol-
che Antwort jedoch nicht ausreichen. Sprachliche Erfahrung ist zwei-
fellos eine notwendige, jedoch keine hinreichende Bedingung für den
Spracherwerb. Auch Hunde, Katzen und andere Haustiere sind alltäg-
lich sprachlichen Handlungen ausgesetzt, aber dennoch erwerben sie -
im Gegensatz zum Kind - natürliche Sprachen nicht. Daraus folgt, daß
ein Lebewesen nur dann etwas lernen kann, wenn es mit einem Lern-
mechanismus ausgestattet ist, dessen Eigenschaften der zu bewältigen-
den Aufgabe angemessen sind.
Man mag nun annehmen, daß der für den Spracherwerb relevante
Lernmechanismus primär kognitiver Natur ist; i.e. was den Menschen
in diesem Bereich von anderen Lebewesen unterscheidet, ist nicht etwa
seine spezifische Anatomie oder Physiologie, sondern die Struktur sei-
ner Kognition. Das Lernbarkeitsproblem involviert somit vor allem
drei Aspekte, die zueinander in Beziehung zu setzen sind: a) die Struk-
tur des (kognitiven) Lernmechanismus; b) den Gegenstand des Ler-
nens, in unserem Fall die Sprache; c) die verfügbare Datenbasis. Die
entscheidende Frage ist nun: welche Struktureigenschaften muß ein
Lernmechanismus bzw. ein Kognitionssystem besitzen, um auf der
Grundlage der üblicherweise verfügbaren Daten, den Erwerb einer
beliebigen natürlichen Sprache zu ermöglichen?
Ausgangspunkt für die Beantwortung dieser Frage bildet das sog.
»poverty-of-stimulus« Argument (cf. Fodor 1975; Baker 1979; Light-
foot 1982). Bei genauer Betrachtung zeigt sich, daß das grammatische
Wissen, das ein Kind im Laufe seiner sprachlichen Entwicklung
erwirbt, durch die ihm verfügbare empirische Evidenz unterdetermi-
niert ist; d.h. das Kind erwirbt Wissen, für das ihm seine sprachliche
Umgebung keinerlei Anhaltspunkte bietet. Vereinfacht ausgedrückt:
am Ende des Erwerbsprozesses weiß das Kind viel mehr, als es auf-
grund seiner sprachlichen Erfahrung eigentlich wissen kann. Nach dem
derzeitigen Stand der Dinge lassen sich vor allem drei Aspekte aufzei-
gen, unter denen das grammatische Wissen, das das Kind erwirbt,
durch die verfügbare Evidenz unterdeterminiert ist:
1. quantitative Unterdeterminiertheit:
die sprachliche Erfahrung des Kindes umfaßt stets nur einen relativ
kleinen Ausschnitt der in einer Sprache möglichen Sätze und Struk-
turen.
2. qualitative Unterdeterminiertheit:
das zu erwerbende Wissen besteht im wesentlichen aus Regeln und
Prinzipien, während die sprachliche Erfahrung aus konkreten
Äußerungen besteht, die lediglich als Exemplifizierung der zu
erwerbenden Regeln und Prinzipien gelten können.
3. Unterdeterminiertheit durch Fehlen negativer Evidenz:
die sprachlichen Daten, die dem Kind zum Erwerb des grammati-
schen Wissens zur Verfügung stehen, enthalten zwar positive, aber
keine negative Evidenz; d.h. das Kind kann an den Daten erkennen,
ob eine Struktur grammatisch ist, aber es kann nicht eindeutig
erkennen, ob eine Struktur ungrammatisch ist.
Die quantitative Unterdeterminiertheit ergibt sich primär aus logischen
Erwägungen und ist letztlich eher trivialer Natur. Die sprachliche
Erfahrung des Kindes ist offenkundig finit; d.h. die Anzahl der Sätze
und Äußerungen, mit denen das Kind im Laufe des Spracherwerbs
konfrontiert wird, mag zwar sehr groß sein, sie ist jedoch in jedem Fall
begrenzt. Dies gilt selbst dann, wenn wir - entgegen der üblichen Auf-
fassung, nach der der Grammatikerwerb in etwa mit dem 6.-7. Lebens-
jahr abgeschlossen ist - den Spracherwerb als einen lebenslangen Pro-
zeß ansehen würden. Damit mag sich die sprachliche Erfahrung zwar
um ein Vielfaches vergrößern, ist jedoch auch dann in jedem Falle end-
lich. Trotz dieser begrenzten Erfahrung umfaßt das grammatische Wis-
sen eines kompetenten erwachsenen Sprechers jedoch, wie wir in Kap.
1.2 dargelegt haben, eine im Prinzip unbegrenzt große Anzahl von Sät-
zen; d.h. der kompetente Sprecher kann auch solche Sätze bezüglich
ihrer Akzeptabilität beurteilen, die er zuvor weder gehört noch selbst
produziert hat. Grammatisches Wissen erstreckt sich somit auch auf
solche Sätze, die unabhängig von der jeweiligen individuellen sprachli-
chen Erfahrung sind. Somit vermittelt die sprachliche Erfahrung
jeweils nur einen kleinen Ausschnitt dessen, was die Sprache an gram-
matischen Ausdrucksmöglichkeiten bereitstellt.
Das Problem der qualitativen Unterdeterminiertheit schließt unmit-
telbar an diese Überlegungen an. Da sich das grammatische Wissen
eines kompetenten Sprechers auf eine im Prinzip unbegrenzt große
Anzahl von Sätzen erstreckt, die Speicherkapazität des Gehirns jedoch
begrenzt ist, kann das grammatische Wissen offensichtlich nicht aus
einer Liste aller in der jeweiligen Sprache möglichen Sätze bestehen.
Vielmehr ist das grammatische Wissen als ein finites System von Regeln
und Prinzipien anzusehen, die so beschaffen sind, daß sie genau die
Klasse der möglichen Sätze spezifizieren (cf. Kap. 1.2). Daraus folgt,
daß das, was das Kind zu erwerben hat, eben nicht eine Menge von Sät-
zen oder Äußerungen ist, sondern genau dieses finite System von
Regeln und Prinzipien. Nun besteht aber der Input des Erwerbsprozes-
ses, i.e. die sprachliche Erfahrung des Kindes, eben nicht aus Regeln
und Prinzipien, sondern aus konkreten Sätzen und Äußerungen.
Wenngleich diese Überlegungen noch relativ wenig darüber aussa-
gen, wie ein Erwerbsmechanismus für natürliche Sprachen konkret
auszusehen hat, so ist doch klar, daß er keine reine »Speichermaschine«
sein kann, die lediglich die sprachlichen Erfahrungsdaten aufzeichnet.
Vielmehr muß ein solcher Mechanismus in irgendeiner Form über
einen Abstraktionsalgorithmus verfügen, der imstande ist, aus dem
Input, i.e. den konkreten Äußerungen, die diesem zugrundeliegenden
Strukturregeln und Prinzipien zu erschließen. Mit anderen Worten, er
muß in der Lage sein, Generalisierungen über konkrete Daten auszu-
führen. Welcher Art diese Generalisierungen sind, bzw. sein müssen,
und wie ein Erwerbsmechanismus mit entsprechenden Fähigkeiten aus-
zusehen hat, werden wir im folgenden noch ausführlich besprechen.
Das zu erwerbende grammatische Wissen wird dem Kind somit
nicht direkt durch seine sprachliche Erfahrung vermittelt, sondern
sozusagen in »verschlüsselter« Form durch konkrete Sätze und Äuße-
rungen. Diese Sätze stellen jedoch lediglich einen begrenzten und weit-
gehend zufälligen Ausschnitt der in der jeweiligen Sprache gegebenen
Strukturmöglichkeiten dar. Eltern und Spielkameraden sprechen mit
Kindern, um ihnen bestimmte Inhalte mitzuteilen, und nicht, um in
systematischer Weise grammatische Strukturen vorzuführen. Die
sprachliche Erfahrung des Kindes ist somit im wesentlichen exemplari-
scher Natur und keineswegs repräsentativ für das, was die Sprache an
strukturellen Möglichkeiten bereitstellt (cf. Wanner & Gleitman 1982;
Felix 1987). Darüber hinaus ist die dem Kind verfügbare Datenbasis
dahingehend eingeschränkt, daß sie zwar positive, aber keine negative
Evidenz bezüglich der Grammatikalität von Sätzen enthält. Das Kind
kann zunächst sicher davon ausgehen, daß die Sätze, die es in seiner
Umgebung hört, (im Regelfall) grammatisch sind. Mit anderen Worten,
die sprachliche Erfahrung bietet positive Evidenz dafür, was in der zu
erwerbenden Sprache ein möglicher Satz ist. Andererseits folgt aus dem
exemplarischen Charakter der Inputdaten, daß das Kind an diesen nicht
erkennen kann, ob ein Satz ungrammatisch ist. Die Tatsache, daß eine
bestimmte Struktur in der sprachlichen Erfahrung nicht auftritt, darf
das Kind natürlich nicht zu der Schlußfolgerung verleiten, diese Struk-
tur sei ungrammatisch. Eine solche Schlußfolgerung würde dazu füh-
ren, daß sich das grammatische Wissen des Kindes stets nur auf eine
finite Zahl von Sätzen (nämlich die, die es tatsächlich hört) erstrecken
könnte. In der Tat führt der Erwerbsprozeß jedoch zur vollen sprachli-
chen Kompetenz, d.h. zu einem grammatischen Wissen, das eine unbe-
grenzt große Anzahl von Sätzen umfaßt. Mit anderen Worten, ein
bestimmter Satz kann in den Inputdaten nicht auftreten, entweder weil
er ungrammatisch ist, oder weil er »zufällig« von niemandem geäußert
wird. Das Kind muß daher immer davon ausgehen, daß auch solche
Sätze, die es nicht hört, durchaus grammatisch sein können. Die
sprachliche Erfahrung enthält also keine negative Evidenz, i.e. keine
eindeutigen Hinweise darauf, welche Sätze ungrammatisch sind.
Im Grunde könnte das Kind nur dann sicher sein, daß ein bestimm-
ter Satz bzw. eine Struktur ungrammatisch ist, wenn ihm dies jemand
explizit mitteilen würde. Nun ist zwar bekannt, daß Eltern vielfach die
(ungrammatischen) Äußerungen ihrer Kinder korrigieren; nur tun sie
dies eben nicht systematisch (cf. Brown & Hanlon 1970; Slobin 1971).
Eltern müßten in der Tat jede ungrammatische Äußerung korrigieren,
damit das Kind sich blind auf die Inputinformation verlassen könnte.
Darüber hinaus müßte das Kind für jede denkbare Regel, die es aus den
Inputdaten ableiten könnte, die daraus folgenden Strukturen systema-
tisch abtesten. Kinder und Eltern wären dann letztlich mit nichts ande-
rem als systematischer Syntaxanalyse beschäftigt. Wenngleich Eltern
zuweilen tatsächlich auch die Form kindlicher Äußerungen korrigie-
ren, so bezieht sich ihr Korrekturverhalten jedoch überwiegend auf den
Inhalt der Äußerungen (Wanner & Gleitman 1982). Eltern und Kinder
kommunizieren miteinander, um Bedürfnisse und Gedanken mitzutei-
len, nicht um systematischen Syntaxerwerb zu betreiben. Hinzu
kommt die Schwierigkeit, daß das Kind bei einer Korrektur durch die
Eltern nicht ohne weiteres erkennen kann, worauf sich diese bezieht.
Sagt das Kind etwa zu einer Besucherin des Elternhauses du bist aber
eine dicke, häßliche Tante und die Eltern wenden ein so etwas kann man
doch nicht sagen, so weiß das Kind natürlich zunächst nicht, ob der
Inhalt oder die grammatische Form seiner Äußerung Anlaß zur Bean-
standung gibt. Darüber hinaus ist in der Literatur hinreichend die Tat-
sache dokumentiert, daß Kinder formale Korrekturen durch die Eltern
vielfach mißachten (Smith 1973). Bestimmte Strukturen, die das Kind
im Laufe seiner sprachlichen Entwicklung produktiv verwendet, schei-
nen überhaupt nicht korrigierbar zu sein.
Unter dem Stichwort Motherese Hypothesis ist zuweilen die Auffas-
sung vertreten worden, daß Eltern den Spracherwerbsprozeß in sehr
direkter Form steuern, indem sie dem Kind auf den verschiedenen Stu-
fen seiner sprachlichen Entwicklung in sehr gezielter Form spezifi-
schen Input anbieten, aus dem die korrekten sprachlichen Regeln und
Prinzipien relativ problemlos abgeleitet werden können. Diese Auffas-
sung basiert auf der Beobachtung, daß Mütter die syntaktische Kom-
plexität ihrer Äußerungen dem jeweiligen Entwicklungsstand des Kin-
des anpassen (cf. Bates 1976; Snow 1977). In den frühen Phasen spre-
chen Mütter langsamer und deutlicher, die Sätze sind von geringerer
Komplexität und direkt an die Kinder gerichtet. Wenngleich diese
Beobachtungen grundsätzlich richtig sind, so ist die Schlußfolgerung
doch äußerst problematisch. Zunächst haben Newport et al. (1977) und
Warmer & Gleitman (1982) gezeigt, daß Mütter in den frühen Phasen
des Spracherwerb in einer Art und Weise strukturieren, die für den
Erwerbsprozeß eher hinderlich als förderlich ist. So überwiegen in der
Sprache der Mütter Imperative und Fragen sowie Satzfragmente, wäh-
rend Kinder zunächst Aussagesätze erwerben. Würden sich die Kinder
direkt am Input orientieren, so müßte der Erwerb von Aussagesätzen
mit kanonischer Wortstellung eher schwierig sein, da die entsprechende
Vorlage im Input vergleichsweise selten ist. Weiterhin haben Chomsky
(1975) und Wexler (1982) darauf hingewiesen, daß eine Einschränkung
der Datenbasis durch die Mütter den Erwerbsprozeß eher schwieriger
als leichter macht. Je eingeschränkter die Datenbasis, desto größer ist
die Zahl der Hypothesen und Regeln, die mit diesen Daten kompatibel
sind. Entsprechend ist es für das Kind weitaus schwerer, die korrekte
Generalisierung bzw. Regel zu ermitteln, wenn Mütter in systemati-
scher Weise bestimmte Strukturen vermeiden, die aus vermeintlichen
Gründen für das Kind zu komplex sind.
Die Logik dieses Gedankengangs läßt sich am nunmehr klassischen
Beispiel der strukturabhängigen Regeln illustrieren (cf. Chomsky
1967). Es geht hierbei um den Erwerb der englischen Interrogation
sowie um die Frage, aufgrund welcher Daten das Kind die dieser Kon-
struktion zugrundeliegende korrekte Regel erwerben kann. Man kann
zunächst davon ausgehen, daß das Kind in den Inputdaten sicher Struk-
turen wie die folgenden vorfindet:

(13a) John will come to the party


(13b) will John come to the party?
(14a) John has said that he will come
(14b) has John said that he will come?

Auf der Grundlage dieser Daten könnte das Kind nun die beiden fol-
genden Interrogationsregeln aufstellen:

(15) Suche die erste finite Verbform des Satzes und stelle diese
an den Satzanfang.
(16) Suche die erste finite Verbform, die auf die Subjekt-NP
folgt, und stelle sie an den Satzanfang.

(15) ist eine strukturunabhängige Regel, bei der allein die lineare Abfol-
ge der einzelnen Wörter berücksichtigt wird; d.h. die lexikalischen Ele-
mente werden nacheinander auf das Auftreten einer finiten Verbform
hin abgesucht. (16) hingegen ist eine strukturabhängige Regel, in der
nicht nur auf einzelne Wörter, sondern auf abstrakte Strukturelemente
wie Subjekt-NP Bezug genommen wird. Mit anderen Worten, die
Anwendung von (16) - im Gegensatz zu (15) - setzt eine Strukturana-
lyse des Satzes voraus, in der zunächst die Subjekt-NP identifiziert
werden muß. Entscheidend ist nun, daß anhand von Daten wie (13)
und (14) nicht entscheidbar ist, ob (15) oder (16) die korrekte Formulie-
rung der Interrogationsregel ist. Für diese Entscheidung muß das Kind
Zugang zu komplexeren Strukturen haben, insbesondere zu solchen,
die einen Subjektrelativsatz enthalten:

(17a) the old man that I will meet tomorrow is John's grandpa
(17b) *will the old man that I meet tomorrow is John's grandpa
(17c) is the old man that I will meet tomorrow John's grandpa

Der Kontrast zwischen (17b) und (17c) verdeutlicht, daß (16) und nicht
(15) die korrekte Regel ist. (17b) ist durch Anwendung von (15) entstan-
den: die erste finite Verbform in (17a) ist will, und dieses Element ist in
(17b) an den Satzanfang gesetzt worden. Der Satz ist ungrammatisch.
In (17c) hingegen ist die erste finite Verbform, die auf die Subjekt-NP
the old man that I will meet tomorrow folgt, also is, an den Satzanfang
bewegt worden. (17c) ist grammatisch.
Diese Daten zeigen, daß das Kind auf der Grundlage seiner sprach-
lichen Erfahrung nur dann zwischen den alternativen Regeln (15) und
(16) entscheiden kann, wenn es Zugang zu Daten wie (17c) hat. Würden
Mütter allerdings im Sinne der Motherese Hypothesis den Gebrauch
komplexer Strukturen wie etwa Relativsätze vermeiden, so wäre dem
Kind damit der Zugang zu Daten verwehrt, die es braucht, um zwi-
schen alternativen Generalisierungen zu entscheiden.
Der Sachverhalt ist jedoch noch weitaus komplexer. Zwar kann das
Kind an Sätzen wie (17c) erkennen, daß (16) eine mögliche Form der
englischen Interrogationsregel ist, nicht aber, daß (15) etwa als alterna-
tive Form ausgeschlossen ist3. Um (15) ausschließen zu können, müßte
es wissen, daß (17b) ungrammatisch ist. Doch diese Information kann
es nicht aus seiner sprachlichen Erfahrung gewinnen, da die Tatsache,

3 Dieses Faktum ist u.a. deshalb von Bedeutung, weil natürliche Sprachen in zahl-
reichen Bereichen durchaus alternative Formen zur Verfügung stellen, so daß das
Kind derartige Alternativen einkalkulieren muß, und zwar unabhängig davon,
ob es sie in der sprachlichen Umgebung hört:
(a) John met Bill in Paris and Tom met Sue in York
(b) John met Bill in Paris and Tom Sue in York
(c) wenn Fritz nicht kommt, fällt der Vortrag aus
(d) kommt Fritz nicht, fällt der Vortrag aus
daß (17b) im Input nicht auftritt, nicht als Nachweis für Ungrammatika-
lität gelten kann. Aus der Perspektive des Kindes wäre ja denkbar, daß
(17b) durchaus grammatisch ist, aber eben aus reinem Zufall von nie-
mandem geäußert wird. Um Gewißheit über die Ungrammatikalität
von (17b) zu erhalten, müßte das Kind eine solche Struktur seinen Ge-
sprächspartnern zunächst anbieten und darauf hoffen, daß eine entspre-
chende Äußerung explizit als ungrammatisch zurückgewiesen wird.
Derartige Überlegungen führen jedoch zu einer absurden Vorstellung
über den tatsächlichen Ablauf des Spracherwerbsprozesses. Wir haben
bereits darauf hingewiesen, daß Eltern Äußerungen ihrer Kinder zwar
hin und wieder, aber eben nicht systematisch korrigieren, und daß sich
Korrekturen zumeist auf den Inhalt und nicht die Form einer Äußerung
beziehen. Somit wäre denkbar, daß das Kind (17b) äußert, aber die El-
tern überhaupt nicht reagieren, etwa weil sie den Satz nicht verstehen
oder gerade mit etwas anderem beschäftigt sind. Man könnte sich auch
vorstellen, daß die Eltern etwa mit no, it's not John's grandpa, it's his fat-
her antworten. In diesem Falle würde das Kind durch die elterliche Re-
aktion in die Irre geleitet. Im übrigen müßte das Kind konsequenterwei-
se in allen Fällen, in denen der Input alternative Regeln zuläßt, diese Al-
ternativen systematisch abtesten. Dem Kind bliebe dann wenig Zeit für
inhaltsvolle Kommunikation, da es fortlaufend damit beschäftigt wäre,
seinen Grammatikerwerb voranzutreiben. Es ist jedoch hinreichend be-
kannt, daß Kinder Äußerungen produzieren, um ihre Gedanken und
Wünsche mitzuteilen, und nicht, um syntaktische Regeln auszuprobie-
ren. Im übrigen deuten die empirischen Untersuchungen zum Spracher-
werb darauf hin, daß Strukturen wie (17b) in der Kindersprache über-
haupt nicht auftreten; es scheint, als schlösse das Kind strukturunab-
hängige Regeln wie (15) von vornherein aus, und zwar auch dann, wenn
die ihm verfügbaren Daten mit einer solchen Regel kompatibel sind.
Wir sehen also, daß das Kind keinen systematischen Zugang zu ne-
gativer Evidenz hat, i.e. es fehlen ihm verläßliche Informationen dar-
über, welche Strukturen ungrammatisch sind. Daraus folgt, daß Regeln,
die nur über negative Evidenz erlernbar sind, als Spezifizierung der
mentalen Repräsentation grammatischen Wissens auszuschließen sind.
Mit dieser Überlegung eröffnet sich nun eine Möglichkeit, bei mehre-
ren gleichermaßen deskriptiv adäquaten Strukturbeschreibungen zu
entscheiden, welche Beschreibungen als Modell mentaler Repräsenta-
tionen in Frage kommen bzw. ausscheiden. Hierzu betrachten wir
nochmals die Daten aus Baker (1979), die wir an dieser Stelle exempla-
risch wiederholen:
(18a) John gave the book to Alice
(18b) John gave Alice the book
(19a) we reported the accident to the police
(19b) *we reported the police the accident

Der Kontrast zwischen (18b) und (19b) läßt sich, wie wir gesehen
haben, auf zweierlei Weise erfassen. Einerseits können wir eine Regel
dative movement ansetzen (die die beiden Objekte unter Tilgung von
to vertauscht - und im Lexikoneintrag von report vermerken, daß die
Regel bei diesem Verb nicht angewandt werden darf); andererseits lie-
ßen sich zwei Phrasenstrukturregeln aufstellen, die die Abfolge NP +
to + NP bzw. die Abfolge NP + NP spezifizieren. Im Lexikon wird
nun eingetragen, daß give in beiden Strukturen, report hingegen nur in
der ersten Struktur auftreten darf.
Betrachten wir zunächst die erste Alternative. Auf der Basis positi-
ver Evidenz, also Strukturen wie (18a) und (18b), kann das Kind zwei-
fellos die Regel dative movement erwerben. Es muß nun jedoch erken-
nen, daß diese Regel bei Verben wie report nicht angewandt werden
darf. Dazu muß es jedoch explizit wissen, daß (19b) ungrammatisch ist,
und diese Information kann es nur über negative Evidenz erhalten, die
ihm jedoch nicht zur Verfügung steht. Mit anderen Worten, eine Regel
dative movement mit gleichzeitigem Lexikoneintrag, der die Anwen-
dung der Regel bei bestimmten Verben verbietet, ist zwar eine deskrip-
tiv adäquate Beschreibung der relevanten Daten, scheidet aber als men-
tale Repräsentation aus, da dieser Mechanismus nicht lernbar ist.
Wenden wir uns nun der zweiten Alternative zu. Zunächst ist klar,
daß das Kind für jedes Verb die strukturelle Umgebung lernen muß, in
der dieses Verb auftreten kann. So muß es etwa lernen, daß eat sowohl
transitiv als auch intransitiv gebraucht werden kann, während see stets
ein direktes Objekt verlangt:

(20a) John was eating an apple


(20b) John was eating
(21a) John was seeing a beautiful girl
(21b) *John was seeing

Da dem Kind nur positive Evidenz zur Verfügung steht, können wir
annehmen, daß es für jedes Verb im Lexikon die strukturelle Umge-
bung vermerkt, die es in den entsprechenden Äußerungen seiner
sprachlichen Umgebung belegt findet. Für eat wird es also aufgrund
von (20a) und (20b) transitiv und intransitiv vermerken, für see hinge-
gen nur transitiv. Analog hierzu wird es aufgrund von Sätzen wie (18a)
und (18b) im Lexikoneintrag von give die strukturellen Umgebungen
NP + to + NP und NP + NP vermerken, während (19a) bei report nur
den Eintrag NP + to + NP erlaubt. Wir sehen also, daß bei diesem
Beschreibungsansatz der Kontrast zwischen (18b) und (19b) allein
durch positive Evidenz erlernbar ist. Daraus folgt, daß als mentale
Repräsentation allein die phrasenstrukturelle Alternative, nicht jedoch
die transformationelle Variante mit dative movement in Frage kommt.

3.2 Das Projektionsproblem

Das Lernbarkeitskriterium sagt nun natürlich noch relativ wenig dar-


über, wie im einzelnen ein kognitiver Erwerbsmechanismus auszuse-
hen hat, der imstande ist, auf der Grundlage einer begrenzten Zahl kon-
kreter Sätze das der betreffenden Sprache zugrundeliegende System
von Regeln und Prinzipien abzuleiten. Die im vorangegangenen Kapi-
tel dargestellten Überlegungen deuten lediglich darauf hin, daß dieser
Erwerbsmechanismus grundsätzlich die Fähigkeit besitzen muß, über
eine bestimmte Menge von Daten, i.e. Sätzen, Generalisierungen
durchzuführen, und daß er dabei nicht auf negative Evidenz angewie-
sen sein darf. Darüber hinaus ist klar, daß es nicht um irgendwelche
beliebigen Generalisierungen gehen kann, sondern um Generalisierun-
gen, die genau jene Regularitäten erfassen, die nach unserem derzeiti-
gen Kenntnisstand die Struktur natürlicher Sprachen charakterisieren.
Das Grundproblem lautet also: wie kann das Kind auf der Basis
eines eingeschränkten und exemplarischen Inputs zu einer Generalisie-
rung gelangen, die in korrekter Weise für eine unbegrenzt große Zahl
von Strukturen zutrifft? Traditionell hat man angenommen, daß dies
durch eine logische Prozedur erreichbar ist, die man als »Induktion«
oder »induktive Generalisierung« bezeichnet (cf. Quine 1972; Stegmül-
ler 1974; Piattelli-Palmarini 1980). Grob gesprochen handelt es sich bei
der induktiven Generalisierung um einen mentalen Prozeß, durch den
eine Gesetzmäßigkeit, die zunächst nur für eine finite Menge von beob-
achteten Vorgängen gilt, auf eine entsprechend unendliche Menge von
Vorgängen ausgedehnt wird. Betrachten wir folgendes Beispiel: ein
Kind beobachtet, daß die Schwäne im Teich vor seinem Haus weiß sind
und lange Hälse haben. Wenig später sieht das Kind auf einem Fluß
wiederum Schwäne, die weiß sind und lange Hälse haben. Das Kind
mag nun aus dieser Beobachtung schließen, daß alle Schwäne - ein-
schließlich derer, die es nicht gesehen hat und niemals sehen wird -
weiß sind und lange Hälse haben. Entscheidend ist, daß diese Schlußfol-
gerung in offenkundiger Weise durch die verfügbare Evidenz unterde-
terminiert ist, i.e. die Beobachtungserfahrung des Kindes erzwingt diese
Schlußfolgerung nicht und wäre ebenfalls vereinbar mit der Folgerung,
daß einige Schwäne weiß sind und andere schwarz oder rot. In ähnli-
cher Weise könnte ein Kind beobachten, daß finite Verbformen in der
zu erlernenden Sprache stets entweder präsentisch oder präterital mar-
kiert sind. Über induktive Generalisierung könnte das Kind aus dieser
begrenzten Beobachtung schließen, daß alle finiten Verbformen in die-
ser Sprache tempus-markiert sind. Es scheint also, daß induktive Gene-
ralisierung in der Tat ein gangbarer Mechanismus ist, um von begrenz-
ter Erfahrung zu im Prinzip unbegrenztem Wissen zu gelangen.
Das Problem mit diesem Verfahren ist, daß er im Falle des Spracher-
werbs nicht funktioniert. Es läßt sich zeigen, daß ein Lernmechanis-
mus, der allein oder auch nur überwiegend auf induktive Generalisie-
rungen aufbaut, niemals jenen Typ von sprachlichem Wissen herbeifüh-
ren könnte, über das jeder erwachsene Sprecher verfügt und das jedes
Kind offenkundig erwirbt. Es liegen sowohl empirische als auch kon-
zeptuelle Gründe dafür vor, daß die induktive Generalisierung als adä-
quates Erklärungsschema für den Spracherwerb ausscheidet.
Die mit der induktiven Generalisierung verbundene konzeptuelle
Problematik ist in jüngerer Zeit vor allem von J.A. Fodor (1975, 1980,
1981b) expliziert worden und gilt vermutlich nicht nur für den Spracher-
werb, sondern für jede Form von komplexem Wissenserwerb. Fodor
weist darauf hin, daß - rein logisch - jede gegebene Menge von Beob-
achtungsdaten stets mehr als eine Generalisierung zuläßt, möglicherwei-
se sogar eine unendliche Anzahl von Generalisierungen. Das grundle-
gende Problem des Spracherwerbs ist also nicht, wie der Lernende über-
haupt Regularitäten erkennt, sondern vielmehr, wie er die jeweils korrek-
te Regel bzw. Generalisierung herausfindet. Soweit erkennbar, enthalten
die Beobachtungsdaten selbst nichts, was zwischen korrekten und
inkorrekten Generalisierungen unterscheiden ließe. Zur Illustration die-
ses Gedankenganges kehren wir zu unserem Schwanbeispiel zurück.
Nehmen wir an, ein Kind beobachtet, daß jeden Nachmittag um 4 Uhr
ein alter Mann auf einer Parkbank am Teich sitzt und die Schwäne mit
Brotkrumen füttert. Diese Beobachtung selbst enthält nichts, was das
Kind an der Schlußfolgerung hindern könnte, daß es eine Eigenschaft
aller Schwäne ist, nachmittags um 4 Uhr von alten Männern gefüttert
zu werden, die auf Parkbänken sitzen. Soweit wir wissen, ist dies
jedoch ein Typus von Schlußfolgerung, den Kinder typischerweise
nicht ziehen. Offenbar ist das Kind imstande, zwischen relevanten und
nicht-relevanten Eigenschaften, korrekten und inkorrekten Generali-
sierungen zu unterscheiden; aber die Grundlage für diese Unterschei-
dung scheint nicht in dem Beobachtungsdatum selbst zu liegen.
Das gleiche gilt für den Spracherwerb. Auch hier ist es möglich, für
jede begrenzte Menge von Sätzen oder Äußerungen mehr als eine Gene-
ralisierung zu formulieren, so daß sich ebenfalls die Frage stellt: wie fin-
det das Kind die jeweils korrekte Generalisierung heraus? Obwohl Kin-
der in der Tat stets die korrekte Generalisierung wählen (denn sie erwer-
ben ihre Muttersprache ja erfolgreich), so ist nicht erkennbar, wie diese
Wahl aus den Daten bzw. aus der Generalisierung selbst abgeleitet wer-
den kann. Würde der Erwerbsprozeß allein durch Mechanismen der
induktiven Generalisierung eingeschränkt, so wäre darüber hinaus zu
erwarten, daß verschiedene Kinder für die gleiche Menge beobachteter
Sätze zu durchaus unterschiedlichen Generalisierungen gelangen und
somit verschiedene Regelapparate aufbauen. Dies würde jedoch der
Voraussage gleichkommen, daß Kinder, die den gleichen sprachlichen
Daten ausgesetzt sind, völlig verschiedene Sprachen erwerben, je nach-
dem, welche Generalisierungen sie zufälligerweise aufstellen. Diese Vor-
aussage ist jedoch offensichtlich falsch. Kinder, die in der gleichen
Sprachgemeinschaft aufwachsen, erwerben im wesentlichen die gleiche
Grammatik, und zwar unabhängig davon, mit welchen Daten sie indi-
viduell konfrontiert werden und welche Typen von Generalisierungen
für diese Daten logisch möglich sind (cf. Wexler & Culicover 1980;
Osherson et al. 1984). Das Problem induktiver Generalisierung besteht
demnach darin, daß sie zwar erlaubt, mit irgendeiner Lösung aufzuwar-
ten, aber nicht garantiert, daß die korrekte Lösung gefunden wird.
Mit diesen Überlegungen betreten wir ein Problemfeld, das in der
einschlägigen Literatur als das »logische Problem des Spracherwerbs«
(Hornstein & Lightfoot 1981) oder das »Projektionsproblem« (Peters
1972a; Baker 1979) bezeichnet wird. Hinter diesen Termini verbirgt
sich die Beobachtung, daß - über die bereits im vorangegangenen
Kapitel erwähnten Bereiche hinaus - die Regularitäten und Prinzipien,
die natürlichen Sprachen zugrunde liegen, durch die dem Kind verfüg-
bare Evidenz in einer derart extremen Weise unterdeterminiert sind,
daß ein primär mit induktiven Generalisierungen arbeitender Erwerbs-
mechanismus als völlig inadäquat erscheinen muß, da er nicht gewähr-
leisten kann, daß das Kind auch die jeweils zutreffende Regularität ent-
deckt. Chomsky (1984:3) sieht diesen Sachverhalt als speziellen Fall
eines allgemeineren Problems, das er als Platos Problem bezeichnet:
»Plato's problem then, is to explain how we can know so much given
that the evidence available to us is so sparse«.
Man kann zunächst die grammatischen Regeln und Prinzipien der
zu erwerbenden Sprache als Generalisierungen über eine bestimmte
Menge von Strukturen ansehen, d.h. für diese Strukturen läßt sich eine
Generalisierung formulieren, die deren Eigenschaften korrekt spezifi-
ziert. Aufgabe des Erwerbsmechanismus ist es nun, genau diese Gene-
ralisierung auf der Basis der verfügbaren sprachlichen Erfahrung aufzu-
finden. Es gibt nun eine Reihe von Hinweisen darauf, daß dies über
einen allgemeinen Induktionsmechanismus aus prinzipiellen Gründen
unmöglich ist:

1. Die natürlichen Sprachen zugrundeliegenden Regeln und Prinzipien


sind äußerst komplexer und abstrakter Natur und spiegeln sich nicht
in offenkundiger oder eindeutiger Weise in den oberflächenstruktu-
rellen Eigenschaften einzelner Sätze wider. D.h. für eine gegebene
Menge von Äußerungen oder Sätzen mag das Kind die korrekte
Generalisierung durchaus finden, aber ebenso möglich ist es, daß es
diese Generalisierung nicht findet. Mit anderen Worten, die Daten
enthalten nichts, was die jeweils korrekte Generalisierung erzwingt.

2. In zahlreichen Fällen suggeriert die dem Kind zugängliche Daten-


evidenz eine Generalisierung, die sich jedoch als falsch erweist. Um
die korrekte Generalisierung zu ermitteln, müßte das Kind systema-
tischen Zugang zu negativer Evidenz haben, d.h. es müßte explizit
wissen, daß eine bestimmte Struktur ungrammatisch ist. Wie wir
jedoch bereits dargelegt haben, stehen derartige Informationen dem
Kind nicht zur Verfügung.

3. In anderen Fällen hängt die korrekte Generalisierung entscheidend


von Sätzen und Strukturen ab, die im normalen Sprachgebrauch der-
art selten und marginal sind, daß Kinder mit ihnen vermutlich wäh-
rend des Erwerbsprozesses nicht regelmäßig konfrontiert werden.

Im folgenden wollen wir den empirischen Gehalt dieser drei Aussa-


gen näher betrachten.
Im Englischen (wie auch im Deutschen) verteilen sich Reflexivpro-
nomina und koreferente Personalpronomina komplementär; d.h. in
Strukturen, in denen Reflexivpronomina möglich sind, dürfen keine
koreferenten Personalpronomina erscheinen, und umgekehrt:
(22a) Johni likes himselfi
(22b) *Johni believes that Mary will fall in love with himselfi
(22c) *Johni believes that himselfi will fall in love with Mary
(22d) *Johni expects Mary to fall in love with himselfi
(22e) Johni expects himselfi to fall in love with Mary
(23a) *Johni likes himi
(23b) Johni believes that Mary will fall in love with himi
(23c) Johni believes that hei will fall in love with Mary
(23d) Johni expects Mary to fall in love with himi
(23c) *Johni expects himi to fall in love with Mary
Das Prinzip, das dieser Datenverteilung zugrunde liegt, werden wir
detailliert in Band II, Kap. 2.4 darstellen. An dieser Stelle mag der Hin-
weis genügen, daß ein Reflexivpronomen nicht durch eine Satzgrenze
von seinem Antezedens (hier: John) getrennt sein darf, es sei denn, es
steht in der Subjektposition eines Infinitivsatzes wie in (22e). Demge-
genüber muß ein koreferentes Personalpronomen von seinem Anteze-
dens durch eine Satzgrenze getrennt sein, wenn es nicht wiederum in
der Subjektposition eines Infinitivsatzes auftritt.
Das Englische kennt eine üblicherweise als NP-Bewegung bezeich-
nete Regel, die Nominalphrasen von einer Satzposition in eine andere
bewegt. Der bekannteste Fall ist die Passivkonstruktion, in der das
»logische« Objekt zum oberflächenstrukturellen Subjekt wird:
(24) John was killed
NP-Bewegung findet auch in den sog. Raising-Konstruktionen statt, in
denen das logische Subjekt des eingebetteten Satzes oberflächenstruk-
turell zum Subjekt des Matrixsatzes wird wie in (25b):
(25 a) it seems that John loves Mary
(25 b) John seems to love Mary
Um die Doppelfunktion der Nominalphrasen in solchen Konstruktio-
nen zu erfassen, generiert man sie zunächst in der »logischen« Position
und bewegt sie dann mit Hilfe der NP-Bewegungsregel an die oberflä-
chenstrukturelle Position. Aus Gründen, auf die wir hier nicht näher
eingehen wollen, geht man davon aus, daß die Nominalphrase in ihrer
ursprünglichen Position eine Spur hinterläßt, die mit t ( = trace) mar-
kiert wird. Betrachtet man nun die Strukturen, in denen NP-Bewegung
möglich ist, so zeigt sich eine erstaunliche Parallelität zu den Reflexiv-
pronomina, d.h. die Spuren der NP-Bewegung sind den gleichen
Beschränkungen unterworfen wie Reflexivpronomina:
(26a) John; was killed ti
(26b) *Johni seems that Mary loves ti
(26c) *Johni seems that ti loves Mary
(26d) *Johni seems Mary to love ti
(26e) Johni seems ti to love Mary

Diese Daten zeigen, daß sich die Spuren von NP-Bewegungen genauso
wie Reflexivpronomonina verhalten, d.h. die korrekte Generalisierung,
aus der die Datenverteilung in (26) folgt, involviert die kategorialen
Gleichsetzung von Reflexivpronomina und NP-Spuren.
Hier stellt sich nun die Frage, wie ein Kind diese Generalisierung
aus den verfügbaren Daten ableiten kann. Der entscheidende Gesichts-
punkt ist natürlich, daß NP-Spuren sog. leere Kategorien sind, d.h. sie
sind rein abstrakte Größen, denen auf der Oberfläche nichts Hörbares
oder Erkennbares entspricht. Mit anderen Worten, die Inputdaten ent-
halten keinerlei konkrete Anhaltspunkte, aus denen das Kind die oben
aufgezeigte Parallelität erschließen könnte. Zwar ist logisch denkbar,
daß das Kind eine Regel aufstellt, die auf dieser Parallelität basiert;
doch wäre dies sicher ein Zufall und nicht durch die oberflächenstruk-
turellen Eigenschaften der Inputsätze in irgendeiner Art erzwungen.
Es zeigt sich also, daß die Gesetzmäßigkeiten und Prinzipien, die das
Auftreten von NP-Bewegungen und von Reflexivpronomina steuern,
äußerst abstrakter Natur sind und sich nicht in direkt erkennbarer
Weise auf der Oberflächenstruktur widerspiegeln.
Es ist bekannt, daß in Sprachen wie dem Lateinischen, Griechi-
schen oder Serbischen die Subjektposition eines Satz lexikalisch unbe-
setzt bleiben kann, wenn etwa aus dem Kontext klar erkennbar ist, wel-
cher Referent intendiert ist. Im Deutschen würde in einem solchen Fall
ein Personalpronomen erscheinen:

(27a) Paulus Mariam in matrimonium duxit


(27b) Paul heiratete Maria
(28a) Mariam in matrimonium duxit
(28b) er heiratete Maria

Das Objekt hingegen muß immer lexikalisch erscheinen, entweder


durch ein Nomen oder durch ein Pronomen:

(29a) Paulus Mariam in matrimonium duxit


(29b) Paulus eam in matrimonium duxit
(29c) Paulus in matrimonium duxit
Im Japanischen hingegen kann sowohl die Subjekt- als auch die
Objektposition lexikalisch unbesetzt bleiben:

(30a) Hans-wa Maria-o aishiteru


Hans(nom.) Maria(acc.) liebt
»Hans liebt Maria«
(30b) Maria-o aishiteru
»er liebt Maria«
(30c) aishiteru
»er liebt sie«

Satz (30c) ist mehrdeutig und bedeutet entweder er liebt sie oder sie liebt
ihn. Wir betrachten nun den entscheidenden Satz (31):

(31) Hans-wa aishite-mo-inai onna-to kekkonshita


Hans(nom.) nicht-liebt Frau heiratete

Satz (31) enthält zunächst die Aussage Hans-wa onna-to kekkonshita


(=Hans heiratete eine Frau). Die Nominalphrase onna ( = eine Frau) ist
nun durch den Relativsatz aishite-mo-inai (=liebt nicht) modifiziert.
Relativsätze werden im Japanischen nicht wie im Englischen oder
Deutschen durch Relativpronomina markiert, sondern einfach in
unveränderter Form vor den modifizierten Ausdruck gestellt. In die-
sem Relativsatz ist nun weder das Subjekt noch das Objekt lexikalisch
markiert. Dementsprechend wäre zu erwarten, daß entweder Hans das
logische Subjekt und Frau das logische Objekt ist oder umgekehrt Frau
das Subjekt und Hans das Objekt. Somit müßte (31) mehrdeutig sein
und die folgenden beiden Lesarten zulassen:

(32a) Hans hat eine Frau geheiratet, die er nicht liebt


(32b) Hans hat eine Frau geheiratet, die ihn nicht liebt

Der entscheidende Gesichtspunkt ist nun, daß (31) nicht mehrdeutig


ist, sondern nur die Lesart (32a) gestattet. Huang (1984), der diese und
ähnliche Strukturen im Japanischen und Chinesischen untersucht hat,
gelangt zu dem Schluß, daß der Kopf eines Relativsatzes (hier: eine Frau)
niemals mit einer leeren (= lexikalisch unbesetzen) Kategorie in Sub-
jektposition koreferent sein kann. Auch hier finden wir eine grammati-
sche Beschränkung, die die Beziehung zwischen einer lexikalischen und
einer leeren Kategorie betrifft. Es ist kaum erkennbar, wie ein Kind
diese Restriktion aus den Inputdaten ableiten kann. Zweifellos liefern
Daten wie (30c) dem Kind Informationen darüber, daß sowohl Sub-
jekt- als auch Objektpositionen lexikalisch unbesetzt sein können; daß
diese unbesetzten Positionen jedoch Koreferenzbeschränkungen unter-
liegen, ist an der Datenevidenz hingegen nicht ablesbar.
Wir wollen uns nunmehr der 2. Aussage zuwenden, nämlich, daß
die dem Kind verfügbare Datenbasis in zahlreichen Fällen eine falsche
Generalisierung nahelegt. Das erste Beispiel, das wir zur Illustration
heranziehen, basiert im wesentlichen auf einer Analyse, die von Stowell
(1981) vorgeschlagen wurde. Es soll zeigen, daß eine prima facie offen-
kundige Generalisierung angesichts bestimmter ungrammatischer
Strukturen zusammenbricht. Entscheidend ist, daß das Kind die Inkor-
rektheit dieser Generalisierung nur über negative Evidenz erkennen
kann, d.h. es müßte explizite Informationen darüber erhalten, daß die
betreffenden Strukturen ungrammatisch sind.
Englische that-Sätze erscheinen vielfach in einer Position, in der
auch Nominalphrasen auftreten können. Insbesondere können in der
Subjekt- und der Objektposition eines Satzes sowohl NPs als auch
that-Sätze erscheinen:

(33 a) everybody expected John's victory


(33b) everybody expected that John would win
(34a) John's immediate reaction proved his innocence
(34b) that John reacted immediately proved his innocence
(34c) that John reacted immediately proved that he is innocent

Auf der Grundlage dieser Strukturen bestünde eine der offenkundig-


sten Generalisierungen in der Annahme, daß auf einer bestimmten
Repräsentationsebene sich that-Sätze und NPs gleich verhalten. Diese
Annahme würde zu der Voraussage führen, daß grammatische Prozes-
se, die auf NPs angewandt werden können, auch für that-Sätze möglich
sind. Für zahlreiche Prozesse stellt sich diese Voraussage als korrekt
heraus: Passivierung und Topikalisierung können sowohl NPs als auch
that-Sätze bewegen:

(35 a) John's victory was expected by everybody


(35 b) that John would win was expected by everybody
(36a) John's victory, everybody expected
(36b) that John would win, everybody expected

Auch hier scheint es so, daß eine Generalisierung, die auf der Basis von
Strukturen wie (33) und (34) getroffen wird, über Induktion auf weite-
re Strukturen wie (35) und (36) übertragen werden kann, und zwar
unabhängig davon, ob diese letzteren Strukturen in dieser Form im
sprachlichen Input vorkommen.
Das grundlegende Problem besteht nun darin, daß diese Generali-
sierung, wenngleich durchaus plausibel und in vielen Fällen auch
zutreffend, letztendlich doch nicht korrekt ist. Zunächst können zwar
NPs, aber nicht that-Sätze auf Präpositionen folgen:
(37a) John's innocence is proved by his immediate reaction
(37b) *John's innocence is proved by that he reacted immediate-
ly
(38a) we counted on John's help
(38b) *we counted on that John would help
Weiterhin können that-Sätze im Gegensatz zu NPs nicht nach Satzkon-
junktionen (complementizers) auftreten:
(39a) although John's immediate reaction proved his innocence

(39b) *although that John reacted immediately proved his . . .
(40a) Bill's belief that John's immediate reaction proved his
innocence is certainly naive
(40b) *Bill's belief that that John reacted immediately proved his
innocence is certainly naive.
Darüber hinaus erweist sich die genannte Generalisierung bereits bei
bestimmten Topikalisierungsstrukturen als unzutreffend. Während
sowohl that-Sätze als auch Infinitivsätze in Objektposition auftreten
können, dürfen nur that-Sätze topikalisiert werden:
(41a) John expects that Mary will fall in love with him
(41b) that Mary will fall in love with him, John expects
(42a) John expects Mary to fall in love with him
(42b) *Mary to fall in love with him, John expects
Stowell (1981) hat eine Analyse vorgeschlagen, in der diese Datenlage
sowie zahlreiche andere Eigenschaften von Phrasenstrukturen mit
Hilfe verschiedener abstrakter Prinzipien erklärt werden, die in sehr
spezifischer Weise miteinander interagieren. Insbesondere schlägt Sto-
well das Case Resistance Principle4 vor, durch das in Sätzen wie (34b)
und (34c) eine Struktur erzwungen wird, in der der that-Satz nicht in
der Subjektposition, sondern vielmehr in der sog. COMP-Position
erscheint, in der normalerweise Satzkonjunktionen und Fragewörter

4 Das Case Resistance Principle (Stowell 1981:146) besagt, vereinfacht ausgedrückt,


daß eine Kategorie entweder Kasus zuweisen oder Kasus erhalten kann, aber
nicht beides.
stehen. Diese Analyse erklärt zunächst die Ungrammatikalität von
(39b) und (40b), da die COMP-Position in diesen Sätze bereits durch
although bzw. that besetzt ist, so daß für den eingebetteten Satz in
COMP sozusagen kein Platz mehr ist. Der Kontrast zwischen (41b)
und (42b) folgt aus dem Kasusfilter (cf. Chomsky & Lasnik 1977). Der
Kasusfilter besagt, daß jeder lexikalischen NP ein Kasus zugewiesen
werden muß, wobei diese Zuweisung dem Adjacency Principle unter-
liegt; d.h. Kasus kann nur einem unmittelbar benachbarten Element
zugewiesen werden. Dementsprechend weist in (42a) expects der NP
Mary Kasus zu. Da Mary in (42b) von dem kasuszuweisenden Verb
getrennt ist, kann kein Kasus zugewiesen werden, so daß der Satz den
Kasusfilter verletzt und daher ungrammatisch ist.
Nehmen wir an, daß Stowells Analyse im Prinzip richtig ist, d.h.
daß die korrekte Generalisierung in etwa so zu formulieren ist, wie es
Stowell vorschlägt. Aus der Perspektive des logischen Problems des
Spracherwerbs stellen sich somit zwei Fragen:
1. wie findet das Kind heraus, daß die naheliegende Generalisie-
rung »that-Sätze verhalten sich wie NPs« nicht korrekt ist?
2. wie findet das Kind die richtige Generalisierung im Sinne von
Stowells Analyse heraus?
Wenden wir uns zunächst der 1. Frage zu. Die Antwort scheint hier
relativ klar zu sein. Das Kind würde sofort erkennen, daß die besagte
Generalisierung inkorrekt ist, wenn es explizit wüßte, daß Sätze wie
(37b), (38b), (39b), (40b) und (42b) ungrammatisch sind. Doch diese
Information kann es nur über negative Evidenz erlangen, und wir hat-
ten bereits mehrfach darauf hingewiesen, daß Spracherwerber keinen
systematischen Zugang zu negativer Evidenz haben. Selbst wenn man
geneigt ist, den Eltern einen steuernden Einfluß auf den Spracher-
werbsprozeß zuzusprechen, so scheidet diese Möglichkeit zumindest
im obigen Fall aus, da die meisten erwachsenen Sprecher des Engli-
schen sich der betreffenden Regularität gar nicht bewußt sind. Doch
selbst wenn das Kind durch irgendeinen magischen Zufall erkennen
könnte, daß die Gleichsetzung von NPs und eingebetteten Sätzen eine
inkorrekte Generalisierung ist, so ist immer noch nicht gewährleistet,
daß es die korrekte Generalisierung aus den Inputdaten ableitet. An
den oberflächenstrukturellen Eigenschaften der Sätze, die das Kind in
seiner Umgebung hört, ist in keiner Weise zu erkennen, daß hier Prinzi-
pien wie der Kasusfilter oder das Adjazenzprinzip einschlägig sind.
Diese Prinzipien sind höchst abstrakter Natur und stehen in keiner
direkten Beziehung zur Oberflächenstruktur der Inputsätze.
Wir wenden uns zuletzt der 3. Aussage von S. 117 zu, die sich auf die
Marginalität bestimmter Strukturen bezieht. Hierbei geht es vor allem
um die Beobachtung, daß der kompetente Sprecher auch solche Struk-
turen beurteilen kann, die derart selten im normalen Sprachgebrauch
vorkommen, daß kaum ersichtlich ist, wie Kinder entsprechendes Wis-
sen aufgrund ihrer sprachlichen Erfahrungen erwerben können. Wir
betrachten hierzu die folgenden Sätze:
(43a) *John filed the articlei without reading ei
(43b) which articlei did John file ei without reading ei?
Die Ungrammatikalität von (43a) ergibt sich offenbar daraus, daß in
der Objektposition zu reading kein lexikalisches Element, sondern eine
leere Kategorie (markiert durch e ) auftritt. Ersetzen wir diese leere
Kategorie etwa durch das Pronomen it, so ist der Satz grammatisch.
Entscheidend ist nun die Beobachtung, daß (43b) völlig in Ordnung
ist, obwohl auch hier hinter reading das Pronomen fehlt. Es scheint so
zu sein, daß die leere Kategorie hinter reading in (43b) durch eine wei-
tere leere Kategorie hinter file (die durch wh-Bewegung entstanden ist,
cf. Band II, Kap. 3.2) ermöglicht wird. Konstruktionen wie die in
(43b), in denen die Möglichkeit einer leeren Kategorie vom Vorhanden-
sein einer weiteren leeren Kategorie abhängt, nennt man »parasitic gap
constructions« (cf. Chomsky 1982b).
Was diese Konstruktion im Kontext der Spracherwerbsproblematik
interessant erscheinen läßt, sind vor allem zwei Beobachtungen.
Zunächst haben Sprecher des Englischen sehr präzise Intuitionen über
den Kontrast zwischen (43a) und (43b), obwohl »parasitic gaps«
äußerst marginal sind und im normalen Sprachgebrauch nur sehr selten
vorkommen. Zum anderen läßt sich in (43b) durchaus das Pronomen
it (fakultativ) einsetzen und die entsprechende Struktur (43c) scheint
weitaus üblicher zu sein:
(43c) which articlei did John file ei without reading iti?
Die Frage stellt sich also, woher das Kind wissen soll, daß in (43 c) das
Pronomen ausgelassen werden kann, während dies in (43 a) eben nicht
möglich ist. Aufgrund der Marginalität dieses Konstruktionstyps
scheint es völlig ausgeschlossen zu sein, daß sich entsprechende Evi-
denz in den Inputdaten findet.
Doch die Verhältnisse sind noch weitaus komplexer. Engdahl
(1983) hat darauf hingewiesen, daß in bestimmten Konstruktionen die
Version mit Pronomen schlechter ist als die entsprechende Version
ohne Pronomen:
(44a) which boyi did your attempt to talk to ei bother ei most?
(44b) ?which boyi did your attempt to talk to himi bother ei
most?

Ebenso erstaunlich ist die Tatsache, daß einige dieser Konstruktionen


derart unakzeptabel klingen, daß sie niemand (außer Linguisten) im
normalen Sprachgebrauch verwenden würde. Dennoch ergeben sich
für einen Sprecher des Englischen deutliche Kontraste zu anderen Sät-
zen, die noch schlechter sind, wie die folgenden Beispiele aus Kayne
(1983) zeigen:

(45a) ?the person that John described without examining any


pictures of
(45 b) *the person that John described without any pictures of
being on file
(46a) ?the books you should read before it becomes difficult to
talk about
(46b) *the books you should read before talking about becomes
difficult

Diese Beispiele zeigen, daß es unser grammatisches Wissen nicht nur


ermöglicht, zwischen grammatischen und ungrammatischen Struktu-
ren zu unterscheiden, sondern darüber hinaus auch im Bereich
ungrammatischer Sätzen noch Abstufungen und Kontraste zu erken-
nen. Es ist ziemlich offenkundig, daß ein derartiges Wissen kaum aus
der sprachlichen Erfahrung abgeleitet sein kann, da keiner der relevan-
ten Sätze überhaupt zum Input gehört.
Fassen wir unsere Beobachtungen in diesem Problemkreis zusam-
men, so ergibt sich recht deutlich, daß der Erwerbsmechanismus, über
den Kinder im Laufe des sprachlichen Entwicklungsprozesses das
grammatische Wissen eines kompetenten Sprechers aufbauen, offen-
kundig nicht allein mit induktiven Generalisierungsverfahren arbeiten
kann. Solche Verfahren garantieren nicht, daß Kinder die tatsächlichen
Regularitäten ihrer Muttersprache erfolgreich erwerben. Die natürli-
chen Sprachen zugrundeliegenden Gesetzmäßigkeiten und Prinzipien
sind viel zu komplexer und abstrakter Natur, als daß sie über reine
Induktion aus der konkreten sprachlichen Erfahrung abgeleitet sein
könnten. Aus diesem Grunde scheint zunächst die Annahme plausibel,
daß der Erwerbsmechanismus selbst erheblich komplexer sein und in
seiner internen Struktur Prinzipien aufweisen muß, die auf der Grund-
lage der verfügbaren Evidenz das Kind sozusagen zwingen, stets die
richtigen Generalisierungen zu entdecken. Wie die interne Struktur
eines solchen Erwerbsmechanismus konkret aussehen könnte, wollen
wir im folgenden Abschnitt darlegen.

3.3 Universalgrammatik

Die im Zusammenhang mit dem Projektionsproblem dargestellten


Daten zeigen zunächst, daß die oberflächenstrukturellen Eigenschaf-
ten von Sätzen keinerlei direkte bzw. eindeutige Hinweise auf die
Gesetzmäßigkeiten und Prinzipien liefern, die der tatsächlichen
Struktur der jeweiligen Sprache zugrunde liegen. Da weiterhin die
sprachliche Erfahrung des Kindes nur einen sehr begrenzten Aus-
schnitt der in einer Sprache möglichen Strukturen darstellt, sind die
in den Inputdaten erkennbaren Regularitäten mit einer großen Zahl
sehr unterschiedlicher Generalisierungen kompatibel, von denen sich
viele bei Betrachtung weiterer, dem Kind oftmals nicht verfügbarer
Daten als falsch erweisen. Aus diesem Grunde kann ein rein indukti-
ver Erwerbsmechanismus, der sich allein an oberflächenstrukturell
beobachtbaren Regularitäten orientiert, nicht garantieren, daß das
Kind die tatsächlichen Strukturgesetzmäßigkeiten der zu erwerben-
den Sprache auch entdeckt. Wenn nun die in der sprachlichen Erfah-
rung des Kindes vorhandene Datenbasis nicht in ausreichendem
Maße die Informationen enthält, die notwendig sind, um stets die
korrekten Generalisierungen herbeizuführen, so liegt es nahe, diese
Informationen in der Struktur des Erwerbsmechanismus selbst zu
suchen.
Auf diesem Hintergrund hat Chomsky (1972, 1975, 1980) den fol-
genden Grundgedanken entwickelt: Wenn ein essentieller Teil der für
den Spracherwerb notwendigen Informationen im Erwerbsmechanis-
mus selbst angelegt sein muß, so kann man sich jene kognitiven Struk-
turen, die die menschliche Sprach(erwerbs)fähigkeit ausmachen, als die
mentale Repräsentation eines Systems von Prinzipien vorstellen, die
die Klasse der natürlichen und somit erlernbaren Sprachen definieren.
Mit anderen Worten, diese Prinzipien spezifizieren die allen natürli-
chen Sprachen gemeinsamen Struktureigenschaften; sie legen fest, was
eine mögliche natürlich-sprachliche Struktur bzw. Strukturbeziehung
ist. Die Klasse der natürlichen Sprachen stellt somit eine fest umrisse-
ne, durch universale Prinzipien definierte Unterklasse aller logisch
denkbaren Struktursysteme dar5. Aus der Vorstellung, daß der mensch-
liche Kognitionsapparat u.a. ein spezifisches System mentaler Struktu-
ren enthält, in dem diese Prinzipien verankert sind, folgt, daß der
Erwerbsmechanismus die sprachlichen Inputdaten stets auf dem Hin-
tergrund dieser universalen Prinzipien verarbeitet und analysiert. Von
allen mit einer bestimmten Datenlage logisch kompatiblen Strukturbe-
schreibungen wird das Kind daher nur diejenigen in Erwägung ziehen,
die mit den universalen Prinzipien übereinstimmen, d.h. diese nicht
verletzen. Dies bedeutet, daß die Hypothesen, die der Spracherwerber
vis-à-vis einer bestimmten Datenlage über die Struktur der zu erlernen-
den Sprache aufstellt, durch die universalen Prinzipien auf einige weni-
ge - im Idealfall auf eine einzige - eingeschränkt werden. Das System
der universalen Prinzipien wird als Universalgrammatik bezeichnet.
Unter diesen Grundannahmen ergibt sich folgendes Bild: die Uni-
versalgrammatik (UG) ist die Charakterisierung eines spezifischen
Systems mentaler Strukturen, das die Voraussetzung für den Spracher-
werb bildet. Sie ist das, was die menschliche Sprach(erwerbs)fähigkeit
ausmacht und wodurch sich der Mensch von anderen Lebewesen
unterscheidet. Dementsprechend kann man sich die menschliche
Kognition als ein Ensemble von miteinander interagierenden Subsyste-
men vorstellen, von denen jedes auf den Erwerb und die Repräsenta-
tion bestimmter Wissensbereiche ausgerichtet ist (cf. auch Kap. 4).
Eines dieser Subsysteme ist die >language faculty<, deren Strukturei-
genschaften durch die Universalgrammatik spezifiziert werden. Die
UG charakterisiert also einen bestimmten Aspekt der biologischen
Ausstattung des Menschen, d.h. jene genetisch determinierten Eigen-
schaften der menschlichen Kognition, die speziell für den Erwerb von
Sprache die Voraussetzung bilden. Spracherwerb läßt sich also als ein
Zusammenspiel von UG-Prinzipien und konkreter sprachlicher
Erfahrung ansehen.
Unter empirischen Gesichtspunkten stellt sich natürlich die Frage,
wie diese Prinzipien - sofern sie existieren - im einzelnen aussehen.
Hierbei gibt es a priori mehrere grundlegende Möglichkeiten. Einer-

5 Die Klasse der natürlichen Sprachen, wie sie durch die Prinzipien der Universal-
grammatik definiert ist, ist hierbei nicht identisch mit der Klasse der tatsächlich
existierenden Sprachen. Es ist denkbar, daß eine bestimmte Sprache zwar mit
den UG-Prinzipien übereinstimmt, aber etwa aus historischen Gründen nicht
existiert. Dies gilt z.B. für alle ausgestorbenen Sprachen. Die Klasse der tatsäch-
lich existierenden Sprachen ist also stets eine Untermenge der Klasse der natürli-
chen Sprachen im oben definierten Sinne.
seits ist es denkbar, daß diese Prinzipien sprachspezifisch sind, d.h. daß
sie allein auf den Umgang mit Sprache ausgerichtet sind und in keiner-
lei anderen kognitiven Domänen operieren. Andererseits wäre es auch
möglich, daß die Prinzipien sehr allgemeiner Natur sind und nicht nur
den Erwerb von Sprache, sondern ebenso den Erwerb anderer Wissens-
systeme steuern. Hierbei ist zunächst zu betonen, daß die Frage, wel-
che dieser Alternativen - zwischen denen natürlich noch verschiedene
Abstufungen denkbar sind - in der Tat zutrifft, eine rein empirische
Frage ist, die nicht durch a priori Festlegungen entschieden werden
kann. Nach unserem derzeitigen Wissensstand deutet jedoch alles dar-
auf hin, daß die Universalgrammatik als ein sprachspezifisches System
mentaler Strukturen anzusetzen ist. Wie wir in Kap. 2 gesehen haben,
sind wesentliche Struktureigenschaften natürlich-sprachlicher Gram-
matiken nicht auf Gesetzmäßigkeiten anderer Bereiche wie etwa
Semantik, Pragmatik, Weltwissen, etc. reduzierbar, sondern stellen ein
in sich geschlossenes, autonomes System von Kategorien und Regulari-
täten dar. Die Autonomie der Syntax steht nun in engem Zusammen-
hang mit der von Chomsky entwickelten Konzeption der Universal-
grammatik. Wenn natürliche Sprachen eine autonome syntaktische
Komponente enthalten und wenn die Universalgrammatik jene bioge-
netisch vorgegebene mentale Instanz ist, die den Erwerb derartiger
autonom-syntaktischer Gesetzmäßigkeiten erst ermöglicht, so müssen
offenkundig die Prinzipien der Universalgrammatik selbst autonomer
Natur sein, d.h. sie können nicht aus anderen mentalen Subsystemen
abgeleitet sein. Letztlich resultiert ja der Begriff der Universalgramma-
tik aus der Erkenntnis, daß zentrale Aspekte natürlicher Sprachen,
nämlich deren formalsyntaktische Eigenschaften, eben nicht aus allge-
meinen, i.e. nicht-sprachlichen Kategorien ableitbar sind. Der Begriff
der Universalgrammatik impliziert also die Vorstellung, daß der
Mensch über ein angeborenes, sprachspezifisches System mentaler
Strukturen verfügt, die den Erwerb autonom-grammatischer Gesetz-
mäßigkeiten erst ermöglichen.
Die Idee der Universalgrammatik, i.e. eines durch Prinzipien struk-
turierten, aufgabenspezifischen und biogenetisch determinierten
Systems mentaler Strukturen, birgt nun eine prinzipielle Lösung des
logischen Problems des Spracherwerbs in sich: je stärker die universa-
len Prinzipien die Zahl möglicher Hypothesen einschränkt, desto
leichter ist es für das Kind, die korrekte Generalisierung zu finden.
Anders ausgedrückt: je weniger Optionen das Kind bei der Evalu-
ierung grammatischer Regularitäten hat, desto größer ist die Wahr-
scheinlichkeit, daß es die korrekte Grammatik seiner Muttersprache
erkennt und daß verschiedene Kinder trotz individuell unterschiedli-
chen sprachlichen Inputs stets zu der gleichen Grammatik gelangen.
Die hier skizzierte Konzeption einer Universalgrammatik ist natür-
lich nur dann plausibel, wenn sich zeigen läßt, daß natürliche Sprachen
in der Tat nicht in beliebigem Ausmaße variieren, sondern daß sich die
Bandbreite möglicher Struktureigenschaften innerhalb bestimmter
Grenzen hält, die eben durch universale Prinzipien spezifizierbar sind.
Dieses Problem hat sowohl eine logische als auch empirische Dimen-
sion, und ein Großteil der generativen Forschung der vergangenen
Jahrzehnte hat sich damit beschäftigt, in diesem Bereich Klärung zu
schaffen. Wir wollen zunächst den logischen Aspekt betrachten.
Seit Mitte der 6oer Jahre hat sich unter der Bezeichnung Formale
Lerntheorie (formal learning theory) eine Disziplin etabliert, die der
Frage nachgeht, was unter welchen Bedingungen lernbar ist. Bezogen
auf den sprachlichen Bereich geht man zunächst von einigen Grundan-
nahmen aus, die in idealisierter Form typische Eigenschaften von
Spracherwerbern und deren Lernsituation zusammenfassen. Zu diesen
Grundannahmen gehören u.a. die folgenden:
1. der Erwerbsprozeß muß in einer endlichen Zeit abgeschlossen
sein;
2. alle natürlichen Sprachen sind infinit, d.h. sie enthalten unend-
lich viele Sätze;
3. die Sätze der zu erlernenden Sprache können in beliebiger, d.h.
zufälliger Reihenfolge dem Erwerber präsentiert werden;
4. der Erwerber hat keinen systematischen Zugang zu negativer
Evidenz (cf. Kap. 3.1);
5. der Dateninput ist >verunreinigt< (noisy text), d.h. er enthält
unvollständige Sätze, ungrammatische Äußerungen und Konstruk-
tionsbrüche;
6. das Kind kann bei der Formulierung von Hypothesen nicht
beliebig lang zurückliegende sprachliche Erfahrung berücksichtigen; es
ist anzunehmen, daß sich das Kind nicht stets an alle Sätze erinnern
kann, die es jemals gehört; daher wird es bei der Hypothesenbildung
nur den unmittelbar zurückliegenden Input verarbeiten;
7. Spracherwerber sind geneigt, einfachere Hypothesen komplexe-
ren vorzuziehen.
Gold (1967) hat nun den mathematischen Nachweis erbracht, daß
unter den Annahmen 1 und 3 eine Sprache nur dann erlernbar ist, wenn
der Erwerber von vornherein weiß, ob sie finit oder infinit ist. Mit
anderen Worten, die Sprachen einer Klasse, die gleichzeitig sowohl fini-
te als auch infinite Sprachen enthält, sind nicht erlernbar. Aus dem
Gold'schen Theorem folgt für den Spracherwerb des Kindes, daß es a
priori zumindest wissen muß, daß natürliche Sprachen infinit sind. Das
Prinzip der Rekursivität, das der Infinitheit natürlicher Sprachen
zugrunde liegt, muß daher im Erwerbsmechanismus selbst spezifiziert
sein und kann nicht erst aus den sprachlichen Daten erschlossen wer-
den. Hier wird deutlich, daß eine spezifische Eigenschaft des zu erwer-
benden Regelsystems bereits im Erwerbsmechanismus angelegt sein
muß, um Lernbarkeit zu garantieren. Diese grundlegende Einsicht
steht auch hinter dem Konzept der Universalgrammatik.
Osherson et al. (1984) sind nun der Frage nachgegangen, ob sich aus
einem erweiterten Annahmenkatalog noch stärkere Einschränkungen
bezüglich der Eigenschaften erlernbarer Sprachen ergeben. Sie zeigen,
daß aus den obigen Annahmen 1 - 7 logisch folgt, daß Lernbarkeit nur
dann gewährleistet ist, wenn der Erwerbsmechanismus in der Art ein-
geschränkt ist, daß er nur endlich viele Grammatiken in Betracht zieht.
Das bedeutet zunächst, daß die Klasse der erlernbaren Sprachen finit
sein muß. Da natürliche Sprachen offenkundig erlernbar sind, folgt aus
Osherson et al., daß es nur endlich viele natürliche Sprachen geben
kann. Mit anderen Worten, natürliche Sprachen können nicht in belie-
bigem Ausmaße variieren. Osherson et al. ziehen zunächst daraus den
Schluß, daß es Prinzipien geben muß, die die Endlichkeit der Klasse
natürlicher Sprachen garantieren, d.h. diese Prinzipien spezifizieren
diejenigen Eigenschaften, die allen natürlichen Sprachen gemein sind6.
Offensichtlich müssen diese Prinzipien jedoch im Erwerbsmechanis-
mus selbst angelegt sein, da dieser sonst unendlich viele Grammatiken
in Betracht ziehen würde und dadurch keine Sprache mehr erlernbar
wäre. Damit zeigt sich, daß die der Konzeption der Universalgramma-
tik zugrundeliegenden Annahmen bereits aus mathematisch-logischen
Gründen zumindest plausibel sind.
Neben diesen mathematisch-logischen Überlegungen gibt es auch
empirische Gründe für die Annahme, daß die Struktur natürlicher
Sprachen durch universale Prinzipien eingeschränkt sind. Die generati-

6 Allerdings sind nicht notwendigerweise alle Eigenschaften, die natürlichen Spra-


chen gemein sind, Bestandteil der Universalgrammatik. So ist es denkbar, daß
bestimmte Sprachen bzw. Sprachstrukturen nicht vorkommen, weil sie etwa
kognitiv nicht zu verarbeiten (parsbar) sind oder Eigenschaften aufweisen, die
sie für eine Verbindung mit Semantik und Pragmatik ungeeignet machen.
ve Forschung der vergangenen Jahrzehnte hat durch umfangreiche und
detaillierte Analyse einer großen Zahl von Sprachen die Existenz derar-
tiger Prinzipien nachweisen können. An einem einfachen Beispiel wol-
len wir den Begriff und den empirischen Gehalt des UG-Prinzips illu-
strieren und betrachten dazu die folgenden Beispielsätze aus dem
Bereich der englischen Fragebildung:

(47a) John loves Mary


(47b) whoi does John love ti?
(48a) John believes that Bill said that Mary had bought a new
dress
(48b) whati does John believe that Bill said that Mary had
bought ti?
(49a) John met Mary and Tom
(49b) *whoi did John meet Mary and ti
(50a) John believed the claim that Mary sold her house
(50b) *whati did John believe the claim that Mary sold ti
(51a) the man who bought my car lives in Boston
(51b) *whati does the man who bought ti live in Boston
(52a) John wonders why Bill left his wife
(52b) *whoi does John wonder why Bill left ti
(53a) for John to get this job will be easy
(53b) *whati will for John to get ti be easy

(47) und (48) exemplifizieren die grundlegende Systematik der engli-


schen Fragebildung. Die zu erfragende Konstituente wird durch eine
entsprechende wh-Phrase (z.B. who, what, etc.) ersetzt und diese wird
an den Satzanfang bewegt. Aus Gründen, die ausführlich in Band II,
Kap. 3.2 diskutiert werden, wollen wir festlegen, daß eine solche wh-
Bewegung an der ursprünglichen Position der Konstituente eine Spur t
(=trace) hinterläßt, die mit der wh-Phrase koindiziert wird, um die
Beziehung dieser beiden Elemente auszudrücken. Entscheidend ist,
daß eine solche wh-Phrase auch über mehrere (im Prinzip unendlich
viele) Nebensätze hinweg an den Satzanfang bewegt werden kann, wie
(48) zeigt.
Man kann sich leicht vorstellen, wie ein Kind diese Regel der wh-Be-
wegung erwerben kann; Sätze wie in (47) und (48), die sicherlich in sei-
ner sprachlichen Erfahrung auftreten, liefern hinreichende Evidenz für
eine solche Regel. Das Problem liegt nun in den Strukturen
(49b)—(53b), die allesamt ungrammatisch sind. Offenkundig ist die wh-
Bewegung in bestimmten syntaktischen Umgebungen nicht möglich;
im einzelnen handelt es sich dabei u.a. um Koordinationsstrukturen
(49), komplexe Nominalphrasen (50), Relativsätze (51), indirekte Fra-
gesätze (52) und Subjektsätze (53). Die Frage stellt sich also, wie das
Kind erkennen kann, daß derartige Strukturen ungrammatisch sind,
wenn ihm - wie wir bereits gezeigt haben - negative Evidenz nicht zur
Verfügung steht.
Um die Datenlage in (47)—(53) zu erklären, hat Chomsky (1973) das
Subjazenzprinzip (Subjacency) vorgeschlagen, das die Anwendung von
Bewegungsregeln einschränkt. Da die Subjazenz ausführlich in Band
II, Kap. 3.3 dargestellt wird, wollen wir uns an dieser Stelle auf die hier
relevante Kernaussage dieses Prinzips beschränken. Das Subjazenz-
prinzip besagt, daß eine wh-Phrase nicht über mehr als einen zykli-
schen Knoten hinweg bewegt werden darf. Als zyklische Knoten gelten
hierbei NP und S. Aus diesem Prinzip läßt sich nun die Ungrammatika-
lität von (49b)—(53b) ableiten. Wir betrachten zunächst nochmals den
Satz (49a), der folgende (vereinfachte) Struktur hat:
(49a´) S

NP VP

John V NP1

met NP2 and NP2

Mary Tom

Wollen wir nun eine der beiden koordinierten NPs (=NP2), also Mary
oder Tom, erfragen, so muß das entsprechende Fragewort (who) an
deren Stelle gesetzt und anschließend an die Satzanfangsposition
bewegt werden. Eine solche Bewegung würde jedoch zwei zyklische
Knoten passieren, und zwar zunächst den NP-Knoten, der das gesamte
Objekt dominiert (=NP1), und dann den S-Knoten, der den gesamten
Satz dominiert. Diese Bewegung verletzt jedoch die Subjazenz, so daß
ein Satz wie (49b) ungrammatisch ist. Ersetzen wir hingegen die gesam-
te Objekt-NP (=NP1) durch ein Fragewort, so passiert eine Bewegung
an den Satzanfang lediglich einen zyklischen Knoten, nämlich S. Subja-
zenz wird nicht verletzt, so daß (49c) grammatisch ist:
(49c) who did John meet? (Antwort: Mary and Tom)
Betrachten wir nun nochmals (52a) mit etwa der folgenden Struktur:
(52a´) SI

NP VP

John V S

COMP S2

wonders

NP VP

why

V NP

Bill

left his wife

Ersetzen wir die NP his wife durch ein Fragewort und bewegen diese
an den Satzanfang, so werden wiederum zwei zyklische Knoten über-
schritten, und zwar S2 und S1. Da dies eine Verletzung der Subjazenz
darstellt, ist (52b) ungrammatisch.
Die übrigen Fälle in (49)-(53) sind etwas komplexer gelagert, da
hier noch bestimmte Eigenschaften der wh-Bewegung selbst zu berück-
sichtigen sind. Wir verweisen den Leser auf Band II, Kap. 3.3, in dem
die entsprechenden Strukturen detailliert dargestellt werden. Entschei-
dend ist jedoch, daß in allen genannten Fällen sich die Ungrammatika-
lität aus dem Subjazenzprinzip ableiten läßt.
Der besondere Reiz der Subjazenz liegt in der Tatsache begründet,
daß das Verhalten einer Vielzahl sehr unterschiedlicher Strukturen auf
ein gemeinsames Prinzip zurückgeführt werden kann. Dies gilt nicht
allein für die bereits besprochenen Konstruktionen, sondern auch für
Sätze wie (54)-(55):

(54a) I wonder [NP which picture of Bill]i [S ti is on the table]


(54b) *I wonder whoi [S[NP a picture of [NP ti]] is on the table]
(55a) Bill insisted on John's destroying the evidence
(55b) *whati [S did Bill insist on [NP John's destroying [NP ti]]]

Während die bislang besprochenen Strukturen jeweils die Anwendung


der wh-Bewegung betrafen, läßt sich darüber hinaus zeigen, daß das
Subjazenzprinzip auch noch in anderen Konstruktionstypen einschlä-
gig ist. Wir betrachten dazu die folgenden Sätze:

(56a) the book about medieval novels which I always wanted


to read is now on sale
(56b) the book about medieval novels is now on sale which I
always wanted to read

(56a) ist mehrdeutig. Der Relativsatz which I always wanted to read


kann sich entweder auf the book about medieval novels oder allein auf
medieval novels beziehen. Dementsprechend erhalten wir zwei mögli-
che Strukturen, die in vereinfachter Form in (57a) und (57b) dargestellt
sind:

(57a) [NP the book about [NP medieval novels] [which I always
wanted to read]]…
(57b) [NP the book about [NP medieval novels [which I always
wanted to read]]]…

Wie die Strukturklammern zeigen, ist der Relativsatz in (57a) Teil der
Gesamt-NP the book about medieval novels, während er in (57b) Teil
der NP medieval novels ist. Das Englische kennt nur eine Extrapo-
sitionsregel, die es erlaubt, den Relativsatz an das Ende des Satzes zu
bewegen, wie (56b) zeigt. Und auch diese Regel unterliegt der Sub-
jazenz. (56b) ist nämlich - im Gegensatz zu (56a) - nicht mehrdeu-
tig, sondern gestattet nur die Lesart, in der sich der Relativsatz auf
die gesamte NP the book about medieval novels bezieht. Bewegen wir
den Relativsatz aus einer Struktur wie (57a) heraus, so wird dabei
nur ein NP-Knoten passiert, während im Fall von (57b) - unter Ver-
letzung von Subjazenz - zwei Knoten überschritten werden. Aus die-
sem Grunde kann (56b) nur eine der Struktur (57a) entsprechende
Lesart haben.
Nehmen wir an, daß Prinzipien wie die Subjazenz zur biogeneti-
schen Ausstattung jenes Subsystems der menschlichen Kognition
gehört, das den Spracherwerb ermöglicht7. Unter dieser Perspektive
ergibt sich folgendes Bild. Das Kind, das Englisch erwirbt, muß
anhand der ihm verfügbaren positiven Evidenz erkennen, daß wh-Fra-
gen im Englischen u.a. über eine Bewegungsregel gebildet werden.
Diese Evidenz liefern ihm Sätze wie etwa (47) und (48). In einer Spra-
che wie dem Japanischen, in der wh-Phrasen nicht bewegt werden, son-
dern an ihrer ursprünglichen Stelle verbleiben, liegt eine solche Evi-
denz naturgemäß nicht vor. Demgegenüber muß das Kind die Restrik-
tionen, denen die wh-Bewegung im Englischen unterliegt, nicht erler-
nen; vielmehr ergeben sich diese aus dem Subjazenzprinzip, d.h. aus
der spezifischen Struktur des Erwerbsmechanismus, der ein biologisch
determinierter Teil der menschlichen Kognition ist.
Hier stellt sich natürlich die Frage, inwieweit es legitim ist, aus der
Analyse einer Einzelsprache, wie hier des Englischen, auf ein universa-
les Prinzip zu schließen, das ja per definitionem für alle Sprachen gilt.
Das entscheidende Kriterium ist wiederum die Lernbarkeit. Wenn es
universale Prinzipien gibt, die die Klasse der natürlichen Sprachen defi-
nieren, so müssen sich diese natürlich auch in jeder einzelnen Sprache
in irgendeiner Form manifestieren. Mit anderen Worten, jede natürli-
che Sprache, also auch das Englische oder das Deutsche, muß einerseits
Struktureigenschaften besitzen, die einzelsprachspezifisch sind, und
andererseits Gesetzmäßigkeiten aufweisen, die ein Reflex der UG-Prin-
zipien sind. Ob nun eine bestimmte Regularität auf ein zugrundelie-
gendes UG-Prinzip hindeutet, hängt u.a. davon ab, ob das Kind sie aus
dem verfügbaren Dateninput ableiten kann. Im Falle der oben beschrie-
benen Strukturen (49)—(57) zeigt sich, daß die Beschränkung der wh-
Bewegung nur anhand von ungrammatischen Sätzen, i.e. negativer Evi-
denz, erkennbar ist. Da das Kind jedoch - wie wir gesehen haben -
keinen systematischen Zugang zu negativer Evidenz hat, kann man
zunächst annehmen, daß hier ein UG-Prinzip im Spiel sein muß.
Selbstverständlich ist für jedes postulierte UG-Prinzip zu überprüfen,
ob es in der Tat auch in allen anderen natürlichen Sprachen wirksam ist.

7 Wie wir im folgenden noch genauer ausführen werden, tritt das Subjazenzprin-
zip in parametrisierter Form auf, d.h. in verschiedenen Sprachen wirkt es auf
unterschiedliche Weise. Während etwa im Deutschen oder Niederländischen
Linksbewegungen von NPs schärfsten Subjazenzbeschränkungen unterliegen,
gibt es in den skandinavischen Sprachen (cf. Maling & Zaenen 1982) verschiede-
ne Möglichkeiten, Subjazenzbedingungen zu umgehen (cf. auch Koster 1984).
Mit anderen Worten, ob ein bestimmtes Prinzip einzelsprachlich oder
universal ist, ist sowohl eine logische als auch eine empirische Frage.
Auf diesem Hintergrund wird die grundlegende Zielsetzung der
generativen Sprachtheorie deutlich. Aus der Einsicht, daß natürliche
Sprachen nur auf der Grundlage eines in sich stark strukturierten
kognitiven Systems von Prinzipien erworben werden können, folgt,
daß Spracherwerb als ein Prozeß anzusehen ist, in dem die sprachliche
Erfahrung des Kindes, i.e. der Input, auf sehr spezifische Weise mit den
im Erwerbsmechanismus verankerten Prinzipien interagiert. Die Prin-
zipien garantieren somit, daß das Kind den Input jeweils in einer Art
und Weise interpretiert, die zum Erwerb der korrekten Generalisierun-
gen führt. Primäres Ziel der linguistischen Theorie ist es, dieses System
von Prinzipien, i.e. die Universalgrammatik, zu ermitteln und zu spezi-
fizieren. Dies ist offenkundig eine rein empirische Aufgabe, wobei die
Kriterien der Lernbarkeit und der deskriptiven Adäquatheit ineinan-
dergreifen.
Es ist sicherlich unstrittig, daß die spezifischen Grundlagen der
menschlichen Kognition angeboren sind, d.h. zur biologischen Aus-
stattung der Spezies Mensch gehören. Mit anderen Worten, die prinzi-
piellen Unterschiede zwischen dem Menschen und anderen Lebewesen
sind im kognitiven ebenso wie im physischen Bereich ein Reflex bioge-
netisch verankerter Strukturen. Aus unseren bisherigen Überlegungen
folgt, daß eine spezifische Komponente des biologisch determinierten
menschlichen Kognitionssystems die Universalgrammatik ist, i.e. jenes
Ensemble von Prinzipien, das die Klasse natürlicher und somit lernba-
rer Sprachen einschränkt. Unter dieser Perspektive charakterisiert die
Universalgrammatik also einen bestimmten Bereich des biologisch vor-
gegebenen kognitiven Ausgangszustands des Menschen. Die UG ist
eine Spezifizierung dessen, was das Kind von Natur aus an kognitiver
Struktur mitbringt, um den Spracherwerb bewältigen zu können.
Chomsky spricht in diesem Zusammenhang von initial state (Chomsky
1982a, 1984). Auf diesen kognitiven Ausgangszustand treffen die Daten
der sprachlichen Erfahrung, und es entwickelt sich hieraus jener kogni-
tive Endzustand (»final state«; cf. Chomsky 1982a, 1984), der durch die
vollständige Sprachkompetenz des erwachsenen Sprechers charakteri-
siert wird. Spracherwerb ist also das Zusammenwirken von sprachli-
chem Input und biogenetisch vorgegebener Kognitionsstruktur, das zu
einem bestimmten sprachlichen Wissen führt.
Soweit derzeit erkennbar, sind die Prinzipien der Universalgram-
matik in höchstem Maße sprachspezifischer Natur; d.h. sie nehmen
auf Strukturphänomene Bezug, die allein im sprachlichen Bereich,
aber nicht in anderen kognitiven Domänen (z.B. Perzeption, Weltwis-
sen, etc.) auftreten. Aufgrund der Autonomie der Syntax (cf. Kap. 2)
ist dieser Umstand eigentlich nicht unerwartet. Dennoch bereitet vie-
len Linguisten und Psychologen die Vorstellung einer sprachspezifi-
schen kognitiven Komponente erhebliche Schwierigkeiten. Dies ist
um so verwunderlicher, als es bislang noch niemandem gelungen ist,
sprachliche Regularitäten wie die oben beschriebenen auf Prinzipien
zurückzuführen, die allgemeinerer Natur sind, d.h. über den sprach-
lichen Bereich hinaus auch in anderen Wissensdomänen wirken. Die
sprachspezifische Natur der Universalgrammatik deutet somit darauf
hin, daß die menschliche Kognition modular aufgebaut ist und somit
aus verschiedenen aufgabenspezifischen Komponenten besteht, von
denen eines eben die Universalgrammatik ist. Wir werden in Kap. 5
noch ausführlich auf die Modularität der menschlichen Kognition ein-
gehen.
Auf diesem Hintergrund wird deutlich, in welcher Form die Lin-
guistik eine Möglichkeit eröffnet, Einsichten in die Struktur der
menschlichen Kognition zu gewinnen. Da sie imstande ist, unser
sprachliches Wissen wenigstens in Teilbereichen relativ präzis und
explizit zu spezifizieren, wissen wir zumindest recht genau, was exakt
im sprachlichen Bereich zu erwerben ist. Und da ebenso die grundle-
genden Merkmale des sprachlichen Inputs, den das Kind erhält,
bekannt sind, lassen sich aus diesen beiden Faktoren Rückschlüsse
darüber ziehen, was an biologisch vorgegebener Kognitionsstruktur
notwendig ist, damit das Kind den Spracherwerb erfolgreich bewälti-
gen kann. Somit geht es der generativen Theorie nicht allein darum,
sprachliche Gesetzmäßigkeiten zu erkennen und zu beschreiben; viel-
mehr ist es das Ziel, jene universalen Prinzipien aufzudecken, die der
Struktur natürlicher Sprachen zugrunde liegen und die als Bestandteil
der biologisch determinierten kognitiven Ausstattung des Menschen
den Spracherwerb erst ermöglichen. Es geht also um die Erklärung der
menschlichen Sprach(erwerbs)fähigkeit, um eine explanatorische Theo-
rie, die die Vielfalt sprachlicher Erscheinungsformen auf ihre grund-
legenden Prinzipien zurückführt.
Eine solche Konzeption der Universalgrammatik zieht eine Reihe
interessanter empirischer Konsequenzen nach sich. Zunächst ergibt
sich ein empirisches Problem aus dem Spannungsverhältnis zwischen
explanatorischer und deskriptiver Adäquatheit. Die Prinzipien der
Universalgrammatik sind einerseits möglichst restriktiv anzusetzen,
um erklären zu können, wie Kinder auf der Grundlage eines sehr ein-
geschränkten Dateninputs ein so komplexes Wissenssystem wie eine
natürliche Sprache aufzubauen imstande sind. Mit anderen Worten,
die Erklärungsstärke der Theorie ist um so größer, je einschränkender
die Prinzipien der UG formuliert sind. Andererseits müssen die UG-
Prinzipien weit genug gefaßt werden, um nicht etwa tatsächlich exi-
stierende Sprachen auszuschließen. Würden wir also beispielsweise ein
UG-Prinzip postulieren, das besagt, daß alle Sprachen eine zugrunde-
liegende Subjekt-Verb-Objekt-Abfolge (SVO) haben, so wäre damit
zwar erklärt, wie Kinder etwa im Englischen oder Französischen
trotz der sehr vielfältigen oberflächenstrukturellen Konstituentenab-
folgen die korrekte zugrundeliegende Struktur erkennen, jedoch
würde ein solches Prinzip das Japanische oder Türkische als natürli-
che Sprache ausschließen, denn hier finden wir eine zugrundeliegende
SOV-Struktur.
In diesem Spannungsfeld zwischen deskriptiver und explanatori-
scher Adäquatheit entwickelte sich die Idee des parametrisierten UG-
Prinzips. Dahinter steht die Vorstellung, daß die UG-Prinzipien jeweils
eine eingeschränkte Zahl von Optionen (= Parameter) zulassen, aus
denen das Kind aufgrund spezifischer positiver Evidenz eine auszu-
wählen hat. Der Begriff des Parameters geht ursprünglich auf die
Arbeit von Rizzi (1982a) zurück, in der der Autor wh-Bewegung im
Italienischen untersuchte. Rizzi zeigte zunächst, daß in italienischen
Relativsätzen das Subjazenzprinzip systematisch verletzt wird, d.h.
Sätze, die im Englischen wegen Subjazenz ungrammatisch sind, sind im
Italienischen völlig in Ordnung:

(58a) tuo fratello a cui mi domando che storie abbiano racconta-


to era molto preoccupato
(58b) *dein Bruder, dem ich mich frage, welche Geschichten sie
erzählt haben, war sehr besorgt
(58c) *your brother to whom I wonder which stories they have
told was very concerned

Wenn Subjazenz nun ein Prinzip der Universalgrammatik ist, so muß


es natürlich für alle Sprachen gelten. Insofern stellen Daten wie (58a)
ein empirisches Problem für die Konzeption der UG dar. Rizzi wies
nun zunächst darauf hin, daß in anderen Fällen im Italienischen die
gleichen Grammatikalitätskontraste wie im Englischen auftreten, und
zwar in typischen subjazenz-relevanten Konstruktionen:
(59a) tuo fratello a cui temo che abbiano raccontato tutto era
molto preoccupato
(59b) your brother whom I fear that they have told everything
was very concerned
(6oa) *tuo fratello a cui temo la possibilità che abbiano raccon-
tato tutto era molto preoccupato
(6ob) *your brother whom I fear the possibility that they have
told everything was very concerned

Der Kontrast zwischen (58a) und (60a) deutet darauf hin, daß Subja-
zenz zwar auch im Italienischen gültig ist, jedoch in irgendeiner Form
anders als im Englischen. Durch umfangreiche Analysen konnte Rizzi
zeigen, daß der Unterschied zwischen diesen beiden Sprachen darin
liegt, welche Knoten als Grenzknoten zählen. Während sich im Engli-
schen Subjazenz auf NP und S bezieht, sind im Italienischen NP und
S' die relevanten Grenzknoten (zum Unterschied zwischen S und S' cf.
Band II, Kap. 1.2). Aus dieser Einsicht ergab sich der Begriff des Para-
meters. Das Subjazenzprinzip selbst gilt in beiden Sprachen, jedoch ist
es parametrisiert, d.h. es enthält offene Optionen darüber, welche Kno-
ten in der jeweiligen Sprache als Grenzknoten gelten. Eine Aufgabe des
Kindes ist es nun, den jeweiligen Parameter durch positive Evidenz zu
>fixieren<. Da Sätze wie (59a) prinzipiell zum Input gehören können,
ist die Lernbarkeit des Parameters gewährleistet8.
Das bekannteste Beispiel für einen Parameter ist der sog. Pro-drop-
Parameter. Unter Pro-drop versteht man die Eigenschaft von Sprachen
wie dem Italienischen, Spanischen oder Griechischen, die Subjektposi-
tion eines Satzes fakultativ lexikalisch unbesetzt zu lassen. Das Deut-
sche oder Englische hingegen kennt diese Möglichkeit nicht. Dement-
sprechend ergeben sich die folgenden Kontraste:

(61 a) Giovanni canta


(61 b) canta
(62a) John sings
(62b) *sings

8 Dieser Erklärungsansatz ist natürlich problematisch, da Sätze eines Komplexi-


tätsgrades wie (58a) vermutlich nicht zum normalen Input eines Kleinkindes
gehören. Man wird daher fordern müssen, daß die für die Fixierung eines Para-
meters notwendigen Struktureigenschaften eher von geringer Komplexität sein
müssen. Koster (1984) weist jedoch darauf hin, daß die Grenzknoten in einer
Sprache sicher von grundlegenden und daher auch für das Kind leicht erkennba-
ren Eigenschaften bestimmt werden.
Italienisch ist demnach im Gegensatz zum Englischen eine Pro-drop-
Sprache. Die entscheidende Beobachtung ist nun, daß Pro-drop-Spra-
chen stets eine Reihe von weiteren Eigenschaften aufweisen, die in
Nicht-Pro-drop-Sprachen jeweils nicht auftreten (cf. Perlmutter 1971):

(63 a) canta Giovanni


(63b) *sings John
(64a) sembrano arrivare due persone
(64b) *seem to arrive two people
(64c) there seem to arrive two people
(65 a) chii credi che ti venga
(65b) *whoi do you believe that t; will come
(66a) l'uomo che mi domando chi abbia visto
(66b) *the man that I wonder whom saw

Wie (63a) zeigt, kann im Italienischen das Subjekt nach dem Verb
erscheinen, was im Englischen nicht möglich ist. Weiterhin verlangt das
Englische in Konstruktionen wie (64) ein sogenanntes expletives there,
während im Italienischen ein solches Expletivum nicht nötig ist. (65b)
zeigt, daß im Englischen aus eingebetteten finiten Sätze das Subjekt
nicht extrahiert werden darf (sog. that-t-effect), während dies im Italie-
nischen möglich ist. Zuletzt bilden indirekte Fragesätze im Englischen
»Inseln«, aus denen Konstituenten nicht herausbewegt werden dürfen.
Auch hier gestattet das Italienische größere Freiheit.
Diese Beispiele zeigen, daß in natürlichen Sprachen oftmals Bündel
von Eigenschaften gemeinsam auftreten. Somit erscheint es sinnvoll,
dieses Bündel als Realisierung eines spezifischen Parameters aufzufas-
sen. Im Falle der obigen Daten sprechen wir vom Pro-drop-Parameter,
der die genannten Eigenschaften vereinigt. Sprachen können nun
bezüglich dieses Parameters unterschiedlich markiert sein, und zwar
entweder positiv oder negativ. Das Italienische ist demnach [+pro-
drop], das Englische [-pro-drop]. Die Aufgabe des Kindes besteht nun
allein darin, herauszufinden, ob die zu erwerbende Sprache [+pro-
drop] oder [-pro-drop] ist; das jeweilige Bündel von Eigenschaften
folgt dann aus dieser Wahl. Entscheidend ist jedoch, daß im Input des
Kindes tatsächlich Evidenz für die Fixierung des Parameters vorliegt.
Im Falle des Italienischen scheint dies kein Problem zu sein, da es sich
hier ausschließlich um positive Daten handelt. Wenn das Kind etwa
einen Satz wie (61b) oder (64a) hört, dann weiß es, daß die Zielsprache
[+pro-drop] sein muß. Das Problem ist vielmehr, wie das englische
Kind herausfindet, daß etwa (62b) oder (63b) nicht möglich sind. Hier-
für bräuchte es ja negative Evidenz, und die steht ihm, wie wir gezeigt
haben, nicht zur Verfügung. Die Antwort ergibt sich aus (64c). Das
Englische verwendet in diesen Konstruktionen ein Expletivum (there).
Mit diesem Datum erhält das Kind den Hinweis darauf, daß es sich um
eine [-pro-drop] Sprache handelt, und es kann den Parameter entspre-
chend fixieren. Daraus ergeben sich dann die genannten Strukturver-
hältnisse des Englischen.
Eine interessante empirische Bestätigung für die hier skizzierte Vor-
stellung eines Pro-drop-Parameters hat Hyams (1983) in ihrer Untersu-
chung des Spracherwerbs englischer Kinder gefunden. Hyams stellte
fest, daß Kinder in den frühen Phasen das Englische wie eine Pro-
drop-Sprache behandeln und Strukturen wie (62b) und (63b) produzie-
ren. Entsprechende Äußerungen verschwinden jedoch in einer späte-
ren Phase, und zwar genau zu dem Zeitpunkt, an dem das Kind
beginnt, Sätze mit expletivem there zu verwenden. Es scheint also, daß
der Erwerb des Expletivums die Erkenntnis auslöst, daß Englisch keine
Pro-drop-Sprache ist und somit Strukturen wie (62b) und (63b) un-
grammatisch sein müssen.
Sprache und Kognition

4.1 Kognitivistische Lernkonzeptionen

Die der generativen Theorie zugrundeliegenden philosophisch-psycho-


logischen Ausgangspositionen, wie sie vor allem von Chomsky in sei-
nen eher konzeptuell orientierten Schriften entwickelt und expliziert
wurden (cf. Chomsky 1972, 1975, 1980, 1984; aber auch Hornstein &
Lightfoot 1981; J.A. Fodor 1975, 1981a; Hornstein 1984), sind natürlich
nicht ohne erheblichen Widerspruch und grundsätzliche Kritik aufge-
nommen worden. Insbesondere ist die These, daß die menschliche
Kognition aus einem Ensemble autonomer, miteinander jedoch inter-
agierender Module besteht, von denen eines die »language faculty« ist,
von Psychologen und Philosophen vehement angegriffen worden.
Praktizierende Linguisten, vor allem in Deutschland, haben sich in die-
sem Streit vielfach eher zurückgehalten und die psychologischen
Ansprüche der generativen Theorie einfach ignoriert (z.B. Huber &
Kummer 1974; Boas 1984).
Als Gegenthese zur generativen Konzeption des »human mind«
wird zumeist die Auffassung vertreten, die menschliche Kognition sei
nicht aus autonomen aufgabenspezifischen Modulen aufgebaut, son-
dern verfüge vielmehr über ein einheitliches System von kognitiven
Prinzipien und Strategien, mit denen sämtliche kognitiven Aufgaben
gelöst bzw. Wissensgebiete erworben werden. Der hier entscheidende
Unterschied zwischen dem Menschen und anderen Lebewesen besteht
demnach nicht im Vorhandensein bzw. Fehlen einer spezifischen
»language faculty«, sondern darin, daß der menschliche Kognitionsap-
parat eben über insgesamt mächtigere und subtilere Prinzipien und
Strategien verfügt. In diesem Sinne argumentiert etwa Putnam in der
bekannten Chomsky-Piaget-Debatte:

»Although I don't doubt that God is ultimately responsible for what we are, it
is bad scientific methodology to invoke Him as a deus ex machina. And, in any
case, this is such a messy miracle to attribute to Him! Why should He pack our
heads with a billion different >mental organs<, rather than just making us smart?«
(Piattelli-Palmarini 1980:298)
Die Vertreter der Auffassung, der Mensch sei nicht mit einem
sprachspezifischen kognitiven Modul ausgestattet, sondern insgesamt
schlichtweg intelligenter als andere Lebewesen, haben sich in ihrer
Argumentation zumeist auf Plausibilitätsüberlegungen berufen. Vor
allem für viele Psychologen scheint die Vorstellung eines in sich stark
strukturierten, modular aufgebauten Kognitionssystems - vielleicht
aus der geschichtlichen Entwicklung ihrer Disziplin heraus - nur
schwer zu akzeptieren zu sein. Vielen erscheint Sprache und insbeson-
dere auch Grammatik nichts anderes als ein Reflex allgemeiner kogniti-
ver Fähigkeiten zu sein. Grammatik - also der formale Aspekt von
Sprache - muß, so wird argumentiert, in irgendeiner Art aus den prag-
matisch-kommunikativen Bedürfnissen des Menschen resultieren und
kann daher nicht von diesem Funktionsaspekt losgelöst betrachtet wer-
den. »The Separation of grammar from meaning [im pragmatischen
Sinne, GFSF] seems counter-intuitive to many non-linguists, who can-
not conceive of grammar as anything other than a tool for mapping
meanings into sound« (Bates et al. 1983:12).
Bei der Auseinandersetzung um die philosophisch-psychologischen
Grundthesen der generativen Grammatiktheorie wird vielfach verges-
sen, daß hier letztlich ein rein empirisches Problem zur Diskussion
steht. Ob das menschliche Kognitionssystem - wie Chomsky behaup-
tet - modular aufgebaut ist oder ob es vielmehr aus einem »multi-pur-
pose mechanism« besteht, kann nicht a priori entschieden werden, son-
dern nur aufgrund der verfügbaren empirischen Evidenz. Hinter den
verschiedenen kontroversen Auffassungen stehen Tatsachenbehauptun-
gen über einen spezifischen Aspekt der menschlichen Natur, die entwe-
der richtig oder falsch sind (cf. auch Kap. 1.1). Der Wahrheitsgehalt ent-
sprechender Aussagen ist somit an den bekannten empirischen Fakten
zu überprüfen und kann nicht aus vorgefaßten persönlichen Überzeu-
gungen einzelner Forscher abgeleitet werden. Eine Theorie ist danach
zu beurteilen, ob sie die verfügbaren Daten in angemessener Weise
erklären kann, und nicht danach, ob sie mit etablierten Grundüberzeu-
gungen übereinstimmt. Dies gilt natürlich auch für die generative Theo-
rie selbst. Es gibt keine apriorischen Gründe für die Richtigkeit dieser
Theorie. Es ist selbstverständlich möglich, daß die generative Theorie
falsch ist, d.h. daß unsere Kognition in der Tat allein aus einem En-
semble allgemeiner, für alle Aufgaben geltender Prinzipien besteht.
Ebenso ist denkbar, daß unsere Kognition zwar aus unabhängigen
Modulen besteht, jedoch kein eigenes sprachspezifisches Modul besitzt.
So könnte man sich vorstellen, daß wir etwa über ein Modul »Weltwis-
wissen« und ein Modul »Pragmatik« verfügen, sowie über ein weiteres
Modul, das sowohl für Sprache als auch für (visuelle, auditive, etc.) Per-
zeption zuständig ist. Grundsätzlich sind alle diese Möglichkeiten mit
Offenheit zu betrachten. Ob die menschliche Kognition modular auf-
gebaut ist oder nicht und - sofern sie modular ist - welche Module für
welche kognitiven Bereiche zuständig sind, ist eine empirische Frage,
deren Beantwortung nur über erklärungsstarke Theorien erfolgen
kann.
Wer also die These eines »multi-purpose mechanism« vertritt, muß
die entsprechenden Prinzipien dieses Mechanismus spezifizieren und
zeigen, wie ein Kind mit Hilfe dieser Prinzipien genau jenes gramma-
tische Wissen erwerben kann, über das jeder erwachsene Sprecher ver-
fügt. »The use of words such as >general intelligence< does not consti-
tute an empirical assumption unless these notions are somehow clari-
fied« (Chomsky in Piattelli-Palmarini 1980:320). Ebenso gilt: wer
glaubt, die menschliche Kognition sei zwar modular aufgebaut, aber
grammatisches Wissen und dessen Erwerb seien auf perzeptuelle Prin-
zipien zurückzuführen, muß derartige Prinzipien nennen und zeigen,
wie diese unter den üblichen Erwerbsbedingungen zu voller sprachli-
cher Kompetenz führen. Mit anderen Worten, wer die Grundaussagen
der generativen Theorie ablehnt und alternative Konzeptionen vor-
schlägt, muß eben eine Theorie annähernd gleicher explanatorischer
Kraft vorlegen. Beim derzeitigen Stand der Dinge ist aber eine solche
Theorie weit und breit nicht in Sicht. Was derzeit an alternativen
Ideen vorgebracht wird, versagt in nahezu spektakulärer Weise, sobald
es darum geht, die Repräsentation und den Erwerb grammatischen
Wissens zu erklären. So vermögen etwa perzeptuelle oder funktiona-
listische Theorien wie die von Slobin (1973), Bates & MacWhinney
(1982) und anderen, den Erwerb aller möglichen Fähigkeiten und
Kenntnisse zu erklären, aber eben nicht den Erwerb grammatischen
Wissens, so wie es sich uns derzeit darstellt. Damit ist natürlich keines-
wegs gesagt, daß die generative Theorie richtig ist; nur erweisen sich
die bekannten Konkurrenztheorien schon bei relativ einfachen gram-
matischen Phänomenen in so offenkundiger Weise als inadäquat, daß
eine ernsthafte Abwägung nahezu überflüssig ist. Kurz gesagt: es gibt
derzeit zur generativen Theorie keine ernstzunehmende Alternative1,

1 Ernstzunehmende und einflußreiche Alternativen zu Chomskys Rektions- und


Bindungstheorie, wie etwa Gazdars Generalized Phrase Structure Grammar
die die zu erklärenden Phänomene in einigermaßen vergleichbarer
Weise zu handhaben imstande ist. Bei dieser Sachlage könnte man ver-
sucht sein, die Diskussion um die Kritik an der generativen Grammatik
einfach abzubrechen und sich der Einschätzung von Pinker (1984:33)
anzuschließen:

»...it is not uncommon for skeptics to say, >Well, maybe there is an equally
powerful nonspecific theory that no one has thought of yet.< But this is simply
handwaving of a sort that is not likely to shed much light on the issue one way
or another. I take it to be uncontroversial that a theory that can explain facts in
some domain has a prima facie claim to being considered true. To refute this
claim, one would be better off proposing an alternative theory rather than reite-
rating one's skepticism or appealing to aprioristic arguments. And so far, task-
general learning theories adequate to account for the acquisition of complex lin-
guistic patterns are nowhere to be found.«

Wenngleich die existierenden Alternativvorschläge zumeist schon auf


relativ niedrigem Niveau an den Bedingungen der deskriptiven und
explanatorischen Adäquatheit scheitern, so sollen an dieser Stelle den-
noch die wichtigsten Einwände gegen die Grundannahmen der genera-
tiven Theorie dargestellt werden, um dem Leser einen groben Eindruck
darüber zu vermitteln, in welchen Bereichen die zentralen Kontrover-
sen auftreten. Die meisten Einwände lassen sich den folgenden Katego-
rien zuordnen:

1. logische Argumente
2. kommunikationstheoretische Argumente
3. evolutionstheoretische Argumente
4. deskriptivistische Argumente

In den folgenden Abschnitten wollen wir auf die zentralen Aspekte die-
ser Argumente eingehen.

(GPSG), Bresnans Lexical Functional Grammar (LFG) oder in gewissem Sinne


auch Bickertons Bioprogram bewegen sich vollständig im konzeptuellen Rah-
men der generativen Theorie und stellen allein konkurrierende Vorschläge zur
konkreten Charakterisierung des sprachlichen Wissens dar. Bezüglich der GPSG
ist hier allerdings zu vermerken, daß in jüngeren Versionen der Theorie, insbe-
sondere in Gazdar et al. (1985) der psychologische Anspruch linguistischer
Theorien explizit zurückgewiesen wird.
4.1.1 Die logische Struktur von Lerntheorien

Das logische Argument ist am deutlichsten von Hillary Putnam (Put-


nam 1975 und in Piattelli-Palmarini 1980:295-297) formuliert worden
und bezieht sich auf eine Reihe von Passagen, in denen sich Chomsky
(1975) mit den Möglichkeiten einer allgemeinen Lerntheorie und eines
»multiple-purpose learning mechanism« befaßt. Chomsky geht davon
aus, daß es bei der Erarbeitung einer Lerntheorie zunächst sinnvoll
ist, einerseits danach zu fragen, was gelernt wird, und andererseits,
wer lernt. Mit anderen Worten, eine Lerntheorie sollte sowohl den
kognitiven Bereich, auf den sich das Lernen bezieht, als auch den
Organismus, bei dem das Lernen stattfindet, hinreichend präzis spe-
zifizieren. Auf dieser Grundlage ist dann die Frage zu stellen, mit wel-
chen mentalen Fähigkeiten bzw. Strukturen der betreffende Organis-
mus ausgestattet sein muß, um in der jeweiligen kognitiven Domäne
Wissen erwerben zu können. Diese Vorgehensweise impliziert
zunächst keinerlei empirische Aussagen, sondern ist einfach ein heu-
ristisch und forschungspragmatisch vernünftiges Verfahren, da hier-
durch keinerlei logisch denkbare Ergebnisse von vornherein ausge-
schlossen werden. Mit anderen Worten, sowohl art- und domänenspe-
zifische Lernmechanismen als auch völlig allgemeine, d.h. unspezifi-
sche Lernmechanismen lassen sich gleichermaßen über diesen Verfah-
rensweg ermitteln. Sollte sich etwa erweisen, daß ein bestimmter
Organismus in zwei verschiedenen Domänen jeweils die gleichen
Lernprinzipien zum Wissenserwerb verwendet, so kann man anneh-
men, daß die involvierten mentalen Strukturen in diesem Bereich eben
nicht domänenspezifisch sind. Umgekehrt unterscheiden sich ver-
schiedene Organismen bezüglich ihrer Fähigkeit, bestimmte Wissens-
bereiche zu erwerben, so ist anzunehmen, daß hier artspezifische
Unterschiede in der jeweiligen kognitiven Ausstattung vorliegen.
Grundsätzlich ist natürlich auch denkbar, daß beim Menschen in allen
Domänen die gleichen Erwerbsprinzipien wirken. Genau in diesem
Falle könnte man von »allgemeiner Intelligenz« sprechen. Chomsky
behauptet nun, daß es zumindest zwei Bereiche gibt, in denen unter-
schiedliche Prinzipien wirken, die weder aufeinander noch auf einen
dritten Bereich reduzierbar sind, und zwar (a) in der Sprache und (b)
bei der (visuellen) Perzeption. Ist diese Behauptung richtig, so folgt
daraus, daß es in unserem Kognitionsapparat wenigstens zwei autono-
me Module gibt, die unterschiedlich strukturiert sind. In diesem Falle
ist jedoch die Vorstellung einer allgemeinen Lerntheorie, die den Wis-
senserwerb in allen Bereichen erklärt, empirisch nicht haltbar. Nun ist
es sicher logisch denkbar, daß sich die sprachspezifischen und perzep-
tionsspezifischen Prinzipien auf einer höheren Abstraktionsebene aus
einem gemeinsamen Satz von Prinzipien ableiten lassen. Jedoch ist es
bislang niemandem gelungen, derartige »höhere Prinzipien« in irgend-
einer Art und Weise zu explizieren. Aus diesem Grunde - so argumen-
tiert Chomsky - ist es beim derartigen Wissensstand sinnvoll, zunächst
davon auszugehen, daß die menschliche Kognition modular aufgebaut
ist, wobei die Module zumindest teilweise aufgabenspezifisch und art-
spezifisch sind:

»... suppose that we have determined a number of LT (O,D)'s (LT = Learning


Theory; GFSF), for various choices of organism O and cognitive domain D. We
can now turn to the question: what is >Learning Theory<? Or better: is there
such a theory as >Learning Theory<? The question might be put in various ways,
for example, the following two:

1. Is it the case that however we select O and D, we find the same LT(O,D)?
2. Are there significant features common to all LT of (0,D)'s?

... Consider now question (1), so qualified. Surely the answer must still be a
firm No. Even the crudest considerations suffice to show that there is no hope
of reaching a positive answer to this question. Take O to be humans (H) and O'
rats (R); D to be language (L) and D' maze running (M). If even some vague
approximation to question (1) had a positive answer we would expect humans to
be as much superior to rats in maze-learning ability as they are in language learn-
ing ability. But this is so grossly false that the question cannot be seriously enter-
tained. Humans are roughly comparable to rats in the domain M but incompara-
ble in the domain L....« (Chomsky 1975:17-19)

Chomskys Grundgedanke läßt sich also wie folgt zusammenfassen: da


unterschiedliche Lebewesen in unterschiedlichen kognitiven Bereichen
über unterschiedliche Fähigkeiten verfügen, und da es keine Theorie
gibt, die diese unterschiedlichen Fähigkeiten auf einen gemeinsamen
Satz von Prinzipien zurückführen kann, scheint es sinnvoll anzuneh-
men, daß die Kognition modular aufgebaut ist, wobei einzelne Module
für bestimmte kognitive Domänen zuständig sind. Dementsprechend
ist der hier relevante Unterschied zwischen verschiedenen Lebewesen
eben ein Unterschied in dieser modularen Struktur.
Gegen diese Schlußfolgerung wendet sich Putnam nun mit folgen-
dem Argument: wenn wir annehmen, daß das menschliche Kognitions-
system modular aufgebaut ist, wobei jedes Modul für eine spezifische
kognitive Domäne angelegt ist, so geraten wir in ein Unendlichkeits-
problem. Da es offenkundig unendlich viele kognitive Domänen gibt,
müßte unser Kognitionssystem auch aus unendlich vielen Modulen
bestehen. Dies kann natürlich nicht richtig sein, da das menschliche
Gehirn endlich ist. Daraus folgt aber, daß zumindest einige Module -
sofern es überhaupt solche Module gibt - mehr als einen kognitiven
Bereich bearbeiten müssen, vermutlich sogar eine unendliche Anzahl
von kognitiven Bereichen2. Wenn aber ein derartiges Modul für eine
größere Anzahl verschiedener kognitiver Bereiche zuständig ist, dann
kann es offenkundig nicht mehr aufgabenspezifisch sein. Dement-
sprechend wäre ein solches Modul eben so etwas wie ein allgemeiner
Lernmechanismus, der eben nicht auf spezifische kognitive Domänen
angelegt ist.
Wenngleich dieses Argument auf den ersten Blick besticht und im
Prinzip wohl auch richtig ist, so geht es doch an der entscheidenden
Frage vorbei. Chomskys These besagt lediglich, daß es zumindest für
den Bereich Sprache (und vermutlich auch für die visuelle Wahrneh-
mung) ein autonomes, i.e. aufgabenspezifisches Modul geben muß, da
die bekannten sprachlichen Regularitäten in keiner erkennbaren Weise
auf allgemeine, nicht-sprachspezifische Prinzipien zurückführbar sind.
Daher müssen in jenem kognitiven Mechanismus, mit dem das Kind
den Spracherwerb bewältigt, Prinzipien verankert sein, die speziell für
den Erwerb von Sprache ausgerichtet sind (cf. Kap. 3). Die Frage ist
also nicht, ob es überhaupt irgendeinen Lernmechanismus oder ein
Modul gibt, das nicht-aufgabenspezifisch ist, sondern grundsätzlich
unterschiedliche Bereiche bearbeitet; zur Diskussion steht allein, ob
Sprache bzw. Spracherwerb auf das Wirken eines nicht-aufgabenspezifi-
schen Moduls zurückgeführt werden kann. Bei unserem derzeitigen
empirischen wie theoretischen Kenntnisstand lautet die Antwort hier
eindeutig: nein; zumindest ist bislang noch niemandem ein gegenteili-
ger Nachweis gelungen. Wie nun die übrigen kognitiven Domänen
organisiert sind, ist derzeit weitgehend unbekannt. Auch Putnam kann
hierzu keine präzisen Aussagen machen. Welche kognitiven Bereiche
jenseits von Sprache (und Perzeption) von welchen Modulen bearbeitet
werden, ist völlig offen. Man mag allerdings vermuten, daß in einer
Anzahl bestimmter Wissensbereiche durchaus ein gemeinsames System

2 Ob hier tatsächlich eine unendliche Anzahl von kognitiven Bereichen anzuset-


zen ist, hängt natürlich entscheidend von den Kriterien ab, nach denen Bereiche
abgegrenzt werden. Soweit wir erkennen können, ist die Abgrenzungsproblema-
tik derzeit noch völlig ungeklärt.
von Prinzipien wirkt3 ; die entscheidende These der generativen Gram-
matik ist jedoch allein, daß für den Bereich Sprache ein eigenes Modul
anzusetzen ist.

»Putnam asserts that the number of domains is >virtually unlimited< and that the
strategies we use >must be extraordinarily multipurpose<, although he adds that
>we have presently no idea what they are<. I know no more about these strategies
than Putnam does, or about the delimitation of domains, or about their number
or specific character. As far as I can see we differ here only in that I am disinclin-
ed to put forth what appears superficially to be empirical hypotheses where, as
we both admit, we have «no idea» as to what the facts may be.«
(Chomsky in Piattelli-Palmarini 1980:321)

Es zeigt sich also recht deutlich, daß das Problem auf dieser Ebene
nicht lösbar ist. Solange der Begriff »general intelligence« nicht hinrei-
chend präzisiert wird, läßt sich die von Putnam vertretene These empi-
risch nicht überprüfen. Und soweit Autoren derartige allgemeine Intel-
ligenzstrategien spezifiziert haben (z.B. Wahrscheinlichkeitsmetriken,
»trial-and-error«-Verfahren, etc.) läßt sich relativ problemlos zeigen,
daß diese nicht in der Lage sind, die Strukturen natürlicher Sprachen
zu erwerben (cf. die in Kap. 3.2 dargestellten Beispiele).

4.1.2 Sprache und Kommunikation

Ein weitverbreiteter Typ von Argument gegen die generative Gramma-


tiktheorie läßt sich am ehesten als »kommunikationstheoretisch« klas-
sifizieren. Kinder - so wird argumentiert - erwerben ihre Mutterspra-
che nicht, um irgendein abstraktes Regelsystem zu erfassen, sondern
um mit ihrer Umgebung kommunizieren zu können, um Wünsche,
Bedürfnisse und Gedanken mitzuteilen, um über verbale Äußerungen
in Handlungen mit der Umwelt einzutreten. Aus diesem Grunde ist es
unsinnig, syntaktisches Wissen und dessen Erwerb isoliert zu betrach-
ten; vielmehr ist Grammatikerwerb nur auf dem Hintergrund seiner
kommunikativen Funktion zu verstehen.
Dieser Argumentationstyp tritt in einer Vielzahl von Versionen auf;
einige davon enthalten diskussionswürdige empirische Thesen, andere
hingegen beruhen auf einer naiven Einschätzung bzw. schlichten

3 Hierzu mögen Bereiche gehören, in denen der Mensch über nicht-aufgabenspe-


zifische Mechanismen Erkenntnisse erwirbt. Cf. hierzu Fodor (1983).
Unkenntnis der Komplexität syntaktischer Phänomene und Regularitä-
ten. Selbst wenn man zu konzedieren bereit ist, daß die primäre Funk-
tion von Sprache in ihren kommunikativen Ausdrucksmöglichkeiten
liegt und daß Sprache stets in einem komplexen Handlungszusammen-
hang gebraucht und erworben wird, so folgt daraus zunächst über-
haupt nichts über die syntaktische (wie auch phonologische und
semantische) Struktur natürlicher Sprachen. Wer hier einen unidirek-
tionalen Abhängigkeitszusammenhang postuliert, setzt voraus, was
eigentlich erst empirisch zu demonstrieren ist; nämlich, daß die spezifi-
sche Struktur von Sprache sozusagen direkt und unproblematisch aus
den Gesetzmäßigkeiten kommunikativen Handelns ableitbar ist, so
daß ein Kind, das die Modalitäten verbaler Interaktion und kommuni-
kativen Handelns erlernt, damit automatisch die syntaktischen Gesetz-
mäßigkeiten seiner Sprache erwirbt. Solches kann allerdings nur
jemand glauben, der selbst mit den trivialsten Erkenntnissen der Lin-
guistik nicht vertraut ist (cf. auch Kap. 3.2). Ein kurzer Blick in eine
beliebige Einführung in die Syntax wird jedem klarmachen, daß gram-
matische Regularitäten von einer Komplexität und Eigenständigkeit
sind, die die direkte Reduzierbarkeit auf kommunikative Phänomene
als schlichte Absurdität erscheinen läßt. Natürliche Sprachen sind eben
nicht - wie der Laie vielfach glaubt - ein einfaches Ensemble von Wör-
tern und Bedeutungen, die irgendwie nach kommunikativ sinnvollen
Kriterien aneinandergereiht werden können. An einem einfachen Bei-
spiel aus Chomsky (1984) läßt sich dies demonstrieren:

(1a) John doesn't know how to fix this car


(1b) John doesn't know which car to fix
(2a) which car doesn't John know how to fix?
(2b) *how doesn't John know which car to fix

Der Kontrast zwischen (2a) und (2b) macht deutlich, daß zwar ein
Objekt, nicht jedoch ein adverbialer Ausdruck aus einem indirekten
Fragesatz extrahiert werden darf. Unter kommunikationstheoretischer
Perspektive ist eine solche Regularität absolut unverständlich und
mysteriös. Die intendierte Bedeutung von (2b) ist völlig eindeutig und
läßt sich etwa folgendermaßen paraphrasieren: für welche Art und Weise
gilt: John weiß nicht, welches Auto er auf diese Art und Weise reparieren
soll. Selbst wenn ein Sprecher das kommunikative Bedürfnis verspürt,
genau diesen Sachverhalt auszudrücken, so steht ihm ein Satz wie (2b)
hierfür nicht zur Verfügung. Die Kommunikationsmöglichkeiten
natürlicher Sprachen werden hier also durch die Syntax eingeschränkt,
und nicht etwa umgekehrt.
Von einigen Forschern, z.B. Schlesinger (1971), sind logische Argu-
mente für die Plausibilität der These vorgebracht worden, daß syntakti-
sche Gesetzmäßigkeiten ein Abbild pragmatischer und kommunikati-
ver Faktoren sein müssen. Da Kinder - so wird argumentiert - leichte-
ren Zugang zu pragmatischen und kommunikationsrelevanten Phäno-
menen haben4, lassen sich syntaktische Regularitäten über induktive
Generalisierungen nur dann erwerben, wenn diese direkt aus der Prag-
matik bzw. der Kommunikationsstruktur folgen. Mit anderen Worten,
ein gegebenes syntaktisches Prinzip läßt sich nur dann induktiv erwer-
ben, wenn es ein direktes pragmatisches bzw. kommunikationsstruk-
turelles Korrelat hat, das dem Kind aufgrund seiner unmittelbaren
Erfahrung zugänglich ist. Aus dieser Sichtweise ergibt sich logisch
zwingend, daß pragmatik- bzw. kommunikationsunabhängige gram-
matische Gesetzmäßigkeiten nur eine Illusion sein können und daraus
resultieren, daß wir die entsprechenden Korrelate noch nicht gefunden
haben. Das Grundproblem dieses Arguments liegt natürlich in seinen
Prämissen. Es wird schlichtweg als gegeben angenommen, daß der
menschliche Lernmechanismus nur über Verfahren der induktiven
Generalisierung verfügt. Damit wird jedoch die These empirisch leer
und letztlich zu einem nicht mehr überprüfbaren Dogma. Gefragt
wird nicht: wie muß ein Lernmechanismus aussehen, der sich dieses
oder jenes Wissenssystem aneignen kann; vielmehr wird a priori fest-
gelegt, wie der Mechanismus auszusehen hat, und das Wissenssystem
wird derart zurechtgestutzt, daß es durch diesen Mechanismus bewäl-
tigt werden kann. Wo dies nicht klappt, wird auf zukünftige Einsich-
ten verwiesen. Gegen eine solche Form des Dogmatismus läßt sich
wenig einwenden.
Natürlich hat es nicht an Autoren gefehlt, die versucht haben, die
Abhängigkeit von Sprache und Kommunikation mit empirischen
Argumenten zu untermauern. Das methodische Vorgehen ist dabei
stets das gleiche: es wird irgendein sprachliches bzw. grammatisches

4 Grundsätzlich ist natürlich die Frage zu stellen, wieso Kinder eigentlich leich-
teren Zugang zu pragmatischen und kommunikativen Gesetzmäßigkeiten haben.
Oftmals wird der Eindruck erweckt, als seien kommunikative Faktoren und
Strukturen in offenkundiger Weise leichter erkennbar als formal-sprachliche. Ob
dies tatsächlich der Fall ist, scheint uns - beim derzeitigen Wissensstand - eine
noch weitgehend offene Frage zu sein.
Phänomen ausgewählt und gezeigt, daß sich dieses plausiblerweise als
Reflex pragmatischer bzw. kommunikativer Gesetzmäßigkeiten erklä-
ren läßt. Vor allem in der Psycholinguistik und Spracherwerbsfor-
schung genießt dieses Vorgehen einen gewissen Status und wird viel-
fach als »cognitivist view« bezeichnet (cf. Felix 1987).
So zeigt Clark (1972) etwa, daß Kinder in der Regel die Konjunk-
tion before früher als after erwerben, und erklärt dieses Faktum mit
dem Hinweis, daß bei before die Abfolge der Satzteile mit der zeitlichen
Abfolge der entsprechenden Handlungen parallel verläuft, während
dies bei after gerade umgekehrt ist:

(3a) he read a book before he ate his dinner


(3b) he read a book after he had eaten his dinner

In (3a) entspricht die lineare Abfolge der Äußerungsteile read a book und
ate der zeitlichen Abfolge der betreffenden Handlungen. Im
Gegensatz dazu wird in (3b) die zeitlich frühere Handlung after he had
eaten his dinner nach der zeitlich späteren genannt. Clark weist darauf
hin, daß diese Parallelität zwischen Äußerungsabfolge und Handlungs-
abfolge dem natürlichen kommunikativen Bedürfnis entspricht.
Letztendlich gehen derartige Beispiele und Argumente, soweit sie
als Gegenposition zur generativen UG-Konzeption zu verstehen sind,
an der eigentlich zur Debatte stehenden Problematik vorbei. Selbst-
verständlich ist nicht zu bestreiten, daß eine Beziehung zwischen
Sprache, Pragmatik und Kommunikation besteht; aus offenkundigen
Gründen muß es eine Schnittstelle zwischen den verschiedenen
Aspekten sprachlichen Handelns geben, an der die Gesetzmäßigkei-
ten der einzelnen Bereiche aufeinander bezogen werden. Dies ist in der
Tat unstrittig. Zur Debatte steht vielmehr, ob die bekannten syntakti-
schen Regularitäten wie etwa der in (1) und (2) dargestellte Kontrast
auf kommunikative oder handlungstheoretische Prinzipien reduziert
werden können, so daß etwa eine adäquate Handlungs- oder Kommu-
nikationstheorie gleichzeitig die genannten syntaktischen Gesetzmä-
ßigkeiten erklären kann, ohne daß zusätzliche syntaxspezifische
Annahmen erforderlich sind. Unter diesem Aspekt reicht es offensicht-
lich nicht aus zu zeigen, daß irgendwelche syntaktische Regularitäten
kommunikative Korrelate haben; vielmehr ist zu demonstrieren, daß
genau diejenigen grammatischen Eigenschaften, die Generativisten zur
Annahme syntaxspezifischer Prinzipien veranlaßt haben, ebensogut
aus kommunikationstheoretischen Gesetzmäßigkeiten abgeleitet wer-
den können.
Letztlich muß wiederum festgehalten werden, daß derzeit keine
Theorie existiert, die jene grammatischen Phänomene, die die generati-
ve Grammatik über UG-Prinzipien erklärt, erfolgreich auf kommuni-
kative, handlungstheoretische oder allgemein-kognitive Prinzipien
zurückführt. Alle in der Literatur üblichen Gegenargumente beschrän-
ken sich auf den Nachweis, daß es durchaus einige syntaktische Regula-
ritäten gibt, die aus Prinzipien anderer Bereiche abgeleitet werden kön-
nen. Im Grunde wird auch von kognitivistisch bzw. kommunikations-
theoretisch orientierten Forschern anerkannt, daß sie derzeit der gene-
rativen Theorie nichts Gleichwertiges entgegenzusetzen haben. Den-
noch wird aus schwer zu durchschauenden a priori Überlegungen die
generative Theorie abgelehnt und die eigene Auffassung als richtig dar-
gestellt. Dabei verweist man gerne auf zukünftige Forschungen, die den
entsprechenden Nachweis wohl liefern werden. Statt auf Evidenz
stützt man sich in erster Linie auf Versprechungen:
»... functionalist grammars remain fragmentary and in some cases, incoherent.
In trying to capture interdependence and causal constraints among linguistic
domains, functionalists promise a great deal more than they have been able to
deliver so far. One can hear a classic American retort echoing in the ivy-covered
halls: >If you're so smart, why ain't you rich?< In short, the major disadvantage
of the functionalist approach is the absence of a detailed grammatical theory; in
seeking a theory with explanatory value, functionalists have not done well in des-
cription«. (Bates et al. 1983:18-19)

4.1.3 Evolution und Sprache

Von zahlreichen Forschern ist gegen die generative Grammatiktheorie


der Vorwurf der biologischen Implausibilität erhoben worden. Ent-
sprechende Argumente wurden u.a. vor allem von Putnam (1975),
Bates et al. (1983), Piaget und Cellérier in Piatelli-Palmarini
(1980:57-61,67-72) formuliert. Etwas vereinfacht läßt sich der Ein-
wand wie folgt skizzieren: wenn man wie Chomsky annimmt, daß
höchst sprachspezifische Prinzipien Teil des menschlichen genetischen
Programms sind und somit zu seiner biologischen Ausstattung gehö-
ren, so stellt sich natürlich die Frage, durch welche evolutionären
Mechanismen diese Prinzipien im Laufe der Menschheitsentwicklung
überhaupt in das genetische Programm hineingekommen sind; solange
auf diese Frage keine prinzipielle Antwort vorliegt, ist die Annahme
eines genetischen Ursprungs für eine bestimmte Fähigkeit biologisch
zumindest unplausibel. Dementsprechend erscheint es sinnvoller an-
zunehmen, daß die betreffende Fähigkeit ein Reflex allgemeiner Adap-
tationsmechanismen ist, deren evolutionärer Ursprung sich aus dem
gängigen Darwin'schen Begriff des Selektionsvorteils ergibt. Etwas
salopp ausgedrückt: solange man nicht zeigen kann, wie etwas in das
genetische Programm hineinkommt, kann man auch nicht annehmen,
daß es drin ist.
Wenngleich dieses Argument auf den ersten Blick eine gewisse
Überzeugungskraft zu besitzen scheint, so zeigt sich doch bei genaue-
rer Betrachtung, daß hier - vermutlich aus aprioristischen Festlegun-
gen heraus - an eine Theorie der menschlichen Kognition Anforde-
rungen gestellt werden, die in anderen wissenschaftlichen Erkenntnis-
bereichen kaum für sinnvoll gehalten und in der Tat praktisch auch
nicht erfüllt werden. Im naturwissenschaftlichen Bereich werden Aus-
sagen über strukturelle Sachverhalte und Beziehungen üblicherweise
unabhängig davon betrachtet, wie sich diese unter dem Aspekt der
evolutionären Entwicklung herausgebildet haben könnten. Die Rich-
tigkeit bzw. Plausibilität von Erklärungshypothesen über Struktur-
phänomene wird nicht an der gleichzeitigen Verfügbarkeit von Erklä-
rungen über die zugrundeliegenden evolutionären Prozesse gemessen.
In der Tat scheinen für diese beiden Aspekte auch unterschiedliche
Typen von Evidenz herangezogen zu werden. Aus dem Blickwinkel
allgemeinen Erkenntnisinteresses ist es natürlich wünschenswert,
Strukturphänomene nicht nur unter synchron-statischem, sondern
ebenso unter diachron-evolutionärem Aspekt zu betrachten; dennoch
wäre es im physikalischen oder physiologischen Bereich höchst un-
gewöhnlich, wollte man nur solche Erklärungen über den Ist-
Zustand zulassen, die gleichzeitig als Erklärungen über den Werde-
gang ausgegeben werden können. Zweifellos wird niemand bestreiten
wollen, daß etwa die spezifische Struktur des menschlichen Auges
sowie die unterschiedlichen Augenfarben von Menschen genetisch
bedingt sind. Die Richtigkeit oder zumindest Plausibilität dieser Aus-
sage ist sicher unabhängig davon, ob gleichzeitig erklärt werden kann,
wie sich im Laufe der Menschheitsgeschichte die Augenstruktur und
die verschiedenen Augenfarben evolutionär ausdifferenziert haben. In
der Tat ist über den evolutionären Aspekt dieses Phänomens nur
wenig bekannt. Dennoch wird niemand aus diesem Faktum den
Schluß ziehen wollen, die These vom genetischen Ursprung von
Augenstruktur und -farbe sei unbegründet. In der Tat scheint zu gel-
ten, daß »historische« Erklärungen unseren Erkenntnissen über der-
zeitige Strukturgegebenheiten in gewissem Sinne nachgeordnet sind.
D.h. wie immer eine Erklärung über die Entstehung unterschiedlicher
Augenfarben aussehen mag, sie muß mit unserer Erkenntnis über den
Ist-Zustand kompatibel sein. Es ist nur schwer einzusehen, warum für
eine Theorie über den mentalen Bereich grundsätzlich andere Maßstä-
be und Kriterien gelten sollten als für eine Theorie über physikalische
Phänomene:

»Now, suppose we are led tentatively to attribute such and such innate structures
to the organism. I agree that there is a question of explaining how they evolved.
But I don't see how that question is fundamentally any different or more com-
plex ... than the comparable problems that you can raise about the physical cha-
racteristics of the body. If someone argues, as I assume any physiologist would,
that the specific structures of the visual cortex are genetically determined, or
that the fact that we have a heart, or the fact that we have arms rather than wings,
is genetically determined, no one goes on to argue that this cannot be so because
explaining the evolution is too hard a problem. Nobody has the slightest idea
of how to explain it; we can say >this happened and it was adaptive<, and so on,
but there are no general principles from which one can, at the moment, carry
out a deduction which says that from some earlier stage we will get this particu-
lar phenomenon, given that physical fact. That is not to say that it is inexplicable,
but just unexplained, and as far as I can see, no more unexplained in the particu-
lar case of language than in the case of the physical organs of the body.«
(Chomsky in Piattelli-Palmarini 1980:74)

Unter gewissen Aspekten scheint das Problem des evolutionären


Ursprungs auch völlig unabhängig von der Frage zu sein, ob ein gege-
benes Strukturmerkmal bzw. eine Verhaltensweise genetisch bedingt ist
oder nicht. So verschafft dem Menschen seine spezifische Augenstruk-
tur sicherlich einen evolutionären Vorteil gegenüber Lebewesen, die
über weniger leistungsstarke Augen verfügen. Man mag daher die
menschliche Augenstruktur aus ihrer adaptiven Funktion im evolutio-
nären Selektionsprozeß heraus erklären, ebenso wie etwa auch das
Facettenauge der Insekten einen evolutionären Selektionsvorteil mit
sich bringt. Doch können derartige funktionale Überlegungen letztlich
nicht erklären, warum sich beim Menschen ein Linsenauge und bei
Insekten ein Facettenauge entwickelt hat, da beide Augentypen hin-
sichtlich ihres Leistungsvermögens in etwa gleichwertig sind. Dennoch
wird niemand bestreiten wollen, daß die jeweilige Struktur des Auges
spezienspezifisch angeboren ist.
In ähnliche Richtung geht der Einwand, eine genetische Erklärung
sei eigentlich überhaupt keine Erklärung, sondern verlagere das Pro-
blem einfach auf eine andere Ebene. So schreibt Putnam (1975:157):
»Invoking >innateness< only postpones the problem of learning; it
doesn't solve it.« Auch hier zeigt sich, daß aus a priori Überlegungen
an mentale Phänomene andere Maßstäbe gelegt werden als etwa an phy-
sische. Die These, eine bestimmte Struktur sei angeboren, ist eine fak-
tisch-empirische Aussage, die richtig oder falsch sein kann. Ist sie rich-
tig, so verlagert sich das Lernproblem keineswegs auf eine andere
Ebene; vielmehr tritt ein solches Lernproblem überhaupt nicht auf,
denn die fragliche Struktur wird eben nicht gelernt, sondern ist angebo-
ren. Ist die These hingegen falsch, so verschiebt sich auch hier das Pro-
blem nicht, sondern es existiert unverändert fort, weil eben die These
falsch ist. »If, in fact, the general properties of binocular vision or the
fact that we grow arms rather than wings is genetically determined,
then it would be senseless to say that >invoking innateness< only post-
pones the problem of the learning of binocular vision or the learning
of arms rather than wings. There is no such problem to be >solved<.
True, a problem remains, but it is not the problem of learning; it is the
problem of explaining the origin and development of structures that
are innate.« (Chomsky in Piattelli-Palmarini 1980:322)
Es scheint, daß Argumente, die die biologische Plausibilität der
generativen Theorie betreffen, oftmals dem Motto folgen »if you can't
explain everything, you can't explain anything«. In einem strikten
Sinne führt die These, eine Struktureigenschaft müsse das Ergebnis
eines Lernprozesses sein, solange der evolutionäre Ursprung eines
postulierten genetischen Programms nicht nachweisbar sei, zu absur-
den Positionen. Ob eine Eigenschaft genetisch bedingt ist oder aus
einem Lernprozeß resultiert, ist in der Tat eine empirische Frage.
Jedoch kann die zwischen diesen Alternativen entscheidende Evidenz
kaum an evolutionären Überlegungen gebunden sein.

4.1.4 Abstraktheit sprachlicher Gesetzmäßigkeiten

Wie bereits erwähnt, ist die rationalistische Position der generativen


Theorie letztlich nur auf dem Hintergrund der bislang durchgeführ-
ten konkreten syntaktischen Analysen verständlich. Als globales
Ergebnis der vergangenen 25 Jahre linguistischer Arbeit kann man die
Erkenntnis ansehen, daß natürliche Sprachen Prinzipien und Regula-
ritäten von ungeheurer Komplexität und Abstraktheit folgen. Gerade
diese Erkenntnis bzw. Aussage ist nun jedoch auf vehemente Kritik
gestoßen. Diese Kritik richtet sich weniger gegen einzelne konkrete
Analysen als vielmehr dagegen, daß in dem verwendeten Beschrei-
bungsapparat abstrakte Kategorien und Prinzipien grundsätzlich zuge-
lassen sind, sofern das Kriterium der deskriptiven Adäquatheit dies
fordert bzw. nahelegt. So ist etwa im Bereich der Phonologie die
Annahme von »abstract underlying forms« als zu spekulativ zurückge-
wiesen worden (Vennemann 1974; Lass 1984:203ff.). Doch auch im
Gebiet der Syntax ist immer wieder Unmut darüber geäußert worden,
daß die generative Grammatik mit leeren Kategorien, zugrundeliegen-
den abstrakten Strukturen sowie komplizierten Prinzipien arbeitet.
Zuweilen ist es gerade als Gütemerkmal alternativer Grammatiktheo-
rien (cf. Dik 1978) angegeben worden, daß sie »oberflächenorientiert«
sind.
Man mag zunächst fragen, woher diese Abneigung gegen abstrakte
Kategorien und Beschreibungen herrührt. In der Regel geben Autoren,
die für eine »Oberflächensyntax« votieren, hierfür keinerlei Argumen-
te. In der Tat wird zumeist die Beschränkung auf oberflächenorientier-
te bzw. zumindest oberflächennahe Beschreibungskategorien als
methodologische Maxime und Tugend per se ausgegeben. Uns scheinen
hinter dieser Haltung vor allem zwei Prinzipien zu stehen, die jedoch
von den betreffenden Autoren, wenn überhaupt, nur selten explizit
gemacht werden. Das erste Prinzip betrifft - vielleicht paradoxerweise
- das logische Problem des Spracherwerbs, obwohl dieser Fragenkreis
in funktionalistischen oder strukturalistischen Grammatiktheorien so
gut wie nie thematisiert wird. Wenn natürliche Sprachen oberflächen-
orientiert organisiert sind, d.h. wenn die sie beherrschenden Regulari-
täten und Prinzipien sich ausschließlich direkt an der Oberfläche mani-
festieren, dann stellt sich das Spracherwerbsproblem in weitaus weniger
dramatischer Weise. Kinder können dann die relevanten Eigenschaften
und Gesetzmäßigkeiten unmittelbar an den Strukturmerkmalen der sie
umgebenden Äußerungen ablesen. Und man mag vermuten - obwohl
das keineswegs klar ist - , daß dies mit einem relativ einfachen »multi-
purpose« Lernmechanismus bewerkstelligt werden kann. Mit anderen
Worten, eine oberflächenorientierte Organisation natürlicher Sprachen
läßt einer empiristischen Lerntheorie zumindest eine Plausibilitäts-
chance. Es scheint so, daß die zumeist nicht weiter begründete
Beschränkung vieler Syntaktiker auf Oberflächenphänomene den glei-
chen Ursprung hat wie die intuitive Abneigung gegen nativistische
bzw. rationalistische Erklärungshypothesen.
Der zweite Grund mag in einer ehernen positivistischen Grundhal-
tung liegen, die in den Geisteswissenschaften und speziell auch in der
Linguistik eine ehrwürdige Tradition hat. Eine wissenschaftliche Aus-
sage ist nur dann von respektablem Wert, wenn sie sich jeglicher Speku-
lation enthält und sich strikt - oder doch zumindest so weit wie mög-
lich - an beobachtbare Größen hält. Historisch gesehen reflektiert
diese positivistische Grundhaltung den Versuch der Geisteswissen-
schaften und insbesondere der Psychologie, sich des Verdachtes meta-
physischen Spekulierens zu entledigen und - ähnlich den Naturwissen-
schaften - ihr Erkenntnisinteresse auf die beobachtbare Natur zu
beschränken. Es ist also der Versuch, es den Naturwissenschaften
gleichzutun und somit den Status einer respektierten Disziplin zu
erlangen. In diesem Versuch schossen die Geisteswissenschaften jedoch
unversehens über das gesteckte Ziel hinaus und trennten sich damit
wiederum von den Naturwissenschaften. Was zunächst als methodi-
sche Maxime aufgestellt wurde, nämlich sich am Beobachtbaren zu
orientieren, wurde plötzlich zu einer empirischen Aussage über die
Natur der Welt erhoben. Nicht nur der Ausgangspunkt wissenschaftli-
chen Bemühens sollte das Beobachtbare sein, sondern auch das Inhalt-
liche wissenschaftlicher Aussagen sollte sich auf Beobachtbares, i.e.
Konkretes beschränken. Um nun eine Bankrotterklärung der eigenen
Disziplin zu verhindern, mußte man sich notgedrungen zu der empiri-
schen Aussage durchringen, daß die die Erscheinungswelt gestaltenden
Prinzipien und Regularitäten ebenfalls beobachtbarer bzw. konkreter
Natur sind. Bestünde die Möglichkeit, daß diese Prinzipien und Regu-
laritäten abstrakter Art sind, so würde dies bedeuten, daß sie aufgrund
der methodologischen Beschränkung auf das Beobachtbare grundsätz-
lich von der betreffenden Wissenschaft nicht mehr erkennbar sind.
Eine Wissenschaft, die jedoch aus prinzipiellen Gründen ihren Gegen-
standsbereich nicht adäquat erfassen kann, hätte jeglichen Sinn und jeg-
liche Daseinsberechtigung verloren. Gerade hierdurch trennte man
sich jedoch wieder von den Prinzipien der Naturwissenschaft. Wenn-
gleich der Ausgangspunkt etwa für die Physik die konkrete, beobacht-
bare Erscheinungswelt ist, so unterliegen physikalische Aussagen oder
Gesetze natürlich nicht der Bedingung der Konkretheit. Wenngleich
die Auswirkungen eines Gesetzes wie k = m • b beobachtbar sind, so
ist die physikalische Aussage, die diese Generalisierung betrifft, in
höchstem Maße abstrakt. Im übrigen sind Grundbegriffe wie Kraft
oder Masse selbst nicht durch Beobachtung definiert, sondern ergeben
sich aus gesetzmäßigen Beziehungen, wie sie etwa in der obigen Formel
ausgedrückt werden. Was Kraft oder Masse ist, läßt sich nicht durch
Messen ermitteln; vielmehr setzt jegliches Messen diese Grundbegriffe
bereits voraus.
Vor diesem Hintergrund erstaunen die in der Linguistik durchaus
üblichen Diskussionen darüber, welcher Grad von Abstraktheit bei
theoretischen Grundbegriffen bzw. den mit ihnen verbundenen Aussa-
gen noch zulässig ist, wobei vielfach die direkte Beziehung zu Beobacht-
barem als entscheidender Maßstab gilt. In ähnlicher Weise ist aus wis-
senschaftstheoretischer Perspektive die in der Linguistik z.T. weitver-
breitete Tendenz unverständlich, Grundbegriffe nur in dem Maße anzu-
erkennen, wie sie sich operational definieren lassen. In der Tat scheint
sich bei manchen das linguistische Bemühen auf die (letztlich stets er-
folglose) Suche nach solchen operationalen Definitionen zu reduzieren.
Hierbei wird übersehen - wie etwa v. Kutschera (1972:264-278) aus-
drücklich betont -, daß in den empirisch-erklärenden Wissenschaften
theoretische Terme grundsätzlich nicht durch Beobachtungsterme defi-
nierbar sind. So zeigt v. Kutschera etwa, daß alle Dispositionsbegriffe,
so z.B. der Begriff »brennbar«, nicht über Beobachtungen definierbar
sind. Zunächst scheint es nahezuliegen, den Begriff etwa dadurch zu de-
finieren, daß ein Gegenstand genau dann brennbar ist, wenn man ihn auf
eine bestimmte Temperatur erhitzt und er dann zu brennen beginnt.
Unter dieser Definition wäre z.B. Holz brennbar. Allerdings versagt die
Definition, wenn man etwa ein im Wasser schwimmendes Stück Holz
anzünden wollte. Aus diesem Umstand würde jedoch niemand den
Schluß ziehen wollen, Holz sei doch nicht brennbar. Es wird stets impli-
zit vorausgesetzt, daß die genannte Eigenschaft nur unter bestimmten
Randbedingungen gilt; so muß etwa im vorliegenden Fall Sauerstoff
vorhanden sein, der Gegenstand darf nicht naß sein, etc. Die Gültigkeit
dieser Randbedingungen ist jedoch nicht aus der Beobachtung ableit-
bar, sondern sie ergibt sich ausschließlich aus der jeweils relevanten
Theorie, die die beobachtbaren Phänomene zu erklären versucht. Mit
anderen Worten, die Eigenschaft des Holzes, brennbar zu sein, ergibt
sich aus bestimmten (allerdings beobachtbaren) Merkmalen, deren Be-
ziehungen und Relevanz selbst nicht beobachtbar sind, sondern durch
die Theorie festgelegt gelegt werden. Die Eigenschaft gilt somit auch
dann, wenn es in bestimmten Beobachtungsfällen nicht gelingen sollte,
die Brennbarkeit des Holzes zu demonstrieren.
Für den Bereich der Syntax gilt zunächst festzuhalten, daß keine
Grammatiktheorie ohne die Annahme abstrakter Kategorien aus-
kommt und daß die relevanten Grundbegriffe natürlich auch hier durch
die Theorie und nicht durch Beobachtungen definiert sind. Bereits
Begriffe wie Nominalphrase oder Satz, die in irgendeiner Form in jeder
Theorie vorkommen müssen, bezeichnen abstrakte Kategorien, denen
kein direkt beobachtbares Korrelat entspricht. Spätestens bei so trivia-
len Phänomenen wie Subjekt-Verb-Konkordanz muß mit abstrakten
Morphemen gearbeitet werden, um nur ein Mindestmaß an deskriptiver
Adäquatheit zu erreichen. Die Frage »abstrakt oder konkret?« stellt sich
im Grunde somit gar nicht. Betroffen sein kann bestenfalls der Grad der
Abstraktheit. Letztendlich wird bei dieser Diskussion zumeist überse-
hen, daß es sich stets um eine Aussage mit empirischem Gehalt handelt.
Entweder natürliche Sprachen sind auf einer abstrakten Ebene organi-
siert oder nicht. Sind sie es, so muß die Erfassung ihrer Regularitäten auf
einer abstrakten Ebene erfolgen. Sind sie es nicht, so ist die Annahme
einer abstrakten Ebene schlichtweg überflüssig, und das Problem der
Abstraktheit stellt sich erst gar nicht. In jedem Falle handelt es sich um
ein rein empirisches Problem, das nicht a priori und erst recht nicht
durch irgendwelche methodologische Festlegungen zu lösen ist.
Zahlreiche Autoren (z.B. Lass 1984) versuchen diesem Problem
dadurch zu entrinnen, daß sie bewußt auf die Erfassung von Regularitä-
ten verzichten, wenn diese die Annahme von abstrakten Ebenen erfor-
dert. Für sie stellt sich Sprache dann einfach weniger regelmäßig dar.
»No longer a seamless web from morphophonemic to allophonic trans-
cription, but a congeries of rule and representation types, in complex
and ultimately unstable interaction« (op.cit. 223). Im Grunde genom-
men ist natürlich nichts dagegen zu sagen, wenn jemand die Struktur
natürlicher Sprachen eher als ein willkürliches und unregelmäßiges
Ensemble von Eigenschaften »in complex and ultimately unstable inter-
action« ansieht; dennoch ist es in einer Wissenschaft zumindest eine
ungewöhnliche Haltung, vor erkennbaren Regularitäten die Augen zu
verschließen. Vor allem aber handelt man sich mit dieser Sichtweise ein
schier unüberwindliches Spracherwerbsproblem ein. Wenn Sprachen
wirklich so regellos, willkürlich und unstabil aufgebaut sind, wie kann
ein Kind dann die volle Kompetenz in einer Sprache erwerben, ohne
wirklich alle in einer Sprache möglichen Sätze zumindest einmal gehört
zu haben? Offensichtlich ist Spracherwerb nur möglich, wenn natürli-
che Sprachen erkennbaren Gesetzmäßigkeiten und Prinzipien folgen,
die dem Kind auch bei begrenztem Input zugänglich sind.

4.2 Piagets Konstruktivismus

Als ernstzunehmende Alternative zur generativistischen Vorstellung


über die Beziehung zwischen Sprachstruktur und Spracherwerb wurde
vor allem in den 70er Jahren in psycholinguistischen Kreisen Piagets
Theorie der kognitiven Entwicklung angesehen. Die Attraktivität von
Piagets Theorie ergab sich insbesondere aus der intuitiv plausiblen Vor-
stellung, daß die sprachliche und allgemein-kognitive Entwicklung des
Kindes eng miteinander verbunden sind und es somit als möglich
erschien, spracherwerbliche Gesetzmäßigkeiten als Derivat der allge-
meinen kognitiven Entwicklung aufzufassen. Darüber hinaus stellte
Piagets Theorie ein in sich geschlossenes und weitgehend explizites
System von Thesen und Konstrukten dar, das empirisch durch Beob-
achtungen und Experimente eines mehr als 50-jährigen Forscherlebens
abgesichert war. Piaget schien daher eine ernstzunehmende Alternative
zu Chomsky zu sein. Nicht zuletzt aus diesem Grunde fand 1975 die
inzwischen berühmte Piaget-Chomsky-Debatte in Paris statt (cf. Piat-
telli-Palmarini 1980).
Um den Kontext dieser Auseinandersetzung zu verstehen, ist es
zunächst wichtig festzuhalten, daß sich Piaget selbst ursprünglich5 nie
speziell zu Fragen des Spracherwerbs geäußert hat. Seine Theorie ist
eine Theorie der Entwicklung allgemeiner kognitiver Fähigkeiten des
Menschen und keine Spracherwerbstheorie. Erst seine Schüler, insbe-
sondere Bärbel Inhelder und Hérmine Sinclair-deZwart, haben den
Versuch unternommen, Piagets Erkenntnisse auf das Phänomen des
Spracherwerbs zu übertragen und Spracherwerb somit als einen Aspekt
der kognitiven Entwicklung des Menschen darzustellen.
Piagets Theorie hat eine sehr starke empirisch-observationelle Kom-
ponente, d.h. das, was üblicherweise als die Piaget'sche Theorie
bezeichnet wird, ist primär ein Ensemble von generalisierten Aussagen
darüber, wie sich spezifisch menschliche kognitive Leistungen entwik-
keln. Im Kern dieser Aussagen steht die Beobachtung, daß sich die ver-
schiedenen kognitiven Leistungen in einer systematischen festen Abfol-
ge entwickeln und daß sich hierbei insgesamt vier Grobstadien beob-
achten lassen. Der Gedanke einer phasenhaft ablaufenden kognitiven
Entwicklung ist zweifellos das herausragende Kennzeichen von Piagets
Theorie.
Piaget unterscheidet insgesamt 4 Hauptstadien der kognitiven Ent-
wicklung, die in der angegebenen Abfolge durchlaufen werden:

s Soweit uns bekannt ist, hat sich Piaget explizit und detailliert zu Fragen des
Spracherwerbs erstmalig in der sog. Chomsky-Piaget-Debatte (cf. Piattelli-Pal-
marini 1980) geäußert.
1. die sensu-motorische Periode (ca. 0 - 2 Jahre)
2. die präoperationale Periode (ca. 2 - 7 Jahre)
3. die Periode der konkreten Operationen (ca. 7 - 11 Jahre)
4. die Periode der formalen Operationen (ca. 11 — 15 Jahre)

Jedes dieser Hauptstadien kann weiterhin in bestimmte Phasen einge-


teilt werden. Wir wollen an dieser Stelle nur die wichtigsten Merkma-
le der 4 Hauptstadien andeuten, ohne ins Detail zu gehen. Für eine
ausführlichere Darstellung verweisen wir den Leser auf Philips (1975).
Dominierendes Merkmal der sensu-motorischen Periode ist die Tatsa-
che, daß die kognitiven Leistungen des Kindes auf solche Konzepte
und Begriffe beschränkt bleiben, die unmittelbar an den Bereich der
eigenen sensorischen und motorischen Erfahrungen gekoppelt sind.
Zeit und Raum sind zunächst keine unabhängigen Größen, sondern
stets ein Derivat des eigenen Handelns und Wahrnehmens. Ebenso
begreift das Kind die Gegenstände der Umwelt lediglich im Raster
seiner kindlichen Bewegungen und perzeptuellen Eindrücke. Die Vor-
stellung, daß ein Objekt auch jenseits der unmittelbaren Perzeption
eine dauerhafte Existenz hat, ist dem Kind in der frühen Phase noch
fremd. Gegenstände existieren für das Kind ausschließlich im Kontext
seiner direkten Wahrnehmung, d.h. ein Objekt verliert seine Existenz,
sobald es nicht mehr wahrgenommen wird. Mit anderen Worten, das
Kind verfügt zunächst noch nicht über den Begriff der »Objektper-
manenz«. Erst gegen Ende der sensu-motorischen Phase entwickeln
Raum, Zeit und Gegenständlichkeit für das Kind eine eigene unab-
hängige Dimension.
Der entscheidende Unterschied zwischen der sensu-motorischen
und der darauffolgenden präoperationalen Periode besteht darin, daß
die kognitiven Leistungen des Kindes ursprünglich mehr oder minder
stark auf die direkte Interaktion mit der Umwelt beschränkt waren,
während sich in der zweiten Hauptphase die Fähigkeit entwickelt,
Symbole zu manipulieren, die diese Umwelt repräsentieren. Der
Erwerb von Symbolfunktionen ist somit eines der herausragendsten
Merkmale der präoperationalen Phase. Gerade dieser Umstand hat Pia-
gets Theorie für viele Psycholinguisten attraktiv gemacht, da der
Erwerb der Symbolfunktion zeitlich mit dem Einsetzen des Spracher-
werbsprozesses zusammenfällt. Das präoperationale Kind kann zwi-
schen signifié und signifiant unterscheiden, zwischen der konkreten
Realität und symbolhaften Repräsentationen dieser Realität. Während
das sensu-motorische Kind rein handlungsorientiert ist, gelingt es ihm
in der präoperationalen Periode erstmals, über sein Verhalten in Rela-
tion zur Umwelt zu reflektieren. Das Kind kann nunmehr Handlungen
in Bezug auf Gegenwart, Vergangenheit und Zukunft ordnen; es kann
Eigenschaften von Gegenständen abstrahieren. Die wesentliche
Begrenzung der präoperationalen Intelligenz besteht vor allem darin,
daß die Symbolmanipulation stets konkreter und direkter Natur ist.
Die Fähigkeit des Erwachsenen, zu analysieren und zu synthetisieren,
ist dem präoperationalen Kind noch nicht gegeben; »the preoperation-
al child simply runs through the symbols for events as though he were
actually participating in the events themselves« (Philips 1975:70). Die
Beziehung, die das Kind zwischen Handlung, Objekten und deren
Symbolen aufstellt, ist noch unstabil und eher statischer Natur.
Die Periode der konkreten Operationen ist durch das Einsetzen
jener intellektuellen Fähigkeiten gekennzeichnet, die notwendig sind,
um Klassifikationen, Serialisierungen und Sortierungen nach bestimm-
ten festgelegten Kriterien vorzunehmen. In dieser Phase erwirbt das
Kind die Begriffe von Zahl, Gewicht, Volumen und Substanz und es ist
somit in der Lage, Gegenstände bzw. Konfigurationen von Gegenstän-
den systematisch in Bezug auf bestimmte Eigenschaften und Relatio-
nen zu beurteilen. Während das präoperationale Kind die Umwelt stets
nur aus seiner eigenen Perspektive heraus betrachten kann, wächst in
der Periode der konkreten Operationen die Fähigkeit, auch die Per-
spektive anderer Beobachter mental zu übernehmen, d.h. das Kind ist
imstande, Repräsentationen zu transformieren. Somit beginnt das
Kind, unterschiedliche Standpunkte und Blickrichtungen aufeinander
zu beziehen und zu evaluieren. Entscheidend ist jedoch, daß all diese
mentalen Operationen stets auf konkrete Handlungen, Gegenstände
oder Ereignisse bezogen sind.
Die Fähigkeit, bei den mentalen Operationen von konkreten Mani-
festationen zu abstrahieren, entwickelt sich erst in der Periode der for-
malen Operationen. Nunmehr ist das Kind bzw. der Jugendliche
imstande, nicht nur über Reales, sondern auch über Potentielles oder
nur Vorstellbares zu reflektieren. Es werden Hypothesen über Mögli-
ches aufgestellt, ohne konkrete Objekte zu manipulieren, und es wer-
den logische Beziehungen zwischen mentalen Repräsentationen und
Operationen berechnet. Es ist die Periode, in der mathematisches, pro-
positionales und deduktives Denken beginnt. Begriffe wie Implikation
oder Proportion werden dem kognitiven Inventar beigefügt.
In der Stadieneinteilung sowie in den sie charakterisierenden Merk-
malen manifestiert sich die empirisch-observationelle Seite der Theorie
Piagets. In der einschlägigen Literatur werden dem Leser die verschie-
denen Perioden zumeist durch eine Reihe konkreter Beobachtungen
quasi exemplarisch erläutert, und die daraus gezogenen Generalisierun-
gen erscheinen vielfach eher vage und zuweilen auch nicht immer leicht
nachvollziehbar. Darüber hinaus ist von zahlreichen Autoren die Rich-
tigkeit der Piaget'schen Beobachtungen und Schlußfolgerungen insbe-
sondere in Bezug auf das Stadienkonzept bestritten worden (cf. Philips
1975). Wir wollen an dieser Stelle auf die diesbezügliche Kontroverse
nicht näher eingehen, da sie für unsere Fragestellung nicht zentral ist.
Unabhängig davon, ob man Piagets Darstellung der kognitiven Ent-
wicklung des Kindes im einzelnen akzeptiert oder nicht, stellt sich
natürlich unter theoretischer Perspektive die Frage nach dem »Motor«
für diese Entwicklung. Was Piaget zeigt ist, daß sich die verschiedenen
kognitiven Fähigkeiten nach einer bestimmten Systematik entwickeln,
daß Begriffe und Konzepte in einer bestimmten Reihenfolge erworben
werden. Die Frage stellt sich: wie hat man sich dies konkret vorzustel-
len? Was treibt das Kind von einem Stadium zum nächsten; wie erwirbt
das Kind einen neuen Begriff oder eine neue Fähigkeit, die ihm bislang
nicht zur Verfügung standen?
Mit diesem Problem hat sich Piaget in verschiedenen Schriften
befaßt, wobei die Begriffe Assimilation und Akkommodation eine zen-
trale Rolle spielen. Piaget geht davon aus, daß die sensu-motorische
Intelligenz als Ausgangspunkt der Entwicklung genetisch determiniert
ist, also zur biologischen Ausstattung des Kindes gehört. Sensu-moto-
rische Intelligenz ist also der »initial State« in Chomskys Terminologie.
Demgegenüber sind die späteren kognitiven Entwicklungsphasen nicht
genetisch determiniert, sondern ergeben sich aus dem Zusammenspiel
zwischen der jeweiligen Intelligenzstufe und der Erfahrung des Kindes.
Als Assimilation bezeichnet Piaget jenen Vorgang, bei dem der Input,
d.h. die eintreffenden Stimuli der Umwelt, im Raster der jeweils vor-
handenen kognitiven Schemata interpretiert wird. Mit anderen Worten,
der Input wird nicht »naturgetreu« abgebildet, sondern stets auf dem
Hintergrund der verfügbaren Begrifflichkeit interpretiert. Die Umwelt-
stimuli werden den vorhandenen kognitiven Fähigkeiten angepaßt, i.e.
assimiliert. Etwas vereinfacht ausgedrückt: wie die Umwelt wahrge-
nommen und interpretiert wird, hängt von der jeweiligen kognitiven
Struktur des perzipierenden Organismus ab. Entscheidend ist nun
jedoch, daß nach Piaget nicht nur die kognitive Struktur des Organis-
mus den Input verändert bzw. beeinflußt, sondern, daß umgekehrt
auch der Input die kognitive Struktur des Organismus verändert; d.h.
die dem Input inhärente Systematik überträgt sich auf die kognitive
Struktur des Kindes und vergrößert somit seine intellektuellen Fähig-
keiten. Diesen komplementären Prozeß nennt Piaget Akkommoda-
tion. Man könnte das Zusammenspiel von Assimilation und Akkomo-
dation als eine Art gegenseitiges »Sich-Aufschaukeln« bezeichnen. Das
Kind interpretiert die Erfahrung auf der Grundlage seines jeweils vor-
handenen konzeptuellen Systems und dieses System wird gleichzeitig
durch die einströmende Erfahrung verändert bzw. verfeinert. Diese
wechselseitige Beziehung führt das Kind auf die nächst höhere Ent-
wicklungsstufe, wo dann wiederum der gleiche Prozeß von Assimila-
tion und Akkommodation von neuem beginnt.
Aufgrund dieser Vorstellung vom allmählichen Aufbauen höherer
Intelligenzstufen durch das Wechselspiel von Erfahrung und kogniti-
vem Schema bezeichnet Piaget seine theoretische Position als Konstruk-
tivismus. Die einzelnen Intelligenzstufen werden gleichsam im Wech-
selspiel mit der konkreten Erfahrung »konstruiert«. An einem einfa-
chen Beispiel läßt sich der Grundgedanke Piagets erläutern. Wir hatten
bereits darauf hingewiesen, daß Kinder in der frühen sensu-motori-
schen Phase noch nicht über den Begriff der Objektpermanenz verfü-
gen, d.h. ein Gegenstand existiert für das Kind nur so lange, wie es ihn
sehen (bzw. fühlen, berühren, etc.) kann. Gerät der Gegenstand außer-
halb des Wahrnehmungsbereichs, so ist er für das Kind nicht mehr vor-
handen. Nehmen wir an, ein Kind spiele mit einem Ball, der dann etwa
hinter eine Wand oder unter einen Tisch rollt, so daß das Kind ihn nicht
mehr sehen kann. In der frühen sensu-motorischen Phase ist der Ball
für das Kind dann nicht mehr existent. Dies zeigt sich u.a. daran, daß
Kinder in dieser Altersstufe typischerweise keinerlei Anstrengungen
unternehmen, den Ball zu suchen, hinter ihm herzukrabbeln, sich nach
ihm umzusehen etc. Hier manifestiert sich der Prozeß der Assimila-
tion. Das Kind interpretiert die Umwelt, hier den Gegenstand Ball, vor
dem Hintergrund seiner augenblicklichen kognitiven Fähigkeiten, in
denen der Begriff der Objektpermanenz noch nicht vorhanden ist.
Sieht das Kind den Ball, so existiert er; verschwindet der Ball, so hört
auch seine Existenz auf. Wenig später erwirbt das Kind dann den
Begriff der Objektpermanenz. Es erkennt, daß Gegenstände unabhän-
gig von seiner Wahrnehmung existieren können. Dieser Zuwachs an
kognitivem Potential zeigt sich etwa dadurch, daß das Kind nunmehr
versucht, verschwundene Gegenstände wiederzufinden.
Wie hat man sich nun den Erwerb der Objektpermanenz vorzustel-
len? Nach Piaget wird das Kind früher oder später vielleicht rein zufäl-
lig den verschwundenen Ball wiederentdecken, indem es etwa unter
den Tisch krabbelt und den bislang als nicht mehr existent geglaubten
Ball wiederfindet. Wiederholt sich ein solcher Vorgang mehrfach, so
wird das Kind aufgrund dieser Erfahrung erkennen, daß die Vorstel-
lung, Gegenstände existierten nur, solange sie wahrgenommen werden,
falsch ist. Es wird erkennen, daß Gegenstände eine unabhängige Exi-
stenz haben, und erwirbt somit den Begriff der Objektpermanenz. Ist
dieser Begriff einmal erworben, so wird das Kind fortan die Umwelt in
einem anderen Licht sehen und Gegenständlichkeiten stets in Überein-
stimmung mit der Objektpermanenz interpretieren. Neue Begriffe
können somit durch spezifische Erfahrungen erworben werden.
Jerry Fodor war einer der ersten, die darauf hingewiesen haben, daß
ein so konzipierter konstruktivistischer Lernmechanismus aus logi-
schen Gründen nicht funktionieren kann. Die Grundfrage lautet: wie
erwirbt das Kind einen neuen Begriff? Nehmen wir an, das Kind verfü-
ge auf einer bestimmten Entwicklungsstufe über nur drei Begriffe A, B
und C. Wir beobachten, daß das Kind auf der nächsten Entwicklungs-
stufe neben A, B und C nunmehr auch über den Begriff D verfügt. Der
Übergang zwischen diesen beiden Entwicklungsstufen ist also mit dem
Erwerb von D gleichzusetzen. Wichtig ist hier, daß D wirklich ein
neuer Begriff ist, also nicht auf A, B und C reduzierbar ist, da das Pro-
blem sonst natürlich trivialisiert wird. Es ist jedoch unstrittig, daß das
Kind im Laufe seiner Entwicklung tatsächlich in diesem Sinne neue
Begriffe erwirbt. Die Frage lautet nun: wie kann ein Kind, das lediglich
über A, B und C verfügt, allein aus seiner Erfahrungswelt den Begriff
D erwerben? Fodors Antwort auf diese Frage lautet: es kann D über-
haupt nicht erwerben. Warum nicht? Fodors erste Beobachtung ist, daß
die Funktion der Erfahrung allein in der Überprüfung einer Hypothese
über D bestehen kann. Solange das Kind seine Umwelt stets und aus-
schließlich auf der Grundlage von A, B und C interpretiert, kann D gar
nicht auftreten. Voraussetzung ist also, daß das Kind zumindest die
Möglichkeit von D in Betracht zieht, also die Hypothese aufstellt: es
gibt D bzw. es gibt D nicht. Eine solche Hypothese kann es dann mit
Hilfe der Erfahrung überprüfen und je nach Evidenz zu dem Schluß
gelangen: es gibt D oder es gibt D nicht. Konkret: das Kind kann etwa
die Möglichkeit der Objektpermanenz von Gegenständen in Betracht
ziehen und dann eine entsprechende Hypothese an seiner Umwelter-
fahrung überprüfen. Es wird in diesem Falle die Hypothese bestätigt
finden und aus der verfügbaren Evidenz schließen, daß Gegenstände in
der Tat wahrnehmungsunabhängig existieren.
Fodors entscheidende Beobachtung ist nun, daß das Kind die
Hypothese »gibt es D?« überhaupt nur aufstellen kann, wenn es über
D bereits verfügt. Da D in der Hypothese selbst auftritt, setzt die For-
mulierbarkeit der Hypothese den Begriff D bereits voraus. Mit anderen
Worten, das Kind muß zunächst einmal die Möglichkeit einer veränder-
ten bzw. erweiterten Begriffswelt erwägen, und indem es dies tut, arbei-
tet es bereits mit dieser neuen Begriffswelt. Erfahrung und Umwelt
können stets nur zur empirischen Überprüfung von Hypothesen und
gedachten Möglichkeiten dienen, können diese jedoch nicht erzeugen.
Da der zu erwerbende Begriff stets Bestandteil der Hypothese ist, kann
er nicht aus der Erfahrung abgeleitet sein, sondern muß unabhängig
von ihr bzw. bereits vor ihr vorhanden sein. Fodor schließt daraus, daß
neue Begriffe und auf diesen Begriffen basierende kognitive Fähigkei-
ten nicht allein mittels der Erfahrung gewonnen werden können, son-
dern unabhängig davon existieren müssen. Wenn dies so ist, kann Pia-
gets Konstruktivismus nicht richtig sein, da er einen Mechanismus vor-
aussetzt, den es aus logischen Gründen nicht geben kann.
Am konkreten Beispiel des davonrollenden Balls wollen wir den
Gedankengang nochmals erläutern. Wir nehmen wiederum an, daß das
Kind in der frühen sensu-motorischen Phase über den Begriff der
Objektpermanenz noch nicht verfügt; d.h. das Kind interpretiert seine
Umwelt und Erfahrung nach dem (vereinfacht ausgedrückten) Grund-
satz: ein Gegenstand existiert nur so lange, wie ich ihn sehe. Nehmen
wir weiterhin an, das Kind krabbele rein zufällig unter den Tisch und
sähe dort »seinen« Ball wieder, der zuvor davongerollt ist. Solange das
Kind über den Begriff der Objektpermanenz nicht verfügt, kann es
logischerweise das, was es dort sieht, nicht als den gleichen Ball identi-
fizieren, mit dem es vorher gespielt hat; denn im Kontext seines (frü-
hen) sensu-motorischen kognitiven Potentials existieren Gegenstände
ja nur so lange, wie sie perzipiert werden. Wenn der Ball jedoch (aus der
Perspektive des Kindes) seine Existenz verliert, sobald er aus seinem
Blickfeld rollt, dann muß der »wiedergefundene« Ball eben ein anderer
Ball sein, der wiederum zu existieren aufhört, sobald er nicht mehr
wahrgenommen wird. Würde das Kind diesen Ball als den gleichen
identifizieren, mit dem es zuvor gespielt hat, so würde dies bedeuten,
daß es den Begriff der Objektpermanenz bereits besitzt, denn nur
unter dem Begriff der Objektpermanenz können zwei zeitlich getrennt
perzipierte Gegenstände ein und dasselbe Objekt sein. Das Kind
müßte also zunächst eine Hypothese aufstellen wie etwa: vielleicht
könnte es sein, daß Gegenstände objektpermanent sind, d.h. perzep-
tionsunabhängig existieren. Ausgestattet mit einer solchen Hypothese
kann das Kind dann den unter dem Tisch entdeckten Ball mit dem glei-
chen Gegenstand identifizieren, mit dem es zuvor gespielt hat. Doch
kann das Kind diese Hypothese nur aufstellen, wenn es bereits über
den Begriff der Objektpermanenz verfügt, da dieser ja in der Formulie-
rung der Hypothese selbst auftritt.
Fodors Überlegungen zeigen, daß Piagets Konstruktivismus keine
gangbare und adäquate Lernkonzeption enthält. Piaget kann zwar zei-
gen, welche kognitiven Leistungen sich wann entwickeln, aber er kann
nicht erklären, welcher Mechanismus diese Entwicklung vorantreibt.
Mit anderen Worten, in Piagets Theorie bleibt die Frage unbeantwor-
tet, wie Kinder neue Begriffe und neue höhere kognitive Leistungen
erwerben; bzw. Piagets Antwort auf diese Frage ist offenkundig
inadäquat.
Wenn sich der Erwerb neuer Konzepte und kognitiver Leistungen
nicht allein aus der Erfahrung ableiten läßt, so stellt sich die Frage,
woher das Kind diese Konzepte bekommt. In der ihm typischen Aus-
drucksweise beantwortet Fodor diese Frage folgendermaßen: »...there
are various possibilities: God does it for you on Tuesdays, or you do it
by falling on your head, or it is innate« (Fodor in Piattelli-Palmarini
1980:155). Während also Piagets These besagt, daß allein die sensu-
motorische Intelligenz angeboren ist und sich alle übrigen späteren
Intelligenzstufen allein aus der Erfahrung ergeben, behauptet Fodor,
daß das gesamte Intelligenzpotential eines Organismus sowie die zeitli-
che Entwicklung genetisch vorbestimmt sein muß. Mit anderen Wor-
ten, das genetische Programm muß spezifizieren, welche Konzepte und
kognitiven Leistungen für das Kind prinzipiell erreichbar sind.
Uns scheint nur schwer vorstellbar, wie man an Fodors Argumenta-
tion vorbeikommen will. Wollte man Piagets Konstruktivismustheorie
folgen, so wäre die unterschiedliche kognitive Leistungsfähigkeit ver-
schiedener Organismen (z.B. Tiere vs. Menschen) weitgehend rätsel-
haft. Wenn allein die Erfahrung und ein spezifischer Input einen Orga-
nismus auf eine höhere Intelligenzstufe »treiben«, so ist unerklärlich,
wieso etwa Kaninchen und Hasen den Begriff der Objektpermanenz
nicht erwerben. Sicher ist anzunehmen, daß auch ein Hase einen
Gegenstand, der aus seinem Blickfeld geraten ist, zufällig »wiederfin-
den« kann. Im Gegensatz zum Kinde entwickelt sich jedoch bei diesen
Tieren der Begriff der Objektpermanenz nicht, trotz gleichermaßen
verfügbarer Erfahrung. Beim Menschen treiben bestimmte Erfahrungs-
werte die kognitive Entwicklung voran, während bei anderen Lebewe-
sen die gleichen Erfahrungswerte ohne Konsequenz bleiben. Mit ande-
ren Worten, welche kognitive Leistungsstufe ein Organismus erreicht,
hängt nicht von dem Vorhandensein bestimmter Erfahrungen ab, son-
dern davon, wie diese vorhandenen Erfahrungen interpretiert werden.
In der Art und Weise, wie die Umwelt und die Erfahrung gedeutet
werden, unterscheidet sich der Mensch von anderen Lebewesen; es
scheint daher naheliegend zu sein, diese prinzipiellen Unterschiede im
erreichbaren kognitiven Potential eben in der biologischen Ausstat-
tung der verschiedenen Organismen zu suchen. Dafür spricht auch die
weitgehende Uniformität der kognitiven Entwicklung bei Kindern.
Nicht die Erfahrung als solche führt das Kind zur nächsthöheren
kognitiven Entwicklungsstufe, sondern bestimmte Erfahrungen zu
ganz bestimmten Zeitpunkten. Diese Überlegungen deuten darauf
hin, daß die artspezifische kognitive Leistungsfähigkeit biologisch
angelegt ist und daß die verschiedenen Entwicklungsstufen in ihrer
zeitlichen Strukturierung durch bestimmte Erfahrungswerte ausgelöst
werden. Mit anderen Worten, die Erfahrung bestimmt nicht, welche
kognitiven Leistungen ein Organismus zu erreichen imstande ist, son-
dern sie übernimmt eine Auslösefunktion für das Heranreifen
bestimmter kognitiver Strukturen.
Wenngleich sich Piaget selbst - wie bereits erwähnt - in seinen For-
schungsarbeiten nie speziell mit dem Spracherwerb befaßt hat, so
haben doch vor allem seine Schülerinnen B. Inhelder und H. Sinclair-
deZwart den Versuch unternommen, Spracherwerb als eine spezielle
Form konstruktivistischen Lernens darzustellen, indem sie auf Abhän-
gigkeiten und zeitliche Parallelismen zwischen spracherwerblichen und
allgemein-kognitiven Entwicklungen hinwiesen (cf. Felix 1987). Dies
führte zu der These, daß Spracherwerb letztlich nichts anderes als ein
Reflex allgemein-kognitiver Entwicklungsvorgänge sei. Doch ergeben
sich hier eine Reihe gravierender empirischer Schwierigkeiten.
Zunächst lassen sich eine Vielzahl spracherwerblicher Regularitäten,
insbesondere das Phänomen der geordneten Entwicklungssequenz (cf.
Wode 1981) gleichermaßen beim Erstsprachenerwerb wie auch beim
ungesteuerten Zweitsprachenerwerb beobachten (cf. Felix 1982; Clah-
sen et al. 1983). Da man annehmen kann, daß Zweitsprachenerwerber
ihre kognitive Entwicklung - zumindest in den entscheidenden Phasen
- weitgehend abgeschlossen haben, spricht diese Parallelität zwischen
Erst- und Zweitsprachenerwerb gegen die These von Inhelder und Sin-
clair-deZwart. Darüber hinaus verlangt der Erwerb phonologischer
und syntaktischer Strukturen, wie Felix (1987) zeigt, die Fähigkeit,
abstrakt-formale Operationen durchzuführen, die sich jedoch nach
Piaget erst im Alter von etwa 10 - 12 Jahren entwickelt. Da Kinder
jedoch zumindest die Syntax und die Phonologie ihrer Muttersprache
bereits in den ersten 5 - 6 Lebensjahren erwerben, folgt aus dieser Tat-
sache, daß Spracherwerb in entscheidenden Bereichen unabhängig von
der allgemeinen kognitiven Entwicklung sein muß und eher durch ein
aufgabenspezifisches kognitives Modul mit speziellen Struktureigen-
schaften gesteuert wird.
Die Modularität der menschlichen Kognition

5.1 Zum Begriff der Modularität

In der gängigen linguistischen Diskussion wird der Name Noam


Chomsky zumeist mit dem Modell der generativen Transformations-
grammatik assoziiert. Als Chomskys wesentlicher Beitrag zur linguisti-
schen Forschung wird seine in Aspects of the theory of syntax publizierte
These gewertet, daß die in natürlichen Sprachen auftretenden Gesetz-
mäßigkeiten nicht allein mit einer reinen Phrasenstrukturgrammatik
erfaßt werden können, sondern daß eine deskriptiv adäquate Gramma-
tiktheorie notwendigerweise eine transformationelle Komponente ent-
halten muß, die durch Phrasenstrukturregeln generierte strukturelle
Konfigurationen nach bestimmten Regeln und Prinzipien umformt.
Wenngleich transformationelle Analysen im Rahmen der sog. Stan-
dardtheorie über viele Jahre hinweg im Mittelpunkt generativistischer
Arbeiten standen, so ist das Modell der Transformationsgrammatik
doch keineswegs der zentrale Aspekt von Chomskys sprachtheoreti-
schen Überlegungen; vielmehr spiegelt die Transformationsgrammatik
in erster Linie den linguistischen Kenntnisstand der 50er und 60er
Jahre wider. Sie ist nicht mehr als eine konkrete empirische Hypothese
zur Lösung eines weitaus grundlegenderen Problems. Was im Kern
generativistischen Bemühens steht, ist die Frage, wie sprachliches bzw.
grammatisches Wissen mental repräsentiert ist und wie die kognitive
Struktur eines Organismus aussehen muß, der in der Lage ist, derarti-
ges Wissen auf der Basis einer eingeschränkten Datenmenge zu erwer-
ben (cf. Kap. 3). Zunächst ist die Frage, ob die mentale Repräsentation
unseres sprachlichen Wissens eine transformationelle Komponente ent-
hält oder nicht, rein empirischer Natur und völlig unabhängig von der
grundsätzlichen konzeptuellen Zielsetzung der generativen Gramma-
tik. Während Chomsky selbst in den 60er und zu Beginn der 70er Jahre
davon ausging, daß ein derartiges Wissenssystem als essentiellen
Bestandteil eine komplexe transformationelle Komponente enthalten
muß, hat er in jüngerer Zeit aufgrund neuer empirischer Evidenz seine
Vorstellungen über den Stellenwert der transformationellen Kompo-
nente mehrfach revidiert und präzisiert, so daß sich derzeit die Idee
durchsetzt, daß die transformationelle Komponente - soweit sie über-
haupt existiert - aus einer einzigen generellen Regel >move a< bzw.
>affect a< besteht. Zahlreiche andere Forscher, die Chomskys grundle-
gende Vorstellungen über die Aufgabe der linguistischen Theorie teilen,
wie z.B. Bresnan (1978), Gazdar (1982) oder Koster (1984), haben
bereits frühzeitig für ein nicht-transformationelles Modell plädiert.
Insbesondere Koster hat in verschiedenen Schriften (cf. Koster 1983,
1984) dafür argumentiert, auch im Rahmen der Rektions- und Bin-
dungstheorie Transformationen und Tiefenstrukturen aufzugeben und
durch Prinzipien zu ersetzen, die die Verteilung von Spuren und ihren
Antezedenten auf der S-Struktur regeln (cf. Band II, Kap. 4.3).
In ähnlicher Weise ist das Epitheton >generativ< keineswegs ein
essentielles Charakteristikum der generativen Grammatik. >Generativ<
heißt im Grunde nichts anderes als >explizit<. Insbesondere ist der spe-
zifische Notationsapparat, den Chomsky vor allem in Aspects of the
theory of syntax entwickelte bzw. vorstellte, kein wesentlicher und
unverzichtbarer Bestandteil der generativen Grammatiktheorie. Er ist
nicht viel mehr als ein weitgehend willkürlicher und historisch beding-
ter Weg, um sprachliche Regularitäten formal zu erfassen. Bereits
Postal (1964) hat gezeigt, daß ein Großteil der in den 40er und 50er
Jahren verbreiteten Beschreibungsmodi auf die phrasenstrukturellen
Notationskonventionen der generativen Standardtheorie reduzierbar
und somit nur eine notationelle Variante des generativen Beschrei-
bungsapparates sind. Da gerade in diesem Bereich immer wieder Miß-
verständnisse und Fehleinschätzungen auftreten, scheint es wichtig,
hier nochmals auf den Unterschied zwischen zentraler Problemstel-
lung, konkreten empirischen Hypothesen und den für die Spezifizie-
rung dieser Hypothesen verwendeten Notationen hinzuweisen. Das
zentrale Problem betrifft die mentale Repräsentation sprachlichen
Wissens und dessen Erwerb; die konkreten empirischen Hypothesen
manifestieren sich etwa in der Transformationsgrammatik von
Chomsky (1965), der Generalized Phrase Structure von Gazdar
(1982), der Lexical Functional Grammar von Bresnan (1982) oder der
Government & Binding Theorie von Chomsky (1981, 1982b); die
jeweils gewählte konkrete Notationssymbolik ist vielfach von histori-
schen Zufälligkeiten mitbestimmt und läßt sich oftmals durch belie-
bige andere Notationen ersetzen, ohne daß damit in entscheidendem
Maße empirische oder theoretische Konsequenzen verbunden sind.
Die Wahl einer spezifischen Notation ist also nur insofern von Belang,
als sich in ihr konkrete empirische Alternativaussagen über den Gegen-
standsbereich >sprachliches Wissen< manifestieren.
Was nun hingegen in der Tat ein essentielles Spezifikum der genera-
tiven Grammatiktheorie in all ihren verschiedenen Ausprägungen ist,
sind vor allem zwei (empirische) Kernthesen, und zwar die Autonomie-
these (cf. Kap. 2) und die Modularitätsthese, die allerdings in ihrem
empirischen Gehalt eng miteinander verbunden sind.
Die Modularitätsthese besagt, daß das menschliche Kognitionssy-
stem modular aufgebaut, d.h. aus einer (finiten) Anzahl von eigenstän-
digen und unabhängigen Subsystemen (=Module) besteht. Jedes dieser
Module hat seine spezifische Struktur und seinen spezifischen Aufga-
benbereich. Verschiedene Lebewesen unterscheiden sich bezüglich
ihrer kognitiven Struktur vor allem darin, über welche Module sie ver-
fügen und wie diese Module strukturiert sind bzw. miteinander inter-
agieren. Damit steht die Modularitätsthese in fundamentalem Gegen-
satz zu der Vorstellung, daß die menschliche Kognition aus einem ein-
heitlichen System von Mechanismen und Strategien besteht, mit denen
sämtliche kognitive Aufgaben bearbeitet und gelöst werden. Sie wider-
spricht der Vorstellung eines >general multi-purpose mechanism< bzw.
einer >general learning theory<.
Die Autonomiethese, die wir bereits ausführlich in Kap. 2 darge-
stellt haben, hat einen allgemeinen und einen spezifischen Aspekt.
Zunächst besagt sie, daß die einzelnen Module unabhängig, d.h. auto-
nom sind. Mit anderen Worten, die interne Struktur eines Moduls ist
nicht auf die interne Struktur irgendeines anderen Moduls reduzierbar.
Ebensowenig gibt es ein >Supermodul<, aus dessen Prinzipien wieder-
um die internen Strukturen der einzelnen Module ableitbar sind.
Kognitive Leistungen entstehen in der Regel aus der Interaktion zwi-
schen verschiedenen Modulen, wobei diese Interaktion jedoch nicht
die interne Struktur der Module verändert oder beeinflußt. Mit ande-
ren Worten, Interaktion vollzieht sich auf der Ebene des Input/Output
der verschiedenen Module, nicht jedoch auf der Ebene der modulinter-
nen Verarbeitung (cf. Fodor 1983). Der spezifische Aspekt der Autono-
miethese bezieht sich auf die Aussage, daß eines dieser Module die (for-
male) Grammatik ist, d.h. das menschliche Kognitionssystem enthält
u.a. ein autonomes Modul, das sprachspezifische Prinzipien enthält,
die das ausmachen, was man landläufig als die menschliche Sprachfä-
higkeit bzw. Spracherwerbsfähigkeit bezeichnet.
Zunächst ist hervorzuheben, daß sowohl die Modularitätsthese als
auch die Autonomiethese empirische Thesen sind. Ob das menschliche
Kognitionssystem modular aufgebaut ist oder nicht, und ob eines die-
ser Module die Grammatik ist, kann nicht aus a priori Überlegungen
heraus, sondern nur aufgrund der verfügbaren Evidenz entschieden
werden. Historisch gesehen, entwickelte sich die entscheidende Argu-
mentation von der Autonomie zur Modularität. Chomsky zeigte
zunächst, daß natürliche Sprachen über Eigenschaften verfügen, die ein
Kind nur dann unter den üblichen Bedingungen erwerben kann, wenn
bestimmte diesen Eigenschaften zugrundeliegende Prinzipien nicht
erlernt werden müssen, sondern bereits in der Struktur des Kognitions-
systems verankert sind (cf. Kap. 3). Da diese Prinzipien in keiner
erkennbaren Weise auf Prinzipien anderer kognitiver Bereiche, wie
etwa Perzeption oder Begriffsbildung zurückgeführt werden können
(cf. Kap. 2), müssen sie in ihrer sprachspezifischen Form kognitiv ver-
ankert sein. Wenn dies so ist, folgt logischerweise die Modularitätsthe-
se, d.h. unser Kognitionssystem muß zumindest zwei autonome
Module enthalten, und zwar das Grammatikmodul und ein Modul, das
alle übrigen kognitiven Funktionen umfaßt. Da weiterhin Evidenz
dafür vorliegt, daß auch für die (visuelle) Wahrnehmung ein eigenes
autonomes Modul anzusetzen ist (cf. Bower 1974; Fodor 1983; Rock
1985), gewinnt die Modularitätsthese zunehmend an Plausibilität.
Während im generativistischen Lager die Autonomiethese und die
daraus folgende Modularitätsthese vor allem aus den Ergebnissen
detaillierter syntaktischer Analysen natürlicher Sprachen abgeleitet
wird, gibt es auch außerhalb des strikt grammatiktheoretischen Blick-
feldes eine Vielzahl von Bereichen, in denen Gesetzmäßigkeiten auftre-
ten, die darauf hindeuten, daß unser Kognitionssystem modular aufge-
baut ist und daß eines dieser Module sprachspezifisch sein muß. Wir
wollen im folgenden die wichtigsten dieser Bereiche und die aus ihnen
resultierende Evidenz betrachten.

5.2 Sprachperzeption

Wenngleich sich die generative Grammatik stets ausdrücklich als eine


Theorie des sprachlichen Wissens und nicht als eine Performanztheorie
verstanden hat, so stellte sich doch vielen schon zu Beginn der 60er
Jahre die Frage, wie denn ein solchermaßen charakterisiertes Wissen in
ein Modell der konkreten Sprachverarbeitung zu integrieren sei. Man
war sich zunächst weitgehend darüber einig, daß die Aufgabe eines
Sprachverstehensmechanismus, technisch: eines Parsers, u.a. darin
besteht, aus einer linearen Kette von Wörtern die korrekte syntaktische
Struktur zu konstruieren. Der spezifische Aufbau der transformatio-
nellen Standardtheorie (Chomsky 1965) legte nun als Nullhypothese
die Vermutung nahe, daß der Parser allein aus der Anweisung besteht,
die Derivation eines Satzes, so wie sie von der Grammatiktheorie vor-
gegeben wird, rückwärts zu durchlaufen. »...it is a natural first guess
that the sentence recognizer is simply the grammar >run backward<.
The grammar maps from the symbol S through a series of intermediate
representations onto a string of words. One might initially suppose
that the sentence recognizer performs the same kind of mapping, but
backward, starting with the sequence of words, computing the inter-
mediate representations in reverse order, and terminating with the sym-
bol S« (Fodor et al. 1974:313-314).
Diese Grundidee können wir an einem einfachen Beispiel illustrie-
ren. Ein Satz wie (1) läßt sich durch eine Reihe von Phrasenstrukturre-
geln wie in (2) generieren, die in der angegebenen Reihenfolge ange-
wandt werden:

(1) the woman will meet a friend


(2) S NP + AUX + VP
VP V + NP
NP DET + N
DET the
N woman
AUX will
V met
DET a
N friend

Die Aufgabe des Parsers besteht nun allein darin, diese Derivation rück-
wärts zu durchlaufen, in dem er nach der Identifizierung der Wortklas-
sen zunächst die NP, dann die VP und zuletzt das Startsymbol S aufbaut.
Ein derart konzipierter Parser hat - abgesehen von der Rückwärts-
anweisung - keine eigene Struktur, sondern ist de facto mit der Gram-
matik identisch. Unter einer solchen Konzeption stellt die Grammatik
nicht allein eine Charakterisierung der Kompetenz dar, sondern sie
geht gleichzeitig in nahezu unveränderter Form in ein Performanzmo-
dell ein.
Während in den 60er Jahren die Idee eines solchen analysis-by-ana-
lysis-Parsers in zahlreichen Experimenten ernsthaft verfolgt wurde,
zeigten sich recht bald eine Reihe grundsätzlicher Schwierigkeiten
sowohl konzeptueller als auch empirischer Art (cf. Fodor et al.
1974:313ff). Zunächst erwies es sich aus logischen Gründen als unmög-
lich, den transformationellen Teil einer Satzderivation rückwärts zu
durchlaufen, da Transformationen über komplette Strukturen und
nicht über Wortketten definiert sind. Um also eine Transformation
»rückgängig« machen zu können, muß der Parser die Phrasenstruktur
des entsprechenden Satzes kennen; da aber die Phrasenstruktur bei
einer Rückwärtsderivation erst nach dem transformationellen Teil
errechnet wird, ist dies nicht möglich. Auch hierzu ein einfaches Bei-
spiel. Wir erweitern den Regelapparat in (2) um die Transformationsre-
gel (3) und legen fest, daß an der Stelle der Objekt-NP auch ein wh-
Wort erscheinen kann. Die Phrasenstrukturregeln generieren also
zunächst einen Satz wie (4), der durch die Anwendung von (3) zu (5)
transformiert wird:

(3) NP + AUX + V + who  who + AUX + NP + V


(4) the woman will meet who
(5) who will the woman meet

Wenn der Parser nun als Input eine Wortkette wie (5) erhält, so kann er
die Transformationsregel (3) nur dann rückwärts durchlaufen, wenn er
z.B. weiß, welche Wörter die Subjekt-NP bilden. Doch diese Informa-
tion erhält er erst im phrasenstrukturellen Teil, der jedoch beim Rück-
wärtslauf der transformationellen Komponente nachgeordnet ist.
Eine weitere Schwierigkeit besteht darin, daß ein analysis-by-analy-
sis-Parser sehr spezifische Vorhersagen über die Verarbeitungskomple-
xität von Sätzen macht, die sich in Experimenten als nicht zutreffend
erwiesen. Wenn der Parsingprozeß allein im rückwärtigen Durchlaufen
der Satzderivation besteht, so sollte mit steigender Derivationskomple-
xität auch die Verständnisschwierigkeit eines Satzes zunehmen. Mit
anderen Worten, je mehr Transformationen in einer Derivation auftre-
ten, desto länger sollte der Verstehensprozeß dauern, da ja eine größere
Zahl von Regeln abzuarbeiten ist. Diese Vorstellung ist in der Literatur
als derivational theory of complexity (Brown & Hanlon 1970) bekannt.
Zur Illustration betrachten wir die folgenden Sätze:

(6a) John opened the door


(6b) John didn't open the door
(6c) the door was opened by John
(6d) the door wasn't opened by John
Nach den Annahmen der Standardtheorie sind (6b) - (6c) aus dem
Aktivsatz (6a) transformationell abgeleitet, und zwar (6b) durch die
Negationstransformation, (6c) durch die Passivtransformation und (6d)
durch die Passiv- und die Negationstransformation. Im Rahmen eines
analysis-by-analysis-Parsingmodells wäre zu erwarten, daß (6a) am ein-
fachsten und (6d) am schwierigsten zu perzipieren ist. (6b) und (6c) soll-
ten in etwa in der Mitte zwischen diesen beiden Extremen liegen.
In den 6oer Jahren wurden eine Vielzahl von Experimenten durchge-
führt, die diese Vorhersagen überprüften. In der Regel wurde der Verste-
hensprozeß dadurch gemessen, daß Versuchspersonen verschiedene
Satzstrukturen mit entsprechenden Abbildungen identifizieren muß-
ten. Je länger diese Identifizierung dauerte, desto komplexer galt der
Verstehensprozeß. Wenngleich die Evidenzlage nicht in allen Fällen ein-
deutig ist, so setzte sich doch die Ansicht durch, daß die Verstehenskom-
plexität nicht vollständig mit der Derivationskomplexität überein-
stimmt. »Perhaps the fairest summary of the evidence for and against
DTC [= derivational theory of complexity] is that it fails to yield a deci-
sive resolution« (Fodor et al. 1974:328). Zwar konnte McMahon (1963)
zeigen, daß Negativ- und Passivstrukturen längere Zeit zur Identifika-
tion brauchen als affirmative Aktivstrukturen, jedoch ergab sich etwa in
Goughs (1965) Studie, daß Negativkonstruktionen stets schwieriger zu
identifizieren sind als affirmative Strukturen, ein Unterschied, der sich
nicht auf der Grundlage derivationeller Komplexität erklären läßt. An-
dere Experimente, wie z.B. die von Jenkins et al. (1965), Bever & Mehler
(1967) oder Fodor & Garrett (1967), brachten sogar Ergebnisse hervor,
die in direktem Widerspruch zur derivational theory of complexity ste-
hen. Slobin (1966) konnte in einer vielbeachteten Studie zeigen, daß
Komplexitätsunterschiede zwischen Aktiv- und Passivstrukturen nur
bei sog. reversible passives auftreten. Dies sind Strukturen, bei denen das
Vertauschen von Subjekt und Objekt weiterhin einen sinnvollen Satz er-
gibt. So ist John was kissed by Mary reversibel, da auch Mary was kissed
by John möglich ist; hingegen gilt the door was opened by John als nicht
reversibel, weil John was opened by the door unsinnig ist. Slobins Ergeb-
nis deutet darauf hin, daß Faktoren semantischer Plausibilität die Verste-
henskomplexität eines Satzes entscheidend beeinflussen.
Wenngleich die verfügbare Evidenz sicher nicht als Falsifizierung
der derivational theory of complexity gewertet werden kann1, so wurde

1 Die einschlägigen Experimente in den 60er und frühen 70er Jahren gingen stets
vom Aspects-Modell aus, das die Sprachkompetenz primär als ein derivationelles
doch zunehmend deutlicher, daß der menschliche Parsingprozeß
mehr sein muß als ein reines sukzessives Abarbeiten von grammati-
schen Regeln. Obwohl der Parser zweifellos auf grammatisches Wis-
sen zurückgreifen muß und sich somit auch derivationelle Komplexi-
tätsunterschiede im Verstehensprozeß widerspiegeln, so deuteten
doch bereits die frühen Experimente darauf hin, daß der Parser wohl
eher eine eigenständige autonome Instanz mit von der Grammatik-
theorie unabhängigen Prinzipien und Regularitäten ist. Mit anderen
Worten, der Parser ist nicht einfach ein inverses Spiegelbild der Gram-
matik, sondern verfügt über ein eigenes System von Strukturen und
Prinzipien. Diese Einsicht, die entscheidend die Vorstellung eines
modularen Aufbaus der menschlichen Kognition unterstützt, ver-
stärkte sich vor allem in den 70er Jahren durch Evidenz insbesondere
aus drei Bereichen.
Zunächst zeigt das Phänomen der sog. garden path sentences, daß
bestimmte Satzstrukturen äußerst schwierig zu verstehen sind, obwohl
sie völlig grammatisch und von nur geringer Komplexität sind. Das
nunmehr schon klassische Beispiel ist (7):

(7) the horse raced past the barn fell

Uneingeweihte Sprecher des Englischen werden (7) zumeist als


ungrammatisch einstufen, da sie das Verb fell nicht in die übrige Satz-
struktur integrieren können. Daß (7) dennoch völlig in Ordnung ist,
wird sofort deutlich, wenn man die parallelen Konstruktionen in (8)
betrachtet:

(8a) the car driven by John hit the curb


(8b) the sonata played in honor of Bill pleased everyone

Die Phrase raced past the barn in (7) ist also eine Partizipialkonstruk-
tion, die the horse modifiziert. Offensichtlich hat der Parser Schwierig-
keiten, diese Möglichkeit zu erkennen; er tendiert dazu, zunächst stets
einen Matrixsatz zu konstruieren, wann immer dies morphologisch
möglich ist. Dadurch gelingt es ihm nicht mehr, das Verb fell in die Satz-
struktur einzuordnen. Derartige Parsingschwierigkeiten treten bei (8)

System von Regeln betrachtete. Die intern-linguistische Evidenz, die für ein
eher repräsentationelles Prinzipiensystem spricht, läßt somit auch die Aussagen
der DTC in einem neuen Licht erscheinen. Konkret: wenn etwa Passiv- oder
Negationsstruktur nicht mehr - wie im Aspects-Modell - transformationell
erzeugt werden, sondern basisgeneriert sind, so können die experimentellen
Ergebnisse auch nicht mehr als Falsifizierung der DTC angesehen werden.
nicht auf, da einerseits driven eindeutig als Partizip identifizierbar ist
und andererseits aufgrund von Selektionsrestriktionen sonata nicht das
Aktivsubjekt von played sein kann. In (8) besteht also keinerlei Gefahr,
daß der Parser auf die falsche Fährte geführt wird. Garden path-Sätze
treten in vielerlei strukturellen Konfigurationen auf; (9) gibt eine kleine
Auswahl bekannter Beispiele2:
(9a) I gave the girl the dog bit some flowers
(9b) I told the girl the boy seduced the story
(9c) cotton skirts are made of grows in Mississippi
(9d) without her contributions to the fund would be inade-
quate
(9e) while Mary was mending the sock fell off her lap
(9f) Sue wouldn't give the man who was reading the book
(9a)-(9c) involvieren ähnlich wie (7) schwer erkennbare Relativsatz-
konstruktionen; beide Sätze werden sofort verständlich, wenn man
nach girl das Relativpronomen whom bzw. nach cotton das Pronomen
which einsetzt. In (9d) tendiert der Parser dazu, her als Modifikator zu
contributions zu konstruieren, obwohl her hier nur Personalpronomen
sein kann. In (9e) und (9f) hat der Parser Schwierigkeiten, die intransi-
tive Lesart von mending und reading zu erkennen.
Die garden path-Sätze zeigen zunächst, daß der menschliche Parser
ein sog. on-line processor ist, d.h. er wartet nicht mit der Errechnung der
syntaktischen Struktur, bis sämtliche Elemente des Satzes vorliegen;
vielmehr versucht er, die hereinkommenden Wörter sofort zu syntakti-
schen Phrasen zu assemblieren. Dies führt dazu, daß der Parser vielfach
an syntaktisch mehrdeutigen Stellen Entscheidungen treffen muß,
ohne zu wissen, ob die gewählte Analyse auch mit dem Rest des Satzes
kompatibel ist. So muß er sich in (7) beim Eintreffen von raced entwe-
der für eine finite Verbform oder für ein Partizip entscheiden. Zwei
Beobachtungen sind hier nun wichtig. Zunächst verschiebt der Parser
seine Entscheidungen nicht, sondern er trifft sie hic et nunc, selbst auf
die Gefahr hin, daß er an der Analyse von Sätzen wie (7) und (9) schei-
tert. Zum zweiten sind die Entscheidungen des Parsers nicht willkür-
lich oder beliebig; garden path-Sätze sind für alle Sprecher des Engli-
schen schwierig zu verstehen. Selbst wenn man die korrekte Struktur
der Sätze kennt, schleicht sich beim unbewußten Hören immer wieder
die garden path-Interpretation ein.

2 Die Beispiele stammen aus J.A. Fodor et al. (1974); J.D. Fodor (1978); Frazier &
Fodor (1978); Frazier (1979); Marcus (1980).
Wenn der Parser jedoch nicht willkürlich entscheidet, so muß es
Prinzipien geben, an denen er seine Entscheidungen ausrichtet. Frazier
(1979) hat etwa das principle of minimal attachment vorgeschlagen, das
besagt, daß der Parser stets versuchen wird, ein zu analysierendes Ele-
ment an den minimalen syntaktischen Knoten zu hängen, den er gerade
bearbeitet. In (9f) etwa eröffnet der Parser mit reading die VP des einge-
betteten Relativsatzes; nach Fraziers Prinzip wird er nun the book in
diese VP zu integrieren versuchen, anstatt die NP korrekterweise als
direktes Objekt zu give in den höheren Matrixsatz zu hängen.
Diese Beispiele zeigen, daß der Parser nicht einfach syntaktische
Regeln abarbeitet, sondern vielmehr bei seiner Analyse bestimmten
Prinzipien folgt, die jedoch nicht aus der Grammatik(theorie) herrüh-
ren, sondern vielmehr spezifische Eigenschaften des Parsers selbst
widerspiegeln. In der Tat sind die garden path-Sätze ja aus syntaktischer
Perspektive völlig wohlgeformt; allein die besondere Struktur des Par-
sers scheint dafür verantwortlich zu sein, daß er die betreffenden Kon-
struktionen nicht oder nur unter Schwierigkeiten errechnen kann.
Wichtig ist weiterhin, daß die Prinzipien des Parsers nun keineswegs
auf einem einfachen Komplexitätsmaß beruhen, sondern vielmehr in
sehr spezifischer Weise auf sprachliche Strukturmerkmale abgestimmt
sind. So ist in (9d) die Phrase without her contributions zweifellos kom-
plexer als without her. Wie die garden path-Lesart zeigt, bevorzugt der
Parser hier die komplexere gegenüber der weniger komplexen Struktur
in Übereinstimmung mit Fraziers minimal attachment principle.
Garden path-Sätze wie (7) deuten darauf hin, daß der Parser in Über-
einstimmung mit Fraziers Prinzip eine NP + V-Sequenz - sofern mög-
lich - stets als Matrixsubjekt und Matrixverb konstruiert. Nun können
in Subjektposition anstatt NPs auch Sätze auftreten, wie (10) zeigt:

(10) that John kissed Mary is unlikely

Durch that hat der Parser in (10) einen eindeutigen Hinweis auf den Be-
ginn eines Nebensatzes, so daß sich bei dieser Struktur kein garden path-
Effekt beobachten läßt. Wie die Strukturen in (11) und (12) zeigen, kann
die Konjunktion that zwar bei Sätzen in Objektposition, nicht jedoch
bei solchen in Subjektposition fakultativ ausgelassen werden:

(11a) I believe that John will marry Sue


(11b) I believe John will marry Sue
(12a) that John will marry Sue is unlikely
(12b) *John will marry Sue is unlikely
Man könnte nun versucht sein, die Ungrammatikalität von (12b) aus
Prinzipien des Parsingprozesses zu erklären (cf. J.D. Fodor 1984).
Wegen des Fehlens von that erhält der Parser keinen Hinweis auf den
Beginn eines Nebensatzes und wird daher die folgenden Konstituenten
als Matrixsatz konstruieren. Da der Parser nun nicht mehr die Sequenz
is unlikely in die Satzstruktur integrieren kann, wird (12b) ungramma-
tisch. Verallgemeinert ausgedrückt: man könnte die Auffassung vertre-
ten, daß syntaktische Regularitäten sich stets auf Parsingprinzipien
reduzieren lassen und nicht durch eine eigene und unabhängige Gram-
matiktheorie erfaßt werden müssen (cf. hierzu Hawkins 1983). Mit
anderen Worten, natürliche Sprachen sehen so aus, wie sie aussehen,
weil sie andernfalls nicht parsbar wären.
Jedoch läßt sich leicht zeigen, daß diese Auffassung nicht richtig
sein kann. Subjektsätze können etwa an das Satzende extraponiert wer-
den, wobei dann in der Subjektsposition ein expletives it erscheint.
Auch in diesem Falle darf die Konjunktion aber nicht ausgelassen wer-
den, obwohl analoge Parsingprobleme zu (12b) hier nicht entstehen
können:

(13 a) it was believed that John kissed Mary


(13 b) *it was believed John kissed Mary

Ebensowenig darf that bei solchen Subjektsätzen fehlen, die der Parser
allein schon durch ihre interne Struktur eindeutig als Nebensätze iden-
tifizieren kann, z.B. durch ever at all oder den Subjunktiv:

(14a) that he would ever drink a drop at all astonished us


(14b) *he would ever drink a drop at all astonished us
(15a) that she be fired immediately was required by her con-
tract
(15b) *she be fired immediately was required by her contract

Obwohl die Nebensätze (14) und (15) formal eindeutig ausgezeichnet


sind und daher vom Parser niemals fehlerhaft als Hauptsätze konstru-
iert werden können, gilt - wie Zwicky & Pullum (1985) beobachten -
das Verbot konjunktionsloser Subjektsätze auch in diesen Fällen. Somit
scheint diese syntaktische Regularität unabhängig von Parserproble-
men zu sein.
Zwicky & Pullum (1983) zeigen weiterhin, daß der menschliche Par-
ser durchaus imstande ist, mit mehrdeutigen Nebensatzstrukturen
erfolgreich umzugehen. Würde der Parser in (16b) kangaroos als Objekt
zu saw konstruieren, wären die folgenden Konstituenten nicht mehr in
die Satzstruktur integrierbar. Wenngleich der Parser durch die bei see
naheliegende Objektsanalyse sehr leicht zu einer Fehlinterpretation
gelangen könnte, ist die that-Komplementierung bei dieser Struktur
nicht obligatorisch:

(16a) we saw that kangaroos are not very bright


(16b) we saw kangaroos are not very bright

Weiterhin ist zu beachten, daß nicht bei jedem Verb die Konjunktion in
eingebetteten Sätzen fehlen darf:

(17a) Bill enjoyed that his mother liked John


(17b) *Bill enjoyed his mother liked John
(18a) ich glaube, Hans liebt Maria
(18b) *ich habe bewiesen, Hans liebt Maria

Im Deutschen darf darüber hinaus die Konjunktion auch dann nicht


wegfallen, wenn im Hauptsatz ein nicht auftritt:

(17c) *ich glaube nicht, Hans liebt Maria

Diese Beispiele deuten darauf hin, daß der Fortfall der Konjunktion
ein verbabhängiger Prozeß ist, der etwa durch die Negation im Matrix-
satz blockiert wird. Wie wir im einzelnen noch darlegen werden (cf.
Band II, Kap. 1.2), bildet nur das Objekt mit dem Verb eine Konstitu-
ente, innerhalb derer allein verbabhängige Prozesse ablaufen dürfen.
Dieses Faktum erklärt, warum Subjektsätze (die mit dem Verb keine
Konstituente bilden) immer durch eine Konjunktion eingeleitet werden
müssen. Somit ergibt sich eine Schlußfolgerung, die der Vermutung
von J.D. Fodor (1984) eher entgegengesetzt ist: da grammatische Prin-
zipien konjunktionslose Subjektsätze verbieten, kann der Parser »ohne
Risiko« so früh wie möglich ein Matrixsatzverb ansetzen. Wären auch
konjunktionslose Subjektsätze grammatisch, gäbe es für den Parser
eine Unzahl von Strukturen, die er unter dem minimal attachment prin-
ciple falsch konstruieren würde. Nur weil ein syntaktisches Prinzip
Konstruktionen wie den that-losen Subjektsatz ausschließt, reduziert
sich die Zahl möglicher Fehlanalysen durch den Parser auf mehr oder
minder marginale Fälle wie (7); allein deswegen kann sich der Parser
eine Strategie wie minimal attachment überhaupt erlauben.
In ähnlicher Weise hat Hawkins (1983) versucht, Parsingprinzipien
zur Erklärung von Wortstellungsabfolgen heranzuziehen. Da der
menschliche Parser on-line von links nach rechts arbeitet, i.e. sprachli-
ches Material direkt in der zeitlichen Abfolge des Eintreffens analy-
siert, und andererseits interphrasale Beziehungen (z.B. zwischen Verb
und Objekt, Verb und Subjekt, usw.) früher als phrasen-interne
Abhängigkeiten (wie zwischen Nomen und Relativsatz) konstruiert,
ergeben sich Konsequenzen für die Parsbarkeit von Komplement-
strukturen, d.h. für den Parser ist es am günstigsten, wenn möglichst
wenig Material vor dem Kopf (»head«) einer Konstruktion steht, da
er sich dieses Material temporär merken muß, bevor er es an die kor-
rekte Stelle in der Satzstruktur plazieren kann. Aus der Perspektive
der Parsbarkeit ist es also von Vorteil, wenn Relativsätze nicht vor,
sondern hinter dem Nomen stehen. Im gegenteiligen Fall müßte näm-
lich sehr viel (im Prinzip beliebig viel) Material temporär gespeichert
werden, bevor es in die Satzstruktur integriert werden kann. Tatsäch-
lich erscheint in der überwältigenden Mehrzahl von Sprachen der
Relativsatz hinter dem Nomen, und zwar auch in Sprachen wie dem
Deutschen, in dem Komplemente »normalerweise« vor dem Kopf
stehen.
Man könnte also vermuten, daß allein Parsingprinzipien für die Stel-
lung des Relativsatzes verantwortlich sind; dennoch scheint dies nicht
der Fall zu sein. Zunächst gibt es Sprachen - wie etwa das Japanische
oder das Chinesische - , in denen Relativsätze stets vor dem Nomen
stehen müssen; und da die Kommunizierfähigkeit von Japanern oder
Chinesen kaum schlechter als unsere sein dürfte, darf man annehmen,
daß die zusätzliche Verarbeitungslast, die sich aus der pränominalen
Stellung des Relativsatzes ergibt, so gravierend letztlich nicht sein
kann. Darüber hinaus müssen Partizipialkonstruktionen, die die glei-
che Komplexität wie Relativsätze aufweisen können (cf. Comrie &
Keenan 1977), stets vor dem Bezugsnomen stehen:

(19) der durch die Behauptung seiner Studenten, er sei faul,


beleidigte Professor ...

Es zeigt sich also, daß der Parser zwar eine eigenständige Instanz mit
spezifischen Eigenschaften ist, jedoch die Annahme eines ebenfalls
eigenständigen Grammatikmoduls keineswegs überflüssig macht. So
ergibt sich etwa die Stellung des Relativsatzes oder die Verteilung von
that in eingebetteten Sätzen aus den Prinzipien der Grammatik, wäh-
rend die Struktur des Parsers bestimmt, wie schnell bzw. erfolgreich
die sprachlich möglichen Strukturen im Perzeptionsprozeß errechnet
werden können. Parser und Grammatik erweisen sich also als zwei
autonom organisierte Instanzen, die in sehr spezifischer Weise mitein-
ander interagieren, ohne aufeinander reduzierbar zu sein.
In diese Richtung deuten auch Beispiele, bei denen der Parser stets
eine von zwei gleichermaßen grammatischen Lesarten bevorzugt:

(20) John told the girl that Bill likes the story

In (20) kann entweder that Bill likes Relativsatz zu the girl sein oder that
Bill likes the story ist subkategorisierter Nebensatz von told. Entspre-
chend erhalten wir die folgenden zwei Interpretationen:

(21a) John erzählte dem Mädchen, das Bill mag, die Geschichte
(21b) John erzählte dem Mädchen, daß Bill die Geschichte mag
Wenngleich aus der Perspektive der Grammatik beide Lesarten glei-
chermaßen zulässig sind, so wird der uneingeweihte Hörer (20) jedoch
zunächst stets in der Lesart (21b) verstehen. Mit anderen Worten, der
Parser ist so strukturiert, daß er der Möglichkeit eines subkategorisier-
ten Satzes stets den Vorzug gibt. Derartige »preferred readings« zeigen
sich auch in den folgenden Beispielen aus Frazier (1979):

(22) John called the people who smashed his car up


(23) John said that he went to London last week
(24) the girl took the job that was attractive

In (22) und (23) werden up bzw. last week vorzugsweise als Konstituen-
ten des eingebetteten Satzes verstanden, obwohl aus grammatischer
Perspektive ebenfalls ein Bezug zum Matrixsatz möglich ist. In (24)
wird der Relativsatz bevorzugt auf the job bezogen und nicht auf die
ebenfalls mögliche Konstituente the girl.
Am Phänomen der »preferred readings« zeigt sich besonders deut-
lich, daß der Parser aufgrund seiner eigenen spezifischen Funktionswei-
se Entscheidungen trifft, die unabhängig von der Grammatik sind, da
sich diese gegenüber den beiden Lesarten neutral verhält. Andererseits
ist auch die Grammatik unabhängig vom Parser, da sie strukturelle
Möglichkeiten bereitstellt, die der Parser zumeist »übersieht« bzw. -
wie auch bei den garden path-Sätzen - nur unter Schwierigkeiten
errechnen kann.
Es gibt allerdings auch umgekehrt syntaktische Regularitäten, die
auf den ersten Blick typische Merkmale grammatiktheoretischer Prin-
zipien tragen, bei genauerer Betrachtung jedoch aus Parsingprinzipien
zu folgen scheinen. Gerade solche Phänomene gestatten uns einen Ein-
blick in die komplexe Struktur des menschlichen Parsers. Zur Illustra-
tion wählen wir den sog. Nestedness Constraint (cf. J.D. Fodor 1978),
der in englischen tough-Konstruktionen auftritt.
Im Englischen ist es möglich, bei bestimmten Adjektiven das
Objekt des eingebetteten Satzes in die Subjektposition des Matrixsat-
zes zu bewegen:

(25a) it is easy to please John


(25b) John is easy to please

Wie (26) zeigt, können nicht nur direkte Objekte, sondern auch Präpo-
sitionalobjekte in Subjektposition bewegt werden:

(26a) it is easy to cook Italian spaghetti in this pot


(26b) Italian spaghetti are easy to cook in this pot
(26c) this pot is easy to cook Italian spaghetti in

Erfragen wir nun in (26b) und (26c) die im eingebetteten Satz verblei-
bende lexikalische NP, so ergibt sich ein merkwürdiger Kontrast:

(26b') which pot are Italian spaghetti easy to cook in?


(26c') *which spaghetti is this pot easy to cook in

(26c') ist als Frage zu (26c) ungrammatisch. In der Tat drängt sich bei
(26c') eine semantisch unsinnige Lesart auf, nach der der Topf in den
Spaghetti gekocht wird und nicht etwa umgekehrt. Nun ist bislang kei-
nerlei grammatisches Prinzip bekannt, das die Fragebildung in (26c)
verbieten würde3. In der Tat ist es in anderen Fällen durchaus möglich,
aus tough-Konstruktionen heraus Fragen zu bilden:

(27a) it is easy for little children to cook Italian spaghetti in this


pot
(27b) this pot is easy for little children to cook Italian spaghetti
in
(27c) for whom is this pot easy to cook Italian spaghetti in?

Des Rätsels Lösung ergibt sich, wenn wir in (26b') und (26c') genauer
die Bewegungen der einzelnen Konstituenten betrachten. Zu diesem
Zwecke wollen wir die ursprüngliche Position der Konstituenten mit
dem Symbol # markieren und diese mit der fraglichen Konstituenten
verbinden:

3 Engdahl (1985) und Frazier (1985) weisen auf einige Daten hin, aus denen sich
jedoch auch die Auffassung ableiten ließe, daß der Nestedness Constraint ein
grammatiktheoretisches und nicht ein Parsing-Prinzip ist.
(26b') [which pot] are [Italian spaghetti] easy to cook # in #

(26c') [which spaghetti] is [this pot] easy to cook # in #

In beiden Fällen ist Italian spaghetti bzw. which spaghetti mit der
ursprünglichen Objektposition nach cook verbunden, während this pot
bzw. which pot mit der ursprünglichen Position hinter der Präposition
verbunden ist. Der entscheidende Unterschied besteht darin, daß sich
in (26c') die Verbindungslinien kreuzen, während sie in (26b') ineinan-
der verschachtelt (»nested«) sind. Es scheint also, daß bei derartigen
doppelten Extraktionen die Bewegungswege verschachtelt sein müssen;
daher Nestedness Constraint.
Die Frage stellt sich nun, ob dieser Nestedness Constraint ein gram-
matisches Prinzip ist oder eine Struktureigenschaft des Parsers wider-
spiegelt. Da die Grammatiktheorie üblicherweise für die Distinktion
zwischen grammatischen und ungrammatischen Sätzen verantwortlich
ist, scheinen die Daten zunächst darauf hinzudeuten, daß wir es hier
mit einem grammatischen Prinzip zu tun haben. Jedoch lassen sich Bei-
spiele finden, in denen vollständig grammatische Sätze den Nestedness
Constraint verletzen (cf. J.D. Fodor 1978)4:

(27) [which car] doesn't John know [where] to buy # #

(28) [to whom] does [John] seem # # to be an idiot

Aufgrund dieser Datenlage mag man somit vermuten, daß sich der
Kontrast zwischen (26b) und (26c) möglicherweise doch auf Parsing-
prinzipien zurückführen läßt. Aus der Computerwissenschaft ist nun
das sog. LIFO-Prinzip (last in - first out) bekannt. Dieses Prinzip
bezieht sich auf einen Speichertyp, bei dem die zu speichernden Ele-

4 Die relativen Ursprungspositionen von which car und where ergeben sich dar-
aus, daß direkte Objekte unmittelbar neben dem Verb stehen müssen ( *I met in
Paris Bill). In (28) gehört die Präpositionalphrase zum Matrixverb, während das
Matrixsubjekt aus der Subjektposition des eingebetteten Satzes herausbewegt
wurde, wie sich im Vergleich mit der entsprechenden finiten Satzstruktur erken-
nen läßt:

a. John seems to me [s [NP t ] to be an idiot]


b. *John seems [s [NP t ] to me to be an idiot]
c. It seems to me that John is an idiot
d. *It seems that John to me is an idiot
mente übereinander gestapelt werden. Dementsprechend können die
Elemente aus dem Speicher nur in der umgekehrten Reihenfolge abge-
rufen werden, in der sie eingelagert wurden. Mit anderen Worten,
Zugriff ist nur auf das jeweils oben liegende Element möglich. Nehmen
wir an, daß der menschliche Parser ebenfalls nach dem LIFO-Prinzip
arbeitet, so erklärt sich der Kontrast zwischen (26b') und (26c') und
insbesondere die semantisch unsinnige Lesart, die sich bei (26c') auf-
drängt.
Betrachten wir zunächst (26b'). Sobald der Parser auf eine wh-Phra-
se am Satzanfang wie which pot stößt, weiß er, daß irgendwo im Satz
eine Konstituentenposition auftreten muß, aus der diese Phrase heraus-
bewegt worden ist. Da er aber noch nicht weiß, wo diese Position
genau ist, legt er die wh-Phrase unten in den LIFO-Speicher. Ebenso
erkennt der Parser bei Italian Spaghetti in Verbindung mit easy, daß auch
diese Konstituente aus einer anderen Position herausbewegt worden
ist. Folglich legt er auch diese Konstituente in den Speicher, und zwar
über die wh-Phrase which pot. Sobald der Parser bei dem transitiven
Verb cook ankommt, weiß er, daß dahinter eine Objekt-NP auftreten
muß. Da eine solche nicht vorhanden ist, nimmt er eine Lücke an und
ordnet das im Speicher oben liegende Element, i.e. Italian spaghetti, die-
ser Lücke zu. Ebenso verfährt der Parser, sobald er hinter der Präposi-
tion in die erwartete NP nicht finden kann. Er füllt auch diese Lücke
mit der nunmehr zuoberst liegenden Konstituente which pot. Ein nach
dem LIFO-Prinzip arbeitender Parser kann also bei (26b') keinerlei
Schwierigkeiten bei der korrekten Zuordnung von Lücken und Konsti-
tuenten haben.
Betrachten wir nun (26c'). Zunächst wird which Spaghetti und dann
darüber this pot im Speicher abgelegt. Gelangt der Parser zu der Lücke
hinter cook, so müßte er für die korrekte Lesart which Spaghetti aus dem
Speicher holen. Doch dies ist nicht möglich, da which Spaghetti unter
this pot im Speicher liegt und somit dem direkten Zugriff entzogen ist.
Daher kann der Parser die korrekte Struktur von (26c') aufgrund des
LIFO-Prinzips nicht konstruieren. In der Tat scheint das LIFO-Prin-
zip derartig stark durchzuschlagen, daß der Parser in (26c') trotz unsin-
niger Bedeutung das oben im Speicher liegende Element this pot der
Objektlücke hinter cook zuordnet.
Doch warum tritt das LIFO-Prinzip nicht in (27) und (28) in
Erscheinung? Der entscheidende Unterschied zu (26c) liegt darin, daß
hier die beiden Lücken unterschiedlichen kategorialen Status haben; in
(27) beziehen sich die Lücken auf eine NP (which car) und einen Adver-
bialausdruck (where), in (28) auf eine NP (John) und eine Präpositio-
nalphrase (to whom). In (26c) tragen beide Lücken den gleichen Status,
nämlich den einer NP. Mit anderen Worten, in (26c) gibt die Satzstruk-
tur keinen eindeutigen Hinweis darauf, welche NP-Konstituente in
welche NP-Lücke gehört. Demgegenüber sind die Zuordnungsverhält-
nisse in (27) und (28) durch die Satzstruktur eindeutig vorgegeben.
J.D. Fodor (1978) konnte in einer ausführlichen Studie zeigen, daß
sich eine große Zahl von Konstruktionen in gleicher Weise verhalten
wie (26). Syntaktische Abhängigkeiten scheinen sich in gewissen Fällen
nicht überschneiden zu dürfen, sondern müssen wie in (26b) verschach-
telt sein. Unter der Annahme, daß der menschliche Parser mit einem
LIFO-Speicher arbeitet, ist dieses Faktum aus der Struktur des Parsing-
prozesses her erklärbar. Hieraus ergibt sich einerseits die Einsicht, daß
der Parser über spezifische Prinzipien verfügt, die unabhängig von der
Grammatik sind, und andererseits, daß die Semantik in dem hier disku-
tierten Falle nicht einschlägig ist; es gibt ja durchaus eine vernünftige
Deutung von (26c), doch kann der Parser diese nicht errechnen.
Grundsätzlich kann man einer syntaktischen Regularität natürlich
nicht ansehen, ob sie auf grammatischen Prinzipien oder auf Eigen-
schaften des Parsers beruht. Hier ist in jedem Einzelfall zu prüfen,
inwieweit die betreffende Gesetzmäßigkeit in die bestehende Gramma-
tiktheorie bzw. Parsertheorie integrierbar ist. So haben etwa Berwick &
Weinberg (1984) dafür argumentiert, grammatische Prinzipien wie Sub-
jazenz und C-Kommando (cf. Band II, Kap. 3.3 und 2.4) aus der spezi-
fischen Funktionsweise des Marcus-Parsers (Marcus 1980) abzuleiten.
Die Daten aus dem Bereich der Sprachperzeption liefern somit wei-
tere Evidenz für die These eines modularen Aufbaus der menschlichen
Kognition. Grammatik und Parser erweisen sich als zwei autonome
Module mit eigenen Prinzipien und Strukturen, die im spezifischen
Zusammenspiel auf die Syntax einwirken. Einige syntaktische Fakten
ergeben sich aus den Prinzipien der Grammatik, andere resultieren aus
der Struktur des Parsers. Doch lassen sich weder die Gesetzmäßigkei-
ten des Parsingprozesses auf grammatische Prinzipien reduzieren, wie
die LIFO-Beispiele deutlich machen, noch kann die Grammatik aus
der Parserstruktur abgeleitet werden. Im Falle der garden path-Sätze
zeigte sich ja gerade, daß der Parser bestimmte grammatische Möglich-
keiten nicht immer voll ausnützt. Parsingprinzipien beeinflussen Satz-
bauphänomene also insofern, als bestimmte von der Grammatik zuge-
lassene Strukturen vom Parser nicht oder nur schwer errechnet werden
können. Andererseits sind die grammatischen Prinzipien so angelegt,
daß der Parser im Normalfall mit Hilfe einiger sehr spezifischer Strate-
gien das grammatisch korrekte Ergebnis ohne Probleme konstruieren
kann. Wie wir in Band II zeigen werden, sind die grammatischen Prin-
zipien recht komplexer Natur; müßte der Parser stets alle grammati-
schen Möglichkeiten errechnen und alle denkbaren Beschränkungen
sofort berücksichtigen, so würde die Sprachverarbeitung vermutlich
viel mehr Zeit beanspruchen, als sie dies faktisch tut und als dem Ver-
ständigungszweck dienlich wäre. Parser und Grammatik sind offen-
sichtlich ein gut eingespieltes Team, jedoch in den sie strukturierenden
Prinzipien voneinander unabhängig.

5.3 Sprachproduktion

Im Gegensatz zur Sprachperzeption ist die Sprachproduktion - also


jene Mechanismen und Prozesse, die für die Bildung von Sätzen ver-
antwortlich sind - noch relativ wenig erforscht. Während wir etwa
recht detaillierte Kenntnisse über konkrete Struktureigenschaften des
menschlichen Parsers (cf. Kap. 5.2) besitzen, ist unser Wissen über
die Sprachproduktion eher globaler Natur. So lassen sich zwar einzel-
ne Subeinheiten des Produktionsprozesses identifizieren, jedoch sind
keine spezifischen Produktionsstrategien bekannt, die etwa bestimm-
te Satzkonstruktionen als schwerer bzw. leichter produzierbar aus-
zeichnen.
Dieser vergleichsweise geringe Kenntnisstand scheint allerdings
weitgehend durch die Natur des Gegenstandes bedingt zu sein. Im
strengen Sinne ist nämlich Sprachproduktion - anders als Sprachper-
zeption - nicht ohne weiteres experimentellen Verfahrensweisen
zugänglich. Will man etwa Perzeptionsstrategien für bestimmte Satzty-
pen untersuchen, so kann man Versuchspersonen in einem kontrollier-
ten Experiment mit entsprechenden Strukturen konfrontieren, Reak-
tionszeiten und Leistungspräzision messen und entsprechende Rück-
schlüsse über die zugrundeliegenden Prozesse ziehen. Ein solches Ver-
fahren ist bei Untersuchungen zur Produktion nicht oder nur sehr
schwer möglich, denn man müßte Methoden finden, die Versuchsper-
sonen dazu veranlassen, genau jene Strukturtypen zu produzieren, auf
die sich das Untersuchungsinteresse bezieht. Mit anderen Worten, man
müßte Stimuli identifizieren können, die bei Versuchspersonen eine
ganz bestimmte sprachliche Äußerung hervorrufen.
Unser derzeitiges Wissen über Prozesse der Sprachproduktion
stammt vor allem aus zwei Bereichen: einerseits hat man die beim Spre-
chen und Schreiben auftretenden Fehler analysiert, und andererseits
wurde untersucht, inwieweit etwa suprasegmentale Phänomene Rück-
schlüsse darüber gestatten, nach welchen Sequenzierungseinheiten
Äußerungen geplant und ausgeführt werden. Die bislang verfügbare
Evidenz deutet darauf hin, daß in der Tat die von der Grammatiktheo-
rie postulierten Einheiten und Kategorien eine zentrale Rolle bei der
Sprachproduktion spielen, i.e. daß Produktionsprozesse und -strate-
gien auf ein autonomes Grammatikmodul zurückgreifen.
Ein zentrales Problem der Sprachproduktionsforschung betrifft die
Frage, welches denn die übergreifende Planungseinheit einer sprachli-
chen Äußerung ist. Hierbei ging man zunächst von der Hypothese von
Lounsbury (1954) aus, daß Verzögerungselemente wie etwa gefüllte
(z.B. ähm, mhm) oder ungefüllte Pausen stets nur am Anfang von Pla-
nungseinheiten auftreten. Aufgrund der charakteristischen Verteilung
solcher Verzögerungselemente nahm man an, daß die grundlegende
Planungseinheit entweder der syntaktische Satz sei (cf. Fodor et al.
1974), oder aber der >phonetische< Satz, d.h. jenes Makrosegment der
sprachlichen Äußerung, das genau einen Hauptakzent trägt (cf. Boo-
mer 1965).
Diese Vorstellung ist jedoch in zweifacher Hinsicht problematisch.
Zunächst zeigt Butterworth (1976), daß in etwa 32% der Fälle Verzöge-
rungselemente entgegen der Vorhersage von Fodor et al. eben nicht an
Satz- bzw. Phrasengrenzen auftreten. Andere Autoren, z.B. Hender-
son et al. (1966) setzen den Anteil solcher nicht-syntaktisch bedingten
Pausen noch höher an. Betrachtet man nun die Verteilung derartiger
Pausen genauer, so zeigt sich, daß sie in aller Regel vor Wörtern auftre-
ten, die sich nicht aus dem Kontext vorhersagen lassen. Dieser
Umstand deutet darauf hin, daß derartige Pausen und Verzögerungen
offenbar durch die Suche nach einem angemessenen Ausdruck für
einen bestimmten Sachverhalt bedingt sind. Daraus ergibt sich das
interessante Faktum, daß wir offenkundig zu sprechen beginnen, bevor
wir die jeweilige Äußerung in allen Details geplant haben; Sprachpro-
duktion ist also ebenso wie Sprachperzeption ein on-line process.
Anders ausgedrückt: die Formulierung eines Äußerungsinhaltes in der
»language of mind« muß unabhängig von der Formulierung der Äuße-
rung in einer konkreten Sprache wie dem Englischen oder dem Deut-
schen sein. Somit ist die Hypothese von Lounsbury zwar nicht wider-
legt, sie muß allerdings modifiziert werden: Pausen resultieren nicht
allein aus der syntaktischen Gliederung einer Äußerung, sondern sie
können auch lexikalische Suchvorgänge widerspiegeln.
Beattie (1980) zeigt nun, daß in spontaner Sprache insgesamt nur
etwa 30% der Sätze mit einer gefüllten bzw. ungefüllten Pause eingelei-
tet werden. Dieses auf den ersten Blick überraschende Ergebnis ergibt
sich aus der spezifischen Struktur des Produktionsprozesses. Eine Viel-
zahl von Studien (z.B. Boomer 1965; Henderson et al. 1966; Goldman-
Eisler 1972; Butterworth 1976) haben nämlich ein zyklisches Muster in
der Pausenverteilung nachgewiesen: in regelmäßigen Abständen von
etwa 10-40 Sekunden wechselt sich eine flüssige Phase (fluent phase)
mit einer Zögerungsphase (hesitant phase) ab. In der flüssigen Phase tre-
ten insgesamt nur sehr wenig Pausen auf, während die Zögerungsphase
mit einer Vielzahl von verschiedenen Pausenelementen durchsetzt ist.
Darüber hinaus vermeiden Sprecher in der Zögerungsphase den Blick-
kontakt mit ihrem Gegenüber, und auch gerade hier treten verstärkt
etwa nervöse Kopf- oder Handbewegungen auf (cf. Dittman 1972).
Exline & Winters (1965) haben gezeigt, daß der Blickkontakt ein gutes
Maß für die geistige Anstrengung und Beanspruchung ist: je geringer
die geistige Belastung, desto häufiger blickt ein Sprecher seinen Zuhö-
rer direkt an. Da jedoch, wie Beattie (1980) zeigt, der Äußerungsgehalt
in Verzögerungs- und flüssigen Phasen gleichermaßen anspruchsvoll
und komplex ist, liegt folgende Interpretation nahe: die Zögerungspha-
sen stellen die grundlegende Planungsperiode dar, in der der Sprecher
sich überlegt, was er genau sagen will; die flüssigen Phasen hingegen
sind die Ausführungsperiode, in der die vorgeplanten Sätze dann kon-
kret versprachlicht werden. Die Vielzahl der Pausen während der Pla-
nungsphase deutet jedoch darauf hin, daß Äußerungen in der Tat über
einzelne isolierte Sätze geplant und durchgeführt werden.
Als nächstes stellt sich die Frage nach den kleineren Einheiten der
Sprachproduktion. Während die Sprachplanung in der flüssigen Phase
größere Textsegmente umfaßt, ist die Planungseinheit in der Zöge-
rungsphase erwartungsgemäß der syntaktische Satz. Schaltet man nun
die kognitive Planungsarbeit aus, indem die Sprachproduktion auf das
Vorlesen eines fest vorgegebenen Textes beschränkt wird, so ist die
Pausenverteilung völlig regelmäßig durch die syntaktische Struktur
des Satzes gesteuert: Pausen erscheinen genau vor syntaktisch identi-
fizierbaren maximalen Projektionen (cf. Band II, Kap. 2.1), i.e. grö-
ßeren syntaktischen Phrasen. Offenbar greift der Produktionsprozeß
auf ein sehr detailliertes (unbewußtes) Wissen über die syntaktische
Struktur von Sätzen zurück (cf. Henderson et al. 1966; Goldman-Eisler
1972; Butterworth 1980a).
Ähnliche Ergebnisse zeigen Untersuchungen zur phonetischen
Phrasierung von Äußerungen. Intonatorische Sprechkonturen folgen
nämlich in aller Regel syntaktisch identifizierbaren Strukturmustern.
So sinkt etwa die Grundfrequenz, mit der die Stimmbänder schwingen,
im Verlauf der Artikulation einer syntaktischen Phrase, um zu Beginn
der nächsten Phrase wieder anzusteigen (cf. Cooper 1980). Weiterhin
werden Silben vor einem größeren Strukturbruch, also etwa vor einer
neuen Konstituente, gelängt. Produktionsdaten ergänzen also in sehr
spezifischer Weise grammatiktheoretische Überlegungen zur syntakti-
schen Struktur bestimmter Konstruktionen. Betrachten wir als Beispiel
die folgenden Sätze:

(29a) we expected Kate would be at breakfast


(29b) we expected Kate to be at breakfast
(29c) we expected Kate at breakfast
(30a) we persuaded Kate to be at breakfast
(30b) we persuaded Kate at breakfast

Zu den größeren Konstituentenbrüchen, die eine Längung der vorange-


henden Silbe verursachen, gehören Grenzen vor Nebensätzen (cf. Coo-
per & Paccia-Cooper 1980). Dementsprechend ist expected in (29a),
nicht aber in (29c) gelängt. In der grammatiktheoretischen Diskussion
ist nun die Frage erörtert worden, ob Kate in (29b) ebenso ein direktes
Objekt ist wie in (29c) (so Postal 1974), oder ob Kate in (29b) nicht eher
das Subjekt eines eingebetteten Satzes analog zu (29a) ist (cf. Chomsky
1973). Linguistische Argumente, die wir ausführlich in Band II, Kap. 2.3
darstellen werden, deuten darauf hin, daß Kate in (29b) Subjekt eines
eingebetteten Satzes ist und nicht Objekt zu expected. Dementspre-
chend ist Kate to be at breakfast eine Konstituente. Cooper & Paccia-
Cooper zeigen nun, daß expected in (29b) in der Tat genauso gelängt
wird wie in (29a). Dies kann nicht am folgenden Infinitiv liegen, da in
(30a) persuaded nicht gelängt wird und somit Kate to be at breakfast
auch keine Konstituente bildet. Diese Daten zeigen, daß die syntakti-
schen Repräsentationen, wie sie von der Grammatiktheorie postuliert
werden, in recht direkter Weise in den Produktionsprozeß eingehen.
Über die an der Produktion phrasaler Einheiten beteiligten Prozesse
und Module geben uns vor allem sprachliche Fehlleistungen Auskunft
(cf. Fromkin 1980; Butterworth 1980a). Am detailliertesten sind hierbei
phonetische Fehler untersucht und erklärt worden. Gerade in diesem
Bereich läßt sich sehr eindrucksvoll nachweisen, wie Produktionspro-
zesse auf äußerst abstrakte Repräsentationsebenen zurückgreifen.
Nicht nur auf der Wort-, sondern auch auf der Lautebene werden
oftmals Elemente miteinander vertauscht bzw. an falsche Positionen
gesetzt, wie die folgenden Beispiele aus Garrett (1980) zeigen:

(31) spet pider statt pet spider


(32) all the home team wons statt all the home teams won

Zunächst läßt sich zeigen, daß derartige Fehlleistungen nicht in einem


einfachen Vertauschen von Lauten bestehen. Betrachten wir hierzu die
folgenden Versprecher aus Garrett (1980):

(33) it certainly run out[s] fast


statt
it certainly run[z] out fast
(34) sprigtime for Hintler
statt
springtime for Hitler

Bekanntlich tritt das englische Flexionsmorphem für die 3. Pers. Sing.


/s/ in verschiedenen allophonischen Varianten auf: vereinfacht ausge-
drückt, erscheint das stimmlose [s] nach stimmlosen Konsonanten und
das stimmhafte [z] nach stimmhaften Lauten. Bei auslautenden Sibilan-
ten tritt darüber hinaus noch ein Gleitvokal vor das Flexionsmorphem
(z.B. church - churches). Entsprechend dieser Regularität wird das Mor-
phem nach run als [z] realisiert, da der Auslautkonsonant stimmhaft ist.
In dem Versprecher (33) ist nun dieses Flexionsmorphem irrtümlich an
ein späteres Wort, nämlich an out, gehängt worden. Hier wird es aber
nun nicht als [z], sondern als [s] realisiert, da der Auslautkonsonant
von out stimmlos ist. Dieses Faktum zeigt, daß nicht etwa konkrete
Laute ausgetauscht werden, sondern vielmehr abstrakte zugrundelie-
gende Repräsentationen, in denen die Stimmhaftigkeit (noch) nicht
spezifiziert ist, bzw. daß die Vertauschung stattfindet, bevor der Assimi-
lationsprozeß mental durchgeführt wird.
Ähnliches gilt für (34). Bei diesem Beispiel ist zu beachten, daß
spring - entgegen der Schreibweise - phonetisch gesehen aus fünf, und
nicht etwa sechs Lauten besteht; d.h. nach dem Vokal erscheint ein ein-
zelner Laut, und zwar ein velarer Nasal, und nicht etwa - wie das
Schriftbild suggeriert - die Abfolge eines Nasals und eines Verschluß-
lautes ([n] + [g]). Im Rahmen der phonologischen Theorie sind nun
Argumente dafür vorgebracht worden (cf. Chomsky & Halle 1968),
eine abstrakte phonologische Repräsentationsebene anzunehmen, auf
der der velare Nasal in der Tat als Sequenz von /n/ + /g/ erscheint.
Versprecher wie (34) liefern nun zusätzliche Evidenz für die Existenz
einer solchen abstrakten Repräsentationsebene, denn vertauscht wor-
den ist nicht etwa der velare Nasallaut, der phonetisch in spring
erscheint, sondern das /n/, i.e. ein Element der abstrakten Repräsen-
tation des velaren Nasal. Um einen Versprecher wie (34) überhaupt
erklären zu können, müssen wir also annehmen, daß der Sprachpro-
duktionsprozeß zum Zeitpunkt der Fehlleistung auf diese abstrakte
Repräsentationsebene zugreift und nicht etwa mit konkreten Lauten
operiert.
Betrachtet man nun die Struktur von Sequenzen, die von phonolo-
gischen Austauschprozessen betroffen sind, so ergibt sich ein Muster
von Austauschbedingungen, die eine noch abstraktere Repräsentations-
ebene nahelegen als die Beispiele (33) und (34). Die involvierten Wörter
stehen in praktisch allen Fällen in derselben syntaktischen Phrase; zwi-
schen Wörtern unterschiedlicher Phrasen treten phonetische Interfe-
renzen so gut wie nie auf. Ferner müssen die Lautumgebungen iden-
tisch sein (Garrett 1980), d.h. initiale Segmente tendieren dazu, sich mit
initialen zu vertauschen, mediale mit medialen, usw.; und die interagie-
renden Wörter müssen metrisch sehr ähnlich sein. Werden etwa längere
Sequenzen vertauscht, z.B. Fellerocker statt Róckefeller, so bleibt das
Akzentmuster erhalten, d.h. die betonte Silbe läßt bei der Vertauschung
ihren Akzent zurück; Fellerócker kommt also nicht vor (cf. Garrett
1980). Dies zeigt zunächst, daß die Repräsentation des Akzentmusters
sowie der silbischen Struktur einer Äußerung unabhängig von der
Repräsentation ihrer segmentalen phonologischen Merkmale sein
muß. Die Austauschfehler erklären sich dadurch, daß bei der Verbin-
dung der silbischen Struktur einer Sequenz (z.B. CVC oder CCVC)
mit den segmentalen Lautmerkmalen Linearisierungsfehler auftreten,
wenn sich die Zielpositionen der Merkmalsbündel zu ähnlich sind.
Dies bedeutet, daß Produktionsprozesse nicht nur auf eine Repräsen-
tationsebene zurückgreifen, in der bestimmte Merkmale - wie Stimm-
haftigkeit in (33) - noch unspezifiziert sind, sondern daß es darüber
hinaus eine noch abstraktere Ebene geben muß, auf der die segmenta-
len phonetischen Merkmale unabhängig von der silbischen bzw. into-
natorischen Struktur repräsentiert sind.
Diese Evidenz aus den Sprachproduktionsdaten findet ihre direkte
Entsprechung in analogen Überlegungen aus dem Bereich der linguisti-
schen Theorie. In den vergangenen 10 Jahren ist zunehmend deutlicher
geworden, daß eine phonologische Theorie, in der die distinktiven seg-
mentalen Merkmale zusammen mit der Silben- und Akzentstruktur auf
der gleichen Repräsentationsebene linearisiert werden, eine Vielzahl
phonologischer Generalisierungen nicht adäquat erfassen kann. Alles
deutet darauf hin, daß zumindest zwei abstrakte Ebenen anzunehmen
sind: eine Ebene, auf der die segmentalen Merkmale spezifiziert wer-
den und eine andere davon unabhängige Ebene, auf der die silbische
Struktur repräsentiert ist. Beide Ebenen werden durch ein System von
Prinzipien aufeinander bezogen (cf. Clements & Keyser 1983). Die
Argumente für eine derartige zweigeteilte Repräsentation von phono-
logischen Strukturen finden zusätzliche Bestätigung in den Daten aus
der Sprachproduktion.
Ähnliches zeigt sich im phonologischen Spracherwerb. Kinder-
sprachliche Abweichungen in der Lautstruktur von Wörtern ergeben
sich in vielen Fällen aus der Anpassung an silbische Muster, die das
Kind bereits beherrscht. In den frühen Phasen des Spracherwerbs kön-
nen Kinder zunächst nur CV(CV)-Sequenzen produzieren und jeweils
nur zwei Merkmalskomplexe repräsentieren, so daß sich die typischen
Reduplikationen wie dada, wauwau, a-a, etc. ergeben (Menn 1983).
Die beiden Merkmalskomplexe werden dann aufgrund bestimmter uni-
versaler Prinzipien mit der Silbenstruktur verbunden und auf die vier
Positionen kopiert. Entscheidend sind hier die Beobachtungen von
Oller & MacNeillage (1983). Versucht man, einem Kleinkind ein Wort
wie pretty beizubringen, so wird es dieses Wort zunächst korrekt aus-
sprechen. Doch nach wenigen Artikulationsversuchen erscheint das
Wort plötzlich als [piti], d.h. das Kind reduziert die initiale Konsonan-
tenverbindung [pr] zu [p], um das Wort an die ihm zugänglichen Sil-
benstrukturen anzupassen. Dieses Phänomen zeigt vor allem, daß
weder perzeptuelle noch artikulatorische Gründe für die Konsonanten-
reduktion verantwortlich gemacht werden können; grundsätzlich kann
das Kind die Sequenz [pr] sehr wohl perzipieren und artikulieren.
Allein die Beschränkungen seiner abstrakten Repräsentationsfähigkei-
ten zwingen das Kind dazu, nur einfache CV-Sequenzen zu bilden. In
die gleiche Richtung weist das sog. »puzzle«-Phänomen aus Smith
(1973). Smith beobachtete bei seinem Sohn Amahl, daß er in einer frü-
hen Erwerbsphase das Wort puzzle stets als puddle und das Wort puddle
als puggle aussprach. Während man die fehlerhafte Aussprache von
puzzle mit der Unfähigkeit erklären könnte, stimmhafte Spiranten zu
produzieren, kann eine analoge Erklärung für puddle nicht richtig sein,
denn das Kind kann diese Lautsequenz durchaus produzieren, wie die
fehlerhafte Aussprache von puzzle zeigt. Auch hier wird deutlich, daß
solche Vertauschungen und Substitutionen nichts mit rein motorisch-
artikulatorischen Schwierigkeiten zu tun haben, sondern abstrakte
Prinzipien und Regularitäten widerspiegeln.
Während wir im lautlichen Bereich über eine Vielzahl von Sprach-
produktionsdaten verfügen, ist unser Wissen im syntaktischen Bereich
wesentlich geringer. Dennoch deutet die verfügbare Evidenz recht klar
darauf hin, daß auch im Produktionsbereich der Syntax gegenüber
anderen Bereichen ein autonomer Status zukommt, so daß sich auch
hier die Modularitätsthese bestätigt. Die entscheidenden Daten stam-
men wiederum aus dem Bereich der Fehlleistungen, und zwar Vertau-
schungen von Wörtern wie in (35) und (36) (aus Garrett 1980):

(35) you should see the one I kept pinned on the room to my
door
(door to my room)
(36) did you stay up late very last night
(very late last night)

Fehlertypen wie (35) und (36) bieten nun zunächst ein den Lautvertau-
schungen genau entgegengesetztes Bild (Garrett 1980): während Laut-
vertauschungen zu über 90% innerhalb einer syntaktischen Phrase
stattfinden, treten Wortvertauschungen zu mehr als 80% zwischen
zwei Phrasen auf. Solche einfachen Wortvertauschungen sind jedoch
von sog. stranding errors wie in (37) und (38) zu unterscheiden (eben-
falls aus Garrett 1980):

(37) I thought the park was trucked


I(the truck was parked)
(38) fancy your model renosed
(your nose remodeled)

In (37) und (38) werden zwar auch Lexeme vertauscht, jedoch bleiben
die mit ihnen verbundenen grammatischen Morpheme an der
ursprünglichen Stelle zurück. Wir finden also nicht I thought the park-
ed was truck oder fancy your remodeled nose.
Stranding errors zeigen nun gegenüber einfachen Vertauschungen
wie in (35) und (36) eine Vielzahl besonderer Eigenschaften. So verhal-
ten sie sich eher wie Lautvertauschungen, d.h. sie finden überwiegend
innerhalb einer Phrase statt. Ebenso läßt sich bei ihnen kein signifikan-
ter Effekt auf der Ebene der Kategorienzugehörigkeit feststellen, wäh-
rend einfache Vertauschungen in der Regel stets Wörter der gleichen
syntaktischen Kategorie betreffen. So sind in (35) zwei Nomina mitein-
ander vertauscht, während in (37) und (38) Nomina mit Verben ver-
tauscht sind. Stranding errors treten auch nie bei Derivationsmorphe-
men allein auf, sondern betreffen stets Flexionsmorpheme bzw. Verbin-
dungen von Derivations- und Flexionsmorphemen. Bei einfachen Ver-
tauschungen werden hingegen in der Mehrzahl der Fälle die Köpfe
zweier NPs gegeneinander ausgetauscht (zum Begriff Kopf cf. Band II,
Kap. 2.1) Den Rest bilden verbale und präpositionale Vertauschungen.
Demgegenüber verhalten sich Artikel und Konjunktionen ähnlich wie
Flexionsmorpheme, d.h. sie sind nur schwer vertauschbar. Diese unter-
schiedlichen Eigenschaften von stranding errors und einfachen Vertau-
schungen deuten darauf hin, daß diese Fehlleistungen kaum auf dem
gleichen Mechanismus beruhen können. Offenbar behandelt unser
Sprachproduktionssystem grammatische Morpheme anders als Inhalts-
wörter. Garrett (1980) und Butterworth (1980a) ziehen aus diesen
Daten den Schluß, daß das Sprachproduktionssystem zunächst eine
syntaktische Schablone erstellt, in der neben den strukturellen Positio-
nen bereits die grammatischen Morpheme spezifiziert sind. Parallel
dazu erzeugt das System eine zunächst noch unstrukturierte Folge von
Inhaltswörtern. In einem nächsten Schritt werden dann diese Inhalts-
wörter in die bereits erzeugten syntaktischen Strukturen eingesetzt,
und genau bei diesem Prozeß können nun Linearisierungsfehler auftre-
ten, die zu den genannten Vertauschungen führen. Diese Sprachpro-
duktionsdaten weisen besonders deutlich auf eine autonome syntakti-
sche Ebene hin, die als eigenständiges Modul mit anderen Ebenen im
Produktionsprozeß interagiert.
Werden einzelne Lexeme durch falsche Lautsequenzen ersetzt, so
lassen sich hier zunächst Verschmelzungen von Substitutionen unter-
scheiden. Bei Verschmelzungen werden zwei Wörter zusammengezo-
gen wie in (39), während bei Substitutionen ein bestimmtes Wort ein-
fach durch ein anderes ersetzt wird, wobei sowohl phonologische Fak-
toren wie in (40), als auch semantische Faktoren wie in (41), eine Rolle
spielen können (aus Garrett 1980):

(39) torrible
(terrible + horrible)
(40) I've got an apartment now
(appointment)
(41) he rode his bike to school tomorrow
(yesterday)
Verschmelzungen entstehen vor allem dann, wenn die involvierten
Wörter in einer engen Bedeutungsbeziehung stehen. Dies zeigt, daß
semantische Inhalte zunächst unabhängig von ihrer lexikalischen Reali-
sierung aktiviert werden, um in einem nächsten Schritt durch seman-
tisch »passende« Lexeme aufgefüllt zu werden. Normalerweise wird
jeweils nur eine der möglichen Alternativen gewählt; im Fehlerfalle
werden jedoch konkurrierende Lexeme miteinander verschmolzen.
Phonologisch bedingte Substitutionen wie (40) deuten darauf hin,
daß das mentale Lexikon offenbar lautlich organisiert ist, während die
semantisch bedingten Substitutionen sich aus dem bereits angesproche-
nen Prozeß der mehrfachen Aktivierung verwandter Lexeme bei der
Produktionsplanung erklärt. Hierbei lassen sich nun deutliche Kon-
texteffekte feststellen. So berichtet Garrett (1980) von einem Fall, bei
dem are you trying to send me a menace statt are you trying to send me a
message produziert wurde, als ein Buch mit dem Wort menace im Blick-
feld des Sprechers lag. Während also phonologische und syntaktische
Produktionsprozesse weitgehend autonom ablaufen, können semanti-
sche Produktionsprozesse kontinuierlich auf nicht-sprachliche Wis-
senssysteme zurückgreifen.
Bei dieser Datenlage stellt sich natürlich die grundsätzliche Frage, in
welchem Verhältnis Produktions- und Perzeptionsmechanismen zuein-
ander stehen. Einerseits könnte man sich vorstellen, daß das Produk-
tionssystem identisch mit dem Perzeptionssystem ist, d.h. Perzeption ist
nichts anderes als die Umkehrung von Produktion et vice versa. Anderer-
seits wäre jedoch auch denkbar, daß die beiden Systeme autonom sind,
d.h. jeweils über eigene spezifische Strategien und Prinzipien verfügen.
Beim derzeitigen Forschungsstand ist diese Frage nur sehr schwer zu be-
antworten, da hierzu detaillierte Kenntnisse über einzelne Produktions-
strategien erforderlich wären, die bislang jedoch nicht vorliegen. Auto-
ren wie Menn (1983) oder McShane & Dockereil (1983) gehen davon aus,
daß Produktion und Perzeption in der Tat voneinander unabhängige
Mechanismen sein müssen, da etwa Kinder während des Spracherwerbs
in der Regel sowohl phonologische als auch syntaktische Strukturen
früher perzipieren als produzieren können. Diese Auffassung vertritt
auch Garrett (1980), da etwa garden path-Phänomene (cf. Kap. 5.2) zwar
bei der Perzeption, nicht jedoch bei der Produktion auftreten. Ebenso-
wenig scheint es nach Garrett bei der Produktion »preferred produc-
tions« in Analogie zu »preferred readings« in der Perzeption zu geben.
Trotz unserer begrenzten Kenntnisse im Bereich der Sprachproduk-
tion macht die verfügbare Evidenz doch recht deutlich, daß die Pro-
duktionsprozesse auf verschiedene autonome und z.T. sehr abstrakte
Repräsentationsebenen des sprachlichen Wissens zurückgreifen. Auf
der lautlichen Ebene zeigte sich besonders eindeutig, daß Produktions-
mechanismen keineswegs stets »komplette« konkrete Laute involvie-
ren, sondern vielfach mit abstrakten Lautrepräsentationen operieren,
wie sie aus unabhängigen Gründen auch von der phonologischen Theo-
rie postuliert werden. Ebenso scheint sich der Produktionsprozeß auch
auf der syntaktischen Ebene entscheidend an Kategorien und Prinzi-
pien zu orientieren, die bereits aus der Grammatiktheorie wohlbegrün-
det sind. Sprachproduktion ist somit kein allgemeines heuristisches
Verfahren, das allein auf den intendierten Inhalt einer Äußerung
abhebt, sondern wird in erheblichem Maße von autonomen syntakti-
schen Gesetzmäßigkeiten gesteuert, die in spezifischer Weise miteinan-
der interagieren. Unter dieser Perspektive liefern die Daten aus der
Sprachproduktion und den dabei auftretenden Fehlleistungen weitere
Evidenz für den autonomen Status der Syntax und für die Modularität
der menschlichen Kognition.

5.4 Spracherwerb

Seit Beginn der 60er Jahre hat die Spracherwerbsforschung in einer


kaum noch zu überblickenden Fülle von Arbeiten und Studien die
sprachliche Entwicklung von Kindern der unterschiedlichsten Mutter-
sprachen dokumentiert. Wenngleich nahezu sämtliche Aspekte des
Spracherwerbs in die Betrachtung einbezogen wurden, so lag der
Schwerpunkt zweifellos neben Semantik, Diskurs und Phonologie auf
der Entwicklung der Syntax. Am umfangreichsten ist nach wie vor der
Erwerb des Englischen nachgezeichnet worden; dennoch existieren
darüber hinaus detaillierte Erwerbsstudien zu einer Fülle von Sprachen
aus allen Teilen der Welt. Zweifellos ist es kaum möglich, auf wenigen
Seiten einen auch nur einigermaßen vollständigen bzw. angemessenen
Überblick über den derzeitigen Stand der Spracherwerbsforschung zu
geben. Wir verweisen den Leser daher auf Sammelbände wie etwa Bar-
Adon & Leopold (1971), Ferguson & Slobin (1973), Wanner & Gleitman
(1982) - hier insbesondere das Einleitungskapitel -, Tavakolian (1981),
sowie das fünfbändige Werk von Nelson (1978 - 1985) und beschränken
uns hier auf die Darstellung jener Fragen, die für die Autonomiethese
und die Modularitätsthese von unmittelbarer Relevanz sind.
Von Beginn an standen vor allem zwei zentrale Fragen im Mittel-
punkt des Interesses der Kindersprachforschung. Einerseits stellte man
sich die Frage, ob der Erwerb der Syntax ein eigenen Gesetzmäßigkei-
ten folgender autonomer Prozeß ist, oder ob er sozusagen ein automa-
tisches Nebenprodukt der allgemeinen kognitiven und kommunikati-
ven Entwicklung des Kindes ist. In diesem Falle wäre Syntaxerwerb auf
allgemein-kognitive bzw. kommunikative Faktoren reduzierbar. Zum
anderen ging man der Frage nach, ob sich die besonderen Merkmale
des Syntaxerwerbs direkt aus dem Input ableiten lassen; i.e. ob die spe-
zifischen formalsyntaktischen Eigenschaften, die das Kind erwirbt, ein
direkter und logisch notwendiger Reflex der Art und Weise sind, wie
Kinder mit dem sprachlichen Input konfrontiert werden. Mit anderen
Worten, sorgt die sprachliche Umgebung in stringenter Weise dafür,
daß das Kind genau die syntaktischen Strukturen und Eigenschaften
erwirbt, die die Zielsprache charakterisieren?
Unter der Perspektive dieser beiden Fragestellungen läßt sich ein
Großteil der theoretischen Diskussion in der Spracherwerbsforschung
genau jenem Problemkreis zuordnen, der unmittelbar mit der Autono-
miethese und Modularitätsthese zusammenhängt. In dem Maße wie
sich Syntaxerwerb als ein eigenständiger, von spezifischen Gesetzmä-
ßigkeiten getragener Prozeß darstellt, gewinnt die Autonomiethese an
Plausibilität. Sollte sich hingegen zeigen, daß der Syntaxerwerb keine
spezifischen Regularitäten aufweist, sondern nichts anderes als das
getreue Abbild der allgemeinen kognitiven Entwicklung des Kindes ist
- angereichert um die besonderen Merkmale der sprachlichen Erfah-
rung -, so mag man der Autonomiethese mit entsprechender Skepsis
gegenübertreten. Die Ergebnisse und Einsichten der Spracherwerbs-
forschung sind also unter diesem Aspekt von unmittelbarer Bedeu-
tung für die Plausibilität der Autonomiethese bzw. der Modularitäts-
these. Vereinfacht ausgedrückt: läßt sich Syntaxerwerb vollständig als
kognitive Entwicklung + sprachliche Erfahrung beschreiben, so
spricht dies gegen die Autonomiethese; weist der Syntaxerwerb struk-
turelle Besonderheiten auf, die sich nicht auf andere kognitive bzw.
kommunikative Gesetzmäßigkeiten reduzieren lassen, so spricht dies
für die Autonomiethese. Wir wollen zunächst auf die Beziehung zwi-
schen Erwerbsprozeß und Input eingehen und danach die Frage auf-
greifen, inwieweit die allgemeine kognitive Entwicklung als Erklä-
rungsraster für den Spracherwerb fungieren kann.
Eines der wichtigsten Ergebnisse der Spracherwerbsforschung ist
die Erkenntnis - die schon in den ersten Arbeiten zu Beginn der 6oer
Jahre deutlich wurde (z.B. Braine 1963; Fraser et al. 1963; Brown 1973;
Klima & Bellugi 1966) -, daß Spracherwerb ein in hohem Maße syste-
matischer Prozeß ist. Die Art und Weise, wie ein Kind seine Mutter-
sprache erwirbt, variiert nicht beliebig von Individuum zu Individuum,
von Sprache zu Sprache; vielmehr scheint es ein in wichtigen Aspekten
invariantes Grundmuster zu geben, nach denen alle Kinder ihre Mut-
tersprache erlernen. Ein zentrales Merkmal dieses Grundmusters ist es,
daß Kinder auf dem Wege zur erwachsenensprachlichen Kompetenz
eine geordnete Entwicklungssequenz (cf. Wode 1981; Felix 1982)
durchlaufen, d.h. eine feste Abfolge von Erwerbsstadien, wobei jedes
Stadium durch die strukturellen Eigenschaften der zu diesem Zeit-
punkt verwendeten Äußerungstypen charakterisiert werden kann. Die
folgende Tabelle (mit Daten aus Klima & Bellugi 1966, Bloom 1970,
Wode 1977 und Felix 1978) zeigt in verkürzter Form eine typische Ent-
wicklungssequenz am Beispiel des englischen und deutschen Nega-
tionserwerbs:

Der Erwerb der Negation

STADIUM I no the sun shining nein hauen


(neg + S) no Daddy hungry nein schaff ich
no see truck nein spielen Katze

STADIUM II Kathryn no like celery ich nein schlafen


(no/nein + V) I no reach it das nein aua
man no in there ich nein hat eins

STADIUM III Kath. not go over here ich nicht essen mehr
(not/nicht + V) I don't go sleep Eric nicht schlafen
(don't + V) this one don't fits H. braucht nicht Uni

Diese Daten zeigen zunächst, daß die Kinder auf jeder Entwicklungs-
stufe eine spezifische Negationsstruktur verwenden. Stadium I ist
durch die sog. satzexterne Negation gekennzeichnet, d.h. der Negator,
hier no bzw. nein, steht ganz am Anfang der Äußerung. In Stadium II
erscheint der Negator nun satzintern, in der Regel vor der Verbalphra-
se. Erst in Stadium III wird das bisherige Negationsmorphem durch
das zielsprachliche not bzw. nicht ersetzt. Im Englischen erscheinen
auch erstmalig don't und can't; im Deutschen steht der Negator
zunächst weiterhin in präverbaler Stellung, um gegen Ende von Sta-
dium III erstmalig in postverbaler Position aufzutreten (ein Überblick
über den Negationserwerb in verschiedenen Sprachen findet sich in
Wode 1977). Die Abfolge dieser Stadien ist in dem Sinne geordnet, daß
eine bestimmte Struktur erst dann erworben wird, wenn eine bestimm-
te andere Struktur zuvor produktiv verwendet worden ist. Mit anderen
Worten, es kommt nicht vor, daß etwa einzelne Kinder zuerst die satz-
interne und danach die satzexterne Negation verwenden. Für die hier
interessierende Problematik ist jedoch ein anderes Phänomen von
besonderer Bedeutung. Kinder produzieren im Laufe der Entwicklung
regelmäßig und produktiv Strukturen, die in der Erwachsenensprache
ungrammatisch sind und somit im Input auch nicht vorkommen. Die
präverbale Stellung von no bzw. not ist im Englischen keine mögliche
Negationsform und Kinder hören daher derartige Strukturen auch
nicht in ihrer sprachlichen Umgebung. Analoges gilt für das Deutsche.
Dennoch treten diese Strukturen systematisch bei allen Kindern in
ihrer sprachlichen Entwicklung auf.
Das Phänomen der geordneten Entwicklungssequenz mit produkti-
ven Strukturtypen, die unter zielsprachlicher Perspektive ungramma-
tisch sind, ist bei allen bislang untersuchten Strukturbereichen immer
wieder dokumentiert worden. Dies zeigt deutlich, daß die Beziehung
zwischen Input, i.e. sprachlicher Erfahrung, und jeweiliger Sprach-
kompetenz nur sehr indirekt sein kann. Kinder greifen nicht einfach
die Äußerungen ihrer Umgebung auf, um sie in vielleicht zunächst ver-
einfachter Form abzuspeichern. Vielmehr sieht es so aus, als würden
bestimmte Strukturmerkmale der Zielsprache ganz bestimmte Ent-
wicklungsprozesse gleichsam auslösen. Mit anderen Worten, diese Ent-
wicklungsprozesse weisen eigene Gesetzmäßigkeiten auf, die sich nicht
direkt aus dem Input ableiten lassen. Natürlich hat es nicht an Versu-
chen gefehlt (z.B. Bever 1970; Clark & Haviland 1974), die spezifische
Form der Entwicklungssequenzen auf allgemeine, d.h. sprachunabhän-
gige Perzeptions- bzw. Verarbeitungsstrategien zurückzuführen. So
ließe sich etwa annehmen, daß Kinder stets weniger Komplexes vor
Komplexerem verarbeiten, so daß Entwicklungssequenzen einen all-
mählichen Komplexitätsanstieg der sprachlichen Kompetenz wider-
spiegeln. Entsprechend könnte man sagen, daß Negationsstrukturen
mit satzinternem Negator komplexer als Negationsstrukturen mit dem
Negator in Satzanfangsposition sind, so daß dieser Komplexitätsunter-
schied die Erwerbsabfolge bestimmt. Wenngleich Verarbeitungskom-
plexitäten sicherlich eine Rolle im Erwerbsprozeß spielen, so gibt es
doch zahlreiche andere Fälle, in denen Komplexitätsunterschiede als
Erklärungsfaktor versagen. So tritt die präverbale Negation stets früher
als die postverbale Negation auf, ohne daß ersichtlich ist, inwiefern der
eine dieser Strukturtypen komplexer als der andere ist. Vor allem Slo-
bins (1973) Modell der Operating Principles zeigt sehr deutlich, daß sich
derartige Verarbeitungsstrategien stets nur auf dem Hintergrund spezi-
fischer sprachlicher, i.e. syntaktischer Kategorien und Prinzipien for-
mulieren lassen (cf. auch Pinker 1984; Felix 1987). Kinder müssen
daher von vornherein Kenntnisse derartiger syntaktischer Kategorien
besitzen. Allgemeine Verarbeitungsstrategien setzen somit die relevan-
ten syntaktischen Phänomene voraus, können deren Erwerb aber selbst
nicht erklären (cf. hierzu auch Kap. 3).
Es gibt darüber hinaus ein Vielzahl von Fällen, in denen Kinder die
spezifische Form des Inputs geradezu mißachten, indem sie genau das
Gegenteil von dem tun, was der Input nahelegt. So berichtet etwa Bel-
lugi (1967), daß Kinder nicht-kontrahierte Formen wie will not, are not,
is not vor den kontrahierten Varianten won't, aren't, isn't erwerben. Dies
ist insofern erstaunlich, als der Input der Kinder, wie Bellugi zeigt,
nahezu ausschließlich kontrahierte Formen enthält, wie sie in der All-
tagssprache üblich sind. Diese Beobachtung widerlegt die zunächst
naheliegende Vorstellung, daß Kinder sich stets an der Frequenz des
Inputs orientieren, i.e. das als erstes erwerben, was besonders häufig in
der sprachlichen Erfahrung auftritt. Insgesamt scheint die spezifische
Struktur des Inputs den Erwerbsverlauf bestenfalls sehr indirekt zu
beeinflussen. So konnten Brown & Hanlon (1970) und Braine (1963)
zeigen, daß selbst systematische Korrekturen durch Erwachsene - in
der Regel durch die Mutter - von Kindern einfach unbeachtet bleiben
und keinen erkennbaren Einfluß auf den Erwerbsprozeß ausüben. Dies
gilt insbesondere auch für den Lauterwerb. Selbst wenn sich Kinder des
Unterschiedes zwischen ihrer eigenen Aussprache und der des Erwach-
senen voll bewußt sind, bleiben sie bei ihrer eigenen Lautung, solange
diese durch die Systematik des Erwerbsprozesses gefordert wird (cf.
Smith 1973: 132ff.).
Daß der Input eher im Sinne einer Auslösefunktion sehr indirekt
auf den Erwerbsprozeß einwirkt, zeigt sich vor allem auch daran, daß
die sprachliche Entwicklung selbst in Fällen eines stark reduzierten
Inputs zumindest teilweise durchaus normal verläuft. Über einen
besonders spektakulären Fall berichtet Goldin-Meadow (1982). Sie
untersuchte eine Reihe taub geborener Kinder, deren Eltern über nor-
males Hörvermögen verfügen. Obwohl diese Kinder überhaupt keinen
sprachlichen Input bekamen - weder verbal noch in Form von Gesten
- entwickelten sie ein rudimentäres Zeichensystem, das alle formalen
Eigenschaften der frühen Stadien des normalen Spracherwerbs enthielt.
Dieser Fall zeigt besonders deutlich, daß sich die formalen Eigenschaf-
ten natürlicher Sprachen auch unter extrem eingeschränkten Inputbe-
dingungen bis zu einem gewissen Grad entfalten können. Input ist also
notwendig, um den Spracherwerbsprozeß in Gang zu halten und dem
Kind konkrete einzelsprachliche Vorgaben zu liefern; wie das Kind
jedoch diese Vorgaben verarbeitet und in sein jeweiliges grammatisches
System integriert, ist unabhängig von der spezifischen Form des Inputs.
Wir werden auf das Phänomen des reduzierten Inputs und seiner Aus-
wirkungen auf den Spracherwerb nochmals ausführlich im Zusam-
menhang mit der Entstehung von Kreolsprachen in Kap. 5.5 eingehen.
Demgegenüber konnten verschiedene Studien zeigen, daß Kinder
im Laufe der sprachlichen Entwicklung auf sehr grammatikspezifische
Phänomene und Prinzipien reagieren, für die es im Input überhaupt
keinen direkten Hinweis gibt (cf. auch Kap. 3). Ein derartiger gramma-
tikspezifischer Begriff ist der des C-Kommandos (Reinhart 1976), der
die Beziehung zwischen Anaphern und ihren Antezedenten regelt:

(42) Tom's motheri is looking at herselfi


(43) *Tom'si mother is looking at himselfi

Antezedenten müssen Anaphern wie himself, herself C-kommandieren


(zu den Begriffen C-Kommando, Anapher und Antezedens cf. Band
II, Kap. 2.4). In den obigen Beispielen C-kommandiert die gesamte
Subjekt-NP, aber nicht Tom's die Objektposition. Daher ist (42) mög-
lich, nicht aber (43). Pronomina verhalten sich komplementär zu Ana-
phern, so daß wir den umgekehrten Kontrast finden:

(44) *Tom's motheri is looking at heri


(45) Tom'si mother is looking at himi

Solan (1983) überprüfte in einem Experiment, ob 5-7-jährige Kinder


C-Kommando-abhängige Restriktionen beachten. In der Tat stellte
sich heraus, daß Kinder bei Pronominalisierungen sich am C-Kom-
mando orientieren, obwohl die abstrakte und grammatikspezifische
Natur des Begriffs C-Kommando in keiner erkennbaren Weise aus dem
Input oder aus anderen kognitiven Bereichen ableitbar zu sein scheint.
Wexler & Chien (1985) konnten zeigen, daß Kinder ebenfalls bei der
Reflexivierung C-Kommando-Restriktionen beachten. Offenbar steu-
ern derartige Prinzipien den Spracherwerbsprozeß, sind aber nicht
selbst Gegenstand des Lernens.
Lust (1981) untersuchte eine Reihe von Kindern bezüglich mögli-
cher Präferenz in der Direktionalität von Pronominalisierungen. Im
Englischen kann ein Pronomen sowohl vor als auch hinter einer korefe-
renten NP erscheinen:

(46) because she was tired Mary fell asleep


(47) Mary fell asleep because she was tired

Lust fand in verschiedenen Tests heraus, daß Kinder die sog. Vorwärts-
pronominalisierung wie in (47) bevorzugen, und mit Strukturen wie
(46) erheblich größere Schwierigkeiten haben. Dieser Umstand scheint
zunächst darauf hinzudeuten, daß der entscheidende Faktor die lineare
Abfolge der involvierten Elemente ist. Pronominale Referenz ist für
Kinder leichter, wenn das Antezedens dem Pronomen vorangeht. In
einer späteren Arbeit zeigen Lust & Chien (1984) jedoch, daß nicht die
lineare Abfolge entscheidend ist, sondern vielmehr eine weitaus
abstraktere konfigurationelle Konstellation. Bei japanischen Kindern
zeigte sich nämlich genau der umgekehrte Effekt; ihnen fällt der Struk-
turtyp (46) leichter. Die Erklärung liegt auf der Hand: Japanisch ist
eine Sprache, in der Komplemente stets links des Kopfes stehen, wäh-
rend im Englischen Komplemente rechts des Kopfes erscheinen.
Dementsprechend hat Englisch SVO-Wortstellung, Japanisch hingegen
SOV; im Englischen stehen Relativsätze rechts vom Bezugsnomen, im
Japanischen links. Die Kinder scheinen demnach auf Begriffe wie prin-
cipal branching direction zu reagieren. Der entscheidende Test ist nun
eine Sprache wie das Chinesische. Während hier das Objekt ähnlich
wie im Englischen üblicherweise nach dem Verb steht, geht die principal
branching direction nach links. Lust & Chien konnten nun zeigen, daß
sich chinesische Kinder bezüglich ihrer Präferenz bei Pronominalisie-
rungen wie japanische, nicht wie englische Kinder verhalten. Dieses
Ergebnis unterstreicht die Vorstellung, daß sich Kinder nicht etwa an
oberflächlichen Abfolgephänomenen orientieren, sondern in der Tat
mit abstrakten strukturellen Gesetzmäßigkeiten operieren.
Der umfangreichste Versuch, die Syntaxentwicklung bei Kindern
vollständig aus dem Input abzuleiten, wurde Mitte der 70er Jahre unter
dem Stichwort Motherese Hypothesis unternommen (cf. Snow 1977).
Diese Hypothese ging zunächst von der Beobachtung aus, daß Mütter
die Komplexität ihrer Äußerungen dem jeweiligen Entwicklungsstand
des Kindes anpassen. Vor allem mit sehr kleinen Kindern benutzen
Mütter in der Regel syntaktisch einfache Strukturen und ein einge-
schränktes Vokabular; sie vermeiden komplexe Einbettungen, sprechen
langsamer und deutlicher und verwenden häufig Wiederholungen. Aus
dieser Beobachtung leitete man die Idee ab, daß Mütter über einen dif-
ferenzierten Input - wenngleich unbewußt - den Spracherwerb des
Kindes quasi steuern. Mütter bereiten die strukturelle Komplexität der
Sprache für das Kind sozusagen mundgerecht auf.
Vor allem Newport et al. (1977) und Newport (1982) haben auf eine
Reihe von empirischen und logischen Schwierigkeiten der Motherese
Hypothesis hingewiesen und sie in ihrer strengen Form als nicht haltbar
dargestellt. Zunächst basiert die Motherese Hypothese im wesentlichen
auf beobachteten Korrelationen zwischen bestimmten Eigenschaften in
den Äußerungen der Mütter und Strukturmerkmalen in der jeweiligen
Kindergrammatik. Aus solchen Korrelationen folgt nun allerdings kei-
neswegs, daß hier auch ein Kausalzusammenhang besteht. Mit anderen
Worten, selbst wenn Mütter ihre Äußerungen dem jeweiligen sprachli-
chen Entwicklungsstand des Kindes anpassen, so ist zunächst völlig
offen, ob eine solche Anpassung auch eine notwendige Bedingung für
den erfolgreichen Spracherwerb ist. Newport et al. konnten vor allem
zeigen, daß bestimmte faktisch gegebene Korrelationen - bei strenger
Auslegung der Motherese Hypothesis - in offensichtlich unsinniger
Weise zu interpretieren wären. So zeigt sich in den einschlägigen Unter-
suchungen, daß Kinder umso weniger Verben verwenden, je mehr Ver-
ben in der Sprache der Mütter auftreten. Ebenso benutzten diejenigen
Kinder weniger NPs, deren Mütter besonders häufig Kopulastrukturen
und kontrahierte Formen verwendeten. Mit anderen Worten, das Auf-
treten von Korrelationen sagt allein noch recht wenig darüber aus, in
welcher spezifischen Form Spracheigenschaften der Mütter den
Spracherwerb des Kindes beeinflussen oder sogar steuern.
Auf eine besondere konzeptuelle Schwierigkeit der Motherese Hypo-
thesis haben u.a. Chomsky (1975) und Wexler (1982) hingewiesen. Wenn
Mütter die Datenbasis, mit der das Kind operieren kann, künstlich ein-
schränken, so mag dies im günstigsten Falle für den Erwerbsprozeß
ohne Belang sein; auf keinen Fall kann eine solche Einschränkung der
Datenbasis dem Kind den Spracherwerb erleichtern, denn je geringer
die Datenbasis, desto größer die Anzahl von Generalisierungen, die mit
dieser Datenbasis kompatibel sind. Bei geringer Datenbasis hätte das
Kind also weitaus weniger Anhaltspunkte, welche der logisch mögli-
chen Generalisierungen die richtige ist. Umgekehrt, je größer die
Datenbasis, desto eingeschränkter die möglichen Generalisierungen.
Unter diesen Gesichtspunkten wäre es daher eher wünschenswert,
wenn das Kind von Anfang an ein möglichst breites Spektrum an Struk-
turen erhielte. Die Motherese Hypothesis postuliert daher einen Mecha-
nismus, der den Spracherwerb eher erschwert als erleichtert.
Doch es ergeben sich noch weitere konzeptuelle Probleme. Die
Motherese Hypothesis wurde ursprünglich bewußt als Gegenposition
zum nativistischen Erklärungsmodell der generativen Grammatik vorge-
bracht. Man wollte möglichst wenig (genetisch bedingte) Struktur in das
Kind selbst, und möglichst viel Struktur in die sprachliche Erfahrung
legen. Da diese sprachliche Erfahrung jedoch eng an das verbale Verhal-
ten der Mutter geknüpft wird, ergibt sich folgendes Problem: wenn Müt-
ter tatsächlich durch fein abgestuften Input den Erwerbsprozeß des Kin-
des steuern und erleichtern, so stellt sich die Frage, woher sie denn jene
Prinzipien kennen, nach denen sie derartige Abstufungen vornehmen.
Da Mütter hier offenkundig intuitiv vorgehen und die entsprechenden
Prinzipien weder lernen noch gelehrt bekommen, scheinen diese Prinzi-
pien eben zur natürlichen biologischen Ausstattung zu gehören. Mit an-
deren Worten, entlastet man das genetische Programm des Kindes, so
kann dies nur durch zusätzliche Belastung des genetischen Programms
der Mütter geschehen. Im Sinne einer anti-nativistischen Gegenposition
ist mit der Motherese Hypothesis eigentlich nichts gewonnen:
».. if it [the motherese hypothesis] is intended to remove requirements for endow-
ments supporting language learning, it could succeed only by transferring this
claim from learner to tutor, that is, by placing apparatus in the mother so that she
could effectively determine (a) the syntactic simplicity of her potential utterances
and (b) the current grammar of the child, in order to carry out her tutorial aims. It
is not obvious why »endowment with linguistic-tutorial skills« should be any
more palatable than »endowment with linguistic-learning skills« «.
(Wanner & Gleitman 1982:39)

Neben der Möglichkeit, den Syntaxerwerb direkt als Funktion des In-
puts zu beschreiben, ist vor allem die Idee verfolgt worden, Syntaxer-
werb könne sozusagen als automatische »Begleiterscheinung« der allge-
meinen kognitiven Entwicklung angesehen werden. Diese vor allem von
den innerhalb der Piaget'schen Theorie arbeitenden Psycholinguisten
vertretene Auffassung stammt aus der Beobachtung, daß bestimmte
sprachliche Leistungen mit bestimmten allgemein-kognitiven Leistun-
gen zeitlich zusammenfallen (cf. Sinclair-deZwart 1973). So fällt etwa
der Beginn des Spracherwerbsprozesses mit dem Erwerb der Symbol-
funktion zusammen, und bestimmte linguistische Ausdrucksmöglich-
keiten etwa im Bereich der Tempus- und Aspektmarkierungen treten
erst dann auf, wenn die entsprechenden Konzepte erworben werden (cf.
Antinucci & Miller 1976; DiPaolo & Smith 1979; Stephany 1981)5.

5 J. Meisel (pers. Mitteilung) weist uns darauf hin, daß temporale Markierungsmor-
pheme, jedoch in anderer Funktion zwar schon recht früh auftreten.
Nun ist sicher nicht zu bezweifeln, daß die kognitive und die
sprachliche Entwicklung des Kindes sich gegenseitig beeinflussen.
Ebensowenig verwundert es, daß ein Kind ein bestimmtes Wort erst
dann erwerben kann, wenn ihm das dazugehörige Konzept zur Verfü-
gung steht (cf. Felix 1980). Die entscheidende Frage ist jedoch, ob die
Regularitäten des Erwerbs vollständig auf die kognitive Entwicklung
reduzierbar sind. Schon ein oberflächlicher Blick auf die Daten zeigt,
daß dies offenkundig nicht der Fall ist. So ist etwa kaum erkennbar, in
welcher Form z.B. die unterschiedlichen Positionen des Negators im
Laufe des Negationserwerbs aus Prinzipien der allgemeinen kognitiven
Leistungsfähigkeit des Kindes abgeleitet sein sollten. In der Tat wäre
eine solche Erklärung nur dann plausibel, wenn es unabhängige allge-
mein-kognitive Korrelate zu syntaktischen Positionen gäbe. Bislang
liegt keinerlei Evidenz dafür vor, daß dies der Fall ist. Doch auch in
Bereichen, in denen eine allgemein-kognitive Erklärung auf den ersten
Blick recht naheliegend ist, erweist sie sich bei genauerer Betrachtung
als unzulänglich. So mag man etwa vermuten, daß der relativ frühe
Erwerb von Fragewörtern wie wo und was und der recht späte Erwerb
von wann und warum sich aus dem unterschiedlichen Erwerbszeit-
punkt lokaler, temporaler und kausaler Konzepte erklären lassen. Wie
Felix (1978, 1980) gezeigt hat, ist der Erwerb der Fragepronomina
jedoch weitaus komplexer. So verwenden Kinder etwa wann in Äqua-
tionalsätzen zu einem Zeitpunkt, an dem sie in Vollverbsätzen nur wo
und was gebrauchen, i.e. der Erwerb der Fragepronomina ist eng an
bestimmte Satztypen gebunden. Es ist eben nicht der Fall, daß Kinder
mit dem Erwerb etwa eines Lokalitätskonzeptes gleichzeitig »across
the board« die lokalen Fragewörter erwerben. Im übrigen verwenden
Kinder Lokalitäts- und Zeitangaben in Adverbien oder Präpositional-
ausdrücken bereits weitaus früher als Fragewörter.
Letztlich setzt die Vorstellung, Syntaxerwerb sei nichts anderes als
eine direkte Begleiterscheinung der allgemein-kognitiven Entwicklung
des Kindes, natürlich voraus, daß es eine direkte und leicht erkennbare
Korrelation zwischen kognitiven und syntaktischen Phänomenen gibt.
Nur wenn das Kind eindeutig erkennen kann, welches syntaktische
Faktum aus welchem kognitiven Faktum folgt, läßt sich Syntaxerwerb
auf Gesetzmäßigkeiten der kognitiven Entwicklung reduzieren. Dies
bedeutete jedoch, daß die Autonomiethese falsch wäre. Wie wir jedoch
in Kap. 2 zu zeigen versucht haben, gibt es eine Vielzahl von syntakti-
schen Phänomenen und Regularitäten, die in keiner erkennbaren Weise
mit allgemein-kognitiven Gesetzmäßigkeiten korrelieren.
Die These, der Erwerb grammatischer Fähigkeiten sei letztlich auf
den Erwerb anderer kognitiver Fähigkeiten reduzierbar, bietet jedoch
den Vorteil, sehr spezifische Vorhersagen über die Beziehung zwischen
sprachlicher und allgemein-geistiger Entwicklung zu machen. Trifft
diese These zu, so ist zu erwarten, daß Kinder, die - bezogen auf ihre
Altersstufe - in ihrer allgemein-kognitiven Entwicklung eingeschränkt
bzw. retardiert sind, gleichzeitig ein Defizit in ihren sprachlichen bzw.
grammatischen Fähigkeiten aufweisen. Mit anderen Worten, sprachli-
che und allgemein-geistige Retardierungen müßten stets Hand in Hand
gehen. Alle bislang verfügbare Evidenz deutet jedoch darauf hin, daß
dies gerade nicht der Fall ist, sondern daß sich sprachliche und geistige
Fähigkeiten durchaus unabhängig voneinander entwickeln können (cf.
insbesondere Yamada 1983).
So berichten Blank et al. (1979) von einem 3.3-jährigen Kind, dessen
syntaktisch-semantisches System dem normalen Entwicklungsstand
entsprach, das jedoch im Bereich der interpersonalen Kommunikation
nahezu vollständig versagte. »His difficulties in the use of language for
communication were mirrored from infancy by a serious failure either
to understand or produce non-verbal communication« (p. 329). Cur-
tiss (1982) berichtet über einen vergleichbaren Fall, bei dem ein 6-jähri-
ger Junge in seiner allgemeinen kognitiven Entwicklung erheblich
retardiert ist und etwa den Stand eines 20-24-monatigen Kindes auf-
weist. Seine grammatischen Fähigkeiten sind hiervon jedoch in keiner
Weise betroffen, sondern entsprechen denen eines normalen Kindes
seiner Altersgruppe. Keil (1980) untersuchte eine Gruppe von Kindern
bezüglich ihrer Fähigkeiten, mehrdeutige Sätze und mehrdeutige Pik-
togramme zu disambiguieren. Auch hier zeigte sich ein deutlicher
Unterschied zwischen sprachlichen und nicht-sprachlichen Fähigkei-
ten. Darüber hinaus wies auch der Entwicklungsverlauf signifikante
Unterschiede auf. Während die Leistungsfähigkeit im piktographi-
schen Bereich kontinuierlich und allmählich anstieg, erfolgten die
sprachlichen Leistungen in abrupten Stadien. Dennis & Whitaker
(1976) berichten von einem Fall, bei dem einem Kind aus medizini-
schen Gründen die rechte Hirnhälfte entfernt werden mußte. Während
die kognitive Entwicklung dieses Kindes in zahlreichen Bereichen
retardiert war, nahm die sprachliche Entwicklung ihren normalen
Lauf.
Fowler (1981) untersuchte eine kleine Gruppe von mongoloiden
Jugendlichen (Down Syndrom). Als Folge der Krankheit waren diese
Personen sowohl in ihrer sprachlichen als auch allgemein- kognitiven
Entwicklung stehen geblieben. Die entscheidende Beobachtung ist
jedoch, daß diese Patienten im allgemein-kognitiven Bereich enorme
Leistungsunterschiede aufwiesen, die in keiner Weise mit entsprechen-
den Unterschieden in ihren sprachlichen Fähigkeiten korrelierten. Mit
anderen Worten, der sprachliche Leistungsstand dieser Patienten ent-
sprach weitgehend einheitlich dem eines ca. 2 1/2-jährigen normalen
Kindes, während die kognitiven Funktionen eine erhebliche Variations-
breite aufwiesen6. Gleitman (1984) schildert eine Untersuchung über
den Spracherwerb bei blinden Kindern. Man mag zunächst annehmen,
daß das fehlende Sehvermögen dieser Kinder Auswirkungen auf den
Erwerb von Wörtern wie sehen und anschauen hat. Gleitman stellte
jedoch fest, daß diese Kinder durchaus derartige Wörter in der gleichen
Art und Weise erwerben wie sehende Kinder. ».. the meanings the blind
children came up with seem quite appropriate, though, of course, they
map onto a different sensory world. A sighted child told to >look up<
will tilt his head and Orient his eyes upward - even if he is blindfolded
during the testing. But our blind subject raises her hands, keeping the
head immobile« (Gleitman 1984:574).
Einen extremen Fall von kognitiver und sprachlicher Deprivation
zeigt der nunmehr schon klassische Fall von Genie, einem »Wolfs-
kind«, das Curtiss (1977) untersucht hat. Genie wurde im Alter von 20
Monaten in einen kleinen Raum gesperrt, aus dem sie bis zu ihrem 13.
Lebensjahr nicht mehr entlassen wurde. Sie hatte keinerlei perzeptuelle
Stimulierung und keinen Kontakt zu Menschen in dieser Zeit. Es
nimmt daher kaum wunder, daß Genies sprachliche Fähigkeiten mini-
mal waren. In der Folgezeit lernte sie zwar einige Eigenschaften natür-
licher Sprache, andere hingegen nicht. So verfügte sie auch nach 5 Jah-
ren noch nicht über Bewegungsregeln, kannte keine Proformen und
hatte keinerlei Auxiliarsystem. Ihre allgemeine Intelligenz hingegen
entwickelte sich weitgehend normal. Insbesondere war sie in der Lage,
sich kommunikative Gestik, expressive Gesichtsausdrücke, »turn-
taking«-Regeln etc. anzueignen. Allein ihr formal-sprachliches Kön-
nen blieb auf einer sehr niederen Stufe stehen.
Gerade die pathologischen Fälle zeigen besonders deutlich, daß die
geistige und sprachliche Entwicklung des Kindes keineswegs ein ein-
heitlicher Prozeß ist. Weder impliziert geistige Retardierung notwendi-
gerweise ein Defizit im sprachlichen Vermögen, noch bedeuten Störun-

6 Lenneberg (1967) weist darauf hin, daß z.B. Schwachsinn die sprachliche Ent-
wicklung zwar verlangsamt, nicht jedoch den Erwerbsablauf verändert.
gen in der Sprachentwicklung einen gleichzeitigen Mangel in der geisti-
gen Leistungsfähigkeit, wie der Fall von Genie beweist. Soweit erkenn-
bar, sind Spracherwerb und kognitive Entwicklung zwei autonome
Prozesse mit eigenständigen Gesetzmäßigkeiten, die zwar miteinander
interagieren, jedoch nicht aufeinander reduzierbar sind.

5.5 Pidgin- und Kreolsprachen

In vielen Teilen der Welt bestehen Situationen, in denen Sprecher aus


politischen, kulturellen, aber zumeist wirtschaftlichen Gründen regel-
mäßig miteinander kommunizieren müssen, ohne auf die gleiche Mut-
tersprache oder zumindest verwandte Idiome zurückgreifen zu kön-
nen. In derartigen Situationen wird dann vielfach eine als prestigeträch-
tig empfundene Sprache (in der Regel die der (ehemaligen) Kolonialher-
ren) verwendet, die man allerdings aufgrund ihrer Funktion als Behelfs-
sprache auf die grundlegendsten und einfachsten Ausdrucksmöglich-
keiten reduziert. Derartige Sprachen bezeichnet man als Pidgins.
Wenngleich bei vielen Fachleuten auch heute noch kein vollständi-
ger Konsens bezüglich eines einheitlichen und unumstrittenen Krite-
rienkatalogs zur Spezifizierung des Begriffs »Pidgin« besteht (cf.
DeCamp 1977), so läßt sich dieser Sprachtyp für unsere Zwecke grob
charakterisieren als »... an auxiliary interlingua for communication
between Speakers of mutually unintelligible languages ...« (DeCamp
1977:4). Pidgins werden vor allem in den tropischen und subtropischen
Gegenden dieser Erde gesprochen, insbesondere in der Karibik, in
Westafrika, auf den südpazifischen Inseln und im südostasiatischen
Raum, d.h. in Gegenden, deren Geschichte stark durch Kolonialismus
und Sklaverei geprägt ist. Im Grunde scheinen Pidgins stets dann zu
entstehen, wenn Sprecher extrem unterschiedlicher Muttersprachen
aufeinandertreffen und sich zur Überwindung der Kommunikations-
barriere eine fremde Sprache mit hohem politischen und kulturellen
Prestige anbietet. Daher entwickeln sich Pidgins besonders häufig auf
der Grundlage von Sprachen wie Englisch, Französisch, Portugiesisch,
Holländisch etc. Da Pidgins stets in spezifischen Sprachkontaktsitua-
tionen entstehen, ist zuweilen in der Zweitsprachenerwerbsforschung
die Frage diskutiert worden, ob nicht etwa auch das Gastarbeiter-
deutsch oder das Englisch mexikanischer Immigranten in den USA als
Pidgin zu klassifizieren ist (Meisel 1975; Clahsen et al. 1983) bzw. ob
Pidgin letztlich nichts anderes ist als eine spezifische Form von Zweit-
sprachenerwerb (Schumann 1975; Wode 1981) .
Unabhängig von dieser Definitionsfrage weisen all diejenigen Spra-
chen, die in der einschlägigen Literatur üblicherweise als Pidgins
gewertet werden, bestimmte typische strukturelle Merkmale auf, die
man - grob gesprochen - unter dem Stichwort »Simplifizierung«
zusammenfassen kann (cf. Ferguson & DeBose 1977). So haben Pidgins
in der Regel ein sehr eingeschränktes Vokabular, das sich jenseits des
üblichen Grundwortschatzes vielfach auf den Handel und damit ver-
bundene Dinge bezieht. Allerdings ist dieses Vokabular in der Regel
kein in sich geschlossener Körper, sondern kann ad hoc beliebig und
ohne nennenswerte Restriktionen durch den Wortschatz angrenzender
Sprachen ergänzt werden. Pidgins weisen zumeist eine Vielfalt von
strukturellen Simplifizierungen im grammatischen und morphologi-
schen Bereich auf: sie kennen häufig kein ausgeprägtes Genus- oder
Tempussystem; die Flexionsmorphologie sowie die Bildung von Rela-
tivsätzen sind stark eingeschränkt; parataktische Konstruktionen wer-
den vor hypotaktischen bevorzugt. »If subordination occurs, it is nor-
mally without special relative or conjunctional elements; a subordinate
predicate or clause is simply placed directly after the element it modi-
fies, and the position is enough to indicate the subordination« (Hall
1966:87). Demgegenüber verfügen Pidgins vielfach über ein reiches
und relativ unrestringiertes Wortbildungssystem, vor allem bei der
Nominal- und Verbalkomposition (Hall 1966:63ff)
Die folgenden Daten aus Todd (1979) vermitteln einen Eindruck
von typischen Struktureigenschaften eines Pidgins. Es handelt sich hier
um eine pidginisierte Variante des Englischen, die in West Kamerun
gesprochen wird:

Englisch Kamerun

she goes to the market i go maket


she is going to the market i di go maket
she will go to the market i go go maket

bring the book bring di buk kom


take the book tek di buk go
I didn't go a no bin go
I didn't have to go a no bin get fo go
my friend's book ma kombi i buk dem
the man who came di man we bin kom
Auch im Bereich der Phonologie weisen Pidgins vielfach Eigentüm-
lichkeiten auf (cf. Heine 1979); Komplexe morphophonematische Pro-
zesse fehlen, und Silben tendieren zu einfachen CV(C)-Strukturen.
Darüber hinaus ist der Lautbestand reduziert: vielfach treten Systeme
mit nur 5 Vokalen auf, i.e. zumeist fehlen gerundete Vordervokale,
distinktive Vokallängen sowie Spannungskorrelationen werden aufge-
geben. Im konsonantischen Bereich werden komplexe Kombinationen
vermieden. Interessanterweise werden komplexe Akzentmuster jedoch
vielfach beibehalten. Ebenso werden tonemische Muster der Ausgangs-
sprache(n) vielfach in das Pidgin projiziert wie etwa in Saramaccán
oder Sranan (cf. Hall 1966:34-36).
Der für die folgende Diskussion entscheidende Punkt ist jedoch,
daß Pidgins niemandes Muttersprache sind. Sie werden als zusätzliche
Hilfssprache von Menschen verwendet, die das Pidgin neben ihrer Mut-
tersprache nur für spezifische Kommunikationszwecke in Handel und
Verkehr benutzen.
Gerade in diesem Punkte unterscheiden sich Pidgins von Kreolspra-
chen. Wenn sich der Gebrauch eines Pidgins in einer bestimmten
Region derart ausbreitet, daß Kinder dieses Pidgin als Muttersprache
erwerben, spricht man von einer Kreolsprache. »A creole language ari-
ses when a pidgin becomes the native language of a speech Community«
(Hall 1966:12). Während Pidgins also Hilfssprachen sind, deren
Gebrauch auf bestimmte Kommunikationssituationen beschränkt
bleibt, sind Kreolsprachen für eine nennenswerte Bevölkerungsgruppe
die einzige Sprache, die sie beherrschen. Aus Pidgins können also Kre-
olsprachen entstehen und der Prozeß der Kreolisierung - i.e. der Über-
gang von Pidgin zu Kreolsprache - scheint eines der faszinierendsten
sprachlichen Entwicklungsphänomene zu sein. Die Kreolistik unter-
sucht die hierbei auftretenden Gesetzmäßigkeiten. »A creole is a fully
developed language that has evolved from a pidgin and has as much
potential for communication and expression as any other native lan-
guage ...« (DeCamp 1977:8). J. Meisel (persönliche Mitteilung) weist
allerdings darauf hin, daß das Vorhandensein eines Pidgins keinesfalls
notwendige Bedingung für die Entstehung einer Kreolsprache ist. So
sind etwa die französischen Kreolsprachen im Indischen Ozean entstan-
den, bevor sich überhaupt ein Pidgin stabilisieren konnte (cf. Meisel
1977). Basis für die Kreolsprache ist hier also eine Art »Präpidgin«, das
weitgehend durch das Fehlen systemhafter Eigenschaften geprägt ist.
Das für uns entscheidende Merkmal bei der Entstehung einer Kre-
olsprache ist jedoch die einhergehende lexikalische und strukturelle
Expandierung. In einer Arbeit über Créole haitien, einer französisch-
basierten Kreolsprache, die auf Haiti gesprochen wird, zeigt Valdman
(1977a), daß diese Sprache über ein sehr ausgeprägtes und komplexes
System phonologischer und morphologischer Prozesse verfügt. Eine
Vielzahl von Sandhi- und Elisionsprozessen lassen Creole zwar anders,
aber keineswegs weniger komplex erscheinen als die französische Aus-
gangssprache. Ebenso ist z.B. die Tempus/Aspekt-Markierung in Cre-
ole bezüglich der Ausdrucksmöglichkeiten ebenso differenziert wie das
Französische.
Während Pidgins also in ihrer Ausdrucksmöglichkeit und struktu-
rellen Vielfalt simplifizierte und reduzierte Sprachsysteme sind, verfü-
gen die über den Spracherwerbsprozeß aus ihnen bzw. aus Präpidgins
resultierenden Kreolsprachen über die gleiche strukturelle Komplexität
wie alle anderen »natürlichen« Sprachen. Aus diesem Sachverhalt ergibt
sich aber ein grundlegendes Problem. Wenn Kreolsprachen aus Pidgins
oder sogar Präpidgins entstehen, aber gleichzeitig Struktureigenschaf-
ten aufweisen, die in dem Ursprungspidgin nicht auftreten, woher
kommen dann diese Struktureigenschaften? Anders ausgedrückt: wäh-
rend der Prozeß der Pidginisierung - i.e. der Übergang von einem
komplexen zu einem simplifizierten Sprachsystem - prinzipiell über
den Abbau von Strukturgesetzmäßigkeiten erklärbar zu sein scheint,
ist der umgekehrte Prozeß der Kreolisierung insofern rätselhaft, als
hier plötzlich Struktureigenschaften quasi aus dem Nichts heraus ent-
stehen.
Zwar ist man sich in der Kreolistik schon früh dieser Problematik
bewußt geworden, hat jedoch stets angenommen, daß diese im Kreoli-
sierungsprozeß neu entstehenden Eigenschaften irgendwie aus den
involvierten Substratsprachen herausgefiltert werden bzw. durch einen
umfassenden Stabilisierungsprozeß ausgelöst werden (Allsop 1977;
Alleyne 1980). Whinnom (1965) und Vorhoeve (1973) etwa vertraten
alternativ die Monogenese-Theorie, nach der sich im 15. und 16. Jh. in
Westafrika ein afro-portugiesisches Protopidgin entwickelt hat, das
sich anschließend in der ganzen Welt verbreitete. Mit anderen Worten,
es wurde von allen Kreolforschern angenommen, daß Struktureigen-
schaften natürlich nicht aus dem Nichts heraus entstehen können, son-
dern in irgendeiner Form auf die vorhandene Sprachsituation zurück-
gehen müssen. Diese Annahme ließ sich vor allem für jene Gebiete
plausibel machen, in denen - wie etwa in Afrika - durch die vergleichs-
weise große Anzahl von potentiellen Ursprungssprachen eine vielfälti-
ge gegenseitige Beeinflussung nachweisbar zu sein schien. Andererseits
bringt die Existenz arabischer Pidgins (cf. Bickerton 1981) natürlich
erhebliche empirische Schwierigkeiten für die Monogenese-Theorie
mit sich. Daß darüber hinaus in einer Vielzahl von Fällen ein solcher
Ursprungsnachweis nicht gelang, sah man als wissenschaftliche Her-
ausforderung, nicht jedoch als ein grundlegendes theoretisches Pro-
blem an (cf. Labov 1971b; Traugott 1977; Givón 1979b; Samarin 1979).
Ein entscheidender Fortschritt in der Erklärung der Entwicklung
von Pidgins zu Kreolsprachen gelang Bickerton (1981, 1984). Bickerton
konnte zeigen, daß weder die Substrattheorie noch die Monogenese-
Theorie die relevanten Fakten erklären konnten. Bickerton entwickelte
seine Bioprogramm-Hypothese vor allem an Material über die hawaiia-
nischen Pidgin- und Kreolsprachen. Dabei profitierte er von einem
ungewöhnlich günstigen Umstand auf dieser Insel. Zu Beginn der 70er
Jahre, als Bickerton sein Material zu sammeln begann, lebten auf
Hawaii nämlich neben den Kreolsprechern auch noch eine Reihe von
Pidginsprechern, die zu Beginn des Jahrhunderts vor allem aus Japan
und den Philippinen eingewandert waren und daher erst als Erwachse-
ne mit der fremden Sprache konfrontiert wurden. Bickerton konnte
somit das Hawaiian Creole und das ihm zugrundeliegende Pidgin
gleichzeitig und nebeneinander untersuchen.
Aufgrund des Vergleichs von Hawaiian Pidgin und Creole konnte
Bickerton zeigen, daß die Kreolisierung keineswegs ein allmählicher,
sich über mehrere Generationen erstreckender Prozeß sein muß, son-
dern sich innerhalb eines Generationswechsels vollziehen kann. Wäh-
rend das hawaiianische Pidgin eine extrem reduzierte Sprache mit ein-
geschränkter Syntax und Lexik ist, zeigt das sich aus ihm innerhalb
einer Generation resultierende Creole alle Merkmale einer voll entwik-
kelten Sprache. Kreolisierung scheint somit unmittelbar an den Sprach-
erwerbsprozeß einer Generation gebunden zu sein.
Die folgenden Daten aus Bickerton (1981) illustrieren einige Eigen-
schaften des Pidgin:

(48) tumach mani mi tink kechi do


plenty money I think catch, though
ich glaube, er verdient viel Geld
(49) da pua pipl awl poteito it
die armen Leute essen nur Kartoffeln
(50) wok had dis pipl
die Leute arbeiten schwer
(51) mo plaeni da ilokano en da tagalog
Ilocanos sind zahlreicher als Tagalogs
Diese Beispiele zeigen zunächst eine sehr simplifizierte Syntax.
»Among HPE [Hawaiian Pidgin English] speakers who arrived prior
to 1920, the following features are largely or completely missing: con-
sistent marking of tense, aspect and modality; relative clauses; move-
ment rules; embedded complements, in particular infinitival construc-
tions; articles, especially indefinite« (Bickerton 1981:14). Darüber hin-
aus werden vielfach bestimmte Merkmale der Muttersprache in das
Pidgin übertragen. So stammen (48) und (49) von japanischen Spre-
chern und zeigen daher Verbendstellung, während (50) und (51) von
philippinischen Sprechern geäußert wurden und die für deren Mutter-
sprache typische Verb- bzw. Prädikatsanfangsstellung aufweisen.
Sobald derartige Pidginsprecher aus kommunikativen Gründen
gezwungen sind, komplexere Sachverhalte auszudrücken, erscheinen
entweder stark parataktisch organisierte Strukturen oder direkte Über-
nahmen der muttersprachlichen Struktur:

(52) aen luk laik pankin kain get


and look like pumpkin kind get
es gab einige, die wie Kürbisse aussahen
(53) aena tu macha churen, samawl churen, haus mani pei
and too much children, small children, house money pay
ich hatte zuviele Kinder, kleine Kinder, und mußte die
Miete zahlen

Vergleicht man dieses Pidgin mit dem aus ihm resultierenden Kreol, so
zeigt sich ein enormer Zuwachs an Komplexität. Insbesondere weist
das Kreol einige Eigenschaften auf, die auch in rudimentärer Form dem
Pidgin fehlten, aber dennoch als Merkmale voll entwickelter Sprachen
keineswegs überraschen. So verfügt das hawaiianische Kreol u.a. über:

a) Bewegungsregeln
b) Artikel
c) Hilfsverben
d) for-to-Komplemente7
e) Relativierung und Pronominalkopien

Das Kreol zeigt zunächst eine konsistente SVO-Wortstellung wie im


Englischen, während die Pidginausprägungen vielfach die jeweilige

7 Unter for-to-Komplementen versteht man Infinitivsätze, die durch die Konjunk-


tion for eingeleitet werden, wie z.B. for John to win the race is what everybody
wants
muttersprachliche Wortstellung übernahmen. Auf diese SVO-Stellung
können nun verschiedene Topikalisierungsregeln angewandt werden,
wie (54) und (55) zeigen:

(54) eni kain lanwij ai no kaen spik gud


ich kann keine Sprache gut sprechen
(55) no laik plei futbawl, dis gaiz
diese Kerle spielen nicht gerne Fußball

Von besonderem Interesse ist auch die Entwicklung des Artikelsy-


stems. Pidginsprecher verwenden Artikel unsystematisch, wobei japa-
nische Muttersprachler dazu tendieren, Artikel generell auszulassen, da
es im Japanischen keinerlei Artikel gibt. Philippinische Muttersprach-
ler hingegen übergeneralisieren den Gebrauch des Artikels etwa bei
nicht-spezifischen Referenten oder bei nicht-zählbaren Nomina:

(56) hi get da hawaian waif (da = the)


er hat eine hawaiianische Frau
(57) no kaen du nating abaut da eniting insai da haus
ich kann nichts über nichts im Haus tun

In der Kreolsprache hingegen werden der definite Artikel da und der


indefinite Artikel wan völlig regelmäßig gebraucht. »The definite artic-
le da for all and only specific-reference NPs that can be assumed
known to the listener ... the indefinite article wan is used for all and
only specific-reference NPs that can be assumed unknown to the liste-
ner« (Bickerton 1981:23). Alle anderen Nominalphrasen tragen keinen
Artikel und werden auch nicht plural-markiert.
In seiner Analyse präsentiert Bickerton noch eine Vielzahl von
Unterschieden zwischen dem hawaiianischen Pidgin und Kreol. In
allen Fällen zeigt sich im wesentlichen der gleiche Befund. In der Kreol-
sprache treten Strukturphänomene auf, die das Pidgin nicht kannte,
bzw. der unregelmäßige und z.T. willkürliche Gebrauch gewisser
Strukturmerkmale wird im Kreol systematisiert. Erstsprachenabhängi-
ge Variationen im Pidgin treten in der Kreolsprache nicht mehr auf.
Es mag nun die Vermutung naheliegen, daß die Regularisierung bei
der Herausbildung der Kreolsprache schlichtweg auf den größeren
Einfluß der Standardsprache, in diesem Falle des Englischen zurückzu-
führen ist. Mit anderen Worten, die Kreolsprache systematisiert sich
einfach in Richtung auf das Englische und übernimmt dessen Gesetz-
mäßigkeiten. Doch ein kurzer Blick auf die Daten zeigt, daß diese
These nicht richtig sein kann. Die Entwicklung des Artikelsystems
zeigt bereits, daß die Verwendung des Artikels in der Kreolsprache
zwar völlig systematisch und regelmäßig ist, aber in völlig anderer
Weise als im Englischen. An einem weiteren Beispiel läßt sich ebenfalls
zeigen, daß die Gesetzmäßigkeiten der Kreolsprache sich nicht als
Kopien des Englischen darstellen lassen. Der Gebrauch von Pronomi-
na im Pidgin ist völlig unregelmäßig; in der Kreolsprache hingegen ist
das Pronomen in Verbindung mit allen Subjekt-NPs indefiniter Refe-
renz obligatorisch:

(58a) sam gaiz samtaimz dei kam


(58b) sam gaiz dei kam
(58c) *sam gaiz samtaimz kam
(58d) *sam gaiz kam
(manchmal) kommen einige Kerle

Relativsätze, die im Pidgin so gut wie gar nicht auftreten, sind in der
Kreolsprache sehr häufig, allerdings enthalten sie nie ein Relativprono-
men, auch nicht in den Fällen, in denen im Standardenglischen ein sol-
ches Pronomen obligatorisch ist:

(59) yu si di ailan get koknat


you see the island that has coconuts

Diese beiden Regeln interagieren nun auf interessante Weise, wenn eine
Subjekt-NP indefiniter Referenz als Kopf eines Relativsatzes auftritt.
Während in Strukturen wie (58) das Pronomen entweder direkt nach
dem Subjekt erscheint oder vor dem Verb, falls ein Adverb davorsteht,
erscheint es bei relativierten Subjekten stets hinter dem Relativsatz:

(60a) sambadi goin ova dea dei gon hia nau


(60b) *sambadi dei goin ova dea gon hia nau
anybody who is going over there will hear it now.

Auch dieses Bespiel zeigt, daß die Kreolsprache über eine Fülle von
Regularitäten verfügt, die jedoch völlig anderer Natur als im Engli-
schen sind.
In einer umfangreichen Analyse verschiedener Kreolsprachen in
allen Teilen der Welt zeigt Bickerton, daß die strukturellen Eigenschaf-
ten des Hawaiian Creole keineswegs atypisch sind, sondern vielmehr in
dieser oder zumindest sehr ähnlicher Form in allen Kreolsprachen auf-
treten. So verfügen die Kreolsprachen in der Regel über ein Artikelsy-
stem, in dem die Verteilung zwischen definiten und indefiniten Arti-
keln dem gleichen Muster folgen wie in der hawaiianischen Kreolspra-
che, »... a definite article for presupposed-specific NP; an indefinite
article for asserted-specific NP; and zero for nonspecific NP« (Bicker-
ton 1981:56). Ähnliche Gesetzmäßigkeiten finden sich in Komplement-
strukturen, in der Relativsatzbildung, bei der Negation und bei Kopu-
lastrukturen. Der entscheidende Gesichtspunkt ist hier, daß die Kreol-
sprachen strukturell nicht nur anders und weitaus komplexer sind als
die ihnen zugrundeliegenden Pidgins bzw. Präpidgins, vielmehr glei-
chen sich die so in verschiedenen Teilen der Welt entstandenen Kreol-
sprachen auf verblüffende Weise: trotz jeweils unterschiedlicher Sub-
strat- bzw. Superstratsprachen und trotz unterschiedlicher soziolingu-
istischer, politischer und kultureller Bedingungen entwickeln Kreol-
sprachen stets das gleiche Grundmuster an sprachstrukturellen Gesetz-
mäßigkeiten.
Bei der Entstehung einer Kreolsprache entwickelt sich also ein kom-
plexes System grammatischer Strukturen, für das es in der Inputspra-
che, i.e. dem Pidgin bzw. Präpidgin keine Vorlage gibt. Bickerton kann
weiterhin zeigen, daß sich die entsprechenden Gesetzmäßigkeiten
weder direkt aus dem Substrat bzw. Superstrat heraus erklären lassen,
wie dies zumeist in traditionellen Erklärungsansätzen der Kreolistik
postuliert wird. Es ergeben sich hierbei nämlich drei prinzipielle Pro-
bleme. Zunächst sind die Superstratsprachen in der Regel zwar europäi-
sche Sprachen, aber die Kreolsprachen entwickeln vielfach Eigenschaf-
ten, die in diesen Sprachen gerade nicht vorkommen; »... no one could
invoke this shared ancestry to explain creole similarities unless he were
to propose that creoles, like naughty children, do everything the oppo-
site of what their parents tell them to do« (Bickerton 1981:73). Substrat-
erklärungen erleben zumeist das gleiche Problem; es muß zunächst
gezeigt werden, daß diejenigen Völker, die als Substratsprecher in Frage
kommen, sich tatsächlich zu dem besagten Entstehungszeitpunkt dort
befunden haben. Derartiges wird in der Regel jedoch nicht gezeigt und
ist in einigen Fällen auch überaus fraglich, wie Bickerton am Beispiel
der Yoruba in Afrika zeigt. Zuletzt ergibt sich jedoch ein weiteres logi-
sches Problem. Selbst wenn die entscheidenden Substratsprecher in der
fraglichen Periode vorhanden waren, so gab es vor allem in Afrika
gleichzeitig ein Vielzahl anderer Sprecher. Die Frage stellt sich also,
warum die Kreolsprache ausgerechnet diese und keine andere Sub-
stratsprache gewählt hat. Im Grunde verschieben Substraterklärungen
die Problematik lediglich auf eine andere Abstraktionsebene.
Es scheint, als entwickele sich die Kreolsprache in wesentlichen Tei-
len unabhängig von den involvierten Sprachen. In gewisser Weise
manifestiert sich somit bei der Kreolisierung eine Sprachschöpfung aus
dem Nichts: »Creoles are the nearest thing one can find to ab ovo crea-
tions of language ...« (Bickerton 1981:4 5 ) . Wie läßt sich nun eine derar-
tige Entstehung erklären, wenn weder der unmittelbare Input (=das
Pidgin) noch die übrigen in der Umgebung gesprochenen Sprachen für
die spezifischen Gesetzmäßigkeiten des Kreols verantwortlich gemacht
werden können? Bickerton gelangt prinzipiell zu der gleichen Antwort
wie Chomsky: wenn die strukturellen Gesetzmäßigkeiten nicht aus der
vorhandenen sprachlichen Umgebung abgeleitet werden können, so
müssen sie sich offenkundig aus der Biologie des lernenden Individu-
ums, speziell der biologisch determinierten kognitiven Struktur des
Menschen ergeben. Mit anderen Worten, Kreolsprachen entwickeln die
ihnen spezifischen Strukturen, weil der menschliche Kognitionsapparat
mit einem, wie Bickerton es nennt, »Bioprogramm« ausgestattet ist,
das diese Strukturen sozusagen nachliefert.
Kreolisierung ist somit ein besonderes Beispiel dafür, wie sich auf
der Basis eines extrem eingeschränkten Inputs ein hochkomplexes
System entwickelt. Die Funktion des Pidgins kann bestenfalls die des
Auslösens bestimmter Entwicklungsprozesse sein. Das Pidgin
bestimmt somit nicht die Form der Kreolsprache, sondern setzt ledig-
lich einen Entwicklungsprozeß in Gang, bei dem das Bioprogramm -
im Kontrast zum »normalen« Spracherwerb - nahezu ungestört ablau-
fen und sich frei entfalten kann. Kreolisierung ist somit eine extreme
Form des »poverty-of-stimulus«. Es entstehen Strukturphänomene,
für die es im Input keine Vorlage gibt.
Auch in diesem Bereich zeigt sich also, daß der menschliche Kogni-
tionsapparat offenbar mit spezifischen Strukturen zum Erwerb und der
Handhabung von Sprache ausgestattet sein muß. Offensichtlich muß es
ein spezifisches Grammatikmodul geben, das bei der Entwicklung einer
Kreolsprache jene Strukturen aufbaut, die sich im zugrundeliegenden
Pidgin nicht vorfinden. Woher sollten diese Strukturen sonst kommen?
In gewissem Sinne ist die Evidenz aus der Kreolistik wohl die stärkste und
überzeugendste Evidenz für die Modularitäts- und Autonomiethese.

5.6 Sprachpathologie und Neuropsychologie

Wenn die Annahme zutrifft, daß die menschliche Kognition modular auf-
gebaut ist und daß einzelne Module aufgaben- bzw. domänenspezi-
fisch sind, so wäre zu erwarten, daß sich für diese Module auch neuro-
physiologische bzw. neuroanatomische Korrelate finden lassen. In die-
sem Sinne ist gegen die generative Grammatiktheorie auch häufig der
Vorwurf erhoben worden (z.B. Comrie 1984), sie sei so lange empirisch
nicht belegt, wie der Nachweis derartiger neuroanatomischer Entspre-
chungen zur Universalgrammatik noch aussteht (cf. auch Kap. 4.1.3).
Wir haben bereits in Kap. 1.3 im Zusammenhang mit Fodors Theorie
dargestellt, warum dieser Einwand aus prinzipiellen Gründen nicht
haltbar ist. Letztlich kann nicht ohne weiteres postuliert werden, daß
Generalisierungen auf der software-Ebene stets Generalisierungen auf
der hardware-Ebene entsprechen müssen. In diesem Abschnitt wollen
wir jedoch aus dem Bereich der Neurophysiologie zusätzliche Evidenz
für die grundsätzliche Richtigkeit der Modularitätsthese und der Auto-
nomiethese anführen.
Die Erkenntnis, daß nicht alle Teile des Gehirns die gleiche Funk-
tion besitzen, sondern daß verschiedenen Hirnregionen unterschiedli-
che Aufgaben zukommen, ist im Grunde so alt wie die Beschäftigung
mit der Struktur des Gehirns selbst. In ägyptischen Papyrusrollen,
deren Ursprung man etwa auf das 17. Jahrhundert v. Chr. datiert, dis-
kutieren Chirurgen die Auswirkungen unterschiedlich lokalisierter
Hirnverletzungen auf das Verhalten des Patienten. Eine recht moderne
Einsicht verbirgt sich hinter der Aussage: »wenn du einen Menschen
untersuchst, dessen Schläfe eingedrückt ist, ..., so antwortet er dir
nicht, denn er ist der Sprache nicht mehr mächtig« (nach Changeux
1984).
Den Beginn der modernen Beschäftigung mit der funktionalen
Struktur des Gehirns kann man etwa auf das Jahr 1861 datieren (Arbib
et al. 1982). Hier gelang dem französischen Arzt Paul Broca der Nach-
weis, daß beim menschlichen Gehirn - im Gegensatz zu anderen
»symmetrischen« Organen, wie Lunge, Niere, etc. - die beiden Hälf-
ten unterschiedliche Aufgaben auszuführen scheinen. Broca konnte
zeigen, daß bestimmte Sprachstörungen ganz systematisch genau
dann auftreten, wenn spezifische Regionen der linken Hirnhälfte
(Hemisphäre) etwa durch einen Infarkt zerstört sind. Noch im letzten
Jahrhundert entwickelte dann der deutsche Arzt und Psychologe
Franz Josef Gall ein recht modern erscheinendes Modell der mensch-
lichen Kognition. Gall betrachtete sie als ein aus verschiedenen unab-
hängigen Bausteinen zusammengesetztes System und versuchte
dementsprechend, diese Bausteine im Gehirn zu lokalisieren - aller-
dings mit einer Methodik, die heutigen Standards nicht mehr ent-
spricht8. Dennoch ist ein Teil der von Gall postulierten Module durch
die moderne Forschung bestätigt worden, so etwa die formale Sprach-
fähigkeit, die begriffliche Fähigkeit, das Modul räumlicher Wahrneh-
mungsfähigkeit, etc. Seit Broca und Gall (cf. Changeux 1984; Fodor
1983) konnte unser Wissen über die funktionale Struktur der beiden
Hemisphären stark erweitert werden, und es liegt mittlerweile umfang-
reiche Evidenz für eine ausgeprägte anatomische und funktionale Dif-
ferenzierung der beiden Hirnhälften vor (cf. Bryden 1982; Friederici
1984:21-37; Caramazza & Berndt 1978).
Grundsätzlich stellt sich natürlich die Frage, welche methodischen
Wege uns für die Erforschung der funktionalen Struktur des Gehirns
und seiner spezifischen Aufgaben zur Verfügung stehen. Eine wichtige
Erkenntnisquelle liegt offenkundig in den Pathologien des menschli-
chen Gehirns. Wenn durch Infarkte oder Verletzungen bestimmte
Hirnregionen zerstört werden und Patienten dann mit großer Regelmä-
ßigkeit charakteristische kognitive Ausfälle aufweisen, dann liegt die
Vermutung nahe, daß die ausgefallenen kognitiven Leistungen neuro-
anatomisch in diesen Regionen zu lokalisieren sind. Eine weitere
methodische Zugriffsmöglichkeit ergibt sich aus der Tatsache, daß dem
linken bzw. rechten Ohr und dem linken bzw. rechten Sehfeld jeweils
die gegenüberliegende Hemisphäre zugeordnet ist. Bei Patienten,
denen aus medizinischen Gründen das Kommissurenband, i.e. die pri-
märe »Kommunikationsleitung« zwischen den beiden Hirnhälften,
durchtrennt werden mußte, werden Stimuli, die einer der beiden Hemi-
sphären zugespielt werden, natürlich auch nur in dieser verarbeitet9.
Den prinzipiell gleichen Effekt kann man auch durch Injektion von
Natriumamytal erreichen, das vorübergehend die Funktion einer Hirn-
hälfte blockieren kann (Bryden 1982). Aber auch mit Personen, die
keine Hirnschädigungen aufweisen, lassen sich in gewissem Umfange

8 Galls Methode bestand im Ausmessen von Schädelformen bei Personen, die sich
in bestimmten Bereichen besonders hervorgetan hatten. Dazu gehörten sowohl
schriftstellerische oder musisch Hochbegabte als auch Personen mit starken kri-
minellen Tendenzen. Diese als Phrenologie bezeichnete Methode wird allerdings
aufgrund offenkundiger Unzulänglichkeiten heute nicht mehr verfolgt. Bemer-
kenswerterweise wurde Gall jedoch nicht etwa wegen der offensichtlichen
Schwächen seiner Methodik angegriffen, sondern man kritisierte die hinter sei-
nen Arbeiten stehende rationalistische Grundhaltung.
9 Neben dem Kommissurenband gibt es im Gehirn allerdings noch tieferliegende
Verbindungen zwischen den Hemisphären, die jedoch für höhere kognitive Lei-
stungen nicht weiter von Belang sind.
Lateralisierungsexperimente durchführen, d.h. Versuche, bei denen die
beiden Hirnhälften getrennt angesprochen werden. So entwickelte
Kimura (1963) das Verfahren des dichotischen Hörens, bei dem Ver-
suchspersonen über Kopfhörer verschiedene Stimuli in das rechte bzw.
linke Ohr projiziert werden. Hierbei zeigte sich, daß bestimmte Aufga-
ben schneller in der linken, andere schneller in der rechten Hemisphäre
gelöst werden. Wird eine Aufgabe, für die die Bearbeitungskompetenz
in der linken Hemisphäre lokalisiert ist, (über das rechte Ohr) unmit-
telbar in diese Hälfte eingespeist, so kann sie dort direkt bearbeitet wer-
den, während im entgegengesetzten Fall der längere Weg über das
Kommissurenband zu beschreiten ist.
Das Bild, das sich aus derartigen Untersuchungen ergibt, ist nun
keineswegs, daß sich bestimmte Funktionen wie etwa Sprache, Musik
oder Gesichtserkennung (cf. hierzu Kap. 5.8) eindeutig einer einzigen
Hirnhälfte zuordnen lassen. Prinzipiell scheint jede Hemisphäre jede
Aufgabe lösen zu können (cf. Bryden 1982); allerdings ist für bestimm-
te kognitive Leistungen die eine bzw. die andere Hemisphäre wesent-
lich geeigneter und bearbeitet entsprechende Aufgaben schneller und
präziser. Darüber hinaus verliert die nicht-spezialisierte Hirnhälfte ab
einem gewissen Komplexitätsgrad der Aufgabe auch ihre prinzipielle
Lösungskompetenz. Aber selbst unter diesem proviso läßt sich keine
Korrelation zwischen deskriptiven Klassen von Phänomenen und Hirn-
topologien aufstellen (cf. Heilman & Valenstein 1985). Es gibt keine
spezielle Hirnregion für die Sprache oder die Perzeption. Vielmehr
scheinen die Verhältnisse weitaus komplexer zu sein. Hirnregionen
sind auf bestimmte Teilbereiche oder Teilaspekte einer kognitiven Lei-
stung spezialisiert. So wird der emotionale Aspekt einer Äußerung in
der rechten Hemisphäre verarbeitet, während die Lautperzeption in
der linken Hirnhälfte erfolgt. Der russische Hirnforscher Luria (1973)
verwies in diesem Zusammenhang auf Analogien im somatischen
Bereich. So finden wir im Körper kein Modul »Atmung«, sondern ver-
schiedene Organe wirken bei der Respiration zusammen: Lungen und
Haut für den Luftaustausch, das Blut für die Verteilung des Sauerstoffs
und den Abtransport von C0 2 , das Herz als Pumpmaschine für das
Blut, etc. Auch für den körperlichen Bereich gilt also, daß keine direkte
Korrelation zwischen größeren Funktionen und einzelnen spezifischen
Organen besteht, vielmehr sind einzelne Organe stets nur auf bestimm-
te Teilfunktionen spezialisiert.
Unter Beachtung dieser Präzisierung scheinen nun jedoch die bei-
den Hemisphären in der Tat unterschiedlichen kognitiven Leistungen
zugeordnet zu sein. Die rechte Hirnhälfte ist primär für den emotiona-
len Bereich des Menschen verantwortlich. Hier werden die affektiven
und emotionalen Aspekte der menschlichen Erfahrung verarbeitet, sei
es im sprachlichen, perzeptuellen oder psychischen Bereich (cf. Heil-
man & Valenstein 1985). Die rechte Hemisphäre ist ebenfalls zuständig
für visuell-räumliche Gegebenheiten (cf. Bridge-Denkla et al. 1980), für
die Erkennung von Farben und geometrischen Konfigurationen, für die
Verarbeitung von Melodien und Geräuschen sowie vermutlich für den
Komplex der Stereoopsie10. Die linke Hemisphäre hingegen ist für Auf-
gaben spezialisiert, die eher auf analytischem Wege zu lösen sind (cf.
Bever 1980). Hierzu gehören Hypothesenbildungen, Induktionen und
logische Schlußfolgerungen. Entscheidend für unseren Problemkreis
ist, daß auch zentrale Aspekte der Sprache in die Kompetenz der linken
Hemisphäre fallen. So vollzieht sich die Erkennung von Wörtern sowie
die Bearbeitung von phonologischen und syntaktischen Strukturen in
der linken Hirnhälfte. Generell scheinen alle Aufgaben, die formal-
sprachlicher Natur sind bzw. sich versprachlichen lassen, links-orien-
tiert zu sein (Bryden 1982). Dies zeigt sich vor allem an durch Erfah-
rung und Training induzierten individuellen Unterschieden zwischen
Menschen. Laien verarbeiten Morsesignale rechts, geschulte Personen
verarbeiten sie dagegen links. Wer musikalisch untrainiert ist, bearbeitet
musikalische Signale rechts, der professionelle Musiker verarbeitet die
gleichen Signale links (Bever 1980). Während geometrische Aufgaben
oder Farberkennung normalerweise in die rechte Hirnhälfte fallen, wer-
den sie links verarbeitet, sobald eine sprachliche Kodierung involviert
ist (cf. Berlucchi 1974). Insgesamt scheint die linke Hemisphäre für ana-
lytische und sprachliche Aufgaben spezialisiert zu sein.
Die Frage erhebt sich nunmehr, ob zwischen der analytischen und
der sprachlichen Spezialisierung der linken Hemisphäre ein anatomi-
scher oder funktionaler Zusammenhang besteht. Anders ausgedrückt:
gehen wir davon aus, daß die Verarbeitung von Sprache eher eine analy-
tische als eine holistische Aufgabe ist, so ergäbe sich die linkshemisphä-
rische Lokalisierung von Sprache schlichtweg als Konsequenz der Late-
ralisierung analytischer Intelligenz. Ein solcher Befund käme nahezu
einer Falsifizierung der Autonomiethese gleich, die ja gerade postuliert,
daß sprachliche Kompetenz und allgemeine analytische Intelligenz
unabhängig voneinander sind.

10 Unter Stereoopsie versteht man den durch die Integration zweier Netzhautbil-
der entstehenden dreidimensionalen Sinneseindruck (cf. auch Kap. 5.8)
In diesem Bereich scheinen nun die Pathologien die entscheidende
Klärung herbeizuführen. Wäre Sprachfähigkeit nichts anderes als eine
spezifische Form der analytischen Intelligenz, so würde man erwarten,
daß die Schädigung der einen notwendigerweise die Beeinträchtigung
der anderen mit sich zieht, i.e. wird die allgemeine analytische Intelli-
genz durch pathologische Einflüsse beeinträchtigt, so leidet gleichzei-
tig auch die Sprachfähigkeit darunter, et vice versa. Nach der derzeiti-
gen Evidenzlage ist dies jedoch gerade nicht der Fall (cf. auch Kap. 5.5).
Je nach Lokalisierung der Schädigung gibt es Störungen, die die Sprach-
fähigkeit beeinträchtigen, aber nicht die allgemeine analytische Intelli-
genz (cf. Poeck 1982). Entsprechendes gilt umgekehrt. So führt ein
bestimmter Typ der sog. Aphasien zu einer Schädigung sprachlicher
Leistungen ohne gleichzeitige Herabsetzung allgemeiner analytischer
Intelligenz, während Pathologien wie die Morbus Alzheimer die analy-
tische Intelligenz herabsetzen, aber eben nicht rein sprachliche Leistun-
gen. Aus diesem Befund ergibt sich eine - wie die Neurophysiologie
sagt - Dissoziation sprachlicher und allgemein-analytischer Fähigkei-
ten. Eine solche Dissoziierung kann auch künstlich herbeigeführt wer-
den, etwa durch Verabreichung bestimmter Drogen, die selektiv auf
verschiedene Regionen des Gehirns wirken (cf. Butterworth 1980a).
Im Bereich der Aphasien, also der Sprachstörungen, existiert eine
nahezu verwirrende Fülle von Klassifikationstypen und Störungstypen
(cf. Benson 1979). Man kann feststellen, daß kaum zwei Patienten exakt
die gleichen Sprachstörungen aufweisen. Dies ist insofern kaum ver-
wunderlich, als Aphasien üblicherweise durch Infarkte, Tumore, Verlet-
zungen, etc. entstehen; die Natur zerstört hier nun natürlich nicht syste-
matisch bestimmte funktionale Regionen, sondern eher willkürlich und
zufällig gewisse Bereiche, so daß immer verschiedene Störungsausprä-
gungen erscheinen. So sind Aphasien sehr häufig mit rechtshalbseitigen
Lähmungserscheinungen verbunden, ohne daß daraus der Schluß gezo-
gen werden könnte, sprachliche Fähigkeiten hingen mit der Motorik der
rechten Körperhälfte zusammen. Vielmehr scheint dieser Befund darauf
hinzudeuten, daß die sprachbezogenen Regionen sehr dicht an jenen
Regionen liegen, die die rechtsseitige Motorik steuern oder zumindest
mit diesen anatomisch verbunden sind. So haben die meisten Aphasien
ihren Ursprung in Gefäßverschlüssen, und alle Regionen, die von einer
zentralen Ader versorgt werden, fallen bei entsprechenden Verschlüssen
gleichzeitig aus, unabhängig davon, wie sie topologisch organisiert sind.
Derartige Korrelationen sind durch die spezifische Struktur des Vasku-
larsystems bedingt, nicht durch funktionale Zusammenhänge.
Insgesamt lassen sich vor allem vier Haupttypen von Aphasien
unterscheiden: die globalen Aphasien, die Wernicke-Aphasien, die
Broca-Aphasien und die amnestischen Aphasien, die für unsere Zwek-
ke jedoch von geringerem Interesse sind.
Globale Aphasien entstehen in der Regel durch großräumige Zer-
störungen oder Läsionen der linken Hemisphäre. Hierbei handelt es
sich um die ausgeprägteste Form von Aphasie. Patienten sind nicht
imstande, Sprache frei und kreativ zu produzieren, sondern beschrän-
ken sich auf starre Automatismen wie »da da da« oder vergleichbare
sich wiederholende Verbalisierungen. Sprachverständnis fehlt fast voll-
ständig, wenngleich die Intonation in vielen Fällen relativ gut erhalten
ist11. Patienten sind in der Lage, etwa Buchstaben zu kopieren, können
sie jedoch nicht in einen anderen Schrifttyp übertragen (Poeck 1982).
Einige Experimente scheinen jedoch darauf hinzudeuten, daß Patien-
ten mit globaler Aphasie mit Plastikplättchensystemen kommunizieren
können, mit denen man versucht hat, Affen Sprache beizubringen (cf.
Chomsky 1980). Die Symptome der globalen Aphasie scheinen daher
nahezulegen, daß Kommunikationsfähigkeit und Sprachfähigkeit diffe-
renziert werden müssen. Jedoch ist auch der umgekehrte Fall belegt: es
gibt Patienten, die zwar Sprachfähigkeit, aber keine Kommunikations-
fähigkeit besitzen. Die neurophysiologischen Daten aus der Aphasie
widersprechen somit der Auffassung, Sprache könne auf allgemeine
Intelligenz oder auch »kommunikative Kompetenz« reduziert werden.
Die sog. Wernicke-Aphasie entsteht zumeist durch Läsionen im
rückwärtigen Teil des Schläfenlappens und in der ersten Temporalwin-
dung12. Bei Primaten ist in dieser Region die auditive Assoziation ange-
siedelt (Dewson 1978). Patienten mit Wernicke-Aphasie sprechen mit
normaler Sprechgeschwindigkeit und in zusammenhängenden Phra-
sen. Alle syntaktischen Elemente sowie Prosodie und Artikulation sind
gut erhalten. Allerdings werden die syntaktischen Elemente häufig
falsch miteinander verbunden und Sätze werden auf unzulässige Weise
miteinander verschachtelt. Das auffälligste Merkmal der Wernicke-
Aphasie ist jedoch das Phänomen der Paraphasien, d.h. der Patient
ersetzt erwartete Wörter durch andere. Zuweilen besteht ein semanti-
scher Zusammenhang zwischen Wort und Paraphasie (z.B. Docht statt

11 de Bleser & Poeck (1984) haben aber gezeigt, daß Patienten mit »CV-recurring
utterances« pathologische Intonationsverläufe aufweisen.
12 Wie jedoch de Bleser (1986) zeigt, ist eine strikte Korrelation zwischen dem hirn-
anatomischen Ort der Läsion und dem einhergehenden aphasischen Störungen
nicht in allen Fällen gegeben.
Kerze oder Messer statt Schwert); jedoch gibt es auch Fälle, in denen
kein erkennbarer semantischer Zusammenhang besteht. Paraphasische
Entstellungen können zu Wortneuschöpfungen führen (z.B. schrech-
ten), die jedoch alle die phonologischen und phonotaktischen Gesetz-
mäßigkeiten der jeweiligen Sprache beachten; so würde ein deutscher
Aphasiker kein Wort wie tklaur als Paraphasie anbieten. Wenn auf-
grund von Paraphasien und Neologismen keine erkennbare Informa-
tion mehr übermittelt wird, spricht man von phonologischem Jargon.
Ebenso wie der Sinngehalt ihrer Äußerungen durch Fehlbenennungen
entstellt ist, treten bei Wernicke-Aphasikern erhebliche Verständi-
gungsschwierigkeiten auf. Man hat den Eindruck, als sei hier die
semantische Komponente der Sprachfähigkeit gestört.
Wernicke-Aphasiker haben in der Regel enorme Schwierigkeiten,
einem Gegenstand die entsprechenden Begriffe oder Wörter zuzuord-
nen. Dies gilt sowohl bei der Produktion als auch bei der Perzeption.
Dieser Befund führt zu der Frage, ob Wernicke-Symptome aus einer
sprachspezifischen Störung oder nicht vielmehr aus einer allgemeinen
Beeinträchtigung begrifflich-analytischer Fähigkeiten resultieren.
Hierzu gibt es in der Aphasieforschung noch keinen Konsens. Das
Mailänder Forscherteam um de Renzi (cf. de Renzi & Vignolo 1963)
hat ermittelt, daß Wernicke-Aphasiker Schwierigkeiten haben, dem
Schwarzweißbild einer Banane oder Apfelsine die korrekte Farbe oder
dem Bild eines Telefons und einer Straßenbahn das richtige Klingelge-
räusch zuzuordnen. Dieser Befund deutet darauf hin, daß bei Wernik-
ke-Patienten vielleicht die allgemeine Begrifflichkeit gestört ist; aller-
dings wäre auch denkbar, daß aus anatomischen Gründen der Asso-
ziationskortex für die verschiedenen Wahrnehmungsmodalitäten
beeinträchtigt ist. Die Konstanzer Gruppe um R. Cohen hat Wernik-
ke-Aphasiker mit dem sog. Gottschalt-Embedded-Figure-Test unter-
sucht (cf. Cohen et al. 1978). Dabei muß eine bestimmte Figur, etwa
ein unregelmäßiges Viereck, in einer komplizierten Linienkonfigura-
tion wiedererkannt werden. Wernicke-Patienten haben bei derartigen
analytischen Aufgaben erhebliche Schwierigkeiten, so daß auch dieser
Befund anzudeuten scheint, daß kein sprachspezifisches Modul
gestört ist. Wernicke-Aphasiker haben nicht nur Schwierigkeiten,
Objekte zu benennen, sondern weisen auch eine hohe Fehlerquote bei
Aufgaben auf, bei denen sie Objekte einfach anhand ihrer Ähnlichkeit
zueinander ordnen sollten (Caramazza & Berndt 1985). Ingesamt deu-
ten die bekannten Symptome darauf hin, daß bei der Wernicke-Apha-
sie das begriffliche Zentrum des Menschen beeinträchtigt ist, das nicht
sprachspezifisch ist, wohl aber aus trivialen Gründen am Phänomen
Sprache beteiligt ist.
Linguistisch bedeutsamer scheinen Broca-Aphasien zu sein, die
durch Läsionen im Marklager des Gehirns, dorsal zur dritten Stirnwin-
dung12, die dem Motorzentrum bei Primaten entspricht (Bradshaw &
Nettieton 1981), herbeigeführt werden (cf. Poeck 1982; Friederici 1984;
Kean 1985). Derartige Patienten sprechen langsam, mit vielen Pausen
und akzentuieren häufig auch falsch. Oberflächlich lassen sich keine
unmittelbaren Verständnisprobleme feststellen; doch sprechen diese
Broca-Aphasiker oftmals in Sätzen mit nur 1-3 Wörtern, denen die
Syntax nahezu vollständig fehlt. Funktionswörter wie Artikel, Präposi-
tionen, Konjunktionen, etc. treten in der Spontansprache dieser Patien-
ten so gut wie nicht auf. Bei schweren Formen der Broca-Aphasie
würde ein Satz wie der große Mann ißt eine Wurst erscheinen als Mann
groß .... Wurst essen. Obwohl die Äußerungen von Broca-Aphasikern
grammatisch nicht wohlgeformt sind, sind sie unter kommunikativem
Aspekt voll verständlich.
Paul Broca selbst, der diese Aphasieform als erster beschrieb, schloß
aufgrund des stockenden Sprachflusses auf reine Artikulationsstörun-
gen in Verbindung mit kommunikativen Vereinfachungsstrategien. Es
gibt jedoch zwei Gründe dafür, daß diese These nicht richtig sein kann.
Zunächst finden sich die gleichen aphasischen Symptome - also stok-
kender Sprachfluß, zerstörte Syntax und Fehlen von Funktionswörtern
- auch in Leistungen, bei denen die Artikulation überhaupt nicht betei-
ligt ist13, etwa bei schriftlichen Produktionen von Broca-Aphasikern
(cf. Levine & Sweet 1982). Darüber hinaus weisen die wenigen taub-
stummen Menschen, die eine Zeichensprache wie die American Sign
Language erlernt haben, bei entsprechenden Läsionen in der Broca-
Region die gleichen Merkmale auf (cf. Levine & Sweet 1982). Somit
scheint die Struktur der einschlägigen Repräsentationen gestört zu sein
und nicht etwa die Ausführung externer motorischer Muster. Weiterhin
legt das klinische Bild von Broca-Aphasikern eine Modifikation der

12 Wie jedoch de Bleser (1986) zeigt, ist eine strikte Korrelation zwischen dem hirn-
anatomischen Ort der Läsion und dem einhergehenden aphasischen Störungen
nicht in allen Fällen gegeben.
13 Es ist allerdings hier zu bedenken, daß aufgrund der hirnanatomischen Nachbar-
schaft der betroffenen Regionen bei Broca-Aphasikern häufig auch reine Artiku-
lationsstörungen (Dysarthrien) auftreten. Da andererseits Patienten, die allein
unter einer Dysarthrie leiden, vielfach auch vereinfacht sprechen, wird Dysar-
thrie häufig mit Agrammatismus verwechselt (Bayer, persönliche Mitteilung).
Sprachverständnisleistung nahe. Broca-Aphasiker haben nämlich
immer dann Mühe, Sätze zu verstehen, wenn die korrekte Interpreta-
tion entscheidend von der syntaktischen Konfiguration abhängt
(Heilman & Scholes 1976; Caplan et al. 1981) und nicht aus der Bedeu-
tung der lexikalischen Elemente abgeleitet werden kann. Betrachten
wir die folgenden Sätze:
(61a) the apple that the tiger saw was red
(61b) the tiger that the lion chased ...
(62a) the car was driven by Bill
(62b) Mary was kissed by Bill
(63a) I gave her the dog biscuits
(63b) I gave her dog the biscuits
Broca-Aphasiker haben keine Schwierigkeiten mit (61a) und (62a), da
hier die Bedeutung des Satzes allein aus der Bedeutung der lexikali-
schen Elemente apple, tiger, see, red bzw. car, drive, Bill rekonstruiert
werden kann. (61b) und (62b) sind für Broca-Aphasiker hingegen nicht
dekodierbar, da die semantische Beziehung zwischen tiger, lion, chase
bzw. Mary, kiss, Bill reversibel ist, d.h. es ist denkbar, daß entgegen der
Aussage der entsprechenden Sätze der Tiger den Löwen jagt bzw. Maria
Bill küßt. Der Kontrast zwischen (63a) und (63b) ist für den Broca-
Aphasiker ebenfalls nicht erkennbar, da hier allein die syntaktische
Struktur, d.h. die Stellung von her und the entscheidend ist.
Diese Daten deuten darauf hin, daß der Broca-Aphasiker genau
dann keine Verständnisprobleme hat, wenn sich die Interpretation eines
Satzes allein aus der Bedeutung der einzelnen lexikalischen Elemente
erschließen läßt. Sobald jedoch die syntaktische Struktur für die kor-
rekte Interpretation des Satzes ausschlaggebend ist, versagt der Broca-
Aphasiker14. Broca-Patienten können offenbar bei der Interpretation
nur semantische, nicht aber syntaktische Informationen verarbeiten.
Und dies ist genau, was die Autonomiethese erwarten läßt.
In diesem Zusammenhang sei noch angemerkt, daß sich auch bei
Sprachgesunden Verarbeitungsstrategien nachweisen lassen, die auf

14 Schwartz et al. (1985) behaupten darüber hinaus, daß auch die Beurteilungskom-
petenz für syntaktische »Lücken« erhalten sei. Diese Konsequenz folgt jedoch
nicht aus ihren experimentellen Daten. Wenn ein Aphasiker etwa einen Satz wie
who does John kiss Mary korrekterweise als ungrammatisch erkennt, so braucht
er hierzu keine speziellen syntaktischen Kenntnisse über Bewegungsregeln und
zurückgelassene Spuren. Es reicht völlig aus, wenn er weiß, daß bei einem Verb
wie kiss nur zwei Argumente auftreten können (cf. auch die Argumentation in
Bayer & de Bleser 1985).
eine Autonomie von Syntax gegenüber Semantik hindeuten. Wie Ber-
wick & Weinberg (1982) gezeigt haben, verarbeiten Sprecher Passivsät-
ze wie (61a) und (62a), in denen semantische Hinweise für die korrek-
te Struktur vorliegen, schneller als (61b) und (62b), wo allein die Syn-
tax die korrekte Interpretation bestimmt. Marcus (1982) hat aufgrund
dieser Befunde ein Parsingmodell entwickelt, das exakt mit zwei Kom-
ponenten arbeitet, einem auf semantischen Erwägungen basierenden
»schnellen« Strukturzuweiser und dem eigentlichen syntaktischen
Parser.
Kean (1979) hat eine etwas abweichende Interpretation der Broca-
Aphasie vorgeschlagen. Grundlage ist die Beobachtung, daß die Funk-
tionswörter, die Broca-Patienten typischerweise auslassen, bestimmte
phonologische Eigenschaften haben; so tragen sie selbst keinen
Akzent, sondern werden als phonologische Klitika an andere akzentu-
ierte Wörter angefügt. Kean zeigt, daß gleichlautende Wörter unter-
schiedlich affiziert sind, je nachdem, ob sie lexikalischen Gehalt haben
oder unakzentuierte Funktionswörter sind; z.B. frz. car oder engl. be
vs. bee. In ähnlicher Weise zeigt Friederici (1985), daß Präpositionen
verstärkt ausfallen, wenn sie nur eine grammatische Funktion haben,
nicht jedoch, wenn sie lexikalische Informationen tragen. Es liegt dem-
nach die Vermutung nahe, daß die Broca-Aphasie eine rein phonologi-
sche Störung ist: phonologische Klitika können weder bei der Produk-
tion noch bei der Perzeption verarbeitet werden (cf. auch Schwartz et
al. 1980).
Es gibt jedoch einige empirische Evidenz, mit der Keans These nur
schwer kompatibel ist. Broca-typische Störungen finden sich ja auch in
Sprachen, wie American Sign Language, die überhaupt nicht phonolo-
gisch orientiert sind. Darüber hinaus treten innerhalb der Klasse der
Funktionswörter unterschiedlich starke Ausfälle auf, die mit Keans
These nur schwer zu erklären sind. So ist das englische Infinitiv-to stär-
ker von Ausfällen betroffen als das Dativ-to oder das Plural-s weniger
stark als das Genitiv-s. Dieser Unterschied läßt sich offenkundig nur
syntaxintern spezifizieren. Die stärkste Evidenz gegen Keans These
kommt aus morphologisch stark flektierenden Sprachen. Kean würde
für solche Sprachen vorhersagen, daß die entsprechenden Morpheme
ausfallen, da sie in der Regel nicht akzentuiert sind. Die empirische Evi-
denz deutet jedoch genau auf das Gegenteil hin. In Sprachen wie dem
Deutschen oder Italienischen, die im verbalen und z.T. auch nominalen
Bereich stark flektieren, weichen Aphasiker nicht etwa auf die akzentu-
ierten Wortstämme aus, sondern auf den Nominativ (de Bleser & Bayer
1983) bzw. auf den Infinitiv oder auf Gerundien (Heeschen 1985;
Grodzinsky 1984). Besonders deutlich wird dies bei Sprachen wie dem
Hebräischen oder Arabischen sichtbar, bei denen Wortstämme aus
einem Konsonantenskelett bestehen, in das je nach Flektion Vokale ein-
gefügt sind (cf. etwa Marantz 1982). Hier wären unflektierte Stämme
kaum produzierbar, und tatsächlich weichen auch hier Aphasiker auf
Infinitive oder Nominative aus (Grodzinsky 1984). Bayer et al. (1985)
konnten darüber hinaus zeigen, daß Agrammatiker in geeigneten Kon-
texten über alle Kasusformen verfügen; daß diese in spontaner Sprache
hingegen nicht auftreten, läßt sich offenbar nicht phonologisch, son-
dern nur durch die Annahme einer globalen syntaktischen Störung
erklären. Keans These scheint also nicht haltbar zu sein: die Broca-
Aphasie ist eine syntaktische, keine phonologische Störung, daher hat
sich auch der Name Agrammatismus eingebürgert. Arbeiten der apha-
siologischen Forschergruppe am Max-Planck-Institut in Nijmegen zei-
gen weiterhin (cf. Heeschen 1985), daß die syntaktischen Störungen bei
Broca-Aphasikern keineswegs aus einer allgemeinen Beeinträchtigung
von Sequenzierungs- oder Strukturierungsleistungen resultieren. Bei
nicht-sprachlichen Strukturierungen sind Broca-Aphasiker - im
Gegensatz zu Wernicke-Aphasikern - genauso leistungsfähig wie
Sprachgesunde.
All diese Befunde deuten darauf hin, daß die Broca-Aphasie eine
sehr spezifische Störung der grammatischen Kompetenz darstellt, und
zwar entweder auf die Repräsentationsebene oder auf die Produk-
tions-/Perzeptionsebene bezogen. Dabei scheint die Tatsache, daß
Produktion und Perzeption gleichermaßen gestört sind, zunächst
eher auf eine Beeinträchtigung der Repräsentation hinzuweisen und
nicht etwa auf eine Störung von Produktionsmechanismen. Es ist
jedoch zu beachten, daß bestimmte Grundlagen der Sprachkompe-
tenz auch bei Broca-Aphasikern erhalten bleiben. Einmal deuten
Experimente der Forschergruppe um Caplan (cf. Caplan et al. 1981
und Caplan 1985) darauf hin, daß im Verstehensbereich zumindest die
Teile erhalten sind, die sich aus der X-bar-Theorie (cf. Band II, Kap.
2.1) in Verbindung mit lexikalischen Informationen ergeben. Insofern
problematisieren auch Ergebnisse wie die von Schwartz et al. (1985)
nicht das Bild einer Repräsentationsstörung. Sie fanden heraus, daß
zumindest einige Broca-Aphasiker im Bereich phrasenstruktureller
Regularitäten korrekte Grammatikalitätsurteile abgeben konnten,
während die Beurteilung im Bereich der Bindung von Reflexivpro-
nomina (cf. Band II, Kap. 2.4) oder bei transformationellen tag-Fra-
gen15 fehlerhaft war. Die Erhaltung gewisser grammatischer Grundre-
gularitäten zeigt sich besonders deutlich in Sprachen wie dem Deut-
schen. Wie die Forschergruppe in Nijmegen zeigen konnte, verändern
sich die Sätze bei Aphasikern nicht zufällig in eine beliebige ungramma-
tische Richtung, vielmehr bleibt eine gewisse «lokale» Grammatikalität
erhalten (cf. Heeschen 1985). Ein Satz wie der große Mann ißt eine
Wurst wird so zu großer Mann Wurst essen transformiert, wobei sowohl
die korrekte starke Flektion des Adjektivs bei Fehlen des Artikels (statt
große Mann) als auch die korrekte Endstellung infiniter Verben gege-
ben ist. Auch in diesem Bereich scheinen also eher phrasenstrukturelle
Regularitäten erhalten zu bleiben. Innerhalb des Bereiches komplexe-
rer syntaktischer Regeln besteht hingegen die Störung sowohl auf pro-
duktiver als auch auf rezeptiver Ebene, so daß von einer Repräsentati-
onsstörung ausgegangen werden kann (so etwa Caramazza & Berndt
1978; Goodglass & Menn 1985).
Wir können also annehmen, daß die grammatische Kompetenz -
wie übrigens auch die Gesangskompetenz bei Vögeln (Catchpole 1979)
- links lateralisiert ist und in den Gebieten um die Brocaregion lokali-
siert ist. Man kann nun fragen, ob diese neurophysiologische Speziali-
sierung von Geburt an existiert oder sich erst im Laufe der Zeit entwik-
kelt. Diese Frage ist allerdings von dem Problem zu trennen, ob
bestimmte Hirnstrukturen von Geburt an ausgeprägt sind oder erst
nach einem Reifeplan heranwachsen. Untersuchungen zum visuellen
System (Wiesel & Hubel 1963 a-b) haben gezeigt, daß bei Neugebore-
nen entsprechende Strukturen vielfach noch nicht vorhanden sind, aber
bei Vorliegen bestimmter Umweltreize sich nach einem vorgegebenen
Reifeschema herausbilden (cf. dazu auch Singer (1985) und für sprach-
liche Aspekte Felix (1985b, 1987)). Die eigentliche Frage ist, ob das,
was als Universalgrammatik bezeichnet wird, genetisch an eine
bestimmte mikro- oder makroanatomische Region (Bryden 1982)
gebunden ist, oder ob auch andere neuroanatomische Gebiete die Uni-
versalgrammatik repräsentieren können.
Hierbei ist zunächst festzustellen, daß die Heilungschancen für
Aphasiker ab dem sechsten Lebensjahr extrem schlecht sind. Das

15 Allerdings können syntaktische Strukturen genau dann zum Verstehen herange-


zogen werden, wenn diese Strukturen durch verschiedene lexikalische Katego-
rien bedingt sind (Caplan 1985). Bei Leitungsaphasien treten oftmals Verstehens-
probleme auf, die an die Störungen bei Broca-Aphasikern erinnern, ohne von
den charakteristischen Ausfällen beim Sprechen begleitet zu sein (cf. Caramazza
& Berndt 1985).
Gehirn kann danach die verlorenen Strukturen nicht anderswo erneut
aufbauen bzw. die verlorenen Repräsentationen über einen zweiten
Spracherwerbsprozeß anderswo abspeichern. Demgegenüber haben
Aphasien eine gewisse Heilungsaussicht, wenn die Läsionen vor dem
6. Lebensjahr eingetreten sind. Dieser Umstand veranlaßte Lenneberg
(1967) zu der Annahme, daß das Gehirn höchstens bis zur Pubertät
in gewissem Sinne plastisch ist, i.e. daß sprachliche Funktionen er-
satzweise auch von anderen Regionen außerhalb des Brocagebiets
übernommen werden können. Dieses Faktum korreliert dann mit der
Tatsache, daß postpubertärer Spracherwerb weitaus schwieriger ist als
präpubertärer (cf. Felix 1987). Ebenso ist bekannt, daß Vögel ihren
artspezifischen Gesang nicht mehr nach der Geschlechtsreife erwer-
ben können. Nun muß allerdings kein funktionaler Zusammenhang
zwischen Geschlechtsreife und Spracherwerb bzw. Gesangeserwerb
bestehen, da üblicherweise zwischen Strukturgenen (die regeln, was
aufgebaut wird) und Regulatorgenen (die entscheiden, wann etwas
aufgebaut wird) unterschieden wird. Offenkundig ist es notwendig,
die verschiedenen Reifungsprozesse irgendwann abzuschließen, und
dieses scheint für verschiedene Strukturen, zu denen auch die gram-
matische Kompetenz gehört, die Pubertät zu sein.
Ein von der Lenneberghypothese abweichendes Bild ergibt sich
aus den Arbeiten der kanadischen Aphasiologin Dennis (1980). Sie
untersuchte Kinder, denen im ersten Jahr aus medizinischen Grün-
den eine Hemisphäre entfernt werden mußte. Bezüglich der allgemei-
nen Intelligenz zeigen sich nun keinerlei Unterschiede zwischen Kin-
dern ohne linke und Kindern ohne rechte Hemisphäre. Auch das,
was üblicherweise als »verbal intelligence« bezeichnet wird, ist bei
Links- und Rechts-Amputierten nicht unterschiedlich. Allerdings
ging Dennis noch einen Schritt weiter und testete die Fähigkeit, mit
komplexen grammatischen Strukturen umzugehen. Dabei trat ein
zunächst überraschendes Ergebnis auf. Diejenigen Kinder, die nur
mit der linken Hemisphäre aufgewachsen waren, unterscheiden sich
nur unwesentlich von gesunden Kindern bezüglich ihrer grammati-
schen Kompetenz. Diejenigen jedoch, die nur mit der rechten Hemi-
sphäre heranwuchsen, besaßen eine weitaus geringere grammatische
Kompetenz als normale und rechts-amputierte Kinder. Dies bedeutet
jedoch, daß die komplette Universalgrammatik links repräsentiert ist,
i.e. nur die linke Hemisphäre enthält die vollständigen Informatio-
nen, die für die Heranbildung grammatischer Kompetenz notwendig
sind.
Doch wie erklärt sich nun die relative Rekonstruktionsfähigkeit bei
kindlichen Aphasikern? Wie bereits angedeutet, ist ja nicht Sprache
schlechthin in einer bestimmten Region des Gehirns lokalisiert, son-
dern lediglich bestimmte Komponenten der Sprachfähigkeit, insbeson-
dere die Grammatik. Coltheart (1979) sieht im Phänomen der Tiefen-
dyslexie eine Möglichkeit, an die sprachlichen Fähigkeiten, die in der
rechten Hemisphäre lokalisiert sind, heranzukommen. Als Tiefendys-
lexie bezeichnet man eine bestimmte Form der Lesestörung, die zuwei-
len unabhängig von jeglicher Sprachstörung auftritt. Coltheart führt
zunächst einige Argumente dafür an, daß Tiefendyslexie dazu führt,
daß nur die rechte Hemisphäre am Leseprozeß beteiligt ist. Es zeigt
sich dann, daß Funktionswörter und Flexionsendungen beim Lesen
störanfällig sind und daß semantische Paraphasien stärker bei Verben
als bei Nomina auftreten. Coltheart schließt aus diesem Befund, daß
der rechts lokalisierten Sprachfähigkeit die typischen syntaktischen
Elemente fehlen und daß sie eher semantisch orientiert ist.
Mit Woods & Carey (1981) kann man nun in etwa folgendes Bild
entwerfen: der Mensch verfügt über zwei angeborene Sprachkompe-
tenzen; eine ist links, die andere rechts lokalisiert. Nur die linke enthält
die typischen Elemente der Syntax. Im Fall der normalen Entwicklung
nimmt die sprachlich leistungsfähigere linke Hemisphäre Sprache in
sich auf. Ist die linke Hemisphäre verletzt oder fehlt sie ganz, dann
springt die rechte Hemisphäre ein, die jedoch im sprachlichen Bereich
nur eine sehr begrenzte Leistungsfähigkeit hat.
Wir haben nun einerseits gesehen, daß mit der Broca-Aphasie eine
zentrale Störung der Sprachfähigkeit vorliegt, die keine allgemeine
Intelligenzbeeinträchtigung mit sich bringt und im Ausfall einer gene-
tisch angelegten Hirnregion begründet zu sein scheint. Andererseits
läßt sich auch zeigen, daß allgemeine Intelligenzstörungen die Sprach-
fähigkeit nur marginal beeinträchtigen, d.h. zentrale grammatische
Phänomene sind auch dann erhalten, wenn etwa die Bedeutungskom-
ponente erheblich gestört ist. Dies gilt z.B. für alle Formen der Demen-
tia oder der Schizophrenie, bei der bizzarste Inhalte in korrekte gram-
matische Formen gepackt erscheinen (cf. etwa die Beispiele in Vogel &
Propping 1981). Ebenso hat man den Spracherwerb von Kindern unter-
sucht, die z.B. am sog. Down-Syndrom leiden, einer genetischen Stö-
rung des 21. bzw. 22. Chromosoms (besser bekannt unter dem unwis-
senschaftlichen Terminus »Mongolismus«). Der Spracherwerb ist hier
zwar verzögert, jedoch entspricht er in seinem Ablauf und der letztend-
lich erworbenen Struktur völlig dem Modell nicht geistig beeinträch-
tigter Kinder (cf. Lackner 1968; Ryan 1977); dasselbe scheint auch für
andere genetisch bedingte Intelligenzdefekte zu gelten. Allgemeine
Intelligenz kann also nicht die Sprachfähigkeit bedingen (cf. Kap. 5.4).
Interessanterweise sind auch Kinder, die unter dem Autismus-Syn-
drom leiden (Kanner 1946), letztendlich doch imstande, ihre Mutter-
sprache zu erwerben, obwohl ihr Kommunikationsvermögen extrem
beeinträchtigt ist. Noch die Sprache erwachsener Autisten weist - bei
grammatischer Wohlgeformtheit - extreme kommunikative Störungen
auf (Carrow-Woolfolk & Lynch 1981). Ihre Äußerungen sind kommu-
nikativ häufig völlig unangemessen, und sie können beispielsweise
Äußerungen nur in ihrer wörtlichen Bedeutung interpretieren. Statt
picture on the wall akzeptieren erwachsene Autisten nur picture near the
wall; eine Frage wie können Sie mir sagen, wie spät es ist? würde von
ihnen mit ja beantwortet. Der Autismus zeigt recht deutlich, daß gram-
matische Fähigkeiten von pragmatischen dissoziiert auftreten können.
Abschließend sei angemerkt, daß neurologisch weitere Module
über Pathologien identifizierbar sind. Beim sogenannten Turner-Syn-
rom, einer nur bei Frauen auftretenden Störung des Geschlechtschro-
mosoms, fällt selektiv die Fähigkeit zur räumlichen Orientierung aus.
Ähnliches findet sich auch bei bestimmten Stoffwechselkrankheiten
(cf. Vogel 8c Propping 1981). Verschiedene, hierarchisch angeordnete
Assoziationsgebiete sind für visuelle und perzeptive Wahrnehmung
identifizierbar (Luria 1973). Selektiv scheinen auch mathematische Aus-
fälle aufzutreten (Levin 8c Spiers 1985). Handlungsstörungen (Apra-
xien) und Gedächtnisstörungen (Agnosien, Amnesien) treten nach Ver-
letzungen in spezifischen Gehirnregionen auf.
Insgesamt zeigen die neurophysiologischen und neuropathologi-
schen Daten mit großer Deutlichkeit, daß die menschliche Kognition
modular aufgebaut sein muß und daß eines dieser Module die formal-
syntaktische Sprachfähigkeit ist. Aus neurophysiologischer Perspektive
muß die Vorstellung einer alles umfassenden allgemeinen Intelligenz
geradezu abwegig erscheinen.

5.7 Biologie der Sprache

In diesem Abschnitt wollen wir der Frage nachgehen, inwieweit sich


das Bild eines modular aufgebauten Kognitionssystems in unsere
Kenntnisse über Biologie und Evolution des Menschen sowie des
Erwerbs von Verhaltensfähigkeiten bei Säugetieren einfügt. Da die
Grammatiktheorie die mentalen Repräsentationen sprachlichen Wis-
sens und deren biogenetische Grundlage zu spezifizieren sucht, steht
sie offenkundig in enger und unmittelbarer Beziehung zur Humanbio-
logie; diese Beziehung soll hier in Ansätzen nachgezeichnet werden.
In Kap. 3 haben wir gezeigt, warum aus linguistischer Perspektive
der Erwerb der mentalen Repräsentationen sprachlichen Wissens nur
unter der Annahme erklärt werden kann, daß grundlegende Prinzipien
dieser Repräsentationen bereits im genetischen Programm des Men-
schen spezifiziert sind. Aus biologischer Sicht ist nun eine solche
Annahme nur unter zwei Bedingungen plausibel. Zunächst ist zu zei-
gen, daß die Fähigkeit, für die eine genetische Fundierung postuliert
wird, dem betreffenden Lebewesen einen deutlichen Selektionsvorteil
verschafft. Nur unter dieser Bedingung scheint die Natur Fähigkeiten
bzw. Verhaltensweisen in die biologische Ausstattung eines Organis-
mus einzubetten16. Zum anderen muß es prinzipiell möglich sein, die
evolutionäre Entwicklung der betreffenden Fähigkeit nachzuzeichnen;
d.h. da genetisch fixierte Fähigkeiten offenkundig eine biologisch-
materielle Basis in der ihnen zugrundeliegenden Genstruktur haben
und diese nicht aus dem Nichts entstehen kann, muß sich zeigen lassen,
über welche Vorläuferstadien diese betreffende genetische Fixierung im
Evolutionsprozeß entstanden ist.
Die Frage nach einem möglichen Selektionsvorteil, den die Sprach-
fähigkeit dem Menschen verschafft (cf. auch Kap. 4 .1.2), scheint nun
relativ unproblematischer Natur zu sein. Es liegt sicher auf der Hand,
daß die Fähigkeit, Gedanken, Gefühle und Sachverhalte in einem stark
strukturierten und äußerst differenzierten Symbolsystem auszudrük-
ken, dem Menschen in nahezu allen denkbaren Lebensbereichen einen
erheblichen Vorteil gegenüber solchen Lebewesen verschafft, die nicht
über eine entsprechende Fähigkeit verfügen. Demgegenüber ist die
Frage nach der evolutionären Entwicklung der menschlichen Sprachfä-
higkeit und insbesondere ihrer biologischen Vorläufer weitaus schwie-
riger zu beantworten.

16 Der Selektionsvorteil ist hier lediglich als Voraussetzung für die Entstehung
einer genetische Spezifikation zu sehen. Der Fortfall des Selektionsvorteils
bedeutet keineswegs, daß die Spezifikation notwendigerweise wieder aus dem
genetischen Programm gelöscht wird. So ist etwa der Blinddarm ein für den heu-
tigen Menschen nutzloses evolutionäres Fossil. Da er jedoch auch keinen Se-
lektionsnachteil mit sich bringt, ist er weiterhin im genetischen Programm ver-
ankert.
Zunächst ist zu beobachten, daß die Sprachfähigkeit des homo
sapiens mit einer Reihe anderer Fähigkeiten einhergeht, die in einem
intuitiven Sinne mit Sprache und ihren Ausdrucksmöglichkeiten in
engem Zusammenhang stehen. Hierzu mögen u.a. gehören: eine im
Vergleich zu anderen Lebewesen höhere allgemeine Intelligenz, ein
äußerst komplexes begriffliches Repräsentationssystem, die Fähigkeit,
Sachverhalte und Gegebenheiten der eigenen Psyche sowie der Außen-
welt den Artgenossen mitzuteilen, etc. Ausgehend von dieser Beobach-
tung sieht eine alte und weitverbreitete Vorstellung, die sowohl bei
Laien als auch bei vielen Linguisten heute noch Anklang findet, die
menschliche Sprachfähigkeit als korrelativen Ausdruck einer im Laufe
der Evolution stetig angewachsenen Intelligenz und Kommunikations-
fähigkeit (cf. z.B. Lieberman 1984). Mit anderen Worten, Sprache bzw.
Sprachfähigkeit ist sozusagen automatisches Nebenprodukt eines
erhöhten kognitiven und kommunikativen Leistungsvermögens. Dem-
gegenüber folgt aus der Modularitätsthese und insbesondere der Auto-
nomiethese, daß die vergleichsweise hohe Intelligenz und die ausge-
prägte Kommunikationsfähigkeit des Menschen zwar phänomenolo-
gisch mit der Sprachfähigkeit einhergehen, jedoch genetisch und evolu-
tionär von dieser unabhängig sind. Ebenso wie etwa Amsel oder Meise
sowohl fliegen als auch singen können, ohne daß diese beiden Fähigkei-
ten eine erkennbare gemeinsame biologisch-evolutionäre Grundlage
haben, verfügt der Mensch einerseits über Sprache und andererseits
über spezifische kognitive und kommunikative Fähigkeiten, die jedoch
ebenfalls sowohl unter evolutionärer als auch biogenetischer Perspekti-
ve unterschiedliche Bereiche darstellen. Mit anderen Worten, die
menschliche Sprachfähigkeit resultiert gegenüber Intelligenz und Kom-
munikation aus einem autonomen evolutiven Prozeß und hat dement-
sprechend eine spezifische eigenständige biologische Fundierung.
Hohe Intelligenz und differenzierte Kommunikationsfähigkeit sind
also bestenfalls in dem Sinne Voraussetzung für die Entwicklung von
Sprache, als diese einem Lebewesen mit sehr geringen kognitiven und
kommunikativen Fähigkeiten keinerlei Selektionsvorteil verschaffen
würde, da ein solches Lebewesen eben nichts mitzuteilen hat. Die
Sprachfähigkeit des Menschen konnte sich also aus Selektionsgründen
nur deshalb entwickeln, weil dieser über ein bestimmtes Maß an kogni-
tivem und kommunikativem Leistungsvermögen verfügte, jedoch führ-
te dieses Vermögen nicht notwendigerweise und sozusagen automa-
tisch zur Sprachfähigkeit. Unter diesem Aspekt unterscheiden sich nun
die Modularitätsthese bzw. die Autonomiethese einerseits und nicht-
modularen Auffassungen wie die von Markl oder Lieberman bezüglich
ihrer Voraussagen über das Auftreten von Sprache und Intelligenz/
Kommunikationsfähigkeit in verschiedenen evolutionären Vorläufer-
stadien. Wenn Sprachfähigkeit nichts anderes ist als ein aus erhöhter
Intelligenz bzw. Kommunikationsfähigkeit automatisch resultierendes
Nebenprodukt, so ist zu erwarten, daß Lebewesen sich genau in dem
Maße der menschlichen Sprachfähigkeit nähern, wie ihre Intelligenz
bzw. Kommunikationsfähigkeit im Laufe der Evolution gestiegen sind.
Salopp ausgedrückt, je intelligenter und kommunikationsfähiger ein
Lebewesen, desto größer seine Fähigkeit, die spezifischen Eigenschaf-
ten menschlicher Sprachsysteme zu erlernen und zu verwenden. Die
Modularitätsthese hingegen negiert eine solche Korrelation. Sie sagt
voraus, daß selbst solche Lebewesen, die über sehr hohe kognitive und
kommunikative Fähigkeiten verfügen und in dieser Hinsicht dem Men-
schen relativ nahestehen mögen, nicht einmal ansatzweise imstande
sind, sprachliche Fähigkeiten wie die des Menschen zu erlernen bzw.
zu verwenden; und zwar genau deshalb, weil ihnen jener Teil des gene-
tischen Programms fehlt, der beim Menschen die Sprachfähigkeit aus-
macht. Unter diesem Aspekt wollen wir im folgenden die verfügbare
biologische Evidenz daraufhin betrachten, inwieweit sie die Modulari-
tätsthese stützt bzw. ihr entgegensteht.
Die auch in der Biologie lange Zeit dominierende Vorstellung, die
menschliche Sprachfähigkeit sei nichts anderes als der Endpunkt eines
langen Evolutionsprozesses, in dem sich zunächst sehr primitive Sym-
bol- und Kommunikationssysteme nach und nach ausdifferenziert
und verfeinert haben, scheint eine Bestätigung in der Tatsache zu fin-
den, daß in der Tat nahezu alle Tiere - angefangen vom primitiven
Einzeller wie dem Schleimpilz (Bonner 1983) bis hin zu den Delphi-
nen (Herman et al. 1984) - über ein akustisches, chemisches oder opti-
sches Kommunikationssystem verfügen. Somit liegt die Vorstellung
nahe, daß sich die menschliche Sprachfähigkeit eben aus diesen Tier-
kommunikationssystemen bzw. deren evolutionären Vorläufern her-
ausgebildet hat. Diese Sichtweise scheint darüber hinaus den Vorteil zu
bieten, daß sich aus ihr eine plausible evolutionäre Entwicklung mit
einer spezifizierbaren Abfolge von Vorgängerstadien ergibt. Menschli-
che Sprache ist danach nichts anderes als ein Beispiel für ein grundsätz-
lich universales Phänomen in der Tierwelt, nämlich für die Fähigkeit zu
kommunizieren.
Das Problem dieser Auffassung liegt jedoch darin, daß das, was
landläufig als Tiersprache bzw. Tierkommunikationssystem bezeichnet
wird, nicht etwa eine lediglich primitivere und weniger strukturierte
Form der menschlichen Sprache darstellt, sondern qualitativ grund-
sätzlich anderer Natur ist. Es zeigt sich nämlich, daß eine Vielzahl
essentieller Merkmale natürlich-sprachlicher Kommunikation in den
Mitteilungssystemen der Tierwelt überhaupt nicht auftreten. So stellen
Hockett & Altmann (1968) insgesamt 16 Merkmale natürlich-sprachli-
cher Kommunikationssysteme auf, von denen u.a. die »mehrstufige
syntaktische Struktur« und die »Offenheit des Signalrepertoires« in der
Tierkommunikation nicht vorkommen. Die Intentionalität kommuni-
kativen Verhaltens läßt sich zwar bei höheren Säugern beobachten,
nicht jedoch bei weniger entwickelten Lebewesen. So werden beispiels-
weise die chemischen Lockstoffe, die Amöben aussenden, um sich zu
einem für die Fortpflanzung dieser Lebewesen erforderlichen Schleim-
pilz zu vereinen, als Reaktion auf einen Nahrungsmangel automatisch
abgegeben (Bonner 1983). Die Amöben sind in ihrer Molekularstruk-
tur so angelegt, daß sie gar nicht anders können, als sich auf das Diffu-
sionszentrum dieser chemischen Stoffe hinzubewegen17. Es handelt
sich hier also um automatisch ablaufende chemische Reaktionen, die
man schwerlich mit dem Begriff menschlicher Kommunikation gleich-
setzen kann. Sieht man derartige automatische Reaktionen als Kommu-
nikation an, so müßte man eigentlich auch sagen, daß ein schmerzender
Zahn seinem Besitzer kommuniziert, er möge bald einen Zahnarzt auf-
suchen.
Selbst bei höheren Lebewesen wie den Wirbeltieren liegen Kommu-
nikationssysteme nur in einem sehr weitgefaßten Sinne vor. Diese Tiere
kommunizieren nur, wenn man - wie etwa die amerikanischen Psycho-
logen Watzlawick et al. (1969) - jedes beliebige Verhalten eines Lebewe-
sens als Kommunikation ansieht. Grundsätzlich läßt nämlich etwa
beim Menschen jedes Verhalten Rückschlüsse auf seine Intentionen zu,
so daß ein Beobachter aufgrund dieser Rückschlüsse in eine Interak-
tion mit dem handelnden Individuum treten kann. Wer etwa beim
Frühstück Zeitung liest, kommuniziert in diesem Sinne seinem Gegen-
über, daß er lieber Zeitung liest als sich zu unterhalten. Wer mit der
Zigarette im Mund in seinen Taschen zu kramen beginnt, kommuni-
ziert unter einer solchen Perspektive seinen Mitmenschen, daß er Feuer
braucht. Ein derartiger, alles umfassender Kommunikationsbegriff ist

17 Bei der Fortbewegung können natürlich auch reine Zufallsbewegungen mitbe-


stimmend sein. Entscheidend ist hier jedoch, daß die Bewegungen eben nicht als
intentionale Handlungen aufgefaßt werden können.
natürlich viel zu vage und undifferenziert, um aus linguistischer Sicht
für die hier anstehende Problematik überhaupt brauchbar zu sein.
Wenn jedes beliebige Phänomen in irgendeiner Form Kommunikation
ist, so läßt sich mit Kommunikation nichts mehr erklären (cf. auch
Chomsky 1975, 1980). In einem solchen Sinne würde auch eine Mülltü-
te über ihren Geruch kommunizieren, daß sie in die Deponie befördert
werden möchte.
Wie bereits Lewis (1969) betont, setzt ein sinnvoller und brauchba-
rer Kommunikationsbegriff eine strikte Unterscheidung zwischen den
Anzeichen und den Symbolzeichen für einen Sachverhalt. Auch intui-
tiv leuchtet eine solche Distinktion ein. Rauch ist ein Anzeichen für
Feuer; es schiene absurd, wollte man annehmen, daß Rauch ein Sym-
bolzeichen ist, mit dem das Feuer seine Existenz mitteilen will. Ebenso
mag das Verhalten eines am Frühstückstisch Zeitung lesenden Eheman-
nes als Anzeichen für mangelnde Partnerschaftspflege gelten, selbst
wenn der Ehemann sich dessen nicht bewußt ist. Im Gegensatz dazu
sind die Rosen, die ein Verehrer seiner Angebeteten schickt, kein
Anzeichen, sondern ein Symbolzeichen, mit dem er seine Liebe mittei-
len will.
Offenbar ist eines der entscheidenden Merkmale sprachlicher Kom-
munikation, wie wir sie beim Menschen finden, die Mitteilungsinten-
tion. So kann der Ehemann am Frühstückstisch demonstrativ Zeitung
lesen, um seiner Partnerin damit bewußt zu signalisieren, daß er etwa
auf sie ärgerlich ist (obwohl ihn die Zeitung eigentlich gar nicht interes-
siert). Ebenso kann jemand - z.B. im Ausland, wo mangelnde Sprach-
kenntnisse eine entsprechend verbale Äußerung nicht gestatten -
demonstrativ nach Streichhölzern suchen, um seinem Gegenüber zu
signalisieren, daß er Feuer benötigt. Watzlawick et al. (1969) übersehen,
daß nicht das Verhalten per se Kommunikation ist, sondern die dahin-
terstehende Intention, etwas mitteilen zu wollen.
Es zeigt sich jedoch nun, daß Tierkommunikationssysteme allein
bei höheren Säugern das Merkmal der intendierten Mitteilungsfunk-
tion aufweisen, während alle übrigen »Tiersprachen« letztlich nichts
anderes sind als relativ einfache Systeme von Anzeichen, denen automa-
tisch ablaufende Reaktionen zugrunde liegen. So kann der Alarmruf,
den eine Amsel beim Nähern eines Habichts ausstoßen mag, schlicht
und einfach eine Reaktion ihres Nervensystems sein, ebenso wie auch
der Mensch automatisch Schmerzensschreie ausstößt, wenn er etwa
geschlagen wird oder sich verbrennt, ohne damit irgend jemandem
etwas mitteilen zu wollen. Man schreit in diesem Fällen nicht aus kom-
munikativen Gründen, sondern weil etwas Schmerz bereitet. Es han-
delt sich hierbei um nicht-kommunikative körperbedingte Reaktionen,
die Anzeichen für bestimmte innere Zustände sind, ebenso wie Schnee
ein Anzeichen für einen bestimmten Temperaturbereich ist. Man
würde kaum behaupten wollen, das Wetter kommuniziere uns durch
den Schnee, daß es kalt ist. Somit liegt eigentlich kein Grund dafür vor,
etwa den Angstschrei eines Tieres als Kommunikation anzusehen.
Ebenso wie wir aus dem Schneefall den Schluß ziehen, daß wir uns
warm anziehen müssen, kann ein Tier aus dem Angstschrei eines ande-
ren Tieres bestimmte Konsequenzen (z.B. Flucht) ziehen; doch Kom-
munikation im natürlichsprachlichen Sinne muß hierbei nicht im Spiele
sein.
Kommunikatives Verhalten, wie wir es beim Menschen finden, weist
also bestimmte Eigenschaften auf, die in vielen Bereichen der Tierwelt
typischerweise nicht auftreten. Die bereits angesprochene Intentionali-
tät besagt nichts anderes, als daß eine Handlung bzw. Äußerung plan-
voll mit einem bestimmten Mitteilungszweck ausgeführt wird und
nicht einfach als automatische Reaktion auf einen Umweltreiz erfolgt.
Ein besonders deutliches Beispiel für kommunikatives Verhalten qua
Intentionalität ist paradoxerweise die Lüge. Eine bewußt unwahre Mit-
teilung über einen Sachverhalt kann offensichtlich nicht durch diesen
Sachverhalt im Sinne einer automatischen Reaktion ausgelöst sein, son-
dern setzt ein höheres Begriffssystem voraus, in dem etwa Ursachen
und Folgen auf der Grundlage spezifischer Kenntnisse über Verhaltens-
gesetzmäßigkeiten gegeneinander abgewogen werden können. In der
Tat scheint nun die Fähigkeit zur Lüge, d.h. die Möglichkeit, das
Gegenteil eines tatsächlichen Sachverhaltes zu kommunizieren, bei Tie-
ren in aller Regel nicht vorhanden zu sein.
Neben der Intentionalität scheint vor allem der Bezug zur Außen-
welt ein zentrales Merkmal menschlich-kommunikativen Verhaltens zu
sein, d.h. der Mensch kann - losgelöst von seinem inneren psychischen
Zustand - Aussagen über die Welt machen. So kann etwa jemand einem
Gesprächspartner mitteilen: Gestern um 5 Uhr hat die Feuerwehr einen
Hotelbrand gelöscht. Auch hier finden wir, daß es eine solche Fähigkeit
im »kommunikativen« Verhalten von Tieren nur bei sehr wenigen Spe-
zies gibt. Die meisten scheinbar kommunikativen Äußerungen bzw.
Handlungen von Tieren teilen - wenn überhaupt - nur etwas über die
inneren Zustände des Tieres mit, nichts jedoch über Ereignisse oder
Zustände in der Welt. Es ließe sich hier allerdings einwenden, daß bei
einigen Vogelarten sowie verschiedenen Affenspezies in der Tat eine
deutliche Verhaltensdifferenzierung in Abhängigkeit von bestimmten
Außenweltgegebenheiten zu erkennen ist. So geben etwa Amseln, aber
auch andere Vögel unterschiedliche akustische Signale ab, je nachdem,
ob sich der Freßfeind aus der Luft (z.B. ein Habicht) oder vom Boden
(z.B. eine Katze) nähert (cf. Catchpole 1979). Somit ließe sich vermu-
ten, daß Vogelschreie eben doch etwas über spezifische Gegebenheiten
der Außenwelt mitteilen und in diesem Sinne kommunikativ sind. Ver-
gleicht man jedoch z.B. die Alarmsignale, die verschiedene Vogelarten
(Amsel, Buchfink, Meise) bei der Annäherung eines Habichts aussen-
den, so läßt sich eine bemerkenswerte Übereinstimmung im Frequenz-
bereich dieser Alarmsignale feststellen; d.h. der Frequenzbereich ist in
allen Fällen weitgehend identisch (cf. Marler 1975). Dieses Faktum legt
die Vermutung nahe, daß offenbar irgendein Selektionsvorteil darin
bestehen muß, nur in diesem Frequenzbereich Alarmsignale auszusen-
den. Catchpole (1979) weist nun in diesem Zusammenhang darauf hin,
daß die Fähigkeit, Artgenossen durch ein Alarmsignal zu warnen,
neben einem offenkundigen Selektionsvorteil auch einen gravierenden
Selektionsnachteil mit sich bringt: der Freßfeind wird nämlich durch
das Alarmsignal auf den warnenden Vogel aufmerksam und kann ihn
somit auch akustisch orten.
Dieser Selektionsnachteil läßt sich nun dadurch entschärfen, daß das
Alarmsignal derart strukturiert wird, daß dem Freßfeind möglichst
wenig Information über den Ort des Emittenten signalisiert wird.
Vögel lokalisieren Geräusche nun - ebenso wie der Mensch - einer-
seits durch Phasenverschiebung, die sich aus dem zeitlich unterschiedli-
chen Eintreffen des Schallereignisses an den beiden Ohren ergibt, und
andererseits durch Intensitätsdifferenz (cf. Bower 1974). Es läßt sich
nun ein Frequenzwert berechnen, bei dem die einzelnen Parameter
einem Raubvogel aufgrund der Anatomie seines Gehörs am wenigsten
Information über den Standort der Geräuschquelle vermitteln, so daß
eine Lokalisierung des Geräusches genau bei diesem Frequenzwert am
schwierigsten ist. In der Tat entspricht dieser errechnete Wert dem Fre-
quenzbereich, in dem die verschiedenen Singvögel vor Freßfeinden aus
der Luft warnen (Catchpole 1979). Die spezifischen Eigenschaften des
Alarmsignals ergeben sich also aus einem Schutzmechanismus, der
exakte Lokalisierung des bedrohten Vogels verhindern soll.
Ist der Freßfeind jedoch an den Boden gebunden, so besteht für den
Alarmgeber selbst bei exakter Lokalisierbarkeit keine unmittelbare Ge-
fahr, denn er kann ja einfach davonfliegen. Andererseits ist es für die
Artgenossen des Singvogels am günstigsten, möglichst exakte Infor-
mationen über den Standort des Freßfeindes zu erhalten. Unter dem
Aspekt der Arterhaltung entsteht somit ein evolutiver Druck in Rich-
tung optimaler Lokalisierbarkeit, sofern es sich um einen nicht-fliegen-
den Freßfeind handelt. In der Tat liegen die Frequenzwerte der Alarm-
signale, die von den einzelnen Vogelarten bei boden-gebundenen Freß-
feinden gegeben werden, im jeweils für Lokalisierungen optimalen
Bereich. Es zeigt sich also, daß die Ausbildung eines differenzierten
Systems von Alarmsignalen, bei dem »Außenwelt«parameter wie
Bodengefahr/Luftgefahr kodiert werden, allein aus evolutiven Selek-
tionsvorteilen bzw. der Abschwächung von Selektionsnachteilen
erklärbar ist. Es scheint also kaum sinnvoll zu sein, im Falle der Amsel
und anderer Singvögel davon zu sprechen, daß diese Tiere ihren Artge-
nossen Gegebenheiten der Außenwelt kommunizieren. Die Differenzie-
rung nach Bodengefahr vs. Luftgefahr ergibt sich aus den ureigensten
Interessen des alarmgebenden Vogels und ist eine aus evolutivem
Druck entstandene automatische Reaktion, die völlig unabhängig von
irgendwelchen Mitteilungswünschen an die Artgenossen ist.
Es zeigt sich also, daß nahezu allen vermeintlichen Kommunika-
tionssystemen im Tierreich entscheidende Merkmale fehlen, die die
menschliche bzw. natürlichsprachliche Kommunikationsfähigkeit cha-
rakterisieren, nämlich u.a. die intendierte Mitteilungsfunktion und der
Bezug zu Sachverhalten der Außenwelt. Sog. Tiersprachen - angefan-
gen von primitiven Einzellern wie dem Schleimpilz bis hin zu den Sing-
vögeln - sind nichts anderes als Systeme automatisch ablaufender
Reaktionen auf bestimmte Umweltreize. Die Vorstellung einer evolu-
tionären Kontinuität von primitiven zu immer stärker ausdifferenzier-
ten Kommunikationssystemen, an deren Ende die menschliche Sprach-
fähigkeit steht, ist also empirisch kaum zu rechtfertigen. Es besteht ein
qualitativer evolutionärer Bruch zwischen den nicht-kommunikativen
Verhaltensweisen von Tieren und der im eigentlichen Sinne kommuni-
kativen Sprachfähigkeit des Menschen.
Soweit wir aus der Evidenz aus dem Tierreich überhaupt eine prin-
zipielle evolutionäre Fortentwicklung von ihrem Wesen nach nicht-
kommunikativen Anzeichensystemen zu quasi-kommunikativen Sym-
bolsystemen nachzeichnen können, wäre hier das Verhaltenspotential
von Primaten und Delphinen zu betrachten, wenngleich Herman
(1980) und Premack (1985) in einem ausführlichen Überblick feststel-
len, daß die essentiellen Merkmale menschlicher Kommunikation im
Grunde auch in den Verhaltensweisen dieser Tiere fehlen, so daß sich
die Anwendung von Begriffen wie Kommunikation und Sprache außer-
halb des menschlichen Bereichs generell als äußerst problematisch
erweist. Dennoch zeigen Primaten und Delphine im Vergleich zu pri-
mitiveren Lebewesen teilweise bestimmte Verhaltensmerkmale, die eine
gewisse Nähe zur menschlichen Kommunikationsfähigkeit andeuten.
So verfügen Delphine und Menschenaffen (Terrace 1979) vermutlich
über einen Begriff der »Wahrheit«, d.h. sie können ihr Verhalten in
einem Sinne kontrollieren, daß ein Beobachter das Gegenteil eines tat-
sächlichen Sachverhaltes anzunehmen geneigt ist. Mit anderen Worten,
diese Tiere scheinen die Fähigkeit zur »Lüge« zu besitzen. Darüber hin-
aus sind Menschenaffen und Delphine offenbar imstande, durch ihr
Verhalten Gegebenheiten der Außenwelt zu signalisieren, und zwar
auch solche, die sich dem augenblicklichen perzeptuellen Zugriff der
Tiere entziehen (cf. Premack 1985). Hervorzuheben ist allerdings, daß
diese Fähigkeit nicht »von Natur aus« auftritt, jedoch den Tiere durch
systematische Lehrverfahren beigebracht werden kann.
Treffen diese Beobachtungen über Delphine und Menschenaffen
zu (cf. jedoch Premack 1985), so könnte man die evolutionäre Ent-
wicklung der menschlichen Sprachfähigkeit sozusagen in drei Stadien
einteilen. Im frühsten Stadium treten allein reine Anzeichensysteme
auf, wie wir sie heute bei nahezu allen Tieren noch finden. Hier
erscheint keine wirkliche Kommunikation, sondern bestimmte Verhal-
tensweisen sind automatische Körperreaktionen. Die nächste Entwick-
lungsstufe entspricht dem Verhaltenspotential von Menschenaffen und
Delphinen. Es treten Grundzüge wirklich kommunikativen Verhaltens
auf, wenngleich in noch sehr einfacher und primitiver Art. Der
Mensch als »Krönung der Schöpfung« repräsentiert das letzte Ent-
wicklungsstadium, in dem die Kommunikationsfähigkeit aus einem
sehr komplexen und subtilen System von Symbolen besteht, das dann
als automatisches Nebenprodukt die Entwicklung der Sprachfähigkeit
mit sich bringt. Wenn dieses Bild richtig ist, d.h. wenn sich die
menschliche Sprachfähigkeit tatsächlich als Korrelat aus der Kommu-
nikationsfähigkeit ergibt, so wäre zu erwarten, daß ein Lebewesen um
so eher imstande ist, menschliche Sprache zu erlernen bzw. zu verwen-
den, je größer seine Kommunikationsfähigkeit ist. Präziser ausge-
drückt, Delphine und Menschenaffen sollten aufgrund ihrer im Ver-
gleich zu anderen Tieren höheren Kommunikationsfähigkeit imstande
sein, Sprachsysteme, wie wir sie beim Menschen finden, zumindest in
Ansätzen zu erlernen und zu verwenden. Ein entsprechender Befund
wäre als starke Evidenz gegen die Modularitätsthese bzw. die Autono-
miethese zu werten.
Unter diesem Aspekt wurden bereits in den frühen 6oer Jahren
zahlreiche Experimente unternommen, in denen man versuchte, vor
allem Schimpansen menschliche Sprache beizubringen. Man ging
davon aus, daß die allgemeine Intelligenz und Kommunikationsfähig-
keit bei diesen Tieren so hoch entwickelt ist, daß der Erwerb von Spra-
che unter günstigen Lernbedingungen prinzipiell möglich sein sollte.
Dahinter stand die gegen die Modularitätsthese gerichtete Annahme,
daß Sprache eben nicht ein genetisch autonomes Spezifikum des homo
sapiens ist, sondern allein ein Ausfluß seiner hohen allgemeinen Intelli-
genz und seines stark ausgeprägten Begriffssystems.
Bevor wir einige der bekanntesten Sprachlehrexperimente mit Tie-
ren betrachten, ist jedoch zunächst einmal die Frage zu stellen, inwie-
fern derartige Versuche überhaupt für eine Auseinandersetzung mit der
Modularitäts- bzw. Autonomiethese einschlägig sein können. Die Tat-
sache, daß zwei Spezies über genau die gleiche Fähigkeit verfügen,
spricht natürlich per se keinesfalls gegen eine spezifische genetische
Fundierung dieser Fähigkeit. Säuger wie die Fledermaus, Vögel wie die
Amsel, Reptilien wie der Flugsaurier und Insekten wie die Bienen kön-
nen fliegen. Wenngleich es sich hier offenkundig um Arten mit den
unterschiedlichsten Genomen handelt, so wäre es sicher absurd zu
schließen, die Flugfähigkeit sei etwa den Bienen nicht angeboren, son-
dern auf der Basis allgemeiner Intelligenz erlernt. Wenn Tiere densel-
ben selektiven Zwängen ausgesetzt sind, so werden sich in ihren
Genom auch dieselben Fähigkeiten entwickeln, ein Phänomen, das als
Koevolution bezeichnet wird. Wenn also sowohl der Affe wie auch der
Mensch lächeln oder mit erhobener Hand drohen kann, so folgt daraus
nicht, daß dieses erlernte Verhaltensweisen sind; sie sind beiden Arten
angeboren, wie etwa Eibl-Eibesfeldt (1976) gezeigt hat.
Nun gilt zunächst, wie bereits angesprochen, daß die genetische
Fixierung einer bestimmten Fähigkeit nur unter evolutivem Druck
erfolgt; vereinfacht gesagt, die Fähigkeit muß dem Lebewesen etwas
nützen, sonst erwirbt es sie nicht für sein Genom. Wenn Menschenaf-
fen nun tatsächlich Sprache prinzipiell zwar erlernen können, sie
jedoch - im Gegensatz zum Menschen - spontan weder hervorbringen
noch verwenden, dann muß diese prinzipiell vorhandene, jedoch unter
normalen Bedingungen nicht realisierte Sprach(lern)fähigkeit vollstän-
dig auf eine andere Fähigkeit reduzierbar sein, die für die Tiere in freier
Wildbahn von Vorteil und daher in ihrem Genom verankert ist. Mit
anderen Worten, genau in diesem Fall wäre anzunehmen, daß Sprache
auch auf der Basis einer nicht-sprachspezifischen (genetisch fundier-
ten) Fähigkeit erlernt werden kann und somit lediglich Ausdruck einer
allgemeineren Fähigkeit ist, über die nicht nur der Mensch, sondern
eben auch Menschenaffen verfügen. Damit bräche aber die auf dem
logischen Problem des Spracherwerbs (cf. Kap. 3) aufbauende Argu-
mentation und somit die Grundlage der Modularitätsthese zusammen.
Bereits Atherton & Schwartz (1983) haben darauf hingewiesen, daß
die Sprach(lehr)versuche mit Affen aus prinzipiellen Gründen eigent-
lich völlig an dem grundlegenden Problem vorbeigehen. Die These der
aufgabenspezifischen genetischen Fundierung der menschlichen
Sprachfähigkeit wurde ja nicht deshalb aufgestellt, weil der Mensch
überhaupt Sprache erwerben kann, sondern weil er dazu unter den sehr
spezifischen Bedingungen des kindlichen Spracherwerbs in der Lage
ist. Mit anderen Worten, das Kind erwirbt seine Muttersprache,
obwohl die ihm verfügbaren diesbezüglichen Umweltinformationen
völlig unzureichend sind, um die spezifischen Struktureigenschaften
der jeweiligen Sprache daraus abzuleiten. Die Autonomiethese beruht
also entscheidend auf dem poverty-of-stimulus-Argument (cf. Kap. 3.2).
Wären etwa explizite Instruktion, negative Evidenz, Systematisierung
der Datenpräsentation usw. Bestandteil des normalen Spracherwerbs,
so würde sicher niemand hier eine spezifische genetische Fundierung
postulieren. Gerade weil Kinder aber nur über positive und darüber
hinaus weitgehend unsystematische Evidenz verfügen und dennoch
spontan, zielsicher und in relativ kurzer Zeit Sprache erwerben, setzt
man ein spezifisches Genom für Sprache an.
Sprachexperimente mit Menschenaffen wären also nur dann für
die Frage der genetischen Fundierung einschlägig, wenn auch Schim-
pansen im wesentlichen unter denselben Bedingungen wie der
Mensch dieselben Sprachen auf dieselbe Art und Weise erwürben bzw.
erwerben könnten. Aber gerade dies ist nun nicht der Fall. Ein
Menschenaffe, den man einer beliebigen natürlich-sprachlicher Umge-
bung aussetzt, wird niemals auch nur ein einziges Wort oder einen
einzigen Satz erwerben, unabhängig davon, ob es sich um gesproche-
ne oder signalisierte Sprache handelt. Insofern sind die Sprachlehrver-
suche mit Menschenaffen für die hier zur Diskussion stehende These
im Grunde irrelevant. Wie bereits Chomsky (1975) betont, ist die Tat-
sache, daß ein Zirkusdompteur etwa einem Elefanten beibringen
kann, auf zwei Beinen zu laufen, keineswegs eine Falsifikation der
These, daß der aufrechte Gang des Menschen genetisch fixiert ist,
während das genetische Programm des Elefanten einen Gang auf vier
Beinen vorsieht.
Betrachtet man nun die mühseligen und oftmals frustrierenden
Unterrichtsversuche, in denen verschiedenen Menschenaffen Sprache
beigebracht werden sollte, so überrascht zunächst, daß diesen Experi-
menten so wenig Erfolg beschieden war. Die ersten Versuche, die in den
30er Jahren in der Sowjetunion und den USA durchgeführt wurden
(z.B. von dem Forscherpaar Kellogg), waren völlig erfolglos. Jedoch
ergab sich dieser totale Mißerfolg eher aus peripheren Eigenschaften
menschlicher Sprache. Man hatte nämlich versucht, Schimpansen im
wörtlichen Sinne zum Sprechen zu bringen. Anatomische Untersu-
chungen (cf. Lieberman 1984) haben jedoch gezeigt, daß Kehlkopf und
Mundraum des Affen gar nicht geeignet sind, komplexe menschlichen
Laute zu artikulieren. Entscheidend dürften aber eher die kortikalen
Gegebenheiten sein. Das menschliche Gehirn besitzt für Hände und
für den Mundraum besonders stark ausgeprägte motorische Zentren
(cf. Changeux 1984), und diese neurologische Grundlage für die not-
wendige feinmotorische Kontrolle der Artikulatoren fehlt beim Affen.
Selbst wenn alle Säugetiere einige phonetische Differenzierungen
erkennen bzw. produzieren können (Jusczyk 1981) - so etwa die Unter-
scheidungfähigkeit zwischen stimmhaften und stimmlosen Lauten
beim Chinchilla (Kuhl & Miller 1975) und beim Pavian (Pohl 1983) -,
so gibt es doch eine Vielzahl lautlicher Differenzierungen, die sprach-
spezifisch nur beim Menschen auftreten (cf. Eimas 1983). Der Affe hat
also vermutlich nicht nur motorische, sondern auch perzeptuelle Pro-
bleme mit menschlicher Sprache.
Aus diesem Grunde lag es nahe, Affen nicht-akustische Sprachen zu
lehren. Wie etwa die American Sign Language (ASL) zeigt, ist die aku-
stische Realisierung kein essentielles Merkmal menschlicher Sprachen.
In jüngerer Zeit hat man daher versucht, Affen Sprachen beizubringen,
die ihre materielle Basis entweder in einem manuellen Gestensystem
wie der ASL (so Terrace 1979), in einer Computertastatur (Rumbaugh
1977) oder einem System von Plastikchips (Premack & Premack 1983)
haben.
Exemplarisch für die sprachlichen Erfolge aller Affen, die in derarti-
gen Experimenten Sprache erwerben sollten, können wir nun zunächst
das Versuchstier Nim Chimpsky von Terrace (cf. Terrace 1979, 1983)
betrachten. Nim erwarb ein erstaunliches Inventar von Wörtern, die
u.a. auch dem emotiven Bereich angehören. Dieses Ergebnis zeigt, daß
wir uns tatsächlich mit einer andersgearteten Intelligenz über Wut und
Trauer oder die Farbe einer Katze verständigen können. Mit anderen
Worten, in bestimmten Bereichen sehen Affen die Welt ähnlich wie wir.
Bezüglich der Fähigkeit von Affen, ein System zu erwerben, das ähn-
lich komplex ist wie eine natürliche Sprache, sind die Ergebnisse aller-
dings eher deprimierend. Die positiven Aspekte von Nims sprachli-
chen Leistungen erschöpfen sich weitgehend in der Fähigkeit, seman-
tisch strukturierte Zweiwortäußerungen zu produzieren, wie sie auch
in den ersten Stadien des menschlichen Spracherwerbs auftreten. Inner-
halb des von Terrace aufgestellten Korpus von Zweiwortäußerungen
lassen sich bestimmte Stellungsregularitäten feststellen (so tendieren
more oder give zur Erststellung), die keine reine Imitation der Stel-
lungsregularitäten in der Inputsprache gewesen sein können. So ver-
wendete Nim ein Verb wie tickle transitiv und in Erststellung, bevor in
seinem Input Sequenzen wie tickle Laura auftraten.
Anders als menschliche Kinder zeigte Nim jedoch schon sehr bald
keinerlei Anwachsen in der strukturellen Komplexität seiner Äußerun-
gen mehr. Im Gegensatz zum kindlichen Spracherwerb enthielten
Nims Drei- und Mehrwortäußerungen nicht mehr Information als
seine Zweiwortäußerungen. Längere Sequenzen beschränkten sich auf
lexikalische bzw. semantische Wiederholungen. Eine Syntax, die mehr
als zwei Elemente verarbeiten kann, i.e. eine strukturierte Syntax
schlechthin, kann ein Affe also offenbar nicht erwerben. Darüber hin-
aus fehlten Nims Äußerungen jene Spontaneität und Kreativität, die
gerade die Sprache von Kindern auszeichnen. Anhand von Videoauf-
nahmen konnte Terrace (1979) zeigen, daß der Anteil an nicht-imitati-
ven Äußerungen eher gering ist. Mit anderen Worten, anders als Kinder
reproduzierte Nim in den meisten Fällen die im Input vorgegebene
Sequenz.
Terrace (1983) selbst räumt ein, daß die im Experiment mit Nim ver-
wendete Unterrichtsmethode nicht in jeder Hinsicht optimal war. Aber
auch diejenigen Forscher, die diese Mängel in ihren eigenen Untersu-
chungen auszuräumen versuchten, erzielten - qualitativ betrachtet -
keine entscheidend besseren Ergebnisse. Da es in über 25 Jahren inten-
siver Versuche nicht gelungen ist, Menschenaffen auch nur annähernd
ein den natürlichen Sprachen entsprechendes System beizubringen,
deutet alles darauf hin, daß auch diese dem Menschen in ihrer allgemei-
nen Intelligenz und Kommunikationsfähigkeiten sehr nahestehenden
Tiere eben nicht über die Fähigkeit verfügen, menschliche Sprache zu
erlernen (eine Zusammenfassung und Diskussion der Forschungser-
gebnisse findet sich in Premack (1985) und Ristau & Robbins (1982)).
Offenbar ist nur der Mensch imstande, Systeme mit den Eigenschaften
natürlicher Sprachen zu erwerben.
Interessanterweise entspricht der Endpunkt in Nims sprachlicher
Entwicklung einem deutlichen Einschnitt im menschlichen Spracher-
werb. Kinder beginnen ihren Spracherwerb mit einer Phase, in der ihre
Äußerungen primär nach semantischen bzw. konzeptuellen Prinzipien
strukturiert sind (cf. Bloom 1970; Brown 1973; Felix 1985, 1987). Diese
Phase reicht in etwa bis in das Zweiwort- und z.T. frühe Dreiwortsta-
dium hinein; erst danach beginnt das Kind, seine Äußerungen nach
syntaktischen Kategorien und Prinzipien aufzubauen. Affen scheinen
nun bei expliziter Instruktion in der Lage zu sein, dem menschlichen
Spracherwerb genau so lange zu folgen, wie semantisch-konzeptuelle
Prinzipien als Bausteine sprachlicher Äußerungen fungieren. Sobald
Syntax und Grammatik ins Spiel kommen, verliert der Affe die Mög-
lichkeit, seine sprachliche Entwicklung voranzutreiben. Dieser Befund
entspricht jedoch genau den Erwartungen, die sich aus der Modulari-
tätsthese ableiten lassen. Auch die natürlichen Kommunikationssyste-
me der Affen entbehren jeglicher syntaktischer Strukturierung (cf. Pre-
mack 1985). Die Hoffnung, jemals einem Primaten ein Kommunika-
tionssystem der Komplexität natürlicher Sprache beibringen zu kön-
nen, dürfte also eine Illusion sein.
In jüngster Zeit sind Sprachlehrversuche mit Delphinen unternom-
men worden (Herman et al. 1984). Diese Tiere verfügen nachweislich
über einen größeren Grad an Zerebralisierung als Menschenaffen und
sind daher vermutlich intelligenter als diese. Wegen der Faszination, die
Delphine und Wale häufig auf Menschen ausüben, neigen manchmal
auch Wissenschaftler zu übertriebenen Einschätzungen über die kogni-
tiven Fähigkeiten dieser Spezies. Wie Herman (1980) zeigt, dürften
selbst die oftmals langen und hochstrukturierten Gesänge der Wale
auch nicht mehr kommunikative Funktion besitzen als die vergleichs-
weise primitiveren Vogelgesänge, nämlich die Funktion, um den
Geschlechtspartner zu werben. Auch die natürlichen Kommunika-
tionssysteme der Delphine, die vor allem aus Pfiffen und Clicks beste-
hen, unterscheiden sich in ihrer Primitivität in nichts von den kommu-
nikativen Fähigkeiten der Amsel. Bastian (1967) versuchte als einer der
ersten nachzuprüfen, ob Delphine zur Kommunikation in einem psy-
chologischen Sinne in der Lage sind. Dazu brachte er zwei Delphine in
einem Bassin zusammen und lehrte sie, eine kooperative Aufgabe zu
lösen. Beide Tiere bekamen nur dann eine Belohnung, wenn sie in
ihrem Bassinteil ein gleichartiges von zwei angebotenen Paddeln drück-
ten. Tatsächlich erwiesen sich die beiden Delphine zu dieser kooperati-
ven Leistung imstande. In einem zweiten Versuchsabschnitt wurde nun
im Bassin eine Sichtblende angebracht, die den visuellen, aber nicht den
akustischen Kontakt zwischen den beiden Tieren verhinderte. In der
Tat waren die Delphine auch unter dieser Bedingung in der Lage, das
Problem zu lösen. Bastian schloß daraus, daß Delphine imstande sein
müßten, sich akustisch über arbiträre Inhalte (z.B. welches Paddel
gedrückt wurde) zu verständigen.
Eine Replikation des Experiments brachte jedoch bald die wahren
Ursachen für die Leistung der beiden Delphine ans Licht. Delphine
verfügen nämlich über ein ausgezeichnetes Sonarsystem zur akusti-
schen Lokalisierung von Gegenständen. Herman & Tavolga (1980)
konnten nachweisen, daß die Delphine über Echolokalisierungen her-
ausfanden, welches der beiden (weit voneinander entfernten) Paddel
das jeweils andere Tier gedrückt hatte. Sicherlich ist eine beträchtliche
kognitive Kapazität erforderlich, um diese Kooperationsaufgabe zu
lösen; jedoch ist Kommunikation hierbei nicht im Spiel.
Herman et al. (1984) haben nun versucht, Delphinen direkt syntak-
tische Regularitäten beizubringen. Dabei erzielten sie überraschender-
weise durchweg bessere Resultate, als man sie bei entsprechenden Ver-
suchen mit Menschenaffen erhalten hatte. Ein wichtiger - vorher nicht
erbrachter - Nachweis einfacher kommunikativer Fähigkeiten liegt in
dem Ergebnis, daß Delphine das Fehlen von Objekten »verbalisieren«
können; d.h. sie können - ähnlich wie man dies bei Menschenaffen
feststellte - auch über perzeptuell nicht vorhandene Dinge »nachden-
ken« bzw. sich über diese äußern. Diese Fähigkeit ist offenkundig eine
wichtige Voraussetzung für tatsächliches kommunikatives Verhalten.
Darüber hinaus kann man Delphinen beibringen, Sequenzen von bis
zu vier Elementen zu verstehen, deren interne Struktur entscheidend
für die Interpretation ist, z.B. take A to B vs. take B to A . Diese Fähig-
keit, die anscheinend das Leistungsvermögen von Schimpansen über-
steigt, zeigt sich auch bei der Präsentation von Sätzen, die entweder in
der Anwendung lexikalischen Materials oder der Kombination struktu-
reller Gegebenheiten völlig neu sind. Irrtümer, die aufgrund der Rever-
sibilität von Sequenzen wie »take A to B« möglich wären, werden von
Delphinen selten begangen. Delphine scheinen also prinzipiell imstan-
de zu sein, sehr einfache syntaktische Strukturen zu erlernen.
Wie jedoch Premack (1985) betont, ist einige Vorsicht bei der Inter-
pretation der Daten angebracht. Die angeblich syntaktischen Regulari-
täten bezogen sich bei den Versuchen von Herman et al. ausschließlich
auf rein semantische Kategorien wie Agens, Patiens, Ziel, Instrument,
etc. Wir hatten bereits darauf hingewiesen, daß eine rein semantische
Strukturierung von Äußerungen nur für das erste Spracherwerbssta-
dium gilt. Solange man jedoch in Experimenten nur nach semantischen
Strukturen und nicht nach syntaktischen Regularitäten (also solchen,
die Begriffe wie Subjekt oder Objekt involvieren) schaut, sind entspre-
chende Resultate für die Frage nach einer möglichen Parallele zur
menschlichen Sprache schlichtweg irrelevant. Abgesehen von diesem
qualitativen Unterschied besteht auch ein kaum zu übertreffendes Miß-
verhältnis zwischen der Primitivität der den Delphinen beigebrachten
Strukturen und der Komplexität menschlicher Sprache. Im Grunde zei-
gen die Kommunikationsstrukturen der Delphine weder qualitativ
noch quantitativ irgendwelche Ähnlichkeit mit menschlicher Sprache.
»In models of human sentence comprehension, a basic step is the iden-
tification of the grammatical class of words ... There is, of course, no
evidence at all for grammatical classes in the dolphin. Herman et al.
recommend their work as a considerable methodological advance be-
yond the preceding ape language work. Perhaps it is. Its theoretical
advance is another matter. The repetition of dubious claims made ear-
lier for the ape hardly constitutes an >advance<. Are we destined to hear
similar claims for every species on which four or five years of >language
training< will be lavished?« (Premack 1985:224).
Wenngleich Delphine und Menschenaffen über rudimentäre Kom-
munikationssysteme verfügen, so steht doch offenbar der Mensch
allein mit seiner Fähigkeit, ein natürlich-sprachliches grammatisches
System zu erwerben. Ein ähnlicher Befund ergibt sich, wenn wir das
allgemein-kognitive Leistungsvermögen von Arten betrachten, die dem
Menschen in ihrer Intelligenz sehr nahe kommen. Daß etwa Schimpan-
sen zu teilweise recht komplexem intelligenten Verhalten fähig sind, ist
in der Literatur hinreichend dokumentiert (cf. Premack 1985). So ver-
fügen diese Tiere - ebenso wie der Mensch - über die Fähigkeit, ihr
Verhalten über Symbolfunktionen und mentale Repräsentationen zu
steuern. Schimpansen sind beispielsweise imstande, auf Karten abgebil-
dete Teile eines Apfels zur vollständigen Frucht zusammenzustellen
bzw. ein Ensemble solcher Teile danach zu beurteilen, ob sich aus ihnen
eine bestimmte Frucht assemblieren läßt. Doch auch noch weitaus
komplexere Aufgaben werden von Schimpansen bei entsprechender
Instruktion erfolgreich ausgeführt. So legte Premack (1976) einigen
Tieren einen weiß angestrichenen Apfel, eine ebenso präparierte Bana-
ne und einen roten Plastikchip vor. Aufgabe des Affen war es, den
Apfel mit dem roten Chip in Beziehung zu setzen, da Äpfel aber nicht
Bananen normalerweise rot sind. Es zeigte sich, daß die Schimpansen
in 80% der Fälle diese Aufgabe korrekt lösen konnten. In einem weite-
ren Experiment »the alternatives were a lemon and a cherry, both pain-
ted white; the sample was the name of >yellow<. The plastic color names
are colorless - different shades of grey that vary in shape and size. The
animal was required to picture or imagine the color of the lemon, as
well as the color associated with the small grey plastic word that named
yellow, and to match these two internal representations ... The test
posed no problem for any of the three animals« (Premack 1985:252).
Auch in anderen Bereichen zeigen Menschenaffen teilweise erstaunli-
che Leistungen. Schimpansen können Werkzeuge nicht nur benützen,
sondern stellen sie in primitiver Weise auch selbst her. Japanische Maka-
ken wurden bei recht komplexen Problemlösungen beobachtet. Sie ent-
deckten etwa die Möglichkeit, Futter und Sand dadurch zu trennen,
daß man die Mischung ins Wasser wirft, wo der schwerere Sand zu
Boden sinkt (cf. Passingham 1982; Konner 1982).
Derartige Experimente zeigen, daß die Tiere imstande sind, auf
einer relativ hohen Abstraktionsebene z.T. sehr komplexe Sachverhalte
bzw. Eigenschaften zueinander in Beziehung zu setzen; insbesondere
können die Schimpansen Symbole und Zeichen manipulieren, als auch
Gegenstände bzw. Sachverhalte mental repräsentieren. Mit anderen
Worten, sie scheinen über einen Intelligenzgrad zu verfügen, der dem
Erwerb sprachlicher Fähigkeiten grundsätzlich nichts in den Weg legt.
Ähnliches gilt - wie wir gesehen haben - für die kommunikativen
Fähigkeiten des Affen. Dennoch sind die Tiere selbst bei intensivem
mehrjährigen Training unfähig, auch nur die Ansätze einer natürlich-
sprachlichen Syntax zu erlernen. Es scheint, als fehle den Primaten
eben jener spezifische Faktor, der die Sprachfähigkeit ausmacht. Soweit
erkennbar, tritt dieser Faktor eben nur beim Menschen auf.
Wenn es nun keine kontinuierliche evolutionäre Entwicklung von
den kommunikativen und kognitiven Fähigkeiten der Primaten zur
menschlichen Sprachfähigkeit gibt, so mag man die Frage stellen, ab
welcher Entwicklungsstufe die Vorläufer des Menschen Sprache im syn-
taktischen Sinne verwenden konnten. Forscher wie etwa Marquart
(1984) gehen üblicherweise diese Frage mit folgender Überlegung an.
Archäologische Funde zeigen, daß etwa schon die Neandertaler ihre
Verstorbenen bestatteten. Da für ein solches Verhalten gezielte Koope-
ration und ein Leben in größeren Gruppen erforderlich sind, muß der
Neandertaler bereits in irgendeiner Form die Fähigkeit zur differenzier-
ten Kommunikation besessen haben. Man mag daher vermuten, daß der
Neandertaler bereits über Sprache verfügte. Doch gerade das Beispiel
des Neandertalers zeigt sehr deutlich, daß ein ausgeprägtes Kommuni-
kationsverhalten keineswegs automatisch Sprachfähigkeit impliziert.
Die entscheidende Evidenz für die Unabhängigkeit von Sprachfä-
higkeit und komplexen Kommunikationsverhalten stammt von Lieber-
man (1984) und seinen Kollegen. Ausgehend vom Kenntnisstand der
modernen Anatomieforschung kann man aus den fossilen Knochen
nämlich auch die Weichteile eines Körpers mit großer Verläßlichkeit
rekonstruieren, also insbesondere auch die Struktur des Mund-Nasen-
Raums der Vorfahren des Menschen. Lieberman zeigt nun, daß der
Mund-Nasen-Trakt des Neandertalers zwar geeignet war, verschiedene
Laute einzeln zu produzieren, aber nicht kontinuierlich artikuliertes
Sprechen erlaubte. Bei sehr wohlwollender Einschätzung hat ein Nean-
dertaler etwa mit 1/10 der Geschwindigkeit des heutigen Menschen
artikulieren können. Dieses Faktum schließt aber die Existenz einer
auch nur beschränkt komplexen Syntax aus, da die artikulatorische
Umsetzung einer syntaktischen Struktur extrem viel Zeit beanspru-
chen würde. Wie Hotopf (1983) zeigt, führen wegen der Beschränkung
des Kurzzeitspeichers schon geringere Verzögerungen bei der sprachli-
chen Ausführung häufig zum Zusammenbruch des Produktionspro-
zesses. Hätte der Neandertaler eine ausgereifte Syntax besessen, so
hätte er sie niemals verwenden können.
Wenngleich also der Neandertaler Aktionen ausführte, die ein im
Vergleich zu den Menschenaffen komplexes Kommunikationssystem
erfordern, so kann er doch nicht über Sprachfähigkeit im heutigen
Sinne verfügt haben. Erst in den letzten 10000 Jahren - also einige
zehntausend Jahre nach Entstehung des homo sapiens - hat nun der
moderne Mensch Handlungsmuster und Verhaltensweisen entwickelt,
die kommunikative Bedürfnisse mit sich ziehen, die weit über die des
Neandertalers hinausgehen; man denke etwa an den Städtebau. Da
diese höheren kulturellen Leistungen sich erst nach Entstehung der Art
herausgebildet haben, können die mit diesen Leistungen gewachsenen
kommunikativen Bedürfnisse offenkundig nicht zur Erklärung der
Sprachfähigkeit herangezogen werden. Bezüglich ihrer kommunikati-
ven Bedürfnisse unterscheiden sich der ursprüngliche homo sapiens und
der homo neanderthaliensis nicht. Sie können also nicht der Grund für
die Entstehung der Sprache gewesen sein. Eher mag man eine umge-
kehrte Abhängigkeit vermuten. Durch die Entstehung der Sprachfähig-
keit stiegen die kommunikativen Möglichkeiten des Menschen, so daß
kulturelle Leistungen entstehen konnten, die ohne Sprache undenkbar
sind (cf. auch Passingham 1982).
Wir sehen also, daß es zwischen den Kommunikationssystemen im
Tierreich und der menschlichen Sprachfähigkeit einen deutlichen evo-
lutionären Bruch gibt. Es ist nicht erkennbar, wie sich aus den Struktu-
ren der bei Primaten und Delphinen auftretenden Kommunikationssy-
steme und deren intelligentem Verhalten eine natürlichsprachliche Syn-
tax entwickelt haben sollte. »If there were prelinguistic forms of vocal
communication, none of the hominids that used them have survived;
there is today an enormous gap in communicative abilities between
human beings and all other animals« (Miller 1981:31). Wenngleich ein
solcher Entwicklungsbruch vielfach von Psychologen als »an embar-
rassment for evolutionary theory« (Premack 1985:282) angesehen wird
und als Gegenevidenz zu der These einer genetischen Fundierung der
menschlichen Sprachfähigkeit zitiert wird, so zeigt sich doch bei genau-
er Betrachtung, daß ein solcher Bruch nicht allein im Bereich von Spra-
che auftritt. So verfügt allein der Mensch über ein Zahlensystem und
arithmetische Fähigkeiten (cf. Gelman & Gallistel 1978; Woodruff &
Premack 1981), ohne daß erkennbar ist, wie sich dieses Vermögen aus
einem Vorgängerstadium entwickelt haben sollte. Ähnliches scheint
etwa für räumliches Vorstellungsvermögen oder Gesichtserkennung (cf.
Carey & Diamond 1980) zu gelten. Wenngleich auch in diesen Berei-
chen an der These einer genetischen Fundierung kaum von jemandem
gezweifelt wird, so liegt die evolutionäre Entwicklung dieser Fähigkei-
ten weitgehend im Dunkel. »We find the language gap deeply puzzling
while at the same time we blithely accept a comparable gap in quantita-
tive ability. One gap is tolerable, even sensible, while the other is a major
evolutionary puzzle« (Premack 1985:289). Letztlich sind die Frage der
genetischen Fundierung einer Fähigkeit und die Frage deren evolutio-
närer Entwicklung wohl unabhängig voneinander zu betrachten.
In der Regel ist die Frage nach der evolutionären Entwicklung der
menschlichen Sprachfähigkeit unter funktionaler Perspektive erörtert
worden, d.h. man suchte die Vorläufer menschlicher Sprache in funk-
tional ähnlichen Fähigkeiten primitiverer Lebewesen, insbesondere in
ihrem Kommunikationsvermögen. Man kann das Evolutionsproblem
allerdings auch unter biologisch-materieller Perspektive betrachten.
Hierbei ist zu fragen, inwieweit eine spezifische biologische Struktur
im Laufe der evolutionären Entwicklung eine andere Aufgabe bzw.
Funktion übernommen haben kann. Betrachten wir nun die im
menschlichen Gehirn für Sprache zuständige Region (cf. Kap. 5.6), so
läßt sich feststellen, daß bei höheren Primaten die Wernicke-Region
dem auditiven Assoziationszentrum und die Broca-Region dem Zen-
trum für motorische Sequenzierung entspricht. Es zeigt sich also, daß
die Broca-Region, die beim Menschen die formalen Eigenschaften von
Sprache und insbesondere die Syntax steuert, bei primitiveren Lebewe-
sen für die Koordination und Abfolge von Bewegungsmustern zustän-
dig ist. Aus evolutionärer Perspektive würde dies bedeuten, daß eine
spezifische Hirnregion im Laufe der Entwicklung durch allmähliche
Ausdifferenzierung eine neue Funktion übernommen hat. Da zentrale
syntaktische Eigenschaften natürlicher Sprachen Restriktionen gerade
im Bereich der sequentiellen, hierarchischen und konfigurationellen
Anordnung von sprachlichen Elementen betreffen (cf. Band II),
scheint ein solcher Funktionswechsel der Broca-Region nicht unplausi-
bel. Unter strikt biologischem Aspekt wären also die Vorläufer der
menschlichen Sprachfähigkeit nicht etwa primitivere Kommunika-
tionssysteme, wie wir sie heute noch bei höheren Primaten und Delphi-
nen finden, sondern vielmehr spezifische Anordnungsmuster im
Bereich motorische Fähigkeiten. Ist dieser Gedankengang richtig, so
wäre die evolutionäre Kontinuität nicht an eine funktionale, sondern
an biologisch-materielle Basis gebunden.
Daß eine biologische Struktur, etwa ein Organ, im Laufe der Evolu-
tion eine völlig neue Aufgabe übernimmt, ist nun keineswegs so unge-
wöhnlich, wie dies auf den ersten Blick erscheinen mag. Am Beispiel
der Atmungsorgane von Säugetieren und Fischen läßt sich ein analoger
Fall illustrieren. Bekanntlich haben Säugetiere und Fische gemeinsame
Vorfahren und Säugetiere weisen im Embryonalstadium Kiemen auf
(cf. etwa Gould 1977). »Alle Wirbeltiere durchlaufen Embryonalsta-
dien, in denen Anlagen eines Kiemendarmes mit Kiemenbögen und
diese versorgenden Arterien auftreten. Bei den Fischen entwickelt sich
daraus ein funktionstüchtiger Kiemenapparat. Die landlebenden Verte-
braten (Tetrapoden) mit Lungenatmung bauen aus diesen Kiemenske-
lettanlagen Teile ihres Zungenbeins, des Kehlkopfes und der Trachea
auf und entwickeln aus den serialen Blutgefäßschlingen die in den Tie-
ren der verschiedenen Klassen unterschiedlich verlaufenden Aortenbö-
gen und Arterien. Aus dieser >Umwegentwicklung< ergibt sich zwin-
gend der Schluß, daß die Evolution der Tetrapoden von Fischen mit
Kiemenatmung ausging« (Czihak et al. 1981:813). Entscheidend ist
nun, daß sich die Lungen der Säugetiere nicht etwa aus den Kiemen,
also dem Atmungsorgan des Fisches entwickelt haben; vielmehr ent-
standen die Lungen aus den zweikammerigen Schwimmblasen der
Fische (cf. Lieberman 1984). Hier zeigt sich, daß die Schwimmblase im
Laufe der evolutionären Entwicklung die Atmungsfunktion der Kie-
men übernimmt, während letztere sich eher in Richtung eines Artikula-
tionsorgans entwickelt.
Wenngleich der Mensch als einziges Lebewesen über Fähigkeit ver-
fügt, natürliche Sprache zu erwerben und zu verwenden, und diese
Fähigkeit unter dem Begriff >Universalgrammatik< (cf. Kap. 3.3) als
genetisch fixiertes System mentaler Strukturen anzusetzen ist, so tritt
das Phänomen einer spezifischen genetischen Fundierung des Erwerbs
und der Repräsentation von Fähigkeiten nicht nur beim Menschen auf.
Wir wollen hier einen Bereich aus dem Tierreich betrachten, bei dem
ähnlich gelagerte Probleme mit einem vergleichbaren konzeptuellen
Ansatz gelöst werden; und zwar handelt es sich um den Gesang der
Vögel.
Anders als beim Menschen sind die akustischen Äußerungen von
Vögeln nur in einem sehr trivialen Sinne kommunikativ. Allein
dadurch, daß er singt, signalisiert ein männlicher Vogel einerseits seine
Anwesenheit und andererseits seine Geschlechtsreife. Vogelgesänge
weisen jedoch oftmals eine komplexe interne Strukturierung auf. Bei
vielen Arten, etwa dem Rotkehlchen, steht es dem einzelnen Vogel
zwar frei, die Details seines Singens beliebig festzulegen; nur muß der
Gesang einer bestimmten Schablone entsprechen, die von Spezies zu
Spezies unterschiedlich ist. Diese Schablone kann spezifische Fre-
quenzmodulationen, Rhythmusmuster oder Sequenzierungen vor-
schreiben. Andere Singvogelarten erlauben dem Individuum weitaus
weniger Freiheit, wobei es jedoch regionale-dialektale Differenzierun-
gen gibt, die alle wiederum eine gemeinsame Strukturschablone aufwei-
sen. Es treten jedoch auch Arten auf, bei denen die Struktur des Gesan-
ges minutiös vorgeschrieben ist.
Da es beim Vogelgesang darauf ankommt, als Angehöriger einer
bestimmten Spezies identifiziert zu werden, müssen die Vögel, die eine
gewisse individuelle und dialektale Freiheit in der Gestaltung ihres
Gesanges besitzen, über die Fähigkeit verfügen, das zugrundeliegende
für die Identifizierung essentielle Strukturmuster zu erkennen. Wenn-
gleich diese Strukturmuster weitaus weniger komplex als bei der
menschlichen Sprache sind, so stellt sich jedoch für den Jungvogel prin-
zipiell eine Art »logisches Problem des Gesangserwerbs« (cf. Kap. 3).
Wie kann er aus den verschiedenen Gesängen seiner Umwelt diejenigen
seiner eigenen Art identifizieren, und wie kann er aus dem verfügbaren
Input erkennen, welche Eigenschaften des Gesangs wesentlich für die
Art sind und welche nur als individuell oder regional bedingtes
»schmückendes Beiwerk« anzusehen sind?
Einige grundsätzliche Überlegungen zeigen zunächst, daß der
Gesangserwerb unter bestimmten Bedingungen nur sehr eingeschränkt
von Umweltfaktoren abhängen kann. Bei brutparasitär lebenden
Vögeln, wie etwa dem amerikanischen Kuhstärling, ist überaus fraglich,
daß der Jungvogel in der entscheidenden Reifungszeit überhaupt dem
Gesang seiner Artgenossen ausgesetzt ist. Zumindest wird er überwie-
gend den »falschen« Gesang vernehmen, so daß er - wollte man der
Motherese Hypothesis (cf. Kap. 5.3) folgen - einen artfremden Gesang
erlernen sollte. Dies ist natürlich nicht der Fall. Vielmehr kann es sich
diese Art gar nicht erlauben, auch nur das kleinste Gesangesdetail dem
Umwelteinfluß zu überlassen. Wie Bonner (1983) und Catchpole (1979)
beweisen, ist dementsprechend der Gesang des Kuhstärlings vollstän-
dig angeboren.
Bei einer Reihe von Vogelarten, die im Urwald leben, finden wir ein
völlig anders geartetes Erwerbssystem, bei dem eine Vielzahl von
Umweltfaktoren von entscheidender Bedeutung sind. Bei diesen
Vögeln bestand ein starker evolutionärer Druck in Richtung auf eine
enge Partnerbindung, und unter den spezifischen Lebensbedingungen
konnte der jeweilige Partner über die besonderen individuellen Merk-
male seines Gesanges identifiziert werden. Für diese Vögel war es dem-
nach essentiell, eine möglichst hohe Differenzierungsfähigkeit für aku-
stische Signale zu entwickeln, da alle Gesangsdetails des gewählten
Partners wichtig sind. Der Vogel mußte also eine allgemeine hohe aku-
stische Lernfähigkeit erwerben und nicht etwa die Fähigkeit, spezifi-
sche Strukturmuster erkennen zu können. Dementsprechend entwik-
keln solche Vögel - anders als der Kuhstärling - keinen eigenen
Gesang, wenn sie in Isolation gehalten werden. Andererseits sind sie
aber imstande, die Gesänge anderer Vögel oder sogar Lautfolgen
menschlicher Sprache zu imitieren (cf. Bonner 1983).
Damit sind aber keineswegs alle Möglichkeiten ausgeschöpft. Es
gibt nicht nur Vögel, die bei akustischer Isolation entweder von
selbst den gesamten Gesang entwickeln oder aber stumm bleiben,
sondern auch solche - wie etwa der Buchfink - die bei akustischer
Isolation eine stark vereinfachte Variante des normalen Gesangs aus
sich selbst heraus entwickeln. Sie verhalten sich damit ähnlich wie
Menschen, die bei Fehlen sprachlichen Inputs weder gänzlich sprach-
los bleiben noch die volle Sprachfähigkeit erwerben, sondern vielmehr
aus sich selbst eine primitive, rudimentäre Version von Sprachen ent-
wickeln, wie die Ergebnisse von Goldin-Meadow (1982) zeigen (cf.
Kap. 5.3).
Marler & Peters (1981) und Catchpole (1979) konnten in einer Viel-
zahl von Experimenten nachweisen, daß diese rudimentären Gesänge
nichts anderes sind als die den Gesangsvariationen der Spezies zugrun-
deliegenden gemeinsamen Schablonen. Der Gesangserwerb einer gro-
ßen Zahl von Vogelarten zeigt also einen Grundmechanismus, der auch
im Spracherwerb des Menschen auftritt. Angeboren sind die allen
Gesängen einer Spezies gemeinsamen Strukturen oder Schablonen.
Diese Schablonen definieren, was ein möglicher Gesang dieser Spezies
ist. Auf dieser Basis kann jeder beliebige Gesang erworben werden,
soweit er den Struktureigenschaften der Schablonen entspricht. Jede
Dialektvariation beruht auf diesen Schablonen, ebenso wie die ver-
schiedenen natürlichen Sprachen des Menschen auf der Universalgram-
matik beruhen. Wenn man so will, sind diese Schablonen die gesangs-
spezifische Universalgrammatik der Spezies. Eine weitere Parallele
besteht darin, daß bei diesen Vögeln die Gesänge auch nur von einer
Hemisphäre des Gehirns bearbeitet werden, obwohl eine sphärische
Differenzierung ansonsten eher eine Seltenheit im Tierreich ist. Und
wie beim Menschen die Pubertät als Endpunkt für die natürliche
Spracherwerbsfähigkeit gilt, so beendet die Geschlechtsreife bei scha-
blonen-basierten Vögeln die Fähigkeit zum Gesangserwerb.
Es scheint also, daß die spezifische Universalgrammatik, die der
menschlichen Sprachfähigkeit zugrunde liegt, einzigartig ist, während
die Möglichkeit, Grundmuster einer Fähigkeit genetisch zu fundieren,
von der Natur mehrfach gewählt wurde.

5.8 Perzeption

Neben der Sprachfähigkeit gibt es einen weiteren kognitiven Bereich,


für den nach der derzeitigen Evidenzlage ein eigenständiges und unab-
hängiges Modul anzusetzen ist, und zwar die menschliche Wahrneh-
mungsfähigkeit. Die Ergebnisse der Wahrnehmungspsychologie deu-
ten darauf hin, daß insbesondere die visuelle Perzeption ein extrem
komplexer Prozeß ist, bei dem die durch das Auge gelieferte sensori-
sche Information nach höchst spezifischen Gesetzmäßigkeiten und
Prinzipien verarbeitet wird. »The complexities of localization by ear
and nose fade into insignificance when compared with the complex
localizing capacities of the eye. The human eye can pick up location in
three dimensions, with a precision beyond that of the other senses and
with a set of structural peculiarities that would seem to contradict any
precision in localization« (Bower 1974:34).
In der Wahrnehmungspsychologie ist es üblich, zwischen peripheren
und zentralen Mechanismen zu unterscheiden. Mit peripher bezeichnet
man solche Vorgänge, die sich im Auge abspielen, i.e. die von der Struk-
tur des physischen Organs abhängen. Zentral sind hingegen die Verar-
beitungsmechanismen im Gehirn, also die kognitive Seite der Wahrneh-
mung. Während man früher glaubte, daß die Wahrnehmungsprozesse
primär peripherer Natur sind, mehrt sich die Evidenz, daß unsere Per-
zeption entscheidend von den zentralen kognitiven Verarbeitungspro-
zessen bestimmt wird. Trotz des alltäglichen Eindrucks, daß Sehen vor
allem eine Funktion des Auges ist, könnte man also in gewissem Sinne
sagen, daß wir eigentlich mit dem Gehirn sehen. Visuelle Perzeption ist
nicht allein eine sensorische, sondern vor allem auch ein kognitive Lei-
stung. Was wir visuell wahrnehmen, ist keineswegs ein getreues Abbild
dessen, was das Auge liefert, sondern vielmehr das Ergebnis eines kom-
plizierten kognitiven Prozesses, in den eine Vielzahl von Informatio-
nen einfließt. »Die Dinge sehen deshalb so aus, wie sie aussehen, weil
die Information des Reizes durch kognitive Operationen verarbeitet
wird« (Rock 1985:196).
Das Auge ist also nur für einen Teilaspekt unserer Sehleistung ver-
antwortlich, und zwar für den sensorischen Input. Zunächst wird ein
wahrgenommenes Objekt Seiten- und richtungsverkehrt auf der Netz-
haut abgebildet. Diese Abbildung ist nun aufgrund der anatomischen
Struktur der Netzhaut offenkundig zweidimensional. Doch nimmt der
Mensch seine Umwelt nicht zweidimensional, sondern dreidimensional
wahr. Somit muß es einen Mechanismus geben, der das vom Auge gelie-
ferte zweidimensionale Bild in einen dreidimensionalen Wahrneh-
mungseindruck umwandelt. Man kann sicher annehmen, daß dieser
Mechanismus im Gehirn lokalisiert und somit kognitiver Art ist. Da
der Mensch zwei Augen hat, müssen wir präziser sagen, daß der ent-
sprechende Mechanismus zwei zweidimensionale Abbildungen in
einen dreidimensionalen Wahrnehmungseindruck umformt. Daß die-
ser »doppelte« Input von besonderer Relevanz für die Sehleistung ist,
läßt sich daran erkennen, daß die Tiefenperzeption erheblich an Präzi-
sion verliert, wenn etwa das eine Auge mit einer Binde bedeckt wird.
Andererseits hängt die Dreidimensionalität unserer Perzeption nicht
notwendigerweise von einem doppelten sensorischen Input ab, da wir
selbst mit einem verdeckten Auge immer noch dreidimensional und
nicht etwa rein zweidimensional sehen.
Welcher Art muß nun ein Mechanismus sein, der zu einer solchen
Leistung imstande ist? Zunächst läßt sich zeigen (cf. Charniak &
McDermott 1985), daß ein entsprechender kognitiver Prozeß das drei-
dimensionale Bild »errechnen« muß, d.h. es ist nicht möglich, etwa
allein durch Projektion ein zweidimensionales in ein dreidimensionales
Bild umzuwandeln. Mit anderen Worten, der relevante Mechanismus
muß in irgendeiner Form algorithmisch sein.
Im Bereich der Künstlichen Intelligenz hat man versucht, einen der-
artigen Umwandlungsprozeß zu simulieren. Erst bei solchen Unter-
nehmungen wird die ganze Komplexität unserer kognitiven Sehlei-
stung deutlich. Wir verweisen den Leser hier auf die Darstellungen in
Charniak & McDermott (1985:Kap.3) und Bower (1974), in denen die
relevanten Details ausführlich erörtert werden. Im Kontext der hier zur
Diskussion stehenden Modularitätsthese soll vor allem einerseits
gezeigt werden, daß die visuelle Perzeption nicht vollständig aus dem
zugrundeliegenden sensorischen Stimulus abgeleitet werden kann, son-
dern eine eigenständige Größe darstellt, und andererseits, daß die
kognitiven Mechanismen, die die (visuelle) Wahrnehmungsfähigkeit
ausmachen, aufgabenspezifisch, i.e. perzeptionsspezifisch, und nicht
auf allgemeine kognitive Mechanismen reduzierbar sind. Mit anderen
Worten, es soll gezeigt werden, daß visuelle Perzeption ein autonomes
kognitives Modul sein muß.
Die entscheidende Evidenz hierfür entstammt einem Bereich, der
üblicherweise als perzeptuelle Konstanz (perceptual constancy)
bezeichnet wird. Perzeptuelle Konstanz bedeutet, daß mit verändertem
sensorischen Input keineswegs eine veränderte Perzeption verbunden
ist. Ein einfaches Beispiel möge dies erläutern. Befindet sich ein Objekt
geradlinig vor dem Auge, so wird es offenkundig in der Mitte der Netz-
haut abgebildet. Befindet es sich rechts vom Auge, so wird es auf der
linken Netzhauthälfte abgebildet, bzw. bei einer Position links vom
Auge erscheint die entsprechende Projektion auf der rechten Netzhaut-
hälfte. Dieser Sachverhalt legt nun die Vermutung nahe, daß der kogni-
tive Perzeptionsmechanismus die Lokalisierung eines Objekts relativ
zum Beobachter danach berechnet, auf welchem Teil der Netzhaut das
Objekt abgebildet ist: wird z.B. die rechte Netzhauthälfte gereizt, so
muß das Objekt links vom Beobachter liegen, usw.
Doch sind die tatsächlichen Verhältnisse weitaus komplexer. Bewe-
gen wir etwa die Augen nach links, so wandert die Abbildung des
Objekts auf der Netzhaut natürlich ebenfalls nach links. Dementspre-
chend wäre zu erwarten, daß eine solche Augenbewegung einen verän-
derten Perzeptionseindruck induziert, d.h. das Objekt sollte als sich
nach links bewegend wahrgenommen werden. Dies ist jedoch nicht der
Fall. Unabhängig von der Augenstellung bzw. der damit verbundenen
Abbildungsposition auf der Netzhaut wird ein Gegenstand stets an der
gleichen räumlichen Position wahrgenommen. Trotz verändertem sen-
sorischen Input ist die Wahrnehmung also konstant. Daraus folgt, daß
der kognitive Perzeptionsprozeß nicht nur Netzhautinformationen ver-
arbeiten, sondern diese auch in Beziehung zu Augenbewegungen,
Kopfstellung etc. setzen muß. Man mag nun vermuten, daß der Perzep-
tionsmechanismus etwa den Kontraktionsgrad der den Augapfel steu-
ernden Muskeln abtastet, um somit Informationen über die jeweilige
Augenstellung zu erhalten. In der Tat sind hier jedoch weitaus komple-
xere Mechanismen im Spiel. Wenn man etwa mit dem Finger den
Augapfel nach innen drückt und somit »künstlich« die Augenstellung
und die Abbildungsposition eines Objekts verändert, so verliert sich
die perzeptuelle Konstanz; der Gegenstand scheint zu »wandern« und
wird mit veränderter räumlicher Position wahrgenommen. Dies bedeu-
tet, daß der Perzeptionsmechanismus Informationen über die Augen-
stellung nicht an den tatsächlichen Zuständen der Augenmuskulatur
abliest, sondern an den neuronalen Impulsen, die diese Zustände steu-
ern. Wird die Augenstellung durch externe Einflüsse ohne entsprechen-
de neuronale Impulse verändert, so kann hierdurch der Effekt der per-
zeptuellen Konstanz ausgeschaltet werden (cf. Bower 1974).
Ein ähnliches Phänomen ergibt sich im Bereich der Größenkon-
stanz. Ob ein Gegenstand als groß oder klein wahrgenommen wird,
hängt offenkundig von der Größe der Abbildung auf der Netzhaut ab.
Doch auch hier müssen zusätzliche, nicht im sensorischen Input vor-
handene Informationen verarbeitet werden, um einen korrekten Per-
zeptionseindruck zu garantieren. Bewegt sich etwa ein Gegenstand
vom Betrachter fort, so wird die Netzhautprojektion zunehmend klei-
ner. Dennoch perzipieren wir in einem solchem Falle nicht etwa einen
kleiner werdenden Gegenstand, sondern ein größenkonstantes, sich all-
mählich entfernendes Objekt. Andererseits wird ein Luftballon, aus
dem die Luft entweicht, in der Tat als ein kleiner werdendes Objekt
wahrgenommen und nicht etwa als ein sich entfernender Ballon. Diese
Beispiele zeigen, daß Perzeption ein höchst komplexer Prozeß ist, bei
dem eine Vielzahl von Informationen zueinander in Beziehung gesetzt
werden; der sensorische Input ist nur eine dieser Informationen.
Jackendoff (1983) illustriert an einem einfachen Beispiel, wie per-
zeptuelle Eindrücke über die rein sensorische Information hinaus
durch die spezifische Begriffswelt des Menschen entscheidend geprägt
werden. Betrachten wir die Abbildungen 1 und 2:

Abbildung 1

. .

. .

Abbildung 2

Hans trinkt Bier 100.000

„?“ hau ab!

Abbildung 1 besteht aus vier Punkten, die der menschliche Betrachter


jedoch in der Regel als die Eckpunkte eines Quadrates perzipiert. Die-
ser Wahrnehmungseindruck ist so stark, daß man sich ihm nur unter
größten Mühen - wenn überhaupt - entziehen kann. Dennoch ist in
dem sensorischen Input, i.e. den vier Punkten, nichts enthalten, das
eine solche perzeptuelle Interpretation erfordert. Logisch gesehen,
könnten die vier Punkte auch auf einem Kreis, einem Meander oder
einer beliebigen anderen geometrischen Figur liegen. In Abbildung 2
erscheinen die gleichen vier Punkte in der gleichen Anordnung, ohne
daß hier der Eindruck eines Quadrats entsteht. Im Gegenteil, selbst bei
großer Anstrengung ist es kaum möglich, in Abb. 2 ein Quadrat zu per-
zipieren. Offenkundig hängt dies von dem graphischen Kontext ab, in
den die Punkte eingebettet sind. Entscheidend für unsere Argumenta-
tion ist die Erkenntnis, daß wir die Welt eben nicht so sehen, wie sie
objektiv ist, sondern stets »durch die Brille« unseres Perzeptionsme-
chanismus, der uns bestimmte Interpretationen von sensorischen Sti-
muli geradezu aufnötigt. »... perception is the result of an interaction
between environmental input and active principles in the mind that
impose structure on that input... what one sees cannot be solely envi-
ronmental in origin, since the figures are imbued with organization
that is not there in any physical sense, that is by no means logically
necessary, and that... [in some cases]... is inconsistent with the physi-
cal facts.« (cf. Jackendoff 1983:24/25).
Diese wenigen Beispiele illustrieren bereits die ungeheure Kom-
plexität perzeptueller Leistungen und die Vielzahl von Informatio-
nen, die im Wahrnehmungsprozeß integriert werden müssen. Ebenso
deutlich wird, daß die hier involvierten Mechanismen in sehr spezi-
fischer Weise auf perzeptuelle Verarbeitung abgestimmt sind. Es ist
kaum ersichtlich, in welcher Form etwa neuronale Abtastungen oder
bestimmte geometrische Präferenzen auf allgemeine kognitive Prozes-
se zurückgeführt werden könnten. Darüber hinaus liegt umfangrei-
che experimentelle Evidenz dafür vor, daß die perzeptuellen Grund-
leistungen, wie Dreidimensionalität, Größen- und Formkonstanz
sowie die Wahrnehmung von Farb- und Helligkeitseigenschaften,
bereits beim neugeborenen Kind vorhanden sind. Die entsprechen-
den Fähigkeiten müssen daher genetisch determiniert sein und kön-
nen nicht etwa durch Erfahrung gelernt sein (cf. Bower 1974; Rock
1985).
Die Unabhängigkeit perzeptueller von allgemein-kognitiven Lei-
stungen wird besonders deutlich, wenn wir die Perzeptionsfähigkeit
des Menschen mit der von Tieren vergleichen. Von empiristischer
Seite wird vielfach argumentiert, der Mensch sei gegenüber anderen
Lebewesen einfach insgesamt intelligenter und daher generell zu grö-
ßeren kognitiven Leistungen imstande; eine dieser Leistungen sei
etwa die Sprachfähigkeit. Im Bereich der visuellen Perzeption ist nun
der Mensch unter den Lebewesen keineswegs die Krönung der Schöp-
fung. Im Bereich der biologischen Struktur ihrer visuellen Sinnesor-
gane sind zahlreiche Tiere weitaus besser ausgestattet als der Mensch
oder verfügen zumindest über eine ebenbürtige Ausstattung, wie etwa
Insekten oder der Tintenfisch (cf. Czihak et al. 1981:466-468). Im
Vergleich zum Hasen (2000) oder zum Fisch (3600) besitzt der
Mensch hingegen ein relativ eingeschränktes Gesichtsfeld; und die
Augen vieler Arthropoden (Gliederfüßer) sind imstande, die Schwin-
gungsrichtung polarisierten Lichtes wahrzunehmen, eine Fähigkeit,
die bei Wirbeltieren nicht auftritt (cf. Czihak et al. 1981:473). Im zen-
tralen kognitiven Bereich hingegen ist die perzeptuelle Leistungsfähig-
keit des Menschen in etwa mit der der Primaten identisch und auch
niedere Säugetiere stehen in ihrem Perzeptionsvermögen dem Men-
schen nur wenig nach (cf. Passingham 1982; Konner 1982). Wenn nun
der menschliche Kognitionsapparat nicht-modular aufgebaut ist, son-
dern allein aus einem »multi-purpose mechanism« besteht, der auch
für die zentralen perzeptuellen Aufgaben zuständig ist, so stellt sich
die Frage, warum der im Vergleich zu anderen Lebewesen so intelli-
gente Mensch seine überragenden kognitiven Fähigkeiten nicht auch
für perzeptuelle Aufgaben einsetzt und somit ebenfalls in diesem
Bereich ein komplexeres und differenzierteres Leistungsvermögen
zeigt. Man mag vermuten, daß die höhere Intelligenz des Menschen
sich deshalb nicht im Wahrnehmungsbereich niederschlägt, weil visu-
elle Perzeption eben nichts mit allgemeinen kognitiven Fähigkeiten zu
tun hat. Offenkundig gibt es verschiedene kognitive Module, die
unabhängig voneinander nach jeweils eigenen Strukturgesetzmäßig-
keiten operieren (cf. J.A. Fodor 1983). Eines dieser Module scheint
die Perzeption zu sein18, ein anderes vielleicht so etwas wie allgemeine
Intelligenz. Die Natur hat es nun so eingerichtet, daß der Mensch
zwar in seiner allgemeinen Intelligenz allen anderen Lebewesen über-
legen ist, nicht jedoch bezüglich seiner perzeptuellen Fähigkeiten.
Doch gerade dieser Kontrast zeigt, daß die Vorstellung eines alle
kognitiven Bereiche umfassenden »multi-purpose mechanism« nicht
haltbar ist.
Es gibt darüber hinaus eine ganze Fülle von Beispielen, die darauf
hindeuten, daß den kognitiven Prozessen bei der Wahrnehmung eine
deutliche Dominanz gegenüber den sensorischen zukommt. In vielen
Fällen nehmen wir Dinge wahr, die gar nicht vorhanden sind, bzw. wir
nehmen sie in einer Art und Weise wahr, die objektiv und überprüfbar
falsch ist (cf. Marr 1982; Rock 1985). Zu den bekanntesten Phänome-
nen in diesem Bereich gehören sicher die Poggendorff-Täuschung und
die Müller-Lyer-Täuschung. Im Jahre 1860 fand J. Poggendorff heraus,
daß wir Winkel vielfach in einer verzerrten Weise wahrnehmen. In
Abbildung 3 erscheint die von zwei Parallelen durchschnittene Gerade
eben nicht als Gerade, sondern die beiden Teilstücke erscheinen nach
oben verschoben. Man kann diesen Effekt noch verstärken, indem
mehrere parallele Linien von kleinen Strichen in verschiedenen Rich-
tungen gekreuzt werden.

18 Nach der derzeitigen Evidenzlage scheint jedoch das, was man deskriptiv als Per-
zeption bezeichnet, nicht aus einem einzigen einheitlichen Modul gesteuert zu
werden, sondern ist vielmehr das Ergebnis des Zusammenspiels verschiedener
hochspezialisierter Module, wie etwa Farbwahrnehmung, Gesichtswahrneh-
mung oder räumliche Wahrnehmung.
Abbildung 3 –FEHLT-

Bei der Müller-Lyer-Täuschung erscheinen zwei gleichlange Linien


unterschiedlich lang zu sein, je nachdem, ob sie von spitzen oder
stumpfen Winkeln begrenzt werden:
Abbildung 4 –FEHLT-

Noch verblüffender sind Konfigurationen, bei denen wir Linien wahr-


nehmen, die gar nicht vorhanden sind. In den Abbildungen 5 und 6
perzipieren wir ein Dreieck bzw. ein Viereck mit deutlichen Konturen,
die natürlich gar nicht vorhanden sind. Darüber hinaus erscheint das
Dreieck bzw. Viereck heller zu sein als der Hintergrund, was wiederum
objektiv natürlich nicht der Fall ist.

Abbildung 5 –FEHLT-
Abbildung 6 –FEHLT-

Diese Beispiele zeigen besonders deutlich, wie die spezielle Struktur


unserer kognitiven Prozesse Wahrnehmungen induziert, die nicht
allein peripher motiviert sein können. Entscheidend ist ebenfalls, daß
wir diesen Wahrnehmungstäuschungen auch dann unterliegen, wenn
wir über die objektive Beschaffenheit der Stimuli genau Bescheid wis-
sen. Selbst wenn man etwa bei der Müller-Lyer-Täuschung durch Nach-
messen herausgefunden hat, daß die beiden Linien gleichlang sind, per-
zipiert man sie dennoch weiterhin als unterschiedlich lang. Dieses Fak-
tum ist insofern wichtig, als es eben auf die Autonomie perzeptueller
Prozesse hindeutet. Unser Wissen über die Welt und die realen Gege-
benheiten haben eben keinen ungehinderten Zugang zu unseren per-
zeptuellen Prozessen. Mit anderen Worten, jene kognitiven Prozesse,
die der Wahrnehmung zugrunde liegen, sind nicht allgemeine kognitive
Prozesse, sondern sie sind spezifisch perzeptuelle. Die Perzeption
scheint somit ein eigenständiges kognitives Modul zu sein, das nach
autonomen Gesetzmäßigkeiten Inputinformationen verarbeitet.
Die kognitive Autonomie der Perzeption findet darüber hinaus
auch ein direktes neuroanatomisches Korrelat. Die visuellen Grundlei-
stungen gehen vom Hirnareal 17 aus, das - grob gesprochen - am wei-
testen dorsal liegt (cf. Kuffler & Nicholls 1976). Die unmittelbar
benachbart liegenden Areale 18 und 19 verarbeiten dann diese Informa-
tion auf höherer Ebene weiter und transferieren sie in die sog. Assozia-
tionsregionen, in denen die visuellen Daten z.B. mit Informationen aus
den auditiven und taktilen Zentren verrechnet werden. Wie Luria
(1973) gezeigt hat, kann keine andere Hirnregion die Funktionen des
visuellen Kortex übernehmen, wenn dieser etwa durch Läsionen zer-
stört ist.
Darüber hinaus haben Wiesel & Hubel (1963a,b) gezeigt, daß ein-
zelne Zellen bzw. Zellgruppen im visuellen Kortex auf spezifische Auf-
gaben spezialisiert sind. So reagieren bestimmte Zellen nur auf hori-
zontale Stimuli, während andere allein durch vertikale Impulse gereizt
werden. Während also jede Zelle bzw. Zellgruppe genetisch auf
bestimmte Reizkonfigurationen festgelegt ist, verkümmern die relevan-
ten Zellverbindungen, wenn sie nicht während einer kritischen Ent-
wicklungsperiode entsprechende Reize empfangen (Wiesel & Hubel
1963a,b).
Aus dem Bereich der Gesichtswahrnehmung (face recognition) liegt
allerdings Evidenz dafür vor, daß das, was wir global als (visuelle) Per-
zeption bezeichnen, keineswegs ein einheitliches Modul ist, sondern
selbst wiederum modular aufgebaut ist. Es scheint ein spezielles auto-
nomes System für die Enkodierung und Speicherung von Gesichtern
zu geben, da in diesem Bereich Gesetzmäßigkeiten auftreten, die sich
bei der Wahrnehmung anderer Objekte nicht einstellen.
Zunächst ist der Mensch imstande, eine extrem große Menge von
Gesichtern zu kodieren und dann wiederum zu identifizieren, obwohl
die Grundkonfiguration von Gesichtern relativ konstant ist. »When
presented with a new face, a person must form a representation ade-
quate not only to distinguish that face from all others already represent-
ed in memory but also to distinguish it from most other faces that might
be encountered. If the input is a still photograph, the problems for the
encoding device are compounded by the ambiguity of the stimulus.
That is, those aspects of the stimulus contributed by permanent facial
characteristics must be differentiated from those contributed by
momentary expression - is that a wide mouth or a grin?« (Carey & Dia-
mond 1980:70). In der Regel reicht eine relativ kurze Konfrontation mit
einem Gesicht aus, um es dauerhaft zu speichern. Wir erkennen ein
Gesicht auch dann wieder, wenn wir es viele Jahre lang nicht mehr gese-
hen haben und es sich etwa durch Altern stark verändert hat. Auch extre-
me Verzerrungen wie etwa bei Karikaturen bekannter Politiker oder
Künstler beeinträchtigen die Gesichtsidentifizierung nur unerheblich.
Bahrick et al. (1975) konnten in einem Experiment mit Schülern zei-
gen, daß diese 800 verschiedene Gesichter noch nach etwa 4 Jahren mit
ca. 90% korrekt identifizieren konnten. Während sich bei anderen
Objekten die Trefferquote mit zunehmender Anzahl verringert, spielt
es bei der Gesichtsidentifizierung offenbar keine Rolle, ob lediglich ein
paar Dutzend oder einige Hundert Gesichter zu speichern und zu
erkennen sind.
Ein weiteres spezifisches Merkmal bei der Gesichtserkennung ist
der sogenannte Inversionseffekt. Invertierte, d.h. auf dem Kopf stehen-
de Gesichter sind erheblich schwieriger zu identifizieren als normal
aufrecht stehende Gesichter. Hochberg & Galper (1967) waren die
ersten, die auf dieses Faktum hinwiesen. Sie folgerten daraus, daß inver-
tierte Bilder von Gesichtern offenkundig verhindern, daß wir von
ihnen eine adäquate Repräsentation aufbauen. Yin (1970) zeigte einer
Gruppe von Versuchspersonen invertierte Bilder von Gesichtern, Brük-
ken, Flugzeugen und Kostümen. Hierbei ergab sich, daß der Inver-
sionseffekt bei Gesichtern etwa 30% betrug, während bei anderen
Objekte lediglich eine Fehlerrate von 10-15% auftrat. Yarmey (1971)
und Fish (1976) unternahmen den gleichen Versuch mit Landschaftsbil-
dern, Gebäuden und Tiergesichtern und fanden dabei ebenfalls, daß
Inversion bei Gesichtern ein deutlich negativeren Effekt zeigt als bei
anderen Stimuli. Hier zeigt sich deutlich, daß die kognitive Verarbei-
tung von Gesichtern teilweise anderen Gesetzmäßigkeiten folgt als die
Enkodierung anderer Objekte.
Die Annahme, daß die bei der Kodierung und Speicherung von
Gesichtern involvierten kognitiven Prozesse eine spezifische autonome
Komponente innerhalb der allgemeinen Wahrnehmungsfähigkeit dar-
stellen, wird weiterhin dadurch gestützt, daß es ein spezifisches neuro-
logisches Korrelat zu dieser Fähigkeit zu geben scheint. So berichtet
Yin (1970), daß Personen mit Läsionen im hinteren Bereich der rechten
Hemisphäre aufrechte Gesichter weitaus schlechter wiedererkennen
können als gesunde Personen bzw. als Personen mit Läsionen in ande-
ren rechtshemisphärischen Hirnbereichen. Demgegenüber zeigen diese
Patienten keinerlei Defizite bei der Kodierung invertierter Gesichter
oder aufrechter vs. invertierter Häuser.
Auch die Entwicklung der Kodierungsfähigkeit von Gesichtern
weist eine Reihe von Besonderheiten auf, wie Carey & Diamond (1980)
berichten. Zunächst zeigen Kleinkinder eine weitaus geringere Fähig-
keit, unbekannte Gesichter zu enkodieren, als Erwachsene (cf. Kagan
& Klein 1973). Ebenso besteht bei 6-8jährigen noch keinerlei Asym-
metrie zwischen Inversionseffekten bei Gesichtern und anderen
Gegenständen (Carey & Diamond 1977). Insgesamt scheint die Fähig-
keit der Gesichtserkennung mit zunehmendem Alter zu wachsen;
10jährige verhalten sich hierbei in etwa gleich wie Erwachsene. Aus
diesem Befund könnte man nun schließen, daß die Fähigkeit zur
Gesichtserkennung weitgehend eine Sache der Erfahrung ist. Carey &
Diamond berichten jedoch von mehreren Versuchen, die zeigen, daß
zwischen dem 10. und 16. Lebensjahr die Erkennungsfähigkeit plötz-
lich wieder abnimmt. 12-14jährige haben in der Regel größere Schwie-
rigkeiten, Gesichter zu erkennen, als jüngere bzw. ältere Jugendliche.
Carey & Diamond schließen daraus, daß die Kodierungsfähigkeit für
Gesichter in wesentlichen Bereichen durch einen Reifungsprozeß
bestimmt wird und nur teilweise auf Erfahrungswerte zurückgeht. Sie
können zeigen, daß bestimmte Entwicklungsgesetzmäßigkeiten bei
der Gesichtskodierung durch die einsetzende Pubertät unterbrochen
werden.
Neben der experimentellen psychologischen Evidenz für ein auto-
nomes Perzeptionsmodul hat vor allem J.A. Fodor (1983) - primär aus
philosophisch-logischer Sicht - zahlreiche Argumente vorgelegt, die
für einen modularen Aufbau der menschlichen Kognition sprechen,
wobei er sich wiederum vor allem auf perzeptuelle Phänomene
bezieht. Fodors Hauptthese besagt, daß der menschliche Kognitions-
apparat einerseits aus einer finiten Anzahl von autonomen Inputsyste-
men und andererseits aus einer zentralen Verarbeitungsinstanz - C(en-
tral) P(rocessing) U(nit) - besteht, in der der Output der verschiede-
nen Inputsysteme koordiniert und aufeinander bezogen wird. Eines
dieser Inputsysteme ist die Perzeption. Nach Fodor ergibt sich die
Autonomie der Inputsysteme primär daraus, daß diese Systeme nur
ganz spezifische Informationen verarbeiten können und somit gegen-
über Informationen aus anderen Bereichen immun sind. So kann etwa
das für die visuelle Wahrnehmung zuständige Inputsystem nur perzep-
tionsbezogene Daten verarbeiten, etc. Modularität der Kognition
bedeutet also, daß neben einer zentralen nicht-aufgabenspezifischen
CPU autonome aufgabenspezifische Inputsysteme existieren. Die Evi-
denz für die Existenz solcher Inputsysteme ergibt sich aus der Tatsa-
che, daß sie über bestimmte Eigenschaften verfügen, die in Prozessen
der CPU typischerweise nicht auftreten. »It is ... a main thesis of this
work that the properties in virtue of which input systems are modular
are ones which, in general, central cognitive processes do not share«
(op.cit. 47).
Fodor nimmt nun keineswegs etwa an, daß die traditionellen des-
kriptiven Bereiche der Perzeption sowie der Sprache jeweils ein autono-
mes Inputsystem ausmachen, sondern daß Inputsysteme weitaus spezi-
fischerer Art sind. »Candidates might include, in the case of vision,
mechanisms for color perception, for the analysis of shape, and for the
analysis of three-dimensional spatial relations. They might also include
quite narrowly task-specific >higher level< systems concerned with the
visual guidance of bodily motions or with the recognition of faces of
conspecifics« (op.cit. 47).
Fodor führt nun eine Reihe von Eigenschaften und Merkmalen auf,
die Inputsysteme charakterisieren und durch die sich diese allgemeinen
kognitiven Prozesse unterscheiden. Das erste Merkmal, das in diese
Kategorie fällt, ist die Tatsache, daß Inputprozesse automatisch und
obligatorisch ablaufen. Dies gilt gleichermaßen für Sprache wie für
visuelle Perzeption. Der Prozeß, der das auf der Netzhaut abgebildete
zweidimensionale Bild in ein dreidimensionales umwandelt, läßt sich
nicht unterdrücken. Der Mensch kann nicht nur dreidimensional
sehen, er muß dreidimensional sehen. Bereits bei den optischen Täu-
schungen hatten wir gesehen, daß auch hier die involvierten Prozesse
nicht der bewußten Steuerung unterliegen. Optische Täuschungen las-
sen sich nicht durch Nachdenken ausschalten. Selbst wenn man die
objektiven Verhältnisse kennt und sich derer voll bewußt ist, so wird
die Perzeption doch davon nicht beeinflußt. In ähnlicher Weise wird
ein akustisches Signal, das natürliche Sprache kodiert, auch notwendi-
gerweise als Sprache wahrgenommen. Selbst bei größter Anstrengung
ist es nicht möglich, sprachliche Signale als rein akustische Geräusche
wahrzunehmen. Entscheidend ist jedoch, daß diese Obligatorik eben
nur in bestimmten Bereichen wie der visuellen Perzeption oder der
Sprache gilt, nicht jedoch bei nicht-perzeptuelle kognitive Prozessen.
So lassen sich etwa Objekte des Denkens auf mannigfaltige Art und
Weise beliebig ordnen und repräsentieren. »Think of Hamlet as a re-
venge play, as a typical product of Mannerist sensibility; as a pot boiler,
as an unlikely vehicle for Greta Garbo« (op.cit. 55).
Es wird allgemein angenommen, daß die kognitiven Prozesse, die
bei visueller oder sprachlicher Perzeption ablaufen, mehrschichtig
sind; d.h. diese Prozesse involvieren mehrere Repräsentationsebenen.
So muß etwa bei der sprachlichen Wahrnehmung aus dem akustischen
Signal zunächst eine lautliche Repräsentation errechnet werden; diese
ist dann Input für die syntaktische Analyse, und deren Output ist wie-
derum die Grundlage für die semantische Interpretation. Nach Fodor
zeichnen sich Inputsysteme dadurch aus, daß man typischerweise zu
diesen Zwischenstadien keinen separaten perzeptuellen Zugang hat. So
kann man einen Satz nur als semantisch interpretierte Äußerung verste-
hen; es ist nicht möglich, eine Äußerung lediglich als phonologische
Kette oder als syntaktische Struktur zu perzipieren. Lediglich das End-
produkt des gesamten kognitiven Prozesses ist zugänglich. Gleiches
scheint auch für die visuelle Perzeption zu gelten. Fragen wir jemanden
nach der Uhrzeit, so wird er auf seine Uhr schauen und eine entspre-
chende Antwort geben. Wird er anschließend etwa danach gefragt, wel-
che Form oder Farbe die Zeiger seiner Uhr haben, so wird er vielfach
die Antwort schuldig bleiben. Dennoch ist klar, daß beim Blick auf die
Uhr die entsprechenden Informationen in den perzeptuellen Verarbei-
tungsprozeß eingehen müssen; allerdings scheinen diese Informatio-
nen eben nicht ohne weiteres separat perzipierbar bzw. speicherbar zu
sein. »Input analysis typically involves mediated mappings from trans-
ducer outputs onto percepts - mappings that are effected via the com-
putation of interlevels of representation of the impinging stimulus.
These intermediate representations are sometimes absolutely inaccessi-
ble to central processes, or, in many cases, they are accessible at a price:
you can get at them, but only by imposing special demands upon
memory or attention« (op.cit. 60).
Eine weitere zentrale Eigenschaft von Inputsystemen betrifft die
Geschwindigkeit der entsprechenden kognitiven Prozesse. Inputsyste-
me arbeiten extrem schnell. Fodor erwähnt eine Studie von Haber
(1980), die zeigt, daß Versuchspersonen 2560 verschiedene Photogra-
phien, die jeweils nur 10 Sekunden lang gezeigt wurden, mit einer Tref-
ferquote von fast 90% identifizieren konnten. Offensichtlich kann der
Mensch eine große Fülle von Informationen in sehr kurzer Zeit und
mit hoher Präzision visuell verarbeiten. Demgegenüber sind die kogni-
tiven Prozesse, die etwa bei allgemeinen Denk- und Problemlösungs-
aufgaben auftreten, eher langsam. Man kann über ein Problem stun-
denlang nachdenken, verschiedene Lösungen gegeneinander abwägen
und erst nach enormem geistigen und zeitlichen Aufwand auf die kor-
rekte Lösung stoßen. Mit anderen Worten, Denken ist ein eher langsa-
mer, Sehen hingegen ein sehr schneller Prozeß.
Wie wir bereits in Kap. 5.6 gezeigt haben, scheinen die kognitiven
Leistungen, die nach Fodor an Inputsysteme gekoppelt sind, auch ein
spezifisches neurophysiologisches Korrelat zu haben. Läsionen in
bestimmten Regionen des Gehirns können zu spezifischen Ausfällen
im Bereich der Perzeption und der Sprache führen, so daß man anneh-
men kann, daß die entsprechenden kognitiven Leistungen an bestimm-
te Hirnbereiche gebunden sind. Demgegenüber gibt es - soweit
bekannt - keine derartigen neuronalen Korrelate für allgemein-kogni-
tive Funktionen und Prozesse. Mit anderen Worten, es gibt zwar durch
Hirnschädigungen bedingte Defizite im sprachlichen und perzeptuel-
len Vermögen, jedoch keine entsprechenden spezifischen Ausfälle etwa
im Bereich des logischen Denkens oder des Lösens einer Puzzle-Aufga-
be. »All the cases of massive neural structuring to which a content-spe-
cific cognitive function can confidently be assigned appear to be asso-
ciated with input analysis, either with language or with perception.
There is, to put it crudely, no known brain center for modus ponens«
(op.cit. 98). Darüber hinaus scheinen die Funktionen von Inputsyste-
men auch besonderen Entwicklungen zu unterliegen. Während sich
Sprache und Perzeption in starker Abhängigkeit von endogenen Fakto-
ren entwickeln und sich Grundfunktionen vielfach auch unter extrem
restringierter Stimulation entfalten (cf. auch Kap. 5.4 und 5.6), scheint
dies für allgemeine kognitive Prozesse gerade nicht zu gelten.
Während Fodors Beobachtungen in den genannten Bereichen weit-
gehend unstrittig sein dürften, wird eine weitere Eigenschaft, die nach
Fodor Inputsysteme charakterisiert, von vielen Forschern eher mit
Skepsis beurteilt. »Some of the claims that I'm now about to make are
in dispute among psychologists, but I shall make them anyway because
I think that they are true« (op. cit. 64). Inputsysteme sind nach Fodor
»informationally encapsulated«, d.h. Inputsysteme sind geschlossene
Systeme, in die bestimmte Informationen, über die ein Individuum ver-
fügt, keinen Eingang haben. »... the claim that input systems are infor-
mationally encapsulated is equivalent to the claim that the data that can
bear on the confirmation of perceptual hypotheses includes, in the
general case, considerably less than the organism may know. That is,
the confirmation function for input systems does not have access to all
of the information that the organism internally represents; there are
restrictions upon the allocation of internally represented information
to input processes« (op.cit. 69).
Die Problematik dieser These liegt vor allem darin, daß eine Fülle
von experimenteller Evidenz darauf hindeutet, daß kontextabhängige
Information in der Tat perzeptuelle Prozesse verändern kann (cf. z.B.
Marslen-Wilson & Tyler 1981). Derartige Evidenz beweist allerdings
nicht, daß Inputsysteme vollständig offene Systeme sind, die jede Art
von verfügbarer Information integrieren. Fodors These besagt allein,
daß zahlreiche Informationen, die ein Individuum für die Berechnung
perzeptiver Repräsentationen verwenden könnte, in der Tat unberück-
sichtigt bleiben. Hier läßt sich wiederum auf das Beispiel der optischen
Täuschung verweisen. Kenntnisse über die tatsächlichen Verhältnisse
einer Konfiguration verhindern keineswegs die Effekte optischer Täu-
schungen. Ähnliches gilt für den sprachlichen Bereich. Äußert jemand
»ich habe einen Elefanten verschluckt«, so verhindert die Kenntnis der
Tatsache, daß so etwas nicht möglich ist, eben nicht die syntaktische
und semantische Interpretation dieser Äußerung. Demgegenüber sind
allgemein-kognitive Prozesse eben nicht »informationally encapsulat-
ed«. Bei Problemlösungsaufgaben wird ein Individuum versuchen,
möglichst alle verfügbaren Informationen bei der Erwägung unter-
schiedlicher Lösungen zu berücksichtigen, und man mag vermuten,
daß gerade dieses Faktum zumindest teilweise für die verhältnismäßig
geringe Geschwindigkeit allgemein-kognitiver Prozesse verantwortlich
ist.
Unabhängig von der Bewertung der einzelnen Beobachtung ist
Fodor sicher zuzugestehen, daß er an einer Fülle von Beispielen erfolg-
reich demonstriert hat, daß perzeptuelle und sprachliche Prozesse im
Kontext der Gesamtkognition des Menschen eine Sonderstellung ein-
nehmen. Sie weisen Gesetzmäßigkeiten und Eigenschaften auf, die in
anderen kognitiven Domänen nicht auftreten. Unter diesem Aspekt
scheint die Auffassung eines globalen, alles umfassenden Kognitionssy-
stems, das visuelle Perzeption und sprachliche Kodierung mit den glei-
chen Mechanismen und Strategien bewältigt wie das Lösen einer
Mathematikaufgabe oder den Zusammenbau einer Maschine, wenig
plausibel zu sein.
Bibliographie

Abraham, W. 1982a, Syntaktisch charakterisierte Verbklassen mit Kontrollbeziehung


im Deutschen und Englischen. Philologie und Sprachwissenschaft: Akten der
10. Österreichischen Linguistentagung Innsbruck. Herausgegeben von Meid, W.
Institut für Sprachwissenschaft Universität Innsbruck, 9-27.
Abraham, W. ed. 1982b, Satzglieder im Deutschen. Tübingen. Narr.
Abraham, W. 1983a, The control relation in German. In: Abraham, W. ed.
1983:217-242.
Abraham, W. ed. 1983b, On the formal syntax of the Westgermania. Amsterdam.
Benjamins.
Abraham, W. ed. 1985, Erklärende Syntax des Deutschen. Tübingen. Narr.
Akmajian, A. & Heny, F. 1975, An introduction to the principles of transformational
syntax. Cambridge, Mass. MIT Press.
Alleyne, M. 1980, Comparative Afro-American. An historical-comparative study of
English based Afro-American dialects of the New World. Ann Arbor. Karoma.
Allsop, R. 1977, Africanisms in the idiom of Caribbean English. In: Kotey, P. & Der-
Houssikian, H. eds. 1977:429-441.
Anderson, S. & Kiparsky, P. eds. 1973, A Festschrift for Morris Halle. New York.
Holt, Rinehart & Winston.
Antinucci, F. & Miller, R. 1976, How children talk about what happened. Journal of
Child Language 3:167-189.
Arbib, M.A. & Caplan, D. & Marshall, J.C. eds. 1982, Neural models of language
processes. New York. Academic Press.
Arnauld, A. & Lancelot, C. 1660, Grammaire générale et raisonée. Gent 1968.
Slatkine Reprints.
Aronoff, M. 1976, Word formation in generative grammar. Cambridge, Mass. MIT
Press.
Asbach-Schnitker, B. & Roggenhofer, J. eds. 1987, Neuere Forschungen zur Wortbil-
dung und Historiographie der Linguistik. Tübingen. Narr.
Atherton, M. & Schwartz, R. 1983, Linguistic innateness and its evidence. In: deLu-
ce, J. & Wilder, H. eds. 1983:125-136.
Atkinson, R. & Atkinson, R. eds. 1980, Mind and behavior. Readings from Scientific
American. San Francisco. Freeman.
Austin, J.L. 1962, How to do things with words. Cambridge, Mass. Harvard Univer-
sity Press.
Bach, E. 1968, Nouns and noun phrases. In: Bach, E. & Harms, R.T. eds.
1968:91-122.
Bach, E. 1970, Problominalization. Linguistic Inquiry 1:121-122.
Bach, E. 1974, Syntactic theory. New York. Holt, Rinehart & Winston.

275
Bach, E. & Harms, R.T. eds. 1968, Universals in linguistic theory. New York. Holt,
Rinehart & Winston.
Bäuerle, R. & Egli, U. & Stechow, A.v. eds. 1979, Semantics from different points of
view. Berlin. Springer.
Bahrick, H.P. & Bahrick, P.O. & Wittlinger, R.P. 1975, Fifty years of memory for
names and faces: a cross-sectional approach. Journal of Experimental Psycholo-
gy: General 104: 54-75.
Baker, C.L. 1979, Syntactic theory and the projection problem. Linguistic Inquiry
10:533-581.
Baker, G. & Hacker, P. 1984, Language, sense and nonsense: a critical investigation
into modern theories of language. Oxford. Blackwell.
Bar-Adon, A. & Leopold, W. eds. 1971, Child language: a book of readings. Engle-
wood Cliffs, N.J. Prentice Hall.
Bastian, J. 1967, The transmission of arbitrary environmental information between
bottlenose dolphins. In: Busnel, R.-G. ed. 1967:803-873.
Bates, E. 1976, Language and context: Cognition and communication in infancy.
New York. Academic Press.
Bates, E. 1984, Bioprograms and the innateness hypothesis. The Behavioral and
Brain Sciences 7:188-190.
Bates, E. & MacWhinney, B. 1982, Functionalist approaches to grammar. In: Wan-
ner, E. & Gleitman, L. eds. 1982:173-218.
Bates, E. & MacWhinney, B. & Smith, S. 1983, Pragmatics and syntax in psycholin-
gistic research. In: Felix, S. & Wode, H. eds. 1983:11-30.
Bayer, J. & de Bleser, R. 1985, On so-called grammaticality judgements of agramma-
tic speakers. Ms. Rheinisch-Westfälische Technische Hochschule Aachen. Re-
search Group for Aphasia and Cognitive Disorders.
Bayer, J. & de Bleser, R. & Dronsek, C. 1985, Zur Verarbeitung von Kasusmarkie-
rungen bei Aphasie. Vortrag auf der 12. Jahrestagung der Arbeitsgemeinschaft
für Aphasieforschung und -therapie. Rotterdam 1985.
Beattie, G. 1980, The role of language production processes in the organization of
behaviour in face-to-face interaction. In: Butterworth, B. ed. 1980b:69-107.
Bech, G. 1955/1957, Studien über das deutsche verbum infinitum. Historisk-filolo-
giske Meddelelser udgivet af Det kongelige Danske Videnskabernes Selskab.
Band 35:2 (1955) und Band 36:6 (1957).
Bellugi, U. 1967, The acquisition of the system of negation in children's speech.
Ph.D.Dissertation. Harvard.
Benson, D.F. 1979, Aphasia, alexia, and agraphia. New York. Churchill Livingstone.
Berlucchi, G. & Brizzolara, D. & Marzi, C. & Rizzolati, G. 1974, Can lateral asy-
metries in attention explain interfield differences in visual perception? Cortex
10:177-185.
Berwick, R. & Weinberg, A. 1982, Parsing efficiency, computational complexity, and
the evaluation of grammatical theories. Linguistic Inquiry 13:165-191.
Berwick, R. & Weinberg, A. 1983, The role of grammar in models of language use.
Cognition 13:1-61.
Berwick, R. & Weinberg, A. 1984, The grammatical basis of linguistic performance.
Cambridge, Mass. MIT Press.

272
Bever, T. 1970, The cognitive basis for linguistic structures. In: Hayes, J. ed.
1970:279-362.
Bever, T. 1980, Broca and Leshley were right: Cerebral dominance is an accident of
growth. In: Caplan, D. ed. 1980:186-230.
Bever, T. & Mehler, J. 1967, The coding hypothesis and short-term memory. AF
Technical Report. Harvard Center for Cognitive Studies. Cambridge, Mass.
Bever, T. & Carroll, J. 8c Miller, L.A. eds. 1984, Talking minds. The study of language
in cognitive science. Cambridge, Mass. MIT Press.
Bever, T. & Fodor, J.A. & Weksel, W. 1965, Theoretical notes on the acquisition of
syntax: a critique of »contextual generalization«. Psychological Review
72:467-482.
Bickerton, D. 1981, Roots of language. Ann Arbor. Karoma.
Bickerton, D. 1984, The language bioprogram hypothesis. The Behavioral and Brain
Sciences 7:173-221.
Blank, M. & Gessner, M. & Esposito, A. 1979, Language without communication:
a case study. Journal of Child Language 6:329-352.
de Bleser, R. 1986, Localization of aphasia: science or fiction? In: Denes, F. & Semen-
za, C. & Bisiachi, P. & Andreewsky, E. eds. 1986:23-34.
de Bleser, R. & Bayer, J. 1983, Inflectional morphology and aphasia. Paper read at
the Academy of Aphasia, Minneapolis, U.S.A.
de Bleser, R. & Poeck, K. 1984, Aphasia with exclusively consonant-vowel recurring
utterances: tam-tam revisited. In: Rose, F. ed. 1984:134-156.
Block, R.L. 1986, Revolution und Revision in der generativen Theoriebildung.
Tübingen. Narr.
Bloom, L. 1970, Language development: form and function in emerging grammars.
Cambridge, Mass. MIT Press.
Bloomfield, L. 1926, A set of postulates for the science of language. Language
2:153-164.
Bloomfield, L. 1933, Language. New York. Holt, Rinehart & Winston.
Boas, H.V. 1984, Formal versus explanatory generalizations in generative transfor-
mational grammar: an investigation into generative argumentation. Tübingen.
Niemeyer.
Bolinger, D. 1968, Aspects of language. New York. Harcourt, Brace & World.
Bonner, J.T. 1983, Kulturrevolution bei Tieren. Berlin. Parey.
Boomer, D.S. 1965, Hesitation and grammatical encoding. Language and Speech
8:148-158.
Bower, T. 1974, Development in infancy. San Francisco. Freeman.
Bracken, H.M. 1984, Mind and language: essays on Descartes and Chomsky. Dord-
recht. Foris.
Bradshaw, J.L. & Nettleton, N.C. 1981, The nature of hemispheric specialisation in
man. The Behavioral and Brain Sciences 4:51-91.
Braine, M. 1963, The ontogeny of English phrase structure: the first phase. Language
39:1-13.
Braine, M. 1978, On the relation between the natural logic of reasoning and standard
logic. Psychological Review 85:1-21.
Brekle, H. 1969, Review of Chomsky »Cartesian linguistics«. Linguistics 49:74-91.

277
Brekle, H. 1970, Transformationelle Syntax, Generative Satzsemantik im System der
englischen Nominalkomposition. München. Fink.
Brekle, H. 1985, Einführung in die Geschichte der Sprachwissenschaft. Darmstadt.
Wissenschaftliche Buchgesellschaft.
Bresnan, J. 1978, A realistic transformational grammar. In: Halle, M. & Bresnan, J.
& Miller, G.A. eds. 1978:1-59.
Bresnan, J. ed. 1982, The mental representation of grammatical relations. Cam-
bridge, Mass. MIT Press.
Bridge-Denkla, M. & Rudel, R. & Broman, M. 1980, The development of a special
orientation skill in normal, learning-disabled and neurologically impaired chil-
dren. In: Caplan D. ed. 1980:44-59.
Brown, R. 1973, A first language: the early stages. London. Allen & Unwin.
Brown, R. & Hanlon, C. 1970, Derivational complexity and order of acquisition in
child speech. In: Hayes, J. ed. 1970:11-53.
Bryden, M. 1982, Laterality. New York. Academic Press.
Burzio, L. 1981, Intransitive verbs and Italian auxiliaries. Ph.D.Dissertation. MIT.
Busnel, R.-G. ed. 1967, Les systèmes sonars animaux: biologie et bionique. Vol. II.
Jouy-en-Josas.
Butterworth, B. 1976, Hesitation and semantic planning in speech. Journal of Psy-
cholinguistic Research 4:75-87.
Butterworth, B. 1980a, Evidence from pauses in speech. In: Butterworth, B. ed.
1980b:155-176.
Butterworth, B. ed. 1980b, Language production. Vol. 1: Speech and talk. London.
Academic Press.
Butterworth, B. ed. 1983, Language production. Vol. 2: Development, writing, and
other language processes. London. Academic Press.
Butterworth, B. & Comrie, B. & Dahl, Ö. eds. 1984, Explanations for language
universals. Berlin. Mouton.
Caplan, D. ed. 1980, Biological studies of mental processes. Cambridge, Mass. MIT
Press.
Caplan, D. 1985, Syntactic and semantic structures in agrammatism. In: Kean, M.-L.
ed. 1985:125-152.
Caplan, D. & Matthei, E. & Gigley, H. 1981, Comprehension of gerundive construc-
tions by Broca's Aphasics. Brain and Language 13:145-160.
Caramazza, A. & Berndt, R.S. 1978, Semantic and syntactic processes in aphasia: A
review of the literature. Psychological Bulletin 85:898-918.
Caramazza, A. & Berndt, R.S. 1985, A multicomponent view of agrammatic Broca's
aphasia. In: Kean, M.-L. ed. 1985:27-63.
Carey, S. & Diamond, R. 1977, From piecemeal to configurational representation of
faces. Science 195:312-314.
Carey, S. & Diamond, R. 1980, Maturational determination of the developmental
course of face encoding. In: Caplan, D. ed. 1980:60-93.
Carnap, R. 1928, Der logische Aufbau der Welt. Berlin-Schlachtensee. Weltkreisver-
lag.
Carrow-Woolfolk, E. & Lynch, J. 1982, An integrative approach to language disor-
ders in children. New York. Grune & Stratton.

4
Catchpole, C. 1979, Vocal communication in birds. London. Arnold.
Chafe, W. 1968, Idiomaticity as an anomaly in the Chomskyan paradigm. Founda-
tions of Language 4:109-127.
Chafe, W. 1976, Giveness, contrastiveness, definiteness, subjects, topics, and point
of view. In: Li, C.N. ed. 1976:25-55.
Changeux, J.-P. 1984, Der neuronale Mensch. Reinbeck. Rowohlt.
Charniak, E. & MacDermott, D. 1985, Introduction to artificial intelligence. Read-
ing, Mass. Addison-Wesley.
Chivers, D. & Herbert, J. eds. 1978, Recent advances in primatology. Vol.1. Behavior.
London. Academic Press.
Chomsky, N. 1957, Syntactic structures. Den Haag. Mouton.
Chomsky, N. 1964, Current issues in linguistic theory. In: Fodor, J.A. & Katz, J.J.
eds. 1964:50-118.
Chomsky, N. 1965, Aspects of the theory of syntax. Cambridge, Mass. MIT Press.
Chomsky, N. 1966, Cartesian linguistics. A chapter in the history of rationalist
thought. New York. Harper & Row.
Chomsky, N. 1967, The formal nature of language. In: Lenneberg, E. ed.
1967:397-442.
Chomsky, N. 1971, Deep structure, surface structure, and semantic interpretation.
In: Steinberg, D. & Jakobovits, L. eds. 1971:183-216.
Chomsky, N. 1972, Language and mind. New York. Harcourt, Brace & Jovanovich.
Chomsky, N. 1973, Conditions on transformations. In: Anderson, S. & Kiparsky, P.
eds. 1973:232-286.
Chomsky, N. 1975, Reflections on language. New York. Pantheon.
Chomsky, N. 1977, Essays on form and interpretation. New York. North-Holland.
Chomsky, N. 1980, Rules and representations. New York. Columbia University
Press.
Chomsky, N. 1981, Lectures on government and binding. Dordrecht. Foris.
Chomsky, N. 1982a, The generative enterprise: a discussion with Riny Huybregts
and Henk van Riemsdijk. Dordrecht. Foris.
Chomsky, N. 1982b, Some concepts and consequences of the theory of government
and binding. Cambridge, Mass. MIT Press.
Chomsky, N. 1984, Knowledge of language: its nature, origin and use. Ms. MIT.
Chomsky, N. 1985, Barriers. Ms. MIT.
Chomsky, N. & Halle, M. 1968, The sound pattern of English. New York. Harper
& Row.
Chomsky, N. & Lasnik, H. 1977, Filters and control. Linguistic Inquiry 8:425-504.
Clahsen, H. & Meisel, J. & Pienemann, M. 1983, Deutsch als Zweitsprache. Der
Spracherwerb ausländischer Arbeiter. Tübingen. Narr.
Clark, E.V. 1972, On the child's acquisition of antonyms in two semantic fields.
Journal of Verbal Learning and Verbal Behavior 11:750—758.
Clark, H. & Haviland, S. 1974, Psychological processes as linguistic explanation. In:
Cohen, D. ed. 1974:91-124.
Clements, G.N. & Keyser, S.J. 1983, CV-phonology. A generative theory of the syl-
lable. Cambridge, Mass. MIT Press.
Cohen, D.ed. 1974, Explaining linguistic phenomena. Washington, D.C. Hemisphere.

25
Cohen, R. & Kelter, S. 1978, Cognitive impairment of aphasics in a colour-to-picture
matching task. SFB-Papier 22. Universität Konstanz.
Cole, P. & Morgan, J. eds. 1975, Syntax and semantics. Vol 3: Speech acts. New York.
Academic Press.
Coltheart, M. 1979, Deep dyslexia: a right hemisphere hypothesis. In: Coltheart, M.
& Patterson, K. & Marshall, J. eds. 1979:22-47.
Coltheart, M. & Patterson, K. & Marshall, J. eds. 1979, Deep dyslexia. London.
Routledge & Kegan Paul.
Comrie, B. 1984, Form and function in explaining language universals. In: Butter-
worth, B. & Comrie, B. & Dahl, Ö. eds. 1984:87-103.
Comrie, B. & Keenan, E. 1977, NP accessability and universal grammar. Linguistic
Inquiry 8:63-100.
Cooper, W. 1980, Syntactic-to-phonetic coding. In: Butterworth, B. ed.
1980b:297-333.
Cooper, W. & Walker, E. eds. 1979, Sentence processing: psycholinguistic studies
presented to Merrill Garrett. Hillsdale, Erlbaum.
Cooper, W. & Paccia-Cooper, J. 1980, Syntax and speech. Cambridge, Mass. Har-
vard University Press.
Corne, C. 1979, Seychelles Creole French phonemics. In: Hancock, I. ed.
1979:239-252.
Culicover, P. 1976a, Syntax. New York. Academic Press.
Culicover, P. 1976b, A constraint on coreferentiality. Foundations of Language
14:109-118.
Curtiss, S. 1977, Genie: A psycholinguistic study of a modern-day »wild child«.
New York. Academic Press.
Curtiss, S. 1982, Dissociations between language and cognition: cases and implica-
tions. Journal of Autism and Developmental Disorders 2:15-30.
Czihak, D. & Langer, H. & Ziegler, H. eds. 1981, Biologic Heidelberg. Springer.
Dale, P. & Ingram, D. eds. 1981, Child language - an international perspective. Se-
lected papers from the First International Congress for the Study of Child
Language. Baltimore. University Park Press.
Davidson, D. & Harman, G. eds. 1972, Semantics of natural language. Dordrecht.
Reidel.
Davies, A. & Criper, C. & Howatt, A.P.R. eds. 1984, Interlanguage. Edinburgh.
Edinburgh University Press.
Davis, S. 1976, Philosophy and language. Indianapolis. Bobbs-Merrill.
Dawkins, R. 1979, Das egoistische Gen. Heidelberg. Springer.
DeCamp, D. 1971, The study of pidgin and Creole languages. In: Hymes, D. ed.
1971:13-39.
DeCamp, D. 1977, The development of pidgin and Creole studies. In: Valdman, A.
ed. 1977b:3-20.
DeLuce, J. & Wilder, H. eds. 1983, Language in primates. Perspectives and implica-
tions. New York. Springer.
Denckla, M.B. & Rudel, R. & Broman, M. 1980, The development of a spatial orien-
tation skill in normal, learning-disabled and neurogically impaired children. In:
Caplan, D. ed. 1980:44-59.

6
Denes, F. & Semenza, C. & Bisiachi, P. & Andreewsky, E. eds. 1986, Perspectives in
cognitive neuropsychology. New York. Erlbaum.
Dennis, M. 1980, Language acquisition in a single hemisphere: semantic organiza-
tion. In: Caplan, D. ed. 1980:159-185.
Dennis, M. & Whitaker, H. 1976, Language acquisition following hemidecortica-
tion: linguistic superiority of the left over the right hemisphere. Brain and
Language 3:404-433.
Derwing, B. 1973, Transformational grammar as a theory of language acquisition.
Cambridge. Cambridge University Press.
Dewson, J. 1978, Some behavioral effects of removal of superior temporal cortex in
the monkey. In: Chivers, D. & Herbert, J. eds. 1978:763-768.
Dik, S. 1978, Coordination. Amsterdam. North-Holland.
Dik, S. 1981, Functional grammar. Dordrecht. Foris.
DiPaolo, M. & Smith, C. 1979, Cognitive and linguistic factors in the acquisition of
temporal and aspectual expressions. In: French, P. ed. 1979:143-167.
Dittman, A.T. 1972, Interpersonal messages of emotion. New York. Springer.
Dougherty, R. 1969, An interpretive theory of pronominal reference. Foundations
of Language 6:488-519.
Dowty, D. & Karttunen, L. & Zwicky, A. eds. 1985, Natural language parsing. Psy-
chological, computational, and theoretical perspectives. Cambridge. Cambridge
University Press.
Dowty, D. & Wall, R. & Peters, S. 1981, Introduction to Montague semantics. Dord-
recht. Reidel.
Drach, E. 1940, Grundgedanken der deutschen Satzlehre. Frankfurt. Diesterweg.
Dretske, F. 1974, Explanation in linguistics. In: Cohen, D. ed. 1974:21-41.
Edgley, R. 1970, Innate ideas. In: Vesey, G. ed. 1970:28-42.
Eibl-Eibesfeldt, I. 1976, Der vorprogrammierte Mensch. München. dtv.
Eimas, P. 1983, Studies on the categorization of speech by infants. Cognition
13:135-165.
Eimas, P. 1985, Sprachwahrnehmung beim Säugling. Spektrum der Wissenschaft
3:76-83.
Eimas, P. & Miller, J.L. eds. 1981, Perspectives on the study of speech. Hillsdale,
N.J. Erlbaum.
Engdahl, E. 1983, Parasitic gaps. Linguistics and Philosophy 6: 5—34.
Engdahl, E. 1985, Interpreting questions. In: Dowty, D. & Karttunen, L. & Zwicky,
A. eds. 1985:67-93.
Engel, U. 1977, Syntax der deutschen Gegenwartssprache. Berlin. Erich Schmidt.
Eroms, H.-W. 1978, Zur Konversion der Dativphrase. Sprachwissenschaft
3:357-405.
Eroms, H.-W. 1981, Valenz, Kasus und Präpositionen: Untersuchungen zur Syntax
und Semantik präpositionaler Konstruktionen in der deutschen Gegenwarts-
sprache. Heidelberg. Winter.
Erteschik, N. 1973, On the nature of island constraints. Ph.D.Dissertation. MIT.
Exline, R.V. & Winters, L.C. 1965, Affective relations and mutual glances in dyads.
In: Tomkins, S. & Izard, C. eds. 1965:319-351.

7
Falmagne, R. ed. 1975, Reasoning: representation and process in children and adults.
Hillsdale, N.J. Erlbaum.
Fanselow, G. 1983, Zu einigen Problemen von Kasus, Rektion und Bindung in der
deutschen Syntax. Magisterarbeit Universität Konstanz.
Fanselow, G. 1985a, What is a possible complex word? In: Toman, J. ed.
1985:289-318.
Fanselow, G. 1985b, Die Stellung der Wortbildung im System kognitiver Module.
Linguistische Berichte 96:91-126.
Fanselow, G. 1986a, On the sentential nature of prenominal adjectives in German.
Folia Linguistica 20, 341-380.
Fanselow, G. 1986c, German word order and the GB-theory. Vortrag anläßlich der
Tagung »Word Order and Parsing in Unification Grammars«. Friedenweiler
1986.
Fanselow, G. 1987a, Gemeinsame Prinzipien von Wort- und Phrasensemantik.
Erscheint in: Asbach-Schnitker, B. & Roggenhofer, J. eds. 1986.
Fanselow, G. 1987b, Konfigurationalität. Untersuchungen zur Universalgrammatik
am Beispiel des Deutschen. Tübingen. Narr.
Felix, S. 1978, Linguistische Untersuchungen zum natürlichen Zweitsprachener-
werb. München. Fink.
Felix, S. ed. 1980, Second language development. Trends and issues. Tübingen. Narr.
Felix, S. 1982, Psycholinguistische Aspekte des Zweitsprachenerwerbs. Tübingen.
Narr.
Felix, S. 1984, Maturational Aspects of Universal Grammar. In: Davies, A. & Criper,
C. & Howatt, A.P.R. eds. 1984:133-161.
Felix, S. 1985a, Parasitic Gaps in German. In: Abraham, W. ed. 1985:173-200.
Felix, S. 1985b, UG-generated knowledge in adult second language acquisition. Ms.
Passau.
Felix, S. 1987, Cognition and language growth. Dordrecht. Foris.
Felix, S. & Wode, H. eds. 1983, Language development at the crossroads. Papers
from the interdisciplinary conference on language acquisition at Passau. Tübin-
gen. Narr.
Ferguson, C. 1971, Absence of copula and the notion of simplicity: a study of normal
speech, baby talk, foreigner talk, pidgin. In: Hymes, D. ed. 1971:141-150.
Ferguson, C. & DeBose, C. 1977, Simplified registers, broken language and pidgini-
zation. In: Valdman, A. ed. 1977b:99-125.
Ferguson, C. & Slobin, D. eds. 1973, Studies of child language development. New
York. Holt, Rinehart & Winston.
Fillmore, Ch. 1968, The case for case. In: Bach, E. & Harms, R.T. eds. 1968:1-88.
Fillmore, Ch. & Langendoen, D.T eds. 1971, Studies in Linguistic semantics. New
York. Holt, Rinehart & Winston.
Fish, D. 1976, Upright and inverted landscapes. Working paper. Psychology Depart-
ment. MIT.
Flynn, S. & Espinal, I. 1985, Head-initial/head final parameter in adult Chinese L2
acquisition of English. Second Language Research. Vol.1. No.2. 1985:93-117.
Fodor, J.A. 1975, The language of thought. New York. Crowell.

8
Fodor, J.A. 1980, The fixation of belief and concept acquisition. In: Piattelli-Palma-
rini, M. ed. 1980:143-149.
Fodor, J.A. 1981a, The appeal to tacit knowledge in psychological explanations. In:
Fodor, J.A. ed. 1981b:63-78.
Fodor, J.A. 1981b, Representations: philosophical essays on the foundations of
cognitive science. Cambridge, Mass. MIT Press.
Fodor, J.A. 1982, Off the slippery slope or why paramecia don't have mental repre-
sentations. Ms. MIT.
Fodor, J.A. 1983, The modularity of mind. An essay on faculty psychology. Cam-
bridge, Mass. MIT Press.
Fodor, J.A. & Bever, T. & Garrett, M. 1974, The psychology of language: an intro-
duction to psycholinguistics and generative grammar. New York. McGraw-Hill.
Fodor, J.A. & Garrett, M. 1967, Some syntactic determinants of sentential complexi-
ty. Perception and Psychophysics 2:289-296.
Fodor, J.A. & Katz, J.J. eds. 1964, The structure of language. Readings in the philo-
sophy of language. Englewood Cliffs, N.J. Prentice Hall.
Fodor, J.D. 1978, Parsing strategies and constraints on transformations. Linguistic
Inquiry 9:427-473.
Fodor, J.D. 1979, Superstrategy. In: Cooper, W. & Walker, E. eds. 1979:249-279.
Fodor, J.D. 1984, Constraints on gaps: is the parser a significant influence? In: But-
terworth, B. & Comrie, B. & Dahl, Ö. eds. 1984:9-34.
Foley, W. & Van Valian, R. 1984, Functional syntax and universal grammar. Cam-
bridge. Cambridge University Press.
Fowler, A. 1981, Language learning in Downs Syndrome children. Ms. University of
Pennsylvania.
Fraser, C. & Bellugi, U. & Brown, R. 1963, Control of grammar in imitation, com-
prehension, and production. Journal of Verbal Learning and Verbial Behavior
2:121-135.
Frazier, L. 1979, On comprehending sentences: syntactic parsing strategies.
Ph.D.Dissertation. University of Connecticut.
Frazier, L. 1985, Syntactic complexity. In: Dowty, D. & Karttunen, L. & Zwicky, A.
eds. 1985:129-189.
Frazier, L. & Fodor, J.D. 1978, The sausage machine: a new two-stage parsing
model. Cognition 6:291-325.
French, P. ed. 1979, The development of meaning. Hiroshima. Bunka Hyoron.
Friederici, A.D. 1984, Neuropsychologie der Sprache. Stuttgart. Kohlhammer.
Friederici, A.D. 1985, Levels of processing and vocabulary types: evidence from on-
line comprehension in normals and agrammatics. Cognition 19:133-166.
Fromkin, V. ed. 1980, Errors in linguistic performance. New York. Academic Press.
Garrett, M. 1980, Levels of processing in sentence production. In: Butterworth, B.
ed. 1980b:177-220.
Gazdar, G. 1979, Pragmatics: implicature, presupposition and logical form. New
York. Academic Press.
Gazdar, G. 1979, Pragmatics. New York. Academic Press.
Gazdar, G. 1981, Unbounded dependencies and coordinate structure. Linguistic
Inquiry 12:155-184.
9
Gazdar, G. 1982, Phrase structure grammar. In: Jacobson, P. & Pullum, G. eds.
1982:131-186.
Gazdar, G. 8c Klein, E. & Pullum, G. & Sag, I. 1985, Generalized phrase structure
grammar. Oxford. Blackwell.
Gelman, R. & Gallistel, C.R. 1978, The child's understanding of number. Cam-
bridge, Mass. Harvard University Press.
Givón, T. 1976, Topic, pronoun, and grammatical agreement. In: Li, C.N. ed.
1976:149-188.
Givón, T. 1979a, On understanding grammar. New York. Academic Press.
Givón, T. 1979b, Prolegomena to any sane creology. In: Hancock, I. ed. 1979:3-35.
Gleitman, L. 1984, Biological predispositions to learn language. In: Marler, P. & Ter-
race, H.S. eds. 1984:553-584.
Gold, E. 1967, Language identification in the limit. Information and control
10:447-474.
Goldin-Meadow, S. 1979, Structure in a manual communication system developed
without a conventional language model: language without a helping hand. In:
Whitaker, H. 8c Whitaker, H.A. eds. 1979:125-209.
Goldin-Meadow, S. 1982, The resilience of recursion: a study of a communication
system developed without a conventional language model. In: Wanner, E. &
Gleitman, L. eds. 1982:51-78.
Goldman-Eisler, F. 1968, Psycholinguistics: experiments in spontaneous speech.
New York. Academic Press.
Goldman-Eisler, F. 1972, Pauses, clauses, sentences. Language and Speech
15:103-113.
Goodglass, H. & Menn, L. 1985, Is agrammatism a unitary phenomenon? In: Kean,
M.-L. ed. 1985:1-26.
Gough, P.B. 1965, Grammatical transformations and speed of understanding. Jour-
nal of Verbal Learning and Verbal Behavior 4:107-111.
Gould, S.J. 1977, Ontogeny and phylogeny. Cambridge, Mass. The Belknap Press of
Harvard University Press.
Graves, C. & Katz, J. & Nishiyama, Y. & Soames, S. 8c Stecken, R. & Towey, P.
1973, Tacit knowledge. Journal of Philosophy 70:318-330.
Grewendorf, G. 1987, Deutsche Syntax I. Ms. Universität Frankfurt.
Grodzinsky, Y. 1984, The syntactic characterization of agrammatism. Cognition
16:99-120.
Haber, R. 1980, How we remember what we see. In: Atkinson, R. 8c Atkinson, R.
eds. 1980.
Haider, H. 1983, Connectedness effects in German. GAGL 23:82-119.
Haider, H. 1987, Deutsche Syntax, generativ - Eine Einführung in die Theorie von
Rektion und Bindung. Tübingen. Narr.
Halle, M. 8c Bresnan, J. & Miller, G.A. eds. 1978, Linguistic theory and psychologi-
cal reality. Cambridge, Mass. MIT Press.
Hall, R. 1966, Pidgin and Creole language. Ithaca. Cornell University Press.
Hancock, I. ed. 1979, Readings in Creole studies. Ghent. Story-Scientia.
Harris, Z. 1951, Methods of structural linguistics. Chicago. Chicago University
Press.

10
Harris, Z. 1957, Co-occurrence and transformation in linguistic structure. Language
33:283-340.
Hawkins, J.A. 1983, Word order universals. New York. Academic Press.
Hayes, J. ed. 1970, Cognition and the development of language. New York. Wiley.
Heeschen, C. 1985, Agrammatism versus paragrammatism: a fictious opposition. In:
Kean, M.-L. ed. 1985:207-248.
Heilman, K.M. & Scholes, R.J. 1976, The nature of comprehension errors in Broca's
conduction and Wernicke's aphasics. Cortex 12:258-265.
Heilman, K.M. & Valenstein, E. eds. 1985, Clinical neuropsychology. Oxford.
Oxford University Press.
Heine, B. 1979, Some linguistic characteristics of African-based pidgins. In: Han-
cock, I. ed. 1979:89-98.
Helbig, G. 1971, Geschichte der Sprachwissenschaft. Leipzig. VEB Verlag Enzyklo-
pädie.
Henderson, A. & Goldman-Eisler, F. & Skarbek, A. 1965, The common value of
parsing time in spontaneous speech. Quarterly Journal of Experimental Psycho-
logy 17:343-345.
Herman, L.M. ed. 1980, Cetacean behavior: Mechanisms and functions. New York.
Wiley.
Herman, L.M. & Tavolga, W. 1980, The communication systems of cetaceans. In:
Herman, L.M. ed. 1980:149-205.
Herman, L.M. & Richards, D.G. & Wolz, J.P. 1984, Comprehension of sentences by
bottlenosed dolphins. Cognition 16:129-219.
Herrmanns, F. 1977, Die Kalkülisierung der Grammatik. Philologische Untersu-
chungen zu Ursprung, Entwicklung und Erfolg der sprachwissenschaftlichen
Theorien Noam Chomskys. Heidelberg. Groot.
Hintikka, K.J. & Moravcsik, J. & Suppes, P. eds. 1973, Approaches to natural lan-
guage: Proceedings of the 1970 Stanford Workshop on grammar and semantics.
Dordrecht. Reidel.
Hochberg, J. & Galper, R.E. 1967, Recognition of faces: I. An exploratory study.
Psychonomic Science 9:619-620.
Hockett, C. & Altmann, S.A. 1968, A note on design features. In: Sebeok, T.A. ed.
1968:61-72.
Höhle, T. 1978, Lexikalistische Syntax: Die Aktiv-Passiv-Relation und andere Infini-
tivkonstruktionen im Deutschen. Tübingen. Niemeyer.
Hook, S. ed. 1969, Language and philosophy. A symposium. New York. New York
University Press.
Hopcroft, J.E. & Ullman, J.D. 1979, Introduction to automata theory. Reading,
Mass. Addison Wesley,
Hopper, P.J. ed. 1977, Studies in descriptive and historical linguistics: Festschrift for
Winfried P. Lehmann. Amsterdam. Benjamins,
Hotopf, W. 1983, Lexical slips of the pen and the tongue: what they tell us about
language production. In: Butterworth, B. ed. 1983:147-200.
Hornstein, N. 1984, Logic as grammar. Cambridge, Mass. MIT Press.

11
Hornstein, N. & Lightfoot, D. eds. 1981, Explanation in linguistics. London. Long-
man.
Hotopf, W. 1983, Lexical slipps of the pen and tongue: what they tell us about
language production. In: Butterworth, B. ed. 1983:149-199.
Huang, C.-T.J. 1984, On the distribution and reference of empty pronouns. Lingu-
istic Inquiry 14:531-574.
Huber, W. & Kummer, W. 1974, Transformationelle Syntax des Deutschen. Mün-
chen. Fink.
Huybregts, M.A.C. 1976, Overlapping dependencies in Dutch. Utrecht Working
Papers in Linguistics 1:24-65.
Hyams, N.M. 1983, The acquisition of parametrized grammars. Ph.D.Dissertation.
CUNY, New York.
Hymes, D. ed. 1971, Pidginization and creolization of languages. Cambridge. Cam-
bridge University Press.
Inhelder, B. & Piaget, J. 1958, The growth of logical thinking: From childhood to
adolescence. An essay of the construction of formal operational structures. Lon-
don. Routledge & Kegan Paul.
Jackendoff, R. 1969a, An interpretive theory of negation. Foundations of Language
5:218-241.
Jackendoff, R. 1969b, Some rules of semantic interpretation in English. Ph.D.Disser-
tation. MIT.
Jackendoff, R. 1972, Semantic interpretation in generative grammar. Cambridge,
Mass. MIT Press.
Jackendoff, R. 1977, X-bar-syntax: a study of phrase structure. Cambridge, Mass.
MIT Press.
Jackendoff, R. 1983, Semantics and cognition. Cambridge, Mass. MIT Press.
Jacobs, R. & Rosenbaum P. 1968, English transformational grammar. New York.
Wiley.
Jacobson, P. & Pullum, G. eds. 1982, The nature of syntactic representation. Dord-
recht. Reidel.
Jenkins, J.J. & Foss, D.J. & Odom, P.B. 1965, Associative mediation in paired-asso-
ciate learning with multiple controls. Journal of Verbal Learning and Verbal
Behavior 4:141-147.
Jespersen, O. 1914, A modern English grammar: on historical principles. Syntax Vol.
I. Heidelberg. Winter.
Johnson-Laird, P.N. 1983, Mental models: towards a cognitive science of language,
inference and consciousness. Cambridge. Cambridge University Press.
Jusczyk, P. 1982, Auditory versus phonetic coding of speech signals during infancy.
In: Mehler, J. & Walker E. & Garrett, M. eds. 1982:361-387.
Kagan, J. & Klein, R.E. 1973, Cross cultural perspectives on early development.
American Psychologist 28:947-961.
Kalish, D. & Montague, R. 1964, Logic: Techniques of formal reasoning. New York.
Harcourt, Brace & Jovanovich.
Kanner, L. 1946, Irrelevant and metamorphorical language in early infantile autism.
American Journal of Psychiatry 103:242-245.
12
Kanngießer, S. 1971, Untersuchungen zum Aufbau einer generativen Linguistik. In:
Wunderlich, D. ed. 1971:24-46.
Kaplan, R.M. & Bresnan, J. 1982, Lexical-functional grammar: a formal system for
grammatical representation. In: Bresnan, J. ed. 1982:173-281.
Katz, J. 1980, Chomsky on meaning. Language 56:1-41.
Katz, J. 1981, Language and other abstract objects. Oxford. Blackwell.
Katz, J. 1984, An outline of Platonist grammar. In: Bever, T. & Carroll, J. & Miller,
L.A. eds. 1984:17-48.
Katz, J. & Fodor, J.A. 1964, The structure of a semantic theory, In: Fodor, J.A. &
Katz, J. eds. 1964:479-518.
Katz, J. & Postal, P. 1964, An integrated theory of linguistic descriptions. Cam-
bridge, Mass. MIT Press.
Kavanagh, J. & Cutting, J. eds. 1975, The role of speech in language. Cambridge,
Mass. MIT Press.
Kayne, R. 1983, Connectedness. Linguistic Inquiry 14:223-249.
Kayne, R. 1984, Connectedness and binary branching. Dordrecht. Foris.
Kean, M.-L. 1979, Agrammatism, a phonological deficit? Cognition 7:69-83.
Kean, M.-L. ed. 1985, Agrammatism. New York. Academic Press.
Keenan, E. 1976, Towards a universal definition of »subject«. In: Li, C.N. ed.
1976:305-333.
Keil, F. 1980, Development of the ability to perceive ambiguities: evidence for the
task specificity of a linguistic skill. Journal of Psycholinguistic Research
9:219-230.
Keller, E. 1978, Parameters for vowel substitutions in Broca's aphasia. Brain and
Language 5:265-285.
Keyser, S.J. ed. 1979, Recent transformational studies in European languages. Cam-
bridge, Mass. MIT Press.
Kimura, D. 1963, Speech lateralization in young children as determined by an audi-
tory test. Journal of Comparative and Physiological Psychology 15:899-902.
Klima, E. & Bellugi, U. 1966, Syntactic regularities in the speech of children. In:
Lyons, J. & Wales, R. eds. 1966:181-213.
Konner, M. 1982, The tangled wing: biological constraints on the human spirit. New
York. Holt, Rinehart & Winston.
Koster,J. 1975, Dutch as a SOV language. Linguistic Analysis 1: 111-136.
Koster, J. 1978, Locality principles in syntax. Dordrecht. Foris.
Koster, J. 1979, Why subject sentences don't exist. In: Keyser, S. ed. 1979:53-64.
Koster, J. 1982/83, Enthalten syntaktische Repräsentationen Variablen? Teil 1. u. 2
Linguistische Berichte 80:70-100/83:36-60
Koster, J. 1984, Global harmony. Tilburg Papers in Language and Literature 61. Til-
burg University.
Kotey, P. & Der-Houssikian, H. eds. 1977, Language and linguistic problems in Afri-
ca. Proceedings of the 7th Conference on African Linguistics. Columbia. Horn-
beam.
Kratzer, A. & Pause, E. & Stechow, A.v. 1974, Einführung in Theorie und Anwen-
dung der generativen Syntax. Frankfurt. Athenäum.
13
Kuffler, S.W. & Nicholls, J.G. 1976, From neuron to brain. A cellular approach to
the function of the nervous system. Sunderland, Mass. Sinauer.
Kuhl, P.K. 8c Miller, J.D. 1975, Speech perception by the chinchilla: voiced-voiceless
distinction in alveolar plosive consonants. Science 190:69-72.
Kuhn, T. 1962, The structure of scientific revolutions. Chicago. University of Chica-
go Press.
Kuroda, S.-Y. 1969, Attachment transformations. In: Reibel, D. 8c Schane, S. eds.
1969:331-351.
Kutschera, F.v. 1972, Wissenschaftstheorie I. München. Fink.
Kutschera, F.v. 1982, Grundfragen der Erkenntnistheorie. Berlin. de Gruyter.
Labov, W. 1971a, Variation in language. In: Reed, C.A. ed. 1971:187-221.
Labov, W. 1971b, The notion of >system< in Creole languages. In: Hymes, D. ed.
1971:447-472.
Labov, W. 1972, Language in the inner city: studies in the black English vernacular.
Philadelphia. University of Pennsylvania Press.
Labov, W. 1975, What is a linguistic fact? Lisse. Peter de Ridder Press.
Lackner, J. 1968, A developmental study of language behavior in retarded children.
Neuropsychologia 6:301-320.
Lakoff, G. 1968, Instrumental adverbs and the concept of deep structure. Founda-
tions of Language 4:4-29.
Lakoff, G. 1970a, Irregularity in syntax. New York. Holt, Rinehart & Winston.
Lakoff, G. 1970b, Global rules. Language 46:627-639.
Lakoff, G. 1972, Linguistics and natural logic. In: Davidson, D. 8c Harman, G. eds.
1972:545-665.
Langacker, R. 1969, On pronominalization and the chain of command. In: Reibel,
D. & Schane, S. eds. 1969:160-186.
Langendoen, D. 1977, On the inadequacy of type-3 and type-2 grammars for human
languages. In Hopper, P.J. ed. 1977:159-171.
Lass, R. 1984, Phonology. An introduction to basic concepts. Cambridge. Cam-
bridge University Press.
Lees, R. 1960, The grammar of English nominalizations. Den Haag. Mouton.
Lees, R. & Klima, E. 1969, Rules for English pronominalization. In: Reibel, D. 8c
Schane, S. eds. 1969:145-159.
Lenneberg, E. 1967, Biological foundations of language. New York. Wiley.
Lerdahl, F. & Jackendoff, R. 1983, A generative theory of tonal music. Cambridge,
Mass. MIT Press.
Levin, H. 8c Spiers, P. 1985, Acalculia. In: Heilman, K.M. 8c Valenstein, E. eds.
1985:97-114.
Levine, D.N. 8c Sweet, E. 1982, The neuropathological basis of Broca's aphasia and
its implications for the cerebral control of speech. In: Arbib, M.A. 8c Caplan,
D. 8c Marshall, J.C. eds. 1982:299-326.
Lewis, D. 1969, Convention. A philosophical study. Cambridge, Mass. Harvard Uni-
versity Press.
Li, C.N. ed. 1976, Subject and topic. New York. Academic Press.
Lieberman, P. 1984, The biology and evolution of language. Cambridge, Mass. Har-
vard University Press.
14
Lieber, R. 1980, On the Organization of the lexicon. Ph.D.Dissertation. MIT.
Lieber, R. 1983, Argument linking and compounds in English. Linguistic Inquiry
14:251-285.
Lightfoot, D. 1982, The language lottery: toward a biology of grammars. Cam-
bridge, Mass. MIT Press.
Lounsbury, F.G. 1954, Transitional probability, linguistic structure, and systems of
habit-family hierachies. In: Osgood, C.E. & Sebeok, T.A. eds. 1954:93-101.
Luria, A.R. 1973, The working brain: an introduction to neuropsychology. London.
Lane.
Lust, B. 1981, Constraints on anaphora in child language: a prediction for a universal.
In: Tavakolian, S. ed. 1981:74-96.
Lust, B. & Chien, Y.-C. 1984, The structure of coordination in first language acqui-
sition of Mandarin Chinese: evidence for a universal. Cognition 17:49-83.
Lyons, J. & Wales, R. eds. 1966, Psycholinguistics papers. The proceedings of the
1966 Edinburgh conference. Edinburgh. Edinburgh University Press.
MacNeilage, P. ed. 1983, The production of speech. New York. Springer.
Maling, J. & Zaenen, A. 1978, The nonuniversality of a surface filter. Linguistic
Inquiry 9:475-497.
Maling, J. & Zaenen, A. 1982, A base generated account of "extraction phenomena"
in Scandinavian languages. In: Jacobson, P. & Pullum, G. eds. 1982:229-282.
Manzini, M. 1982, Una teoria dell'controllo. Ms. MIT.
Manzini, M. 1983, On control and control theory. Linguistic Inquiry 14:421-446.
Marantz, A. 1982, Re Reduplication. Linguistic Inquiry 13:435-482.
Marantz, A. 1984, On the nature of grammatical relations. Cambridge, Mass. MIT
Press.
Marcus, M. 1980, A theory of syntactic recognition. Cambridge, Mass. MIT Press.
Marcus, M. 1982, Consequences of functional deficits in a parsing model: implica-
tions for Broca's aphasia. In: Arbib, M.A. & Caplan, D. & Marshall, J.C. eds.
1982:115-133.
Marler, P. 1975, On the origin of speech from animal sounds. In: Kavanagh, J. &
Cutting, J. eds. 1975:11-37
Marler, P. & Peters, S. 1981, Birdsong and speech: evidence for serial processing. In:
Eimas, P. & Miller, J.L. eds. 1981:75-112.
Marler, P. & Terrace, H.S. eds. 1984, The biology of learning. Berlin. Springer.
Marquardt, B. 1984, Die Sprache des Menschen und ihre biologischen Voraussetzun-
gen. Tübingen. Narr.
Marslen-Wilson, W. & Tyler, L. 1981, Central processes in speech understanding.
Philosophical transactions of the Royal Society B 295:317-322.
Marr, D. 1982, Vision: a computational investigation into the human representation
and proceedings of visual information. San Francisco. Freeman.
Maurer, H. 1969, Theoretische Grundlagen der Programmiersprachen. Mannheim.
May, R. 1977, The grammar of quantification. Ph.D.Dissertation. MIT.
May, R. 1985, Logical form: its structure and derivation. Cambridge, Mass. MIT
Press.
McCawley, J. 1968, The role of semantics in a grammar. In: Bach, E. & Harms, R.T.
eds. 1968:124-169.
15
McIntyre, M. 1982, Mind in waters. New York.
McMahon, L. 1963, Grammatical analysis as a part of understanding a sentence. Ph.
D. Dissertation. Harvard University. Cambridge, Mass.
McShane, J. & Dockrell, J. 1983, Lexical and grammatical development. In: Butter-
worth, B. ed. 1983:51-99.
Mehler, J. 8c Walker, E. 8c Garrett, M. eds. 1982, Perspectives on mental representa-
tion. Experimental and theoretical studies of cognitive processes and capacities.
Hillsdale, N.J. Erlbaum.
Meisel, J. 1975, Ausländerdeutsch und Deutsch ausländischer Arbeiter. Zur mögli-
chen Entstehung eines Pidgin in der BRD. Zeitschrift für Literaturwissenschaft
und Linguistik 18:9-53.
Meisel, J. ed. 1977, Langues en contact - Pidgin - Creoles - languages in contact.
Tübingen. Narr.
Meisel, J. & Pam, M. eds. 1979, Current issues in linguistic theory. Vol.7. Linear
order and generative theory. Amsterdam. Benjamins.
Menn, L. 1983, Development of articulatory, phonetic and phonological capabilities.
In: Butterworth, B. ed. 1983:3-50.
Miller, G.A. 1981, Language and speech. San Francicso. Freeman.
Monod, J. 1971, Zufall und Notwendigkeit. München. Piper.
Montague, R. 1970a, English as a formal language. In: Visentini, B. ed.
1970:189-224.
Montague, R. 1970b, Universal grammar. Theoria 36:373-398.
Montague, R. 1973, The proper treatment of quantification in ordinary English. In:
Hintikka, K.J. 8c Moravcsik, J. & Suppes, P. eds. 1973:221-242.
Moore, T. ed. 1973, Cognitive development and the acquisition of language. New
York. Academic Press.
Morgan, J. 1969, On the treatment of presupposition in transformational grammar.
Papers from the Fifth Regional Meeting of the Chicago Linguistic Society
5:167-177.
Morton, J. 8c Marshall, J.C. eds. 1977, Psycholinguistics: Developmental and patho-
logical. Ithaca, N.Y. Cornell University Press.
Nelson, K. ed. 1978-1985, Children's language. Vol. I-V. New York. Gardner; Hills-
dale, N.J. Erlbaum.
Newmeyer, F. 1970, On the alleged boundary between syntax and semantics. Foun-
dations of Language 6:178-186.
Newmeyer, F. 1980, Linguistic theory in America. The first quarter-century of trans-
formational generative grammar. New York. Academic Press.
Newmeyer, F. 1983, Grammatical theory. Its limits and its possibilities. Chicago.
Chicago University Press.
Newport, E.L. 1982, Task specifity in language learning? Evidence from speech per-
ception and American Sign Language. In: Wanner, E. 8c Gleitman, L. eds.
1982:450-486.
Newport, E. 8c Gleitman, H. 8c Gleitman, L. 1977, Mother, I'd rather do it myself:
some effects and non-effects of maternal speech style. In: Snow, C. 8c Ferguson,
C. eds. 1977: 109-149.

16
Norman, D. & Rumelhart, D. 1978, Strukturen des Wissens. Wege der Kognitions-
forschung. Stuttgart. Klett-Cotta.
Oiler, D. & MacNeilage, P. 1983, Development of speech production: perspectives
from natural and perturbed speech. In: MacNeilage, P. ed. 1983:91-108.
Osgood, C.E. & Sebeok, T.A. eds. 1954, Psycholinguistics: a survey of theory and
research problems. Baltimore. Waverly Press.
Osherson, D. 1975, Logic and models of logical thinking. In: Falmagne, R. ed. 1975.
Osherson, D. & Stob, M. & Weinstein, S. 1984, Learning theory and natural lan-
guage. Cognition 17:1-28.
Partee, B. 1971, On the requirement that transformations preserve meaning. In: Fill-
more, Ch. & Langendoen, D.T. eds. 1971:1-21.
Passingham, R. 1982, The human primate. Oxford. Freeman.
Perlmutter, D. 1971, Deep and surface structure constraints in syntax. New York.
Holt, Rinehart & Winston.
Peters, P.S. 1972a, The projection problem: how is a grammar to be selected? In:
Peters, P.S. ed. 1972b:171-188.
Peters, P.S. ed. 1972b, Goals of linguistic theory. Englewood Cliffs, N.J. Prentice
Hall.
Peters, P.S. & Ritchie, R.W 1973, On the generative power of transformational gram-
mars. Information Sciences 6:49-83.
Philips, J.L. 1975, The origins of intellect. Piaget's theory. 2. Auflage. San Francisco.
Freeman.
Piattelli-Palmarini, M. ed. 1980, Language and learning: the debate between Jean Pia-
get and Noam Chomsky. London. Routledge & Keagan Paul.
Pinker, S. 1984, Language learnability and language development. Cambridge, Mass.
Harvard University Press.
Poeck, K. ed. 1982, Klinische Neuropsychologic Stuttgart. Thieme.
Pohl, P. 1983, Ear advantages for acoustic stimuli in baboons. Brain and Language
20:44-53.
Postal, P. 1964, Constituent structure: a study of contemporary models of syntactic
description. Cambridge, Mass. MIT Press.
Postal, P. 1970, On coreferential complement subject deletion. Linguistic Inquiry
1:439-500.
Postal, P. 1971, Cross-over phenomena. New York. Holt, Rinehart & Winston.
Postal, P. 1972, Some further limitations of interpretive theories of anaphora. Lingu-
istic Inquiry 3:349-371.
Postal, P. 1974, On raising: one rule of English grammar and its theoretical implica-
tions. Cambridge, Mass. MIT Press.
Premack, D. 1976, Intelligence in ape and man. Hillsdale, N.J. Erlbaum.
Premack, D. 1983, The codes of man and beasts. The Behavioral and Brain Sciences
6:125-167.
Premack, D. 1985, »Gavagai!« or the future history of the animal controversy.
Cognition 19:207-296.
Premack, D. & Premack, A.J. 1983, The mind of an ape. New York. Norton.
Putnam, H. 1975, Mind, language, and reality. Cambridge. Cambridge University
Press.

17
Quine, W. 1969, Linguistics and philosophy. In: Hook, S. ed. 1969:95-98.
Quine, W. 1972, Methodological reflections on current linguistic theory. In: David-
son, D. & Harman, G. eds. 1972:442-454.
Radford, A. 1981, Transformational Syntax. Cambridge. Cambridge UP.
Reed, C.A. ed. 1971, The learning of language. New York.
Reibel, D. & Schane, S. eds. 1969, Modern studies in English. Englewood Cliffs,
N.J. Prentice Hall.
Reinhart, T. 1976, The syntactic domain of anaphora. Ph.D.Dissertation. MIT.
Reinhart, T. 1983, Anaphora and semantic interpretation. London. Croom Helm.
Reis, M. 1982, Zum Subjektbegriff im Deutschen. In: Abraham, W. ed.
1982b:171-211.
de Renzi, E. 8c Vignolo, L.A. 1963, The token test: a sensitive test to detect receptive
disturbance in aphasics. Brain 85:665-678.
Rice, F. ed. 1962, Study of the role of second languages in Asia, Africa and Latin
America. Washington: Center for Applied Linguistics.
Riemsdijk, H.van & Williams, E. 1986, Introduction to the theory of grammar. Cam-
brigde, Mass. MIT Press.
Rips, L. 1982, Cognitive processes in propositional reasoning. Ms. University of
Chicago.
Ristau, C.A. & Robbins, D. 1982, Language in the great apes: A critical review. In:
Rosenblatt, J. 8c Hinde, R. & Beer, C. 8c Busnel, M.-C. eds. 1982:141-255.
Rizzi, L. 1982a, Violations of the wh-island constraint in Italian and the subjacency
condition. In: Rizzi, L. ed. 1982:49-76.
Rizzi, L. ed. 1982b, Issues in Italian Syntax. Dordrecht. Foris.
Rock, I. 1985, Wahrnehmung: Vom visuellen Reiz zum Sehen und Erkennen. Heidel-
berg. Spektrum-der-Wissenschaft-Verlags-Gesellschaft.
Roeper, T. 1981, Introduction. In: Tavakolian, S. ed. 1981:3-7.
Roeper, T. & Lapointe, S. & Bing, J. & Tavakolian, S. 1981, A lexical approach to
language acquisition. In: Tavakolian, S. ed. 1981:35 — 58.
Rose, F. ed. 1984, Advances in neurology: progress in aphasiology. New York. Raven
Press.
Rosenblatt, J. 8c Hinde, R. & Beer, C. & Busnel, M.-C. eds. 1982, Advances in the
study of behavior. Vol. 12. New York. Academic Press.
Ross, J. 1967a, Constraints on variables in syntax. Ph.D.Dissertation. MIT.
Ross, J. 1967b, On the cyclic nature of English pronominalization. In: To honor
Roman Jacobson. Den Haag. Mouton:1669-1682.
Ross, J. 1969, Adjectives as noun phrases. In: Reibel, D. 8c Schane, S. eds.
1969:352-360.
Rumbaugh, D.M. 1977, Language learning by a chimpanzee: The Lana project. New
York. Academic Press.
Ruzicka, R. 1983, Remarks on control. Linguistic Inquiry 14:309-324.
Ryan, J. 1977, The silence of stupidity. In: Morton, J. 8c Marshall, J.C. eds.
1977:99-124.
Ryle, G. 1949, The concept of mind. London. Hutchinson.
Samarin, W. 1979, Simplification, pidginization and language change. In: Hancock,
I. ed. 1979:55-68.

18
Sapir, E. 1921, Language. New York. Harcourt, Brace & Jovanovich.
Schank, R. & Abelson, R. 1977, Scripts, plans, goals and understanding: An inquiry
into human knowledge structures. Hillsdale, N.J. Erlbaum.
Schank, R. & Birnbaum, L. 1984, Memory, meaning, and syntax. In: Bever, T. &
Carroll, J. & Miller, L.A. eds. 1984:209-251.
Schlesinger, I.M. 1971, Production of utterances and language acqusition. In: Slobin,
D. ed. 1971:63-101.
Schumann, J.H. 1975, Second language acquisition: The pidginization hypothesis.
Ph.D.Dissertation. Harvard University.
Schwartz, M. & Saffran, E. & Marin, O.S. 1980, The word order problem in agram-
matism. Comprehension. Brain and Language 10:249-262.
Schwartz, M. & Linebarger, M. & Saffran, E. 1985, The status of the syntactic deficit
theory of agrammatism. In: Kean, M.-L. ed. 1985:83-124.
Searle, J.R. 1969, Speech acts: An essay in the philosophy of language. Cambridge.
Cambridge University Press.
Searle, J.R. 1975, Indirect speech acts. In: Cole, P. & Morgan, J. eds. 1975:59-82.
Searle, J.R. 1976, The rule of the language game. The Times Literary supplement
1118 (10.9.19767
Searle, J.R. 1980, Rules and causation. Commentary on Chomsky's Rules and
Representations. Behavioral and Brain Sciences 3:37-38.
Sebeok, T.A. ed. 1968, Animal communication: Techniques of study and results of
research. Bloomington, Indiana. Bloomington University Press.
Seebaß, G. 1981, Das Problem von Sprache und Denken. Frankfurt. Suhrkamp.
Selkirk, E.O. 1982, The syntax of words. Cambridge, Mass. MIT Press.
Shuy, R. & Bailey, C.-J. eds. 1974, Towards tomorrow's linguistics. Washington.
Georgetown University Press.
Sinclair-de Zwart, H. 1973, Language acquisition and cognitive development. In:
Moore, T. ed. 1973:9-25.
Singer, W. 1985, Hirnentwicklung und Umwelt. Spektrum der Wissenschaft 3:48-61.
Slobin, D. 1966, Grammatical transformations and sentence comprehension in child-
hood and adulthood. Journal of Verbal Language and Verbal Behavior
5:219-227.
Slobin, D. ed. 1971, The ontogenesis of grammar. A theoretical symposium. New
York. Academic Press.
Slobin, D. 1972, Children and language: they learn the same way all around the
world. Psychology Today 6:71 -82.
Slobin, D. 1973, Cognitive prerequisites for the development of grammar. In: Fergu-
son, C. & Slobin, D. eds. 1973:175-208.
Smith, F. & Miller, G.A. eds. 1966, The genesis of language. A psycholinguistic
approach. Cambridge, Mass. MIT Press.
Smith, N. 1973, The acquisition of phonology. A case study. Cambridge. Cambridge
University Press.
Snow, C. 1977, Mothers' speech research: From input to interaction. In: Snow, C. &
Ferguson, C. eds. 1977:31-49.
Snow, C. & Ferguson, C. eds. 1977, Talking to children: language input and acquisi-
tion. Cambridge. Cambridge University Press.
Solan, L. 1983, Pronominal reference: child language and the theory of grammar.
Dordrecht. Reidel.
Stechow, A.v. 1979a, Visiting German relatives. In: Bäuerle, R. & Egli, U. & Stechow,
A.v. eds. 1979:226-265.
Stechow, A.v. 1979b, Deutsche Wortstellung und Montague Grammatik. In: Meisel,
J. & Pam, M. eds. 1979:317-490.
Stechow, A.v. & Sternefeld, W. 1987, Bausteine syntaktischen Wissens. Ein Lehrbuch
der modernen generativen Grammatik. Erster Teil. Westdeutscher Verlag.
Stegmüller, W. 1974, Probleme und Resultate der Wissenschaftstheorie und analyti-
schen Philosophie. Bd.I. Berlin. Springer.
Stegmüller, W. 1975, Die Hauptströmungen der Gegenwartsphilosophie. Eine kriti-
sche Einführung. Stuttgart. Kröner.
Stein, G. 1979, Studies in the function of the passive. Tübingen. Narr.
Steinberg, D. & Jakobovits, L. eds. 1971, Semantics: An interdisciplinary reader in
philosophy, linguistics and psychology. Cambridge. Cambridge University
Press.
Stephany, U. 1981, Verbal grammar in Modern Greek early child language. In: Dale,
P. & Ingram, D. eds. 1981:45-57.
Stich, S. 1971, What every speaker knows. Philosophical Review 80:476-496.
Stowell, T. 1981, Origins of phrase structure. Ph.D.Dissertation. MIT.
Strawson, P. 1972, Grammar and philosophy. In: Davidson, D. & Harman, G. eds.
1972:455-472.
Tavakolian, S. ed. 1981, Language acquisition and linguistic theory. Cambridge,
Mass. MIT Press.
Terrace, H.S. 1979, Nim. New York. Knopf.
Terrace, H.S. 1983, Apes who »talk«: Language or projection of language by their
teachers. In: deLuce, J. & Wilder, H. eds. 1983:19-42.
Thiersch, C. 1978, Topics in German syntax. Ph.D.Dissertation. MIT.
Thiersch, C. 1982, A note on »scrambling« and the existence of VP. Wiener Linguisti-
sche Gazette 27/28:83-96.
Thomason, R. 1974a, Introduction. In: Thomason, R. ed. 1974b:1-69.
Thomason, R. ed. 1974b, Formal philosophy. Selected papers of Richard Montague.
New Haven. Yale University Press.
Todd, L. 1979, Cameroonian: a consideration of >what's in a name<. In: Hancock, I.
ed. 1979:281-294.
Toman, J. ed. 1985, Studies in German grammar. Dordrecht. Foris.
Tomkins, S. & Izard, C. eds. 1965, Affect, cognition and personality: Empirical stu-
dies. New York. Springer.
Traugott, E. 1977, Pidginization, creolization and language change. In: Valdman, A.
ed. 1977b:70-98.
Valdman, A. 1977a, Creolization: Elaboration in the development of Creole French
dialects. In: Valdman, A. ed. 1977b:155—189.
Valdman, A. ed. 1977b, Pidgin and Creole linguistics. Bloomington. Indiana Univer-
sity Press.
Valian, V. 1979, The wherefores and therefores of the competence-performance
distinction. In: Cooper, W. & Walker, E. eds. 1979:1-26.

20
Vennemann, T. 1974, Phonological concreteness in natural generative grammar. In:
Shuy, R. & Bailey, C.-J. eds. 1974:202-219.
Vesey, G. ed. 1970, Knowledge and necessity. London. MacMillan.
Visentini, B. ed. 1970, Linguaggi nella società e nella tecnica. Milano. Edizione di
comunità.
Vogel, E & Propping, P. 1981, Ist unser Schicksal mitgeboren? Moderne Vererbungs-
forschung und menschliche Psyche. Berlin. Severin & Siedler.
Voorhoeve, J. 1973, Historical and linguistic evidence in favour of the relexification
theory in the formation of Creoles. Language in Society 2:133-145
Wang, W.S.-Y. 1984, Organum ex machina. Behavioral and Brain Sciences 7:210-211.
Wanner, E. & Gleitman, L. eds. 1982, Language acquisition: the state of the art.
Cambridge. Cambridge University Press.
Wasow, T. 1979, Anaphora in generative grammar. Ghent. Story-Scientia.
Wasow, T. 1985, The wizards of ling. Natural Language and Linguistic Theory
3:485-491.
Watt, W. 1970, On two hypotheses concerning psycholinguistics. In: Hayes, J. ed.
1970:137-220.
Watzlawick, P. & Beavin, J. & Jackson, D. 1969, Menschliche Kommunikation: For-
men, Störungen, Paradoxien. Stuttgart. Huber.
Weist, R. 1984, The defective tense hypothesis: on the emergence of tense and aspect
in child Polish. Journal of Child Language 11:347-374.
Wexler, K. 1982, A principled theory for language acquisition. In: Wanner, E. &
Gleitman, L. eds. 1982:288-315.
Wexler, K. & Chien, Y.-C. 1985, The development of lexical anaphors and pronouns.
Ms. University of California. Irvine.
Wexler, K. & Culicover, P. 1980, Formal principles of language acquisition. Cam-
bridge, Mass. MIT Press.
Whinnom, K. 1965, The origin of the European-based Creoles and pidgins (I). Orbis
14:509-527.
Whinnom, K. 1977, Lingua Franca: historical problems. In: Valdman, A. ed.
1977b:295-310.
Whitaker, H. & Whitaker, H.A. eds. 1979, Studies in Neurolinguistics. Vol. 4. New
York. Academic Press.
White, L. 1982, Grammatical theory and language acquisition. Dordrecht. Foris.
White, L. 1985,The »pro-drop« parameter in adult second language acquisition. Ms.
McGill University. Montreal.
Wiesel, T.N. & Hubel, D.H. 1962, Receptive fields, binocular interaction and func-
tional architecture in the cat's visual cortex. Journal of Physiology 160:106-154.
Wiesel, T.N. & Hubel, D.H. 1963a, Effects of visual deprivation on morphology
and physiology of cells in the cat's lateral geniculate body. Journal of Neurophy-
siology 26:978-993.
Wiesel, T.N. & Hubel, D.H. 1963b, Single-cell responses in striate cortex of kittens
deprived of vision in one eye. Journal of Neurophysiology 26:1003-1017.
Williams, E. 1982, The NP-cycle. Linguistic Inquiry 13:277-295.
Williams, E. 1986, A reassignment of the functions of LF. Linguistic Inquiry
17:265-299.

21
Winograd, T. 1972, Understanding natural language. Cognitive Psychology 3:1—191.
Wittgenstein, L. 1921, Tractatus logico-philosophicus. In: Ostwalds Annalen der
Naturphilosophie. Band 14. Leipzig.
Wittgenstein, L. 1967, Philosophische Untersuchungen. Frankfurt. Suhrkamp.
Wode, H. 1977, Four early stages in the development of Linegation. Journal of Child
Language 4:87-102.
Wode, H. 1981, Learning a second language: an integrated view of language acquisi-
tion. Tübingen. Narr.
Woods, B. & Carey, S. 1981, Language deficits after apparent clinical recovery from
childhood aphasia. Annual Neurology.
Woodruff, G. & Premack, D. 1981, Primitive mathematical concepts in the chimpan-
zee: porportionality and numeriosity. Nature 293:568-570.
Wunderlich, D. ed. 1971, Probleme und Fortschritte der Transformationsgrammatik.
München. Hueber.
Wunderlich, D. ed. 1976, Wissenschaftstheorie der Linguistik. Kronberg. Athe-
näum.
Yamada, J. 1983, The independence of language: a case study. Ph.D. Dissertation.
University of California. Los Angeles.
Yarmey, A.D. 1971, Recognition memory for familiar »public« faces: effects of orien-
tation and delay. Psychonomic Science 24:280-288.
Yin, R. 1970, Face recognition: a special process. Ph.D. Dissertation. Psychology
Department. MIT.
Zwicky, A. & Pullum, G. 1983, Phonology in syntax: The Somali optional agree-
ment rule. Natural Language & Linguistic Theory 1:385-402.

22
Index

Adäquatheit, dative movement 102, 103, 113, 114


observationelle - 102 Definitionen, operationale 159
deskriptive - 49, 102, 105 Delphine s. Tierkommunikation
explanatorische - 45, 49ff.,57, 63, Dementia s. Pathologien
112, 136-138, 145, 157, 160 derivational theory of complexity
Adjazenz s. Prinzipien (DTC) 176-177
Affen s. Primaten Deskriptivismus 16, 18, 40, 41, 57, 66,
Agnosie 235 72, 73, 86, 112, 136-138, 145, 157, 160
Agrammatismus 231 Deutsch s. Sprachen
Akkommodation 164ff. dichotisches Hören 223
American Sign Language (ASL) 228, Down-Syndrom s. Pathologien
230, 247
Amnesie 235 E-Grammatik/E-Sprache/E-Struktur
Anapher 94, 204 40-50, 53, 58, 62-63
angeboren s. Nativismus Empirismus 41, 42, 157
Aphasien s. Sprachpathologie Englisch s. Sprachen
Apraxie 235 Entwicklungssequenz 106, 109, 125,
Äquivalenz, 161, 164, 166, 168ff., 199-211, 220
starke - vs. schwache - 102 Erwerb s. Spracherwerb
Artikulationsstörung s. Sprachpathologie Erwerbsstadien s. Entwicklungs-
Assimilation 164-165 sequenz
Autismus s. Pathologien Evidenz,
Autonomiehypothese 65-73, 86, 90, positive - vs. negative - 106, 108,
93, 94, 100, 128, 142, 146, 148,
112-114, 117, 121, 123, 129, 132,
173-174,199, 200, 208, 220, 221, 224,
135, 141
230, 237, 244, 246
Evolution 54, 69, 153-156, 236-238,
243-244, 252, 254, 255, 257
Bach-Peters-Paradox 85 Extraposition 134
Bantu-Sprachen s. Sprachen
Bindungsprinzipien s. Prinzipien
face recognition s. Gesichtserkennung
Biogenetik/biogenetisch 128, 135, 136,
final state s. state
237
Fokussierung 94, 96
Bioprogramm 215, 220
Formale Operationen s. Operationen
Französisch s. Sprachen
Central Processing Unit (CPU) 269 Funktionalismus 41, 70, 73-75,
Chinesisch s. Sprachen 93-100, 144, 153, 157
C-Kommando 24, 188, 204
conceptual system 66, 67
Garden-path Sätze 178-180, 184, 188,
Créole haitien s. Sprachen
198

223
Generalisierung, Kognition/kognitiv 14, 15, 17-19, 31,
induktive - (s.a. Induktion) 33-36, 41, 47, 51, 52, 66-69, 73, 74,
114-116, 125, 151 104-106, 114, 126-128, 135-137,
Generalized Phrase Structure Grammar 142-148, 153, 154, 161-171, 173, 174,
(GPSG) 51 178, 188, 199, 200, 204, 207-211,
Generative Semantik s. Semantik 220, 221 -223, 235-238, 249, 252,
Genetik 68, 127-128, 153—156, 164, 259-261, 263-266, 268, 269-273
168, 207, 232, 234-237 Kognitivismus/kognitivistisch 142, 152,
Gesichtserkennung (face recognition) 153
223, 267-269 Kommunikation 60, 68, 69, 109, 112,
government and binding s. Rektions-
143, 149-153, 200, 209, 226, 228,
und Bindungstheorie
235, 237-245, 249-256
Grenzknoten 139
Kompetenz 17-22, 26-29, 36, 45, 46,
Griechisch s. Sprachen
60, 66, 67, 68, 108, 144, 160, 201, 202,
232
Hawaiian Pidgin/Creole s. Sprachen
konkrete Operationen s. Operationen
Hemisphäre (des Gehirns) 209,
Konstanz, perzeptuelle 260-261
221-226, 233-234, 258, 268
Konstruktivismus 16off., 165-169
Hirnphysiologie 36, 37
kontextfrei vs. kontextsensitiv 51-53,
human mind 14, 16, 17, 52, 102, 142
198
Kontrolle 87-90
Idealisierung 15, 16, 22, 28
Konvention 16, 58-64
I-Grammatik/I-Sprache/I-Struktur
Koordination 55, 91, 92, 132
40-47, 50-57, 60-64, 67, 73
Koreferenz 23, 24, 82, 84, 117, 118, 121,
Induktion 114, 117, 121, 125, 151
205
Initial state s. State
Korpusanalyse 46
Inputdaten 107-110, 112, 114, 119,
Korrekturverhalten 109, 112
123-129, 135-140, 164, 200, 219
Kreativität 22, 26, 28
Inputsystem 109, 269-272
Kreolsprachen s. Sprachen
Insel/wh-Insel s. Prinzipien
Kreolisierung 214, 220
Intelligenz (allgemeine) 69-70, 75, 144,
146, 149, 163-168, 224-226, Latein s. Sprachen
233-238, 245, 252, 260, 264 Lateralisierung 223-224
Intention/Intentionalität 239-241, 243 Leib-Seele Problem 39
Interpretation, semantische s. Semantik Lernen/Lernprozeß/Lerntheorie 22,
invisible hand process 58 47, 50-52, 58, 61-64, 81, 84, 85, 101,
Italienisch s. Sprachen 105, 106, 113-115, 126, 129ff., 135,
136, 146, 148, 150, 151, 156, 157, 166,
Japanisch s. Sprachen 168, 169
Lerntheorie, formale 129ff.
Kasus 72, 123, 231 LIFO-Speicher 186-188
Kategorie, leere 119, 120, 124, 157 Logisches Problem des Spracherwerbs
Katz-Postal-Hypothese 76, 78, 81, 82 s. Spracherwerb
K-Herrschaft s. C-Kommando
Marcus-Parser s. Parsing
knowledge, tacit 15, 16, 20, 21, 29, 30,
Materialismus 37
33-36 s. a. Wissen
24 Mathematik 40, 42-44, 50-53, 58
Mental(istisch) 14, 16-19, 22, 26, Passiv 21, 47-49, 70, 71, 76, 81, 82, 88,
28-47, 52, 54-56, 60, 65, 67, 73, 74, 89, 94-97, 118, 121, 177, 230
86, 101, 102, 104, 105, 112, 114, Pathologien 61, 210, 222, 225, 235
126-128, 146, 155, 156, 163, 171, 172, Autismus 235
198, 236 Dementia 234
minimal attachment 180, 182 Down-Syndrom 209, 234
Modul/Modularität 137, 142-148, Morbus Alzheimer 225
173-174, 188, 196, 197, 200, 220, 221, Retardierung 209-210
235-238, 244-249, 258, 260, 263, Schizophrenie 234
264, 267, 269 Turner-Syndrom 235
Mongolismus s. Pathologien: Down Pausen, intonatorische 190, 191
Syndrom Performanz 16, 17, 19-21, 29, 59, 61, 64,
Montague-Grammatik 41, 43, 44, 86 94, 95, 97, 174, 175
Morbus Alzheimer s. Pathologien Perzeption 41, 73, 101, 137, 144,
Motherese Hypothese 109, III, 146-148, 158-174, 183, 188, 195,
205-207, 257 198, 202, 223, 224, 230, 231, 259,
Motorprogramm 30-32 266, 267
Müller-Lyer Täuschung s. Täuschung Phonologie 66, 67, 150, 157, 227, 230,
Nativismus 128, 136, 168, 207 231
Neanderthaler s. Primaten Physiologie 36-39, 73
Negation/Negationserwerb 177, 182, Pidgin s. Sprachen
201, 202, 208 Piatos Problem 117
Neologismus 227 Poggendorf-Täuschung s. Täuschung
Nestedness Constraint s. Prinzipien Positivismus 157, 158
Neuroanatomie 222, 266 poverty-of-stimulus 106, 220, 246
Neuropathologie 235 Pragmatik 14, 65, 67, 68, 71, 74, 75, 93,
Neurophysiologie 36, 39, 41, 221, 225, 97-100, 128, 143, 151, 152, 235
226, 232, 235, 268, 271 Präoperationale Phase 162, 163
Nominalisierung 83, 84 preferred readings 184
Primaten 69, 226, 228, 241-249,
Oberflächenstruktur 76-80, 82,
251-254
117-119, 123, 126
Affen 241, 244, 245, 247-249
Oberflächensyntax 157
Neanderthaler 252, 253
Objektpermanenz 162, 165-168 Schimpansen 245, 251, 252
operationale Definitionen s. Definitionen Prinzipien:
Operationen, Adjazenz 123
formale - 162, 163 Bindungsprinzipien 28, 52
konkrete - 162, 163 Case Resistance Prinzip 122
Optische Täuschung s. Täuschung Complex NP Constraint 55
Parameter, Coordinate Structure Constraint 5 5
prodrop - 138-141 Insel/wh-Insel 79, 92, 140
Paraphasie s. Sprachpathologie Nestedness Constraint 184, 186
parasitic gaps 124 Sentential Subject Constraint 55
Parsing 51, 52, 63, 175-184, 187-189, Subjazenz 52, 55, 57, 58, 132-135,
230 138, 139, 188
Marcus-Parser 188 Pro-drop s. Parameter
Projektionsproblem 114, 116, 126

25
Pronomina(lisierung) 24, 27, 66, 73, Sprachen
84, 85, 117-119, 124, 179, 204, 205, Bantu 96-97
218 Creole haitien 214
Psychologie 14, 32, 33, 36-39, 42, 44, Chinesisch 120, 205
51, 57, 63, 73, 86, 101, 259 Deutsch 16, 23, 25, 27, 49, 70-71,
Psychologische Realität 54 95, 97-98
Englisch 21-22, 28, 55, 98, 110, 117,
Quantifikation 69 124, 131, 135, 138, 141, 178, 185,
205
Quantoren 66, 73, 81, 83
Französisch 138
Griechisch 119, 139
Rationalismus 33, 156, 157 Hawaiian Creole 215-218
Reduktionismus 37-39 Hawaiian Pidgin 215
Referenz 66, 73, 89, 90, 119, 205 Italienisch 138-140
Reflexivpronomina 87, 117-119, 231, Japanisch 91, 92, 120, 135, 138, 205
204 Kreolsprachen 211, 213-220
Reifung 232 Latein 119
Rektions- und Bindungstheorie 28, 172 Pidgin 211-220
Rekursion 25, 130 Serbisch 119
Relativsatz 79, 111, 120, 132, 134, 138, Spanisch 139
179, 180, 183, 184, 218 Türkisch 138
Repräsentation, mentale 17, 18, 25, Spracherkennung s. Sprachperzeption
28-36, 40-47, 52, 54-56, 60, 65-67, Spracherwerb 22, 47, 62, 63, 101,
73, 81, 84-86, 104, 172 105-117, 123-130, 135-137,
Retardierung s. Pathologien 140-151, 157, 160-162, 165-173,
Reziprokpronomina 90 195, 198-215, 220, 233, 234, 248,
249, 257
Schimpansen s. Primaten logisches Problem des - 25, 42-44,
Schizophrenie s. Pathologien 86, 101, 116, 128
segmentale Struktur 194-195 Sprachgemeinschaft 58, 60
Sprachkenntnis s. knowledge
Selektionsbeschränkung 179
Sprachpathologie 61, 210, 221, 222, 225,
Selektionsvorteil 154, 155, 236, 237,
242, 243 235
Semantik 14, 66, 68, 70-93, 98, 128, Aphasien 225-234, 254-255
150, 197, 198, 227, 229, 230 Artikulationsstörung 228
Generative - 75-78, 80-86 Paraphasien 226, 227, 234
Interpretation, semantische - 179 Sprachperzeption 22, 174, 188
sensumotorische Phase 162, 164, 165, Sprachproduktion 22, 189-199, 231
167, 168 sprachspezifisch 67, 68, 128, 137, 143,
sentential subject constraint 147, 153, 174, 227, 228
s. Prinzipien Sprachstörung s. Sprachpathologie
Serbisch s. Sprachen Sprachverarbeitung 21, 22, 47, 50,
Silbische Struktur 194, 195 73-75, 174, 189, 202, 203, 229, 259
Skopus 66, 73, 82 Sprachverstehen s. Sprachperzeption
Spanisch s. Sprachen Sprachverwendung s. Performanz
Sprechakt 67

26
State Transformation 16, 20, 76-85,
final - 136 102-104, 171 -172, 175-177, 2 31
initial - 136 NP-Bewegung 118, 119
Strukturalismus 14, 18, 40, 65, 157 wh-Bewegung 55, 79, 124, 131-138
Subjazenz s. Prinzipien Türkisch s. Sprachen
Subkategorisierung 103, 104, 184 Turner-Syndrom s. Pathologien
Symbolfunktion 162, 163, 207
Unendlichkeit(sproblematik) 25, 27,
Taubheit 203 34, 35, 59, 129, 130
Täuschung, optische 270ff. Universalgrammatik 51, 126-128, 130,
Müller-Lyer Täuschung 264-266 131, 135-138, 153, 221, 232, 233, 256
Poggendorf-Täuschung 264 Unterdeterminiertheit 106, 107
Textstruktur 93
That-trace Effekt 140 Verbstellung 70-72
Theoretische Terme 159 Vogelgesang s. Tierkommunikation
Theta-Rollen/Theta-Kriterium 97ff. Vorwärtspronominalisierung 205
Tiefendyslexie 234
Tiefenstruktur 76-80, 82, 84, 85, 172 Wahrnehmung s. Perzeption
Tierkommunikation 238, 240, 241 Wale s. Tierkommunikation
Delphine 238, 243, 244, 249, 250, wh-Bewegung s. Transformation
251 - 2 54
Wissen 16-35, 40-44, 60, 62, 101, 105
Vögel 232, 233, 241-243, 256-258
Wale 249 X-bar Syntax 231
Tilgung 48-50, 104
Topikalisierung 94, 98, 121, 122 Zweitsprachenerwerb 169, 211, 212

27
SPRACHTHEORIE - Eine Einführung in die Generative Grammatik

Band 2: Die Rektions- und Bindungstheorie

Inhaltsübersicht:

Grundlagen der Grammatiktheorie


1.1 Allgemeine Eigenschaften natürlich-sprachlicher Grammatiken
1.2 Kategorien und Strukturen

Phrasenstrukturen

2.1 X-bar Syntax


2.2 Kasustheorie
2.3 Das Theta-Kriterium
2.4 Bindungstheorie

Bewegungsregeln
3.1 NP-Bewegung
3.2 wh-Bewegung
3.3 Subjazenz
3.4 Das Empty Category Principle
3.5 LF-Bewegung

Leere Kategorien
4.1 PRO und pro
4.2 Phonetische Form
4.3 Leere Operatoren

Barrieren

5.1 L-Markierung und Extraktionsblockierung


5.2 Strenge Rektion als syntaktisches Merkmal
5.3 Erweiterte Ketten
Willis Edmondson/ Gerhart Wolff
Juliane House Deutsche Sprachgeschichte
Einführung in die Ein Studienbuch
Sprachlehrforschung UTB 1581,2., durchges. u. aktual.
UTB1697,1993,350 Seiten, Aufl. 1990,302 Seiten, 22 Abb.,
DM 34,80 23 Tab., DM 26,80
UTB-ISBN 3-8252-1697-7 UTB-ISBN 3-8252-1581-4
Rudi Keller
Mario Wandruszka
Sprachwandel
Die europäische Von der unsichtbaren Hand in
Sprachengemeinschaft der Sprache
Deutsch - Französisch - UTB 1567,1990,218 Seiten, DM 24,80
Englisch - Italienisch - Spanisch UTB-ISBN 3-8252-1567-9
im Vergleich
UTB 1588,1990,185 Seiten, DM 22,80 Kurt Braunmüller
UTB-ISBN 3-8252-1588-1 Die skandinavischen
Sprachen im Überblick
Vilmos Bá