Sie sind auf Seite 1von 301

Uni-Taschenbücher 1441

UTB
FÜR WISSEN
SCHAFT
Eine Arbeitsgemeinschaft der Verlage

Wilhelm Fink Verlag München


Gustav Fischer Verlag Jena und Stuttgart
Francke Verlag Tübingen und Basel
Paul Haupt Verlag Bern • Stuttgart • Wien
Hüthig Verlagsgemeinschaft
Decker & Müller GmbH Heidelberg
Leske Verlag + Budlich GmbH Opladen
J. C. B. Mohr (Paul Siebeck) Tübingen
Quelle & Meyer Heidelberg • Wiesbaden
Ernst Reinhardt Verlag München und Basel
F. K. Schattauer Verlag Stuttgart • New York
Ferdinand Schöningh Verlag Paderborn • München • Wien • Zürich
Eugen Ulmer Verlag Stuttgart
Vandenhoeck & Ruprecht in Göttingen und Zürich
Gisbert Fanselow / Sascha W. Felix

Sprachtheorie
Eine Einführung in die Generative Grammatik

Band 1:
Grundlagen und Zielsetzungen

3. Auflage

Francke Verlag Tübingen und Basel


Gisbert Fanselow, Dr. phil., geb. 1959, ist wissenschaftlicher Mitarbeiter am
Lehrstuhl für Allgemeine Sprachwissenschaft der Universität Passau.
Studium der Sprachwissenschaften und Philosophie an den Universitäten
Regensburg und Konstanz, Promotion und Habilitation an der Universität
Passau.

Sascha W. Felix, geb. 1945, ist o. Professor für Allgemeine Sprachwissen-


schaft an der Universität Passau. Studium der Anglistik, Romanistik und
Japanologie an den Universitäten Hamburg und Freiburg, Promotion und
Habilitation an der Universität Kiel.

Die Deutsche Bibliothek - CIP-Einheitsaufnahme

Fanselow, Gisbert:
Sprachtheorie: eine Einführung in die generative Grammatik /
Gisbert Fanselow; Sascha W. Felix. - Tübingen; Basel: Francke
NE: Felix, Sascha, W.:
Bd. 1. Grundlagen und Zielsetzungen. - 3. Aufl. - 1993.
(UTB für Wissenschaft: Uni-Taschenbücher ; 1441)
ISBN 3-8252-1441-9 (UTB)
ISBN 3-7720-1731-2 (Francke)
NE: UTB für Wissenschaft/Uni-Taschenbücher

1 . Auflage 1987
2. Auflage 1990
3. unveränderte Auflage 1993

© 1993 • A. Francke Verlag Tübingen und Basel


Dischingerweg 5 • D-7400 Tübingen
ISBN 3-7720-1731-2
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt.
Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes
ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbeson-
dere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Gedruckt auf chlorfrei gebleichtem und säurefreiem Werkdruckpapier.
Einbandgestaltung: Alfred Krugmann, Stuttgart
Satz: Lichtsatz Walter, Tübingen
Druck: Müller + Bass, Tübingen
Verarbeitung: Braun + Lamparter, Reutlingen
Printed in Germany
ISBN 3-8252-1441-9 (UTB-Bestellnummer)
Inhaltsverzeichnis

Vorwort ................................................................................... 7

Grammatik als System mentaler Repräsentationen

1.1 Gegenstand einer mentalistischen Linguistik ...................... 15


1.2 Kreativität sprachlichen Wissens .......................................... 22
1.3 Zur Begründung mentaler Repräsentationen ...................... 28
1.4 I-Struktur und E-Struktur ..................................................... 40

Autonomie der Syntax

2.1 Zum Begriff der Autonomie ................................................... 65


2.2 Syntax und Semantik ........................................................... 75
2.3 Syntax und Funktionalismus .............................................. 93

Das logische Problem des Spracherwerbs

3.1 Das Lernbarkeitskriterium .................................................. 101


3.2 Das Projektionsproblem ......................................................... 114
3.3 Universalgrammatik ............................................................... 126

Sprache und Kognition

4.1 Kognitivistische Lernkonzeptionen ...................................... 142


4.1.1 Die logische Struktur von Lerntheorien ............................ 146
4.1.2 Sprache und Kommunikation................................................ 149
4.1.3 Evolution und Sprache ........................................................ 153
4.1.4 Abstraktheit sprachlicher Gesetzmäßigkeiten ..................... 156
4.2 Piagets Konstruktivismus ....................................................... 160
Die Modularität der menschlichen Kognition

5.1 Zum Begriff der Modularität .................................................. 171


5.2 Sprachperzeption ................................................................. 174
5.3 Sprachproduktion ................................................................... 189
5.4 Spracherwerb ........................................................................... 199
5.5 Pidgin- und Kreolsprachen .................................................... 211
5.6 Sprachpathologie und Neuropsychologie ............................. 220
5.7 Biologie der Sprache ............................................................... 235
5.8 Perzeption ................................................................................ 258

Bibliographie ..................................................................................... 275

Index …………………………………………………….……………………………………. 297


Vorwort

Wer sich heutzutage entschließt, eine Einführung in die generative


Grammatik vorzulegen, sollte dafür gute Gründe haben. Ein Mangel
an derartigen Einführungsbüchern ist nun wahrlich nicht zu beklagen.
Letztlich sind nahezu alle Entwicklungsphasen der generativen Theo-
rie durch eine Vielzahl von hervorragenden Einführungen begleitet
worden, von Jacobs & Rosenbaum (1968) über Akmajian & Heny
(1975), Culicover (1976a) und Radford (1981) bis zu van Riemsdijk &
Williams (1986), um nur einige zu nennen. Auch im deutschsprachi-
gen Raum liegen zahlreiche exzellente Darstellungen vor, man denke
etwa an Huber & Kummer (1974) für die Standardtheorie oder von
Stechow & Sternefeld (1987), Haider (1987) und Grewendorf (1987)
für die Government and Binding (GB) Theorie. Wozu also noch eine
Einführung?
Zumeist läßt die Unzufriedenheit mit Bestehendem Autoren selbst
zur Feder greifen; und wir bilden hier keine Ausnahme. Die meisten
vorliegenden Einführungen beschränken sich entweder auf die Darstel-
lung des formalen Beschreibungsapparates der generativen Grammatik
oder auf die Darlegung des konzeptuellen und philosophischen Hinter-
grunds der Theorie, wie etwa Lightfoot (1982) oder Newmeyer (1983).
Wir halten dies für ein gravierendes Manko. Der Beschreibungsapparat
der generativen Grammatik ergibt in seiner spezifischen Form eigent-
lich nur dann einen Sinn, wenn man beachtet, worum es der generati-
ven Theorie eigentlich geht; und die philosophisch-konzeptuellen The-
sen Chomskys sind nur dann überhaupt verständlich, wenn man sich
die wichtigsten Einsichten der eher technisch orientierten syntakti-
schen Analysen vor Augen hält. Der eine Aspekt der Theorie ist ohne
den anderen kaum plausibel und eine Trennung dieser Aspekte kann
eigentlich nur zu Mißverständnissen und Fehleinschätzungen führen.
Die generative Theorie ist, wie Chomsky seit nunmehr ca. 30 Jahren
unermüdlich betont, an zwei sehr spezifischen Fragen interessiert, die
sich etwas vereinfacht und salopp wie folgt formulieren lassen: wie ist
unser sprachliches Wissen im Gehirn repräsentiert und wie kommt es
da hinein? Etwas technischer ausgedrückt: die generative Grammatik
ist eine Theorie über (spezifische) mentale Repräsentationen und deren
Erwerb. Die Fragestellungen der generativen Grammatik, die spezifi-
sche Form der Argumentation und die Art und Weise, empirische The-
sen aufzustellen und zu überprüfen, ist nur vor dem Hintergrund die-
ser Fragestellung verständlich. Ähnliches gilt für die rasante und von
vielen nur mit Kopfschütteln zur Kenntnis genommene Entwicklung
der Theorie in den vergangenen 20 Jahren. Die Gründe für die Erset-
zung des Aspects-Modells (Chomsky 1965) durch die sog. Extended
Standard Theory in den 70er Jahren und in jüngerer Zeit durch die Rek-
tions- und Bindungstheorie (Theory of Government and Binding) sind
nicht allein in Kriterien der deskriptiven Adäquatheit zu suchen, son-
dern ergeben sich vor allem aus den grundlegenden konzeptuellen Zie-
len der generativen Grammatik. In vielen Bereichen mag die Standard-
theorie der 60er Jahre unter deskriptivem Aspekt erfolgreicher als
spätere Versionen der Theorie gewesen sein; doch wurde schon recht
früh deutlich, daß sie als Theorie über die mentale Repräsentation und
den Erwerb sprachlichen Wissens scheitern mußte. Das grundlegende
Ziel der generativen Grammatik ist somit seit den frühesten Arbeiten
Chomskys bis heute unverändert. Gewandelt haben sich die Mittel, mit
denen man dieses Ziel zu erreichen versucht, und die konkreten Ein-
sichten, wie eine erklärungsstarke Theorie über sprachliches Wissen
auszusehen hat.
Demgegenüber wird namentlich in Deutschland die generative
Grammatik von vielen Linguisten oftmals allein als eine Trickkiste mit
raffinierten Beschreibungsverfahren angesehen, mit deren Hilfe man
auf intellektuell ansprechendem Niveau allerlei syntaktische Analyse-
spielereien betreiben kann. Die Faszination, die für viele in den 60er
Jahren von dem Instrument der Transformationsregel und heute von
der Bindungstheorie oder dem Theta-Kriterium ausgeht, scheint sich
vor allem aus der deskriptiven Mächtigkeit dieses Instrumentariums zu
ergeben. Dementsprechend wurde und wird die generative Grammatik
vielfach danach beurteilt, ob ihr Inventar an Konstrukten, Prinzipien,
Regelmechanismen, etc. geeignet ist, eine möglichst umfangreiche
Sammlung von sprachlichen Beobachtungen und Phänomenen adäquat
und in sich konsistent zu beschreiben. Wo in diesem Bereich Probleme
auftreten, wird das Beschreibungsinstrumentarium beliebig um einige
selbst entworfene Varianten und Deskriptionsmechanismen erweitert,
ohne dabei stets die empirischen und theoretischen Konsequenzen für
die Gesamttheorie zu berücksichtigen. Für viele (z.B. Boas 1984 oder
Block 1986) ist es völlig unverständlich, daß Chomsky und seine Mit-
streiter grundsätzlich bereit sind, mächtige und erfolgreiche Beschrei-
bungsinstrumente zugunsten von erklärungsstarken Prinzipien aufzu-
geben, die nur einen relativ eingeschränkten Phänomenbereich abzu-
decken vermögen.
Wir halten diese Einstellung - im Kontext der historischen Ent-
wicklung der Linguistik - zwar für verständlich, jedoch resultiert sie
aus einer völligen Verkennung dessen, was die generative Grammatik-
theorie eigentlich zu erklären versucht. Wir glauben auch, daß diese
letztlich aus einer eher strukturalistischen Tradition erwachsene Ein-
schätzung für die Fortentwicklung der generativen Theorie und für
ihren Status innerhalb der deutschen Forschungslandschaft verheeren-
de Folgen hat. Etwas überspitzt könnte man sagen, daß die generative
Grammatik in Deutschland eigentlich immer nur bezüglich ihres ober-
flächlichen Beschreibungsinstrumentariums rezipiert worden ist, wäh-
rend die grundlegenden Zielsetzungen und Perspektiven weitgehend
ignoriert wurden oder zumindest nicht ernsthaft diskutiert worden
sind. Nach einer kurzen Blütezeit nahmen zu Beginn der 70er Jahre
zahlreiche deutsche Linguisten Abschied von einer ernsthaften
Beschäftigung mit der generativen Grammatik. Man war einerseits
über die deskriptiven Schwierigkeiten bei der Analyse des Deutschen
enttäuscht und warf Chomsky insbesondere vor, daß er zu so wichti-
gen Bereichen wie Soziolinguistik und Pragmatik nichts Substantielles
zu sagen hatte. Hierbei wurde übersehen, daß die generative Gramma-
tik niemals mit dem Anspruch angetreten ist, alle sprachlichen Proble-
me dieser Welt zu lösen, sondern allein an der mentalen Repräsentation
grammatischen Wissens und dessen Erwerb interessiert ist. In dieser
Verkennung der konzeptuellen Grundlagen der generativen Gramma-
tik sehen wir einen primären Grund dafür, daß deutsche Forschung -
etwa im Gegensatz zu den Holländern, Italienern, Engländern oder
Skandinaviern - an der internationalen generativistischen Diskussion
kaum beteiligt ist. Es ist kaum möglich, substantielle Beiträge zu einer
Theorie zu liefern, ohne sich darüber bewußt zu sein, worum es der
betreffenden Theorie eigentlich geht. Um es deutlich zu sagen: wer
Syntax um der reinen Sprachbeschreibung willen betreibt, wer primär
an einer vollständigen Erfassung von Daten und möglichst hoher des-
kriptiver Adäquatheit interessiert ist, wer syntaktische Forschung unter
dem Aspekt einer reinen Sprachtypologie betreibt, für den ist die gene-
rative Grammatik und insbesondere die Government and Binding-
Theorie das denkbar ungeeignetste Instrument. Natürlich steht es
jederman frei, eine Theorie auf ihren Beschreibungsapparat zu reduzie-
ren und mit diesem beliebige Aufgaben anzugehen, jedoch sollte nicht
erwartet werden, daß die Ergebnisse solcher Unterfangen Niederschlag
in ernsthaften Auseinandersetzungen mit einer Theorie finden. Jedes
Instrumentarium und Werkzeug ist auf einen spezifischen Zweck aus-
gerichtet. Dies zu verkennen, kann nur zu Problemen und Desillusio-
nierung führen.
Unter diesem Aspekt scheint es uns durchaus gerechtfertigt zu sein,
dem Stapel von Einführungsbüchern in die generative Grammatik noch
ein weiteres Exemplar hinzuzufügen, das sich vor allem darum
bemüht, sowohl dem technischen Beschreibungsapparat als auch dem
konzeptuellen Rahmengerüst der generativen Grammatik gebührend
Rechnung zu tragen und beide in Beziehung zueinander zu setzen.
Unsere ursprüngliche Konzeption war es, in einem einzigen Einfüh-
rungsband beide Aspekte der Theorie unter ständigem Bezug aufeinan-
der darzustellen. Nachdem der erste Teil im Laufe der Arbeit einen
Umfang annahm, der für die Darstellung der technisch-deskriptiven
Aspekte der GB-Theorie bestenfalls einige wenige Seiten übriggelassen
hätte, mußten wir uns mit dem Gedanken befreunden, die beiden Teile
in jeweils einem eigenen Band darzustellen. Aus offenkundigen Grün-
den konterkariert eine solche zweibändige Darstellung unsere Absicht,
dem Leser sozusagen in einem Guß sowohl die grundlegenden konzep-
tuellen Zielsetzungen als auch deren eher technische Ausführungen zu
vermitteln.
Wenngleich die beiden Bände einerseits zwei unabhängige und in
sich abgeschlossene Darstellungen präsentieren, so manifestiert sich
unsere ursprüngliche Konzeption doch andererseits darin, daß wir ver-
sucht haben, durch ständige Querverweise einen Bezug zwischen den
philosophischen und technischen Aspekten der GB-Theorie herzustel-
len. Während Band II eine Einführung in den Beschreibungsapparat
der Rektions- und Bindungstheorie ist und dabei die einschlägige Lite-
ratur bis etwa Chomskys (1985) »Barriers« berücksichtigt, vermittelt
Band I die konzeptuellen Grundlagen und Zielsetzungen der generati-
ven Grammatik. Band II kommt daher wohl eher dem nahe, was ein
ausgebildeter Linguist von einer Einführung in die generative Gramma-
tik erwartet, während sich Band I nicht nur an professionelle Lingui-
sten, sondern auch an Psychologen, Biologen, Philosophen sowie inter-
essierte Laien wendet.
Wie bereits oben angedeutet, ist die rationalistische Grundhaltung
der generativen Grammatik eigentlich nur vor dem Hintergrund dessen
zu verstehen, was derzeit über die formalen Eigenschaften natürlicher
Sprachen bekannt ist. Dies bedeutet vor allem, daß auch in Band I nicht
auf die Darstellung konkreter sprachlicher Daten und detaillierter syn-
taktischer Analysen verzichtet wird. Dies bringt eine Fülle von Proble-
men mit sich. Insbesondere wird die Geduld derer, die mit linguisti-
scher Terminologie und Analysemethodik wenig vertraut sind, zuwei-
len arg auf die Probe gestellt. Im allgemeinen haben wir bei der Bespre-
chung konkreter sprachlicher Beispiele die formalen Analyseaspekte
nur soweit dargestellt, wie sie für ein Verständnis des Argumentations-
ganges unbedingt vonnöten sind. Es folgt dabei stets ein Verweis auf
das entsprechende Kapitel in Band II, in dem die relevanten Prinzipien
bzw. Gesetzmäßigkeiten ausführlich begründet und expliziert werden,
so daß der interessierte Leser dort ausführlichere Informationen über
technische Details vorfindet.
Eine Einführung sollte natürlich auch für diejenigen verständlich
sein, die mit der Linguistik, ihren Fragestellungen und ihrer histori-
schen Entwicklung nicht oder nur wenig vertraut sind. Andererseits
war es von Beginn der Arbeit an unser Bestreben, aus den bereits
genannten Gründen den konzeptuellen Hintergrund der generativen
Grammatik denjenigen professionellen Linguisten nahezubringen, die
diese Theorie bislang ausschließlich oder primär unter dem Aspekt des
Beschreibungsinstrumentes betrachtet haben. Wir fürchten, daß der
Versuch, den jeweiligen Bedürfnissen dieser beiden Zielgruppen glei-
chermaßen Rechnung zu tragen, in verschiedenen Fällen zu Inkonsi-
stenzen geführt hat; hier bitten wir den Leser um Nachsicht. So setzt
etwa unsere Darstellung der generativen Semantik in Kapitel 2.2 gewis-
se Grundkenntnisse in der historischen Entwicklung der generativen
Grammatik voraus und mag für den Biologen oder Psychologen ent-
behrlich sein. Andererseits richten sich verschiedene Abschnitte in
Kapitel 5 (z.B. 5.8 über visuelle Perzeption) vor allem an Nicht-Lingui-
sten und versuchen, eine Verbindung zwischen Linguistik und anderen
kognitiven Wissenschaften aufzuzeigen.
Wenngleich es in der akademischen Welt üblich und dem eigenen
Ansehen auch eher förderlich ist, aus einer quasi überparteilichen Per-
spektive bestehende Theorien kritisch zu evaluieren, d.h. vor allem
durch zur Vorsicht mahnende und auf tatsächliche oder vermeintliche
Schwächen hinweisende Anmerkungen das eigene Denkvermögen
unter Beweis zu stellen, haben wir uns zunächst darum bemüht, die
generative Grammatiktheorie aus ihrem eigenen Selbstverständnis her-
aus möglichst adäquat darzustellen. Dies geschieht in Kapiteln 1-3.
Soweit uns bekannt, sind die ernstzunehmenden Argumente gegen die
Grundkonzeption der generativen Grammatik in der einschlägigen
Literatur ausführlich diskutiert worden, und wir haben den Eindruck,
daß in diesem Bereich seit spätestens Mitte der 70er Jahre nichts grund-
sätzlich Neues vorgebracht worden ist. Daher gibt es von Chomsky,
Fodor, Hornstein, Lightfoot und anderen ausführliche Stellungnah-
men zu diesen Kritikpunkten, die jedermann in publizierter Form
zugänglich sind. Aus diesem Grunde haben wir es auch nicht für sinn-
voll gehalten, uralte Argumente in der Verpackung scheinbar neuer,
eigenständiger Geistesblitze in die Diskussion zu führen. Vielmehr
haben wir den bekannten Kritikpunkten an der generativen Gramma-
tik ein eigenes Kapitel gewidmet, und zwar Kapitel 4. Dort werden die
wichtigsten Einwände gegen die generative Grammatik dargestellt und
erörtert.
Die Thesen der generativen Grammatik zur Struktur der menschli-
chen Kognition sind sowohl von Chomsky selbst als auch von For-
schern wie Lightfoot, Hornstein, White, Newmeyer usw. fast aus-
schließlich mit Evidenz aus dem relativ engen Bereich der Syntaxanaly-
se begründet worden, mit z.T. eher sporadischen Querverweisen zur
visuellen Perzeption (eine Ausnahme hierzu bildet vermutlich J.A.
Fodor). Dennoch gibt es nach unserer Einschätzung gerade im psycho-
linguistischen und patholinguistischen Bereich eine Fülle von Daten,
die für die generativistischen Thesen eine vielleicht noch überzeugen-
dere Evidenz abgeben als reine Syntaxdaten. Diese Evidenz haben wir
in Kapitel 5 dargestellt. Ein Blick in das Inhaltsverzeichnis mag dieses
Kapitel als äußerst prätentiöses Unterfangen erscheinen lassen, da alle
sprachrelevanten Bereiche auf wenigen Seiten angesprochen werden. Es
ist zu erwarten, daß Spezialisten in diesen Gebieten dort mehr vermis-
sen als vorfinden werden. Zu unserer Entlastung ist nur vorzubringen,
daß wir natürlich nicht so umfangreiche Bereiche wie Sprachperzep-
tion oder Kreolsprachen in ihrer Gesamtheit darzustellen versucht
haben. Vielmehr geht es uns ausschließlich darum, über diejenigen For-
schungsergebnisse zu berichten, die für die Thesen der generativen
Grammatik von unmittelbarer Relevanz sind. Die dort enthaltenen
Literaturangaben mögen demjenigen weiterhelfen, der sich in die ent-
sprechenden Gebiete detaillierter einlesen möchte.
Eine Einführung wie die vorliegende läßt sich kaum ohne den steti-
gen Gedankenaustausch mit Kollegen und Freunden schreiben. Unser
Dank gilt insbesondere C. L. Baker, Harald Clahsen, Karin Donhauser,
Rudolf Emons, Hans-Werner Eroms, Günther Grewendorf, Hubert
Haider, Tilman Höhle, Georgette Ioup, Siegfried Kanngießer, Jan
Koster, Helen Leuninger, David Lightfoot, Marga Reis, Arnim v. Ste-
chow, Wolfgang Sternefeld, Theo Vennemann, Lydia White und Hen-
ning Wode. Aus den zahllosen Gesprächen mit ihnen haben wir viel
gelernt und konnten dadurch manches präziser überdenken. Vor allem
gilt unser Dank Peter Staudacher, dessen nimmer abreißende Diskus-
sionsbereitschaft und scharfsinnige Kritik manche Unzulänglichkeit
der vorliegenden Darstellung verhindert haben. Ihm sowie Josef Bayer,
Jenny Kien und Jürgen Meisel danken wir für kritische Kommentare
zu verschiedenen Teilen des Manuskripts. Was an Schwächen übrig-
bleibt, geht natürlich auf unser Konto. Luise Haller und Gabi Neszt
danken wir für ihre unermüdliche Geduld bei der Herstellung immer
neuer Manuskripte, und Andreas Hertl und Michael Schötensack für
die mühevolle Erarbeitung der Bibliographie und des Index.

Gisbert Fanselow Passau, April 1986


Sascha W. Felix
Grammatik als System mentaler Repräsentationen

I.I Gegenstand einer mentalistischen Linguistik

Natürliche Sprachen lassen sich unter einer Vielfalt von Perspektiven


betrachten. Man kann ihre historische Entwicklung über die Jahrhun-
derte verfolgen, ihre Funktion als Kommunikationsmittel untersuchen,
ihre Beziehung zum Denken thematisieren oder ihren Einfluß auf
menschliches Handeln analysieren. Bei all diesen Betrachtungsweisen
kann man sich auf unterschiedliche Strukturaspekte natürlicher Spra-
chen konzentrieren, etwa auf lautliche, grammatische, semantische
oder pragmatische. Wenngleich die Linguistik im Laufe ihrer histori-
schen Entwicklung stets durch wechselnde inhaltliche Schwerpunkte
geprägt wurde (cf. Helbig 1971; Brekle 1985), so war sie doch zu allen
Epochen ihrer Geschichte in ihrer thematischen Ausrichtung äußerst
vielschichtig und hat all diese unterschiedlichen Perspektiven unter
einem gemeinsamen Dach vereinigt. Man kann daher die Linguistik
durchaus als ein Ensemble von z.T. recht heterogenen Fragestellungen
und Erkenntnisinteressen betrachten.
Mit dem Aufkommen der generativen Grammatiktheorie gegen
Ende der 50er Jahre wurde dieser Perspektivenvielfalt eine weitere
Blickrichtung hinzugefügt. Oberflächlich schien es sich zunächst allein
um eine Perspektivenerweiterung im Kanon linguistischen Bemühens
zu handeln; jedoch zeigte sich in den folgenden Jahren sehr bald, daß
diese Erweiterung zugleich eine theoretische Neubesinnung grundsätz-
licher Art mit sich brachte. Für Noam Chomsky, den Begründer der
generativen Grammatik, eröffnet die Beschäftigung mit natürlichen
Sprachen und den ihnen zugrundeliegenden Strukturphänomenen eine
Möglichkeit, zu Einsichten in die Struktur der menschlichen Kognition
zu gelangen. Somit ist die Analyse von Sprache für Chomsky kein
Selbstzweck - wie dies etwa für weite Bereiche der strukturalistisch
geprägten Grammatiktradition gilt -, sondern primär ein Mittel, Ein-
blicke in den Aufbau und die Funktionsweise des »human mind« zu
gewinnen. Durch diese Zielsetzung wird die Linguistik letztlich zu
einer Teildisziplin der Kognitiven Psychologie.
Wenngleich die Grundidee Chomskys, über die Analyse natürlicher
Sprachen vor allem Zugang zur Struktur des menschlichen Kognitions-
systems zu finden, in der damaligen Zeit neu war und in gewissem
Sinne zu einer fachinternen »Revolution« führte (cf. Kuhn 1962; Chafe
1968; Herrmanns 1977), so waren die Überlegungen, die zu dieser Idee
führten, eher traditioneller Natur (cf. Chomsky 1980:24-26). Im ein-
leitenden Kapitel seines wohl bekanntesten Werks Aspects of the Theory
of Syntax schrieb Chomsky jene nunmehr schon klassische Passage, die
in den damaligen Linguistenkreisen zum Teil Irritation und Ablehnung
hervorrief:
»Linguistic theory is concerned primarily with an ideal speaker-listener, in a
completely homogeneous speech-community, who knows its language perfectly
and is unaffected by such grammatically irrelevant conditions as memory limita-
tions, distractions, shifts of attention and interest, and errors (random or charac-
teristic) in applying his knowledge of the language in actual Performance.«
(Chomsky 1965:3)

Viele Linguisten (cf. Watt 1970; Kanngießer 1971; Labov 1971a) sahen
in dieser Aussage die programmatische Erklärung eines neuen For-
schungsansatzes. Dabei empfand man zunächst ein gewisses Unbeha-
gen darüber, daß hier der Gegenstandsbereich der Linguistik scheinbar
abseits der sprachlichen Wirklichkeit unserer realen Welt in sehr merk-
würdiger Weise idealisiert und eingeschränkt wird. Dennoch ist die
zitierte Aussage im Grunde nicht mehr als die explizite Charakterisie-
rung einer Grundposition, die in den Arbeiten der modernen Sprach-
wissenschaft seit jeher implizit vorhanden war. »This seems to me to
have been the position of the founders of modern general linguistics,
and no cogent reason for modifying it has been offered« (Chomsky
1965:3-4). Chomskys Aussage spiegelt somit allein die (an sich triviale)
Erkenntnis wider, daß die Linguistik, wie jede andere Wissenschaft
auch, mit bestimmten Idealisierungen und Abstraktionen arbeiten
muß. Erst dadurch ist es ihr möglich, über die Aufzählung beliebiger
Einzelbeobachtungen hinaus zu generalisierten Aussagen und Gesetz-
mäßigkeiten zu gelangen. Eine derartige Idealisierung ist also kein Spe-
zifikum der generativen Sprachtheorie, sondern gilt und galt für
sprachwissenschaftliches Bemühen jedweder Prägung schlechthin.
Bereits eine Aussage wie im Deutschen kongruieren Subjekt und Verb,
die sich in jeder traditionellen Grammatik findet, geht von einem idea-
lisierten Sprecher aus und wird nicht allein durch die Beobachtung fal-
sifiziert, daß ein bestimmter realer Sprecher in einer spezifischen Situa-
tion gegen die entsprechende Regel verstößt. Selbstverständlich ist stets
zu fragen, ob eine bestimmte Idealisierung sinnvoll und legitim ist;
jedoch scheint Chomsky auch hier weitgehend Standardannahmen der
modernen Linguistik zu übernehmen, die sich bei genauer Betrachtung
theoretisch wie empirisch sehr wohl begründen lassen1. Ebenso waren
die von Chomsky in Aspects benutzten Notationsformalismen zur
Beschreibung natürlicher Sprachen keineswegs revolutionär. Phrasen-
strukturregeln (cf. Band II, Kap. 2) sind letztlich nichts anderes als die
strikte Formalisierung von Beschreibungskonventionen, die seit jeher
zum Standardrepertoire linguistischer Analysen gehörten, wie etwa
Postal (1964) ausführlich dargelegt hat. Und auch die Transformations-
regel - vielfach als Markenzeichen von Chomskys Theorie angesehen
- wurde bereits von Harris (1951, 1957) verwendet und war implizit
bereits in weitaus früheren Analysen vorhanden2.
Die eigentliche programmatische Novität der zitierten Passage liegt
- eher verborgen - in der Formulierung »... applying his knowledge of
the language in actual performance ...« (Hervorhebung GFSF). Bereits
hier deutet sich der für die generative Theorie entscheidende Bruch
zum traditionellen Deskriptivismus an3. Sprache wird nicht mehr als
ein rein abstraktes und unabhängig vom Menschen existierendes
System von Regularitäten über »the totality of utterances that can be
made in a speech Community« (Bloomfield 1926:155) aufgefaßt; viel-
mehr wird Sprache als eine mentale Größe betrachtet, als ein im
»human mind« verankertes Wissenssystem. Dieser Sichtweise liegt die

1 Die Rechtfertigung der Annahme eines idealisierten Sprechers in einer homoge-


nen Sprachgemeinschaft ergibt sich vor allem aus den unsinnigen Konsequen-
zen, die aus einer Ablehnung dieser Annahme folgen würden. »To deny these
assumptions would be bizarre indeed. It would be to claim either that language
can be learned only under conditions of diversity and conflicting evidence,
which is absurd, or that the property P exists - there exists a capacity to learn
language in the pure and uniform case - but the actual learning of language does
not involve this capacity. In the latter case, we would ask why P exists; is it a
>vestigial organ< of some sort«. (Chomsky 1984:26)
2 Cf. Jespersen 1914, 1 :283ff., II:142ff./202/228ff.; Drach 1940; Bech 1955.
3 Dies gilt, streng genommen, nur für die vorherrschende Strömung des amerika-

nischen Deskriptivismus der 50er Jahre. Die Frage der psychologischen Rele-
vanz und Implikation linguistischer Beschreibung ist bereits lange vor Chomsky
diskutiert worden. »...we have no recourse but to accept language as a fully for-
med functional system within man's psychic or >spiritual< Constitution« (Sapir
1921:11). Auch Bloomfield ging es letztlich bei der linguistischen Analyse um
psychologische Aussagen, wenngleich er im Gegensatz zu Chomskys Mentalis-
mus von einer materialistischen Psychologie ausging (cf. Bloomfield 1933:32ff.).
an sich triviale Beobachtung zugrunde, daß jeder (erwachsene) Mensch
zumindest eine Sprache, nämlich seine Muttersprache, beherrscht und
daß die Verwendung von Sprache offensichtlich deren Kenntnis voraus-
setzt. Da Kenntnis und Wissen offensichtlich Phänomene des kogniti-
ven Bereichs sind, so ist klar, daß die Spezifizierung des sprachlichen
Wissens, über das ein Sprecher verfügt, zu Aussagen über mentale
Strukturphänomene führt. Ziel einer derart konzipierten Linguistik ist
die Beantwortung der Frage: »what exactly does a person know when
we say he knows his language?« (Jackendoff 1977:2). Das sprachliche
Wissen, über das ein Sprecher verfügt und das die Voraussetzung für
den Gebrauch von Sprache bildet, wird üblicherweise als Kompetenz
bezeichnet. Dieser Kompetenz steht die Performanz gegenüber, i.e. die
Anwendung des sprachlichen Wissens in konkreten Sprechsituationen.
Gegenstandsbereich der generativen Theorie ist zunächst die Kom-
petenz, also das sprachliche Wissen, das der Verwendung von Sprache
zugrunde liegen muß. Ziel der linguistischen Analyse ist es nicht, eine
beliebige Sammlung sprachlicher Daten allein konsistent und in sich
widerspruchsfrei zu beschreiben; vielmehr ist es die Aufgabe der Lin-
guistik, zu Aussagen über einen spezifischen Bereich mentaler Phäno-
mene zu gelangen, d.h. über jenes System kognitiver Strukturen, das
das sprachliche Wissen ausmacht. Da sprachliches Wissen sicherlich
Merkmale aufweist, die sich aus dem spezifischen Strukturaufbau des
menschlichen Kognitionssystems ergeben, ist zu erwarten, daß eine
hinreichend präzise Spezifizierung der sprachlichen Kompetenz letzt-
lich Einsichten eben in die Organisation der menschlichen Kognition,
i.e. des »human mind« zu liefern vermag. Somit geht es der generativen
Theorie nicht allein um Sprache und sprachliches Wissen, sondern um
»the structure of the human mind«, um »human cognitive capacities
and the mental structures that serve as vehicles for the exercise of these
capacities« (Chomsky 1980:3). Es geht um die Frage, wie die menschli-
che Kognition aufgebaut und strukturiert ist, wie unser Wissen mental
repräsentiert, i.e. kognitiv verankert ist und wie verschiedene Wissens-
systeme miteinander interagieren. Eine so konzipierte linguistische
Theorie eröffnet »the possibility of learning something, from the study
of language, that will bring to light inherent properties of the human
mind« (Chomsky 1972:103).
Unter dieser Perspektive stellt sich u.a. die Frage, ob es überhaupt
ein eigenständiges Wissenssystem »Sprache« gibt, oder ob sich das, was
wir als sprachliches Wissen bezeichnen, nicht vielmehr aus dem Zusam-
menspiel verschiedener Wissenssysteme ableitet. Chomsky neigt aus
Gründen, auf die wir ausführlich in Kap. 2 eingehen werden, zu der
Ansicht, daß zwar für unser grammatisches Wissen ein autonomes
System mentaler Repräsentationen besteht, daß jedoch der Begriff
>Sprache< eher ein Epiphänomen ist, das auf dem Wechselspiel verschie-
dener kognitiver Systeme beruht:
»I do not know why I never realized that clearly before, but it seems obvious
when you think about it, that the notion language is a much more abstract
notion than the notion of grammar. The reason is that grammars have to have a
real existence, that is, there is something in your brain that corresponds to the
grammar. That has got to be true.« (Chomsky 1982a:107)

Da es also um eine Theorie über ein bestimmtes autonomes System


mentaler Strukturen geht und da vermutlich Grammatik, nicht aber
Sprache in ihrer Gesamtheit, ein solches autonomes System darstellt
(cf. Kap. 2), ist das Ziel der generativen Linguistik im strengen Sinne
die Grammatiktheorie und nicht die Sprachtheorie.
Aus der Zielsetzung, eine Theorie der sprachlichen Kompetenz,
d.h. des grammatischen Wissens eines erwachsenen Sprechers zu ent-
wickeln, ergeben sich eine Reihe wichtiger Konsequenzen. Zunächst ist
festzuhalten, daß das System kognitiver Strukturen, das unser gramma-
tisches Wissen ausmacht, ein real existierendes Objekt ist, d.h. »the Sta-
tements of grammar are ... Statements about structures of the brain for-
mulated at a certain level of abstraction from mechanisms. These struc-
tures are specific things in the world, with their specific properties«
(Chomsky 1984:34). Wissenssysteme und somit auch grammatisches
Wissen sind ein konstitutiver Aspekt der menschlichen Natur, ebenso
wie andere psychische oder physische Eigenschaften des Menschen
auch. Unter diesem Aspekt ist jede linguistische Analyse eine empiri-
sche Aussage über einen realen Aspekt der menschlichen Natur und
kann daher nur entweder wahr oder falsch sein. Ebenso wie etwa eine
physikalische Theorie über das Innere der Sonne die tatsächlichen
Gegebenheiten entweder korrekt oder unzutreffend darstellt, ist auch
eine linguistische Theorie über das Wissenssystem »Grammatik« ent-
weder richtig oder falsch. Die Grammatik existiert als mentales Faktum
unabhängig von ihrer Beschreibung. Bezogen auf eine kognitive Reali-
tät kann von zwei alternativen linguistischen Beschreibungen also nur
eine richtig sein. Während der strukturalistische Deskriptivist davon
ausgeht, daß sprachliche Phänomene auf unterschiedliche Weise glei-
chermaßen angemessen beschrieben werden können, solange diese
Beschreibungen bestimmte Adäquatheitskriterien erfüllen, ist eine sol-
che Sichtweise mit der Zielsetzung der generativen Theorie unverein-
bar. Für diese ist jede ernsthafte grammatische Beschreibung eine empi-
rische Aussage über die Struktur der menschlichen Kognition im allge-
meinen und über das Wissenssystem »Grammatik« im besonderen.
Somit impliziert jede solche Aussage einen Wahrheitsanspruch; d.h. sie
bezieht sich auf eine reale Gegebenheit der menschlichen Natur. Natür-
lich mag sich durch weitere Forschung herausstellen, daß eine bestimm-
te Aussage aus empirischen oder konzeptuellen Gründen falsch ist;
jedoch gilt zunächst jede empirisch wohl-begründete Aussage bis zum
Beweis des Gegenteils als wahr. In dieser Sichtweise zeigt sich eine
deutliche Parallele zu den Naturwissenschaften. Wenn etwa ein Chemi-
ker ein Strukturmodell einer bestimmten Aminosäure aufstellt, so geht
er natürlich davon aus, daß dieses Modell den tatsächlichen Aufbau der
Säure wiedergibt. Auch hier mag sein, daß spätere Generationen von
Forschern sein Modell als falsch erkennen; jedoch enthält zunächst
jede ernsthafte Aussage über chemische Strukturen einen Wahrheitsan-
spruch.
Diese Sichtweise, insbesondere die Dichotomie zwischen Kompe-
tenz und Performanz, ist von der linguistischen Fachwelt keineswegs
ohne Widerspruch hingenommen worden, sondern vielmehr mit einer
Fülle von Argumenten als inadäquat bzw. überflüssig kritisiert worden
(cf. Bever 1970; Derwing 1973; Clark & Haviland 1974). Soweit die Kri-
tik an der Kompetenz-Performanz Dichotomie nicht eine Kritik am
Mentalismus schlechthin bzw. am mentalistischen Wissensbegriff war
(wir gehen darauf ausführlich in Kap. 1.3 ein), wurde vor allem darauf
hingewiesen, daß diese Dichotomie recht willkürlich und durch keiner-
lei empirische Evidenz abgesichert sei. Gerade empirische Überlegun-
gen - so wurde behauptet - lassen jedoch die genannte Unterschei-
dung als äußerst problematisch erscheinen. Insbesondere lassen sich
auch in jenen Bereichen, die Chomsky der Performanz zurechnet, eine
Vielzahl von interessanten Gesetzmäßigkeiten nachweisen. So konnte
etwa Labov (1972) bei seinen Untersuchungen zum Black English zei-
gen, daß bei der individuellen Sprachverwendung, d.h. der Performanz,
Gesetzmäßigkeiten auftreten, die unter Chomskys Perspektive eigent-
lich als sprachliches Wissen, also als Kompetenz ausgewiesen werden
müßten. Mit anderen Worten, Sprachverwendung unterliegt Regulari-
täten, die entscheidend von Faktoren beeinflußt werden, die in Choms-
kys Kompetenzdefinition gerade als irrelevant apostrophiert werden.
So weiß ein Sprecher des Deutschen z.B., daß raus! und würden Sie bitte
mein Zimmer verlassen in unterschiedlichen Situationen, mit unter-
schiedlichen Personen und in unterschiedlichen Gemütsverfassungen
geäußert werden. Dieses Wissen ist jedoch ein Wissen über Anwen-
dungsaspekte von Sprache. Insofern läßt sich Kompetenz sowohl auf
das Anwendungsobjekt (i.e. das, was angewendet wird) als auch auf die
Anwendungsform (i.e. den Mechanismus, der die Anwendung aus-
macht) beziehen. Damit verliert aber die Kontrastierung von Kompe-
tenz gegenüber Performanz viel von ihrer zunächst einsichtigen Klar-
heit und Präzision. Mit anderen Worten, eine strikte und konzeptuell
saubere Kompetenz-Performanz-Unterscheidung kollidiert mit der
empirisch beobachtbaren sprachlichen Wirklichkeit.
Valian (1979) hat in diesem Kontext darauf hingewiesen, daß die
Unterscheidung zwischen Kompetenz und Performanz eine logische
und keineswegs eine empirische Unterscheidung ist4. Wer den Begriff
>Wissen< akzeptiert, muß notwendigerweise auch annehmen, daß es
prinzipiell so etwas wie Wissensanwendung gibt bzw. geben kann.
Umgekehrt, wer etwas wie Wissensanwendung akzeptiert, muß logi-
scherweise auch annehmen, daß das, was angewendet wird, i.e. das Wis-
sen selbst, ebenso existiert. Der empirische Aspekt des Kompetenzbe-
griffes bezieht sich hingegen auf die Frage, wie das entsprechende Wis-
sen im einzelnen zu charakterisieren ist:
»What is an empirical matter is the character of the knowledge (if any) and the
character of the device that accesses and uses the knowledge ... With respect to
syntax and logic it is a question of empirical fact whether people's syntactic
knowledge takes the form specified in the syntactic component of a transforma-
tional grammar, and a matter of empirical fact whether a predicate calculus cha-
racterizes a portion of people's logical knowledge.« (Valian 1979:2)

Unter empirischen Gesichtspunkten steht somit die Grenzlinie zwi-


schen Kompetenz und Performanz zur Diskussion, nicht jedoch die
Dichotomie selbst. Die Kritik an der Kompetenz-Performanz-Dicho-
tomie beruht vielfach auf der fälschlichen Vorstellung, daß alle sprach-
lichen Phänomene, die Gesetzmäßigkeiten aufweisen, ipso facto der
Kompetenz zuzurechnen sind, während Performanz sozusagen den
irregulären Aspekt von Sprache erfaßt. Diese Zuordnung ist sicher

4 Chomsky (1980:59-60) weist darauf hin, daß eine solche zunächst rein logisch-
konzeptuelle Distinktion natürlich empirische Konsequenzen hat. So folgt aus
ihr etwa, daß es im Prinzip möglich sein sollte, daß jemand in einem gegebenen
Bereich (z.B. Sprache) über volle Kompetenz verfügt, diese jedoch nicht anwen-
den kann, da der entsprechende Anwendungsmechanismus - etwa aus patholo-
gischen Gründen - defekt ist. In der Tat scheint es Sprachstörungen zu geben
(cf. Blank et al. 1979), bei denen just dies der Fall ist. Wir werden auf diese Phä-
nomene noch näher in Kap. 5 eingehen.
inkorrekt. Natürlich unterliegt auch der Gebrauch von Sprache
erkennbaren Gesetzmäßigkeiten; jedoch stellt sich die Frage, ob diese
Gesetzmäßigkeiten der gleichen Natur sind wie diejenigen, die sich im
Kompetenzbereich erkennen lassen. Ob ein gegebenes sprachliches
Phänomen zur Kompetenz oder zur Performanz gehört, läßt sich hier-
bei weder a priori noch rein mechanistisch feststellen, sondern kann
letztlich nur im Kontext der Gesamttheorie entschieden werden.
Der empirische Gehalt der Kompetenz-Performanz-Dichotomie
läßt sich am Beispiel der englischen Sätze (1a) und (2a) illustrieren:

(1a) the boat floated down the river sank


(2a) the students expect that each other will win the prize

Legt man derartige Sätze einem Sprecher des Englischen vor, so wird
er vermutlich beide spontan als ungrammatisch bezeichnen. Dies hat
offenkundig nichts mit der Bedeutung der Sätze zu tun, da der Aussa-
gegehalt in beiden Fällen völlig klar ist. In (1a) wird über ein Boot aus-
gesagt, daß es den Fluß hinuntertrieb und dann sank; in (2a) erwartet
jeder Student, daß der andere den Preis gewinnen wird. Dennoch
besteht ein entscheidender Unterschied zwischen den beiden Sätzen;
die Ungrammatikalität von (1a) besteht nämlich nur scheinbar. Der
Satz wird sofort als korrekt erkannt, wenn seine Struktur durch ver-
gleichbare Konstruktionen wie in (1b) und (1c) deutlich gemacht wird:

(1b) the boat (which was) floated down the river sank
(1c) the boat taken down the river sank

Das Problem liegt offensichtlich darin, daß floated zwar grundsätzlich


sowohl Vergangenheitsform als auch Partizip Passiv sein kann, in (1a)
jedoch nur als Partizip Passiv einen grammatischen Satz ergibt. Demge-
genüber scheint der menschliche Spracherkennungsmechanismus die
Tendenz zu haben, in einer Struktur wie (1a) floated spontan stets als
Vergangenheitsform zu interpretieren, so daß der Satz ungrammatisch
erscheint. Wir sehen hier einen typischen Unterschied zwischen Kom-
petenz und Performanz. Jeder Sprecher des Englischen weiß - im
Sinne seiner Kompetenz -, daß Konstruktionen wie in (1) völlig gram-
matisch sind, bei der konkreten Sprachverarbeitung - der Performanz
- treten jedoch systematische Schwierigkeiten auf, die korrekte Struk-
tur von (1a) spontan zu erkennen. Sobald ein Sprecher - etwa durch
kontextuelle Hinweise oder durch analoge Bildungen wie (1b) und (1c)
- die tatsächlichen Strukturverhältnisse erkannt hat, erscheint ein Satz
wie (1a) völlig normal.
Demgegenüber hat die Ungrammatikalität von (2a) nichts mit Verar-
beitungsschwierigkeiten zu tun. Im Englischen kann each other grund-
sätzlich nicht als Subjekt eines finiten Satzes erscheinen. Jeder Sprecher
des Englischen erkennt, daß derartige Sätze ungrammatisch sind. Der
Sachverhalt, der durch (2a) verbalisiert werden soll, läßt sich im Engli-
schen nur durch Strukturen wie (2b) und (2c) ausdrücken:
(2b) each student expects that the other will win the prize
(2c) the students expect each other to win the prize

1.2 Kreativität sprachlichen Wissens

Die generativistische Zielsetzung, das grammatische Wissen eines idea-


lisierten Sprecher-Hörers zu spezifizieren, führt natürlich sofort zu der
Frage, über welchen methodischen Weg man Zugang zu diesem Wissen
erlangen kann, da mentale Phänomene offenkundig nicht direkt beob-
achtbar sind. Mit anderen Worten, was sind relevante empirische Daten
für das anvisierte Ziel? Grundsätzlich kann man sich hier eine Vielzahl
von unterschiedlichen Datentypen und methodischen Zugriffen vor-
stellen. In der Tat läßt sich hier keine apriorische Vorentscheidung tref-
fen; wichtig ist allein, inwieweit durch einen bestimmten Datentyp
bzw. einen bestimmten methodischen Zugriff interessante und nicht-
triviale Einsichten über den Gegenstand erlangt werden können.
Der traditionelle methodische Zugriff in der generativen Gramma-
tik erfolgt über sog. Grammatikalitätsurteile, und zweifellos sind auf
diesem Weg in der Vergangenheit die wichtigsten und umfassendsten
Erkenntnisse erlangt worden (cf. hierzu Wexler & Culicover 1980; van
Riemsdijk & Williams 1986). Doch ist gerade in jüngerer Zeit in ver-
stärktem Maße auch Evidenz aus anderen Bereichen herangetragen
worden, z.B. Spracherwerb (Baker 1979; Roeper et al. 1981), Spracher-
kennung (Marcus 1980; Berwick & Weinberg 1984), Sprachproduktion
(Cooper & Paccia-Cooper 1980) oder Lernbarkeitstheorie (Wexler &
Culicover 1980). Wir werden auf diese Bereiche noch ausführlicher in
Kap. 5 eingehen.
Dem Zugriff über Grammatikalitätsurteile liegt zunächst die schein-
bar triviale Beobachtung zugrunde, daß ein zentraler Aspekt der gram-
matischen Kompetenz eines Sprechers sich in der Fähigkeit manifestiert,
einerseits beliebig viele Sätze zu produzieren bzw. zu verstehen und
andererseits Sätze u.a. danach zu beurteilen, ob sie in der eigenen Spra-
che möglich sind oder nicht. So kann etwa jeder Sprecher des Deut-
schen erkennen, ob ein bestimmter Satz strukturell möglich, i.e. gram-
matisch ist oder nicht (>*< kennzeichnet einen ungrammatischen Satz):

(3) Hans fällt die Treppe runter


(4) *Hans Treppe die fällt runter
(5a) ein Foto von Boris Becker ist in der Zeitung erschienen
(5b) von wem ist ein Foto in der Zeitung erschienen?
(6a) ein Foto von Boris Becker kostet die Zeitung viel Geld
(6b) *von wem kostet ein Foto die Zeitung viel Geld
(7) Hans sagt, daß er morgen fortfahren will
(8) er sagt, daß Hans morgen fortfahren will

Jeder Sprecher des Deutschen erkennt, daß ( 3 ) grammatisch ist, wäh-


rend in (4) die Wortstellung wohl etwas durcheinandergeraten ist. Wich-
tig ist in diesem Kontext, daß die Fähigkeit, die Ungrammatikalität von
(4) zu erkennen, offenkundig nichts mit Bedeutungsfragen zu tun hat.
Die Bedeutung von (4) ist trotz der Ungrammatikalität des Satzes völlig
klar. Ebenso erkennt jeder Sprecher, daß (5b) als Frage zu (5a) wohlge-
formt ist, während (6b) als Frage zu (6a) wiederum ungrammatisch ist.
Im Gegensatz zu (4) ist es für den Laien jedoch weitaus schwieriger, den
Grund für die Ungrammatikalität von (6b) anzugeben. In (4) ist offen-
sichtlich die Wortstellung inkorrekt; doch warum (6b) nicht in Ord-
nung ist, wird vermutlich nur ein Linguist, der mit der einschlägigen
Literatur (z.B. Ross 1967a) vertraut ist, auf den ersten Blick erkennen.
Hierin manifestiert sich ein weiterer, wichtiger Aspekt unseres sprachli-
chen Wissens: die Fähigkeit, Sätze als ungrammatisch zu erkennen, ist
offenbar unabhängig davon, ob wir jeweils auch die Gründe für die Un-
grammatikalität angeben können. Wir wissen, ob ein Satz richtig ist oder
nicht, aber wir können im Regelfall nicht erklären, warum dies so ist.
Die Verhältnisse im Satzpaar (7) und (8) sind etwas komplexer.
Beide Sätze sind offenkundig korrekt; der Unterschied liegt jedoch
darin, daß (7) zwei Lesarten, i.e. Interpretationen, zuläßt, während für
(8) nur eine Lesart möglich ist. In (7) können sich Hans und er auf die
gleiche Person beziehen (Hans sagt, daß er (=Hans) morgen fortfahren
will) oder sie können sich auf zwei verschiedene Personen beziehen
(Hans sagt, daß er (=Hubert, Günter, etc.) fortfahren will). Beziehen sich
zwei Ausdrücke auf die gleiche Person, so sprechen wir von Koreferenz.
Während (7) also eine koreferente und eine nicht-koreferente Lesart
hat, ist in (8) nur die nicht-koreferente Lesart möglich. Er kann sich
nur auf eine andere Person als Hans beziehen. Auch diesen Unterschied
kennt jeder Sprecher des Deutschen in dem Sinne, daß er einem Satz
wie (8) niemals eine koreferente Lesart zuordnen würde, d.h. mit kore-
ferenter Lesart ist (8) ungrammatisch. Trotz der Fähigkeit, die Sätze (7)
und (8) jeweils korrekt zu interpretieren, ist sich der normale Sprecher
des Deutschen dieses Unterschieds gar nicht bewußt und kann ihn in
der Regel auch nicht erklären.
Interessanterweise sind Sprecher, sobald sie auf derartige Regulari-
täten aufmerksam gemacht werden, sehr schnell bereit, spontan allerlei
Erklärungen für solche Ungrammatikalitäten anzubieten. Eine der häu-
figsten Erklärungen besagt, daß sich er in (8) natürlich deshalb nicht
auf Hans beziehen kann, weil Personalpronomina nur etwas aufgreifen
können, was bereits zuvor im Satz genannt wurde. Da Hans jedoch erst
nach er auftritt, ist Korefenz ausgeschlossen. Leider sind die Verhältnis-
se jedoch weitaus komplizierter. Pronomina können durchaus früher in
einem Satz auftreten als das Nomen, auf das sie sich beziehen, wie etwa
Satz (9) zeigt:

(9) Studenten, die ihn erlebt haben, schätzen Arnim

Wenngleich Sprecher also durchaus bereit sind, Erklärungen anzubie-


ten, so bedeutet dies keineswegs, daß die entsprechenden Erklärungen
das tatsächliche Wissen, auf das die Sprecher bei der Beurteilung eines
Satzes offenkundig zurückgreifen, auch korrekt wiedergeben. Die tat-
sächlichen Gesetzmäßigkeiten, die derartigen Koreferenzbeziehungen
zugrunde liegen, hängen eng mit dem Begriff des C-Kommandos
zusammen (Culicover 1976b; Reinhart 1976), das wir ausführlich in
Band II, Kap. 2.4, darstellen werden.
Diese wenigen Beispiele deuten bereits auf einen wichtigen Aspekt
unserer sprachlichen Fähigkeit hin. Wir sind u.a. imstande, Sätze
danach zu beurteilen, ob sie grammatisch oder ungrammatisch sind.
Wie Satz (4) zeigt, läßt sich diese Fähigkeit nicht daraus ableiten, ob
dem betreffenden Satz eine Bedeutung zugeordnet werden kann. Eben-
sowenig schließt sie die gleichzeitige Fähigkeit ein, die Grundlage der
jeweiligen Grammatikalitätsurteile hinreichend zu erklären. Damit ist
natürlich nicht impliziert, daß dies unsere einzige oder auch nur wich-
tigste Fähigkeit in Bezug auf Sprache ist; es geht allein um die Beobach-
tung, daß Grammatikalitätsurteile einen wesentlichen Aspekt unseres
sprachlichen Vermögens ausmachen und somit ein geeignetes Mittel
sind, uns Zugang zu unserem sprachlichen Wissen zu verschaffen.
Ein weiterer entscheidender Aspekt unserer Fähigkeit, Sätze bezüg-
lich ihrer Grammatikalität zu beurteilen, besteht darin, daß wir solche
Urteile über beliebig viele Sätze abgeben können, insbesondere auch
über solche, die wir zuvor niemals gehört bzw. geäußert haben. Man
kann die Zahl der in einer Sprache möglichen Sätze als unendlich groß
ansetzen (cf. Chomsky 1964:50); dies hängt u.a. damit zusammen, daß
natürliche Sprachen offensichtlich einen Rekursionsmechanismus ent-
halten, durch den Sätze beliebiger Länge erzeugt werden können:

(10) Hans sagt, daß Fritz glaubt, daß Maria weiß, daß Egon
behauptet hat,...., daß Flugzeuge gefährlich sind

Man kann sich natürlich darüber streiten, ob ein Satz wie (10) ein stili-
stisches Meisterstück ist; dennoch erkennt jeder Sprecher des Deut-
schen, daß (10) - etwa im Gegensatz zu (4) und (6b) - völlig gramma-
tisch ist. Daran scheint sich auch nichts zu ändern, wenn wir diesen
Satz durch weitere Einschübe noch etwas länger machen. Demnach
scheint sich unsere Fähigkeit, die Grammatikalität von Sätzen zu beur-
teilen, grundsätzlich auf eine unbeschränkt große Anzahl von Sätzen
zu erstrecken. Diese Beobachtung ist aus zwei Gründen von entschei-
dender Bedeutung. Zunächst ist unsere sprachliche Erfahrung, d.h. die
Sätze, die wir bereits einmal geäußert bzw. gehört haben, aus offen-
sichtlichen Gründen endlich. Darüber hinaus ist aber auch die Spei-
cherkapazität unseres Gehirns, in dem das dieser Urteilsfähigkeit
zugrunde liegende Wissen verankert ist, eben nicht unbeschränkt groß.
Diese Überlegungen machen zunächst einmal deutlich, in welcher
Form unser grammatisches Wissen im Gehirn nicht repräsentiert sein
kann. Rein logisch wäre denkbar, daß alle Sätze, die wir jemals in unse-
rer sprachlichen Umgebung hören, kognitiv abgespeichert werden;
d.h. unser sprachliches Wissen bestünde dann aus einer Liste von abge-
speicherten Sätzen. Bei der Grammatikalitätsbeurteilung würden wir
einfach in diesem Speicher »nachschauen«, ob der entsprechende Satz
dort vorhanden ist. Im positiven Falle beurteilen wir ihn als gramma-
tisch, im negativen als ungrammatisch. Offensichtlich kann diese
Lösung nicht richtig sein. Wir könnten dann stets nur eine endliche
Anzahl von Sätzen, nämlich die, die wir bereits einmal gehört haben,
beurteilen; tatsächlich sind wir aber auch imstande, völlig neue Sätze
zu verstehen und zu beurteilen. Dieses Faktum würde jedoch bei der
oben skizzierten »Lösung« eine unendlich große Speicherkapazität des
Gehirns voraussetzen, eine offenkundig unsinnige Idee.
Die Vorstellung, daß Wissen in Form einer endlichen Liste von Ein-
trägen im Gehirn abgespeichert wird, ist keineswegs von vornherein
abwegig. In der Tat scheint es durchaus auch sprachliche Bereiche zu
geben, in denen gerade dies vermutlich der Fall ist. Betrachten wir etwa
den lexikalischen Bereich, also unser Wortschatzwissen. Gibt es im
Deutschen etwa das Wort Göpel oder Luppe? Einige Sprecher werden
diese Frage positiv beantworten und hinzufügen, daß Göpel ein fach-
sprachlicher Ausdruck für Förderband ist und Luppe eine Hündin in
der Jägersprache bezeichnet. Anderen werden diese Wörter nicht
bekannt sein und sie werden die Frage daher mit »nein« oder »ich weiß
nicht« beantworten. Worauf gründet sich das unterschiedliche lexikali-
sche Wissen dieser beiden Personengruppen? Offenkundig hängt die
Kenntnis eines bestimmten Wortes von der konkreten sprachlichen
Erfahrung des jeweiligen Sprechers ab. Man kennt ein Wort nur dann,
wenn man es schon einmal gehört bzw. gelesen hat. Man kann also ver-
muten, daß unterschiedliche Personengruppen z.T. auch über einen
unterschiedlichen Wortschatz verfügen, und zwar jeweils in Abhängig-
keit ihrer spezifischen sprachlichen Erfahrung. So steht etwa der Wort-
schatz von Fachsprachen in der Regel nur denjenigen zur Verfügung,
die in diesem Fach tätig sind. Somit läßt sich annehmen, daß unser
Wortschatzwissen in der Tat aus einer endlichen Liste lexikalischer Ein-
heiten besteht, die mental abgespeichert ist. Wird nach der Existenz
bzw. Nicht-Existenz eines Wortes gefragt, so überprüft der Befragte
lediglich, ob dieses Wort in der mentalen Liste vorhanden ist oder
nicht. Lexikalisches Wissen erstreckt sich somit auf eine endliche Liste
von Wörtern, grammatisches Wissen hingegen auf eine unbestimmt
große Anzahl von Satzstrukturen.
Wir stoßen hier auf den entscheidenden Aspekt unserer grammati-
schen Kompetenz: ihre Kreativität. Unser grammatisches Wissen
gestattet es, eine im Prinzip unbegrenzte Zahl neuer Sachverhalte aus-
zudrücken. Wir sind imstande, beliebig viele neue Sätze und Äußerun-
gen zu produzieren und zu verstehen, und zwar unabhängig von der
jeweiligen individuellen sprachlichen Erfahrung. Demgegenüber ist die
Kreativität unseres lexikalischen Wissens weitaus eingeschränkter5:
man kennt genau die Wörter einer Sprache, mit denen man in der Ver-
gangenheit schon einmal konfrontiert worden ist. Kreativität in diesem
Sinne, i.e. die Fähigkeit, unabhängig von konkreter Erfahrung beliebig

5 Diese Aussage gilt natürlich nur für einfache Wörter. Es gibt selbstverständlich
auch im lexikalischen Bereich Kreativität, d.h. Regeln, mit denen aus einfachen
komplexe Wörter gebildet werden können (cf. Aronoff 1976; Selkirk 1982; Lie-
ber 1983; Fanselow 1985a). Allerdings bemerkt Chomsky (1982a:96) zu diesem
Bereich: »where we have options to get an infinite vocabulary, it appears to be
through pretty trivial mechanisms usually«.
viele Urteile zu treffen, ist natürlich nicht allein auf unsere sprachliche
Fähigkeit beschränkt. So erstreckt sich etwa unsere Fähigkeit, bestimm-
te Lebewesen z.B. als Menschen zu identifizieren, ebenfalls auf eine im
Prinzip beliebig große Zahl von Fällen. Desgleichen ist die Fähigkeit,
Zahlen miteinander zu multiplizieren, nicht auf bestimmte Zahlen
beschränkt, sondern umfaßt grundsätzlich alle, d.h. eine unendliche
Menge von Zahlen.
Ein weiterer spezifischer Aspekt unserer grammatischen Kompe-
tenz manifestiert sich u.a. in der Tatsache, daß wir Sätze nicht nur nach
den Kategorien »grammatisch« und »ungrammatisch« beurteilen kön-
nen, sondern darüber hinaus imstande sind, unterschiedliche Grade
der Grammatikalität zu erkennen:

(11a) ich kann mir vorstellen, warum niemand die Maria leiden
kann
(11b) ?die Maria kann ich mir vorstellen, warum niemand leiden
kann
(12a) ich kann mir vorstellen, warum die Maria niemanden lei-
den kann
(12b) *die Maria kann ich mir vorstellen, warum niemanden lei-
den kann
(13 a) ?the person that John described without examining any
pictures of
(13b) *the person that John described without any pictures of
being on file

Für sich allein betrachtet, werden die meisten Sprecher des Deutschen
(insbesondere norddeutsche Sprecher) (11b) wohl eher als ungramma-
tisch beurteilen. Erst im Kontrast mit (12b) wird deutlich, daß (11b)
zwar schlecht, aber doch erheblich besser als (12b) ist. Würde unsere
grammatische Urteilsfähigkeit nun in irgendeiner Weise direkt damit
zusammenhängen, ob wir einen Satz schon einmal gehört haben, so
wären derartige differenzierte Urteile im Bereich ungrammatischer
Strukturen völlig unerklärbar. Da weder (11b) noch (12b) im Deut-
schen möglich sind, gehören sie auch nicht zu unserer sprachlichen
Erfahrung. Dennoch sind wir in der Regel imstande, auch im rein
ungrammatischen Bereich abgestufte Grammatikalitätsurteile zu fäl-
len. Noch deutlicher fällt der Kontrast im Satzpaar (13) aus, das aus
Kayne (1983) stammt. Beide Sätze sind deutlich ungrammatisch und
werden erst dann akzeptabel, wenn ein Pronomen wie his oder her hin-
ter der Präposition of erscheint. Dennoch erkennt ein Sprecher des
Englischen, daß (13b) deutlich schlechter als (13a) ist. Unser grammati-
sches Wissen schließt somit die Fähigkeit ein, Grammatikalitätsunter-
schiede in Bereichen festzustellen, die offenkundig überhaupt nicht zu
unserer sprachlichen Erfahrung gehören.
Es zeigt sich also deutlich, daß die mentale Repräsentation unseres
grammatischen Wissens nicht aus einer Liste aller in der jeweiligen
Sprache möglichen Sätze bzw. Äußerungen bestehen kann, da eine sol-
che Vorstellung nicht die Kreativität unseres sprachlichen Vermögens
zu erklären vermag und darüber hinaus an der Unendlichkeitsproble-
matik scheitert. Es gilt also, nach einer plausibleren und adäquateren
Lösung Ausschau zu halten. In Aspects of the Theory of Syntax stellte
Chomsky ursprünglich die (im Grunde eher traditionelle) Hypothese
auf, daß das grammatische Wissen eines Sprechers in Form eines Regel-
apparats mental repräsentiert ist. Mit anderen Worten, das, was unser
grammatisches Wissen ausmacht, ist ein endliches System von Regeln,
die so beschaffen sind, daß sie eine unendliche Anzahl von Satzstruktu-
ren spezifizieren. Wie ein solcher Regelapparat konkret aussieht, ist
natürlich zunächst eine rein empirische Frage, und die generative For-
schung der vergangenen 25 Jahre hat sich intensiv darum bemüht, spe-
zifische Antworten und Vorschläge auszuarbeiten. In jüngerer Zeit
mehrt sich jedoch Evidenz dafür, daß die Vorstellung, grammatische
Kompetenz sei ausschließlich als ein System von Regeln anzusehen,
vermutlich falsch ist. Sowohl konzeptuelle Überlegungen als auch
empirische Evidenz aus einer Vielzahl von Sprachen deuten darauf hin,
daß grammatische Kompetenz wohl eher als ein System von interagie-
renden Prinzipien zu betrachten ist, die auf verschiedenen Ebenen
strukturelle Repräsentationen auf bestimmte Wohlgeformtheitsbedin-
gungen hin überprüfen. Diese Einsicht führte zur Formulierung der
Rektions- und Bindungstheorie (Theory of Government and Binding),
die wir ausführlich in Band II darstellen werden.

1.3 Zur Begründung mentaler Repräsentationen

Ziel der generativen Theorie ist die Spezifizierung eines Wissenssy-


stems, genauer: die Spezifizierung des grammatischen Wissens eines
idealisierten Sprecher-Hörers. Gegen eine derartige Konzeption lingui-
stischer Theoriebildung sind in der Vergangenheit vor allem zwei Ein-
wände erhoben worden, auf die wir etwas ausführlicher eingehen wol-
len. Der erste Einwand bezieht sich primär auf die Verwendung des
Begriffs >Wissen< (knowledge) im Kontext sprachlicher (bzw. gramma-
tischer) Kompetenz, weil - so wird argumentiert - mit diesem Begriff
üblicherweise Fähigkeiten assoziiert werden, die im sprachlichen
Bereich in der Regel gerade nicht gegeben sind. Soweit wir erkennen
können, handelt es sich hier eigentlich nur um ein terminologisches
Problem. Der zweite Einwand wiegt schwerer, da er sich gegen die
mentalistische Grundposition der generativen Grammatik schlechthin
richtet. Bestritten wird eine der Hauptthesen des Mentalismus, näm-
lich, daß für bestimmte komplexe und gesetzmäßige Verhaltensweisen
eines Organismus ein in der Kognition verankertes mentales Programm
anzunehmen ist. Es geht somit um die empirische und philosophische
Rechtfertigung des Begriffs »mental representation«.
Zentraler Begriff der generativen Theorie ist das grammatische
>Wissen<. Entscheidend ist jedoch, daß es sich hierbei um einen Typus
von Wissen handelt, das einerseits nicht dem Bewußtsein zugänglich ist
und andererseits auch nicht die individuelle Fähigkeit zur Explikation
einschließt, d.h. derjenige, der über dieses Wissen verfügt, kann in der
Regel nicht angeben, worin denn dieses Wissen konkret besteht. Aus
diesem Grunde wird dieser Typ von Wissen zumeist als »intuitive
knowledge« oder »tacit knowledge« bezeichnet. Gegen diesen Wis-
sensbegriff ist eingewandt worden, daß er im Gegensatz zu so ziemlich
allem steht, was man üblicherweise unter Wissen versteht. Wissen, so
wird argumentiert (cf. Edgley 1970; Searle 1976; Baker & Hacker
1984:316ff.), impliziert quasi per definitionem, daß sein Inhalt zumin-
dest prinzipiell bewußt gemacht und auch von demjenigen, der über
dieses Wissen verfügt, erklärt werden kann:
»A necessary condition for someone to know the rules which govern some acti-
vity is that he must be able to say or show us what the rules are...we can say that
someone follows a rule only if he knows what the rule is and can tell us what it
is...« (Davis 1976:78-80; zitiert nach Chomsky 1980:129)

Die gängige Vorstellung von >Wissen< schließt demnach typischerweise


die explizite Erklärbarkeit des Wissensinhaltes ausdrücklich mit ein.
Somit wäre der Begriff »tacit knowledge« im Grunde eine contradictio
in adjecto.
Gegen diesen Einwand ist solange nichts zu sagen, wie es sich allein
um eine Kritik an der Verwendung des Wortes »Wissen« handelt. Um
Assoziationen, die üblicherweise mit diesem Begriff verbunden sind,
auszuschließen, genügt es letztlich, einfach einen anderen, eher unbela-
steten Terminus einzuführen. Unter diesem Aspekt hat Chomsky
(1980:69ff.) »know«/»knowledge« durch den Terminus »cognize«/
»cognizance« ersetzt, wobei mit dieser Begriffsänderung letztlich
nichts anderes erreicht werden soll als »to account for examples of what
anyone would call >knowledge<« (Chomsky 1980:73).
Natürlich geht es nicht allein um terminologische Finessen. Hinter
der Kritik am generativen Wissensbegriff verbirgt sich zumeist die
Ablehnung bestimmter mentalistischer Grundpositionen, insbesonde-
re der Auffassung, daß auch für stets unbewußt ablaufende und indivi-
duell nicht explizierbare Fähigkeiten unter bestimmten Bedingungen
so etwas wie ein zugrundeliegendes Wissen anzunehmen ist. Mit ande-
ren Worten, ob eine gegebene Fähigkeit gleichzeitig die generelle Mög-
lichkeit einschließt, die sie konstituierenden Gesetzmäßigkeiten ins
Bewußtsein zu rufen und dementsprechend individuell zu explizieren,
ist für die Wissensproblematik eher von sekundärer Bedeutung; ent-
scheidend ist vielmehr, ob die betreffenden Gesetzmäßigkeiten und
Regelkomplexe allein z.B. auf ein spezifisches Motorprogramm redu-
zierbar sind, das im jeweiligen Anwendungsfall ein System konkreter,
wenngleich komplexer Bewegungsabläufe steuert, oder ob über derarti-
ge konkrete Bewegungsabläufe hinaus ein System abstrakter Regeln
bzw. Prinzipien anzunehmen ist, die in höchst indirekter Beziehung zu
der jeweiligen Instantiierung der betreffenden Fähigkeit stehen. Ist in
einem spezifischen Fall die Annahme eines solchen abstrakten Regelsy-
stems (bzw. Prinzipiensystems) notwendig, so mag man plausiblerwei-
se davon ausgehen, daß dieses System in der kognitiven Struktur des
betreffenden Individuums verankert ist, technisch: mental repräsen-
tiert ist. Wissen bedeutet demnach nichts anderes als sich in einem
bestimmten mentalen Zustand zu befinden, der durch besagtes System
abstrakter Regeln/Prinzipien charakterisiert ist.
Der grundlegende Gedankengang läßt sich am besten an einem ein-
fachen, da vermutlich unstrittigen Beispiel illustrieren, das aus dem
Bereich jener Fähigkeiten stammt, deren zugrundeliegenden Gesetz-
mäßigkeiten dem Bewußtsein zugänglich und somit individuell expli-
zierbar sind. Ein Schachspieler etwa wird üblicherweise nicht nur
imstande sein, die Figuren auf dem Brett nach bestimmten Regeln zu
bewegen, sondern er kann darüber hinaus die Regeln, die er beim Spiel
befolgt, auch erklären. Entscheidend ist nun, daß diese Regeln abstrak-
ter Natur sind und nicht etwa als Anweisungen für konkrete Bewe-
gungsabläufe verstanden werden können. Ein Schachspieler wird
sagen: »den Läufer darf man nur diagonal bewegen«; »der Bauer darf
jeweils ein Feld vorwärts bewegt werden« etc. und nicht etwa: »strecke
den rechten Arm aus, bis die Finger die Spitze der Figur >Bauer< errei-
chen; schließe die Finger und hebe den Bauern vom Brett; strecke den
Arm horizontal weiter bis...«. Letztlich sind die konkreten Bewe-
gungsabläufe, die während des Schachspiels auftreten, völlig irrelevant;
man kann sich ohne Zweifel eine beliebig große Zahl von konkreten
Handlungen und Bewegungen vorstellen, die alle die Regel »den Bau-
ern ein Feld vorwärts bewegen« instantiieren. In der Tat ist das tatsäch-
liche Vorhandensein von Brett und Spielfiguren und das tatsächliche
Ausführen von Bewegungen nicht einmal notwendig, wie die spektaku-
lären Demonstrationen von Großmeistern zeigen, die allein über Tele-
fon miteinander verbunden sich Spielzüge der Form »Bauer D5« -
»Läufer E8« mitteilen, ohne daß irgendwelche tatsächlichen Bewegun-
gen auf einem Schachbrett ausgeführt werden. Die Fähigkeit, Schach
zu spielen, bedeutet somit sicher nicht, imstande zu sein, bestimmte
Bewegungen mit Hilfe von Figuren auf einem Brett durchzuführen,
sondern vielmehr ein System abstrakter Regeln zu kennen, die sich
prinzipiell auf beliebig verschiedene Art und Weise realisieren lassen.
Somit lassen sich das Schachspiel und seine Regeln auch nicht als
Motorprogramm darstellen, das ein System spezifischer Handlungen
und Bewegungen repräsentiert; vielmehr verfügt eine Person, die des
Schachspiels mächtig ist, über die Kenntnis eines abstrakten Regelsy-
stems, und Kenntnis bedeutet in diesem Sinne nichts anderes, als daß
das Regelsystem in der kognitiven Struktur repräsentiert ist. Die Fähig-
keit des Schachspielens zu besitzen heißt also, sich in einem bestimm-
ten mentalen Zustand zu befinden, der (u.a.) durch die abstrakte
Repräsentation der Schachregeln charakterisiert ist. Zur terminologi-
schen Vereinfachung ist es sicher nicht abwegig, die mentale Repräsen-
tation von X als das Wissen von X zu bezeichnen.
Was den Fall des Schachspielers wohl als relativ unproblematisch
und unstrittig erscheinen läßt, ist die Tatsache, daß sich das Wissen um
die Schachregeln, also deren mentale Repräsentation, jederzeit ins
Bewußtsein rufen läßt. Man kann also direkt erkennen und sozusagen
am Bewußtsein ablesen, worin die Fähigkeit des Schachspielens
besteht, nämlich nicht aus einem Motorprogramm, sondern aus einem
mental repräsentierten System abstrakter Regeln. Entscheidend ist nun
jedoch, daß unser Motiv, für die Fähigkeit des Schachspielens ein
zugrundeliegendes Wissen, i.e. eine mentale Repräsentation von
Regeln, anzunehmen, nicht darin bestand, daß dieses Wissen dem
Bewußtsein zugänglich gemacht werden kann - dieser Umstand mach-
te den Fall höchstens etwas einsichtiger; vielmehr resultierte die
Annahme eines Wissenssystems aus der Einsicht, daß die betreffende
Fähigkeit sich nicht hinreichend über ein System konkreter Hand-
lungsabläufe bzw. ein entsprechendes Motorprogramm spezifizieren
läßt. Das, was das Schachspiel ausmacht, ist abstrakter Natur und
muß aufgrund dieser Tatsache zur Annahme einer mentalen Repräsen-
tation der relevanten Regeln führen. Wir sehen also, daß die Frage der
individuellen Explizierbarkeit zunächst unabhängig davon ist, ob für
eine bestimmte Fähigkeit ein zugrundeliegendes Wissen(ssystem)
anzusetzen ist.
An einigen alltäglichen Beispielen verdeutlicht J.A. Fodor (1981a),
daß auch im Bereich der im allgemeinen unbewußt ablaufenden Fähig-
keiten die Frage der individuellen Explizierbarkeit und Bewußtseins-
machung losgelöst von dem Problem betrachtet werden muß, wie die
der betreffenden Fähigkeit zugrundeliegenden Gesetzmäßigkeiten
letztlich zu erklären sind. Bei diesen Beispielen handelt es sich um
höchst komplexe Handlungen und Bewegungsabläufe, deren interne
Strukturierung im allgemeinen dem Bewußtsein nicht zugänglich ist
und daher auch nicht erklärt werden kann.
»...There are cases where we know how to X and can give an account of what
we do when we do X, but where it seems clear that the ability to give an account
is logically and psychologically independent of the abilities involved in X-ing.
Thus if I think about it, I can tell you which fingers I put where when I type
>Afghanistan< or tie my shoes. So, I know how to do it, and I know that when I
do it I do it that way. But what I do when I do it has, I imagine, very little or
nothing to do with what I do when I explain how I do it. What suggests that this
is so is that I don't have to think when I type »Afghanistan« or tie my shoes, but
I do have to think when I try to explain how I type »Afghanistan* or tie my shoes
...there is a real and important distinction between knowing how to do a thing
and knowing how to explain how to do that thing.« (Fodor 1981a:70-71)

Diese Überlegungen zeigen zunächst einmal nur, daß sich Fähigkeiten


bezüglich ihrer inhärenten Eigenschaften unterscheiden können. Es
gibt einerseits solche, die die Möglichkeit der bewußten Reflexion und
der individuellen Explizierbarkeit einschließen, und andere, bei denen
der exakte Mechanismus, aus dem die entsprechende Handlung resul-
tiert, entweder vollständig unbewußt oder zumindest vom Bewußtsein
unabhängig ist. Was aus dieser Distinktion keineswegs folgen muß, ist,
daß für Fähigkeiten, die der bewußten Kontrolle zugänglich sind, stets
ein zugrundeliegendes Wissenssystem anzusetzen ist, bzw. - umge-
kehrt - daß für ausschließlich unbewußt ablaufende Fähigkeiten
grundsätzlich kein zugrundeliegendes System mentaler Repräsentatio-
nen anzunehmen ist.
Ein entscheidender Gesichtspunkt ist nun folgender: selbst wenn
ein Organismus eine bestimmte Fähigkeit oder Verhaltensweise allein
durch Nachdenken nicht korrekt erklären oder spezifizieren kann, so
muß eine solche korrekte Spezifizierung/Erklärung im Prinzip doch
möglich sein. Selbst wenn ein Mensch nicht im einzelnen erklären
kann, wie er seine Schuhe zubindet oder die Grammatikalität von Sät-
zen beurteilt, so muß es dennoch eine solche Erklärung geben. Gäbe es
sie grundsätzlich nicht, so könnte man kaum sagen, der Mensch verfü-
ge über diese Fähigkeit bzw. Verhaltensweise. Existieren kann nur, was
prinzipiell spezifizierbar ist, unabhängig davon, ob jeder einzelne zu
einer solchen Spezifizierung imstande ist. »Although an organism can
know how to X without knowing the answer to the question >How
does one X?<, it cannot know how to X unless there is an answer to the
question >How does one X?< Now, one kind of requirement it would
be rational to place upon a psychological theory is this: for every beha-
vior an organism knows how to perform, a psychological theory of that
organism must supply an answer to the question >how does one produ-
ce behaviors of that kind?<« (Fodor 1981a:74).
Somit ist klar, daß es für jedes regelhafte Verhalten, das ein Organis-
mus auszuführen imstande ist, ein Schema geben muß, das die Baustei-
ne des Verhaltens und deren Zusammenwirken spezifiziert. Daß der
Organismus diese Bausteine und die zwischen ihnen bestehenden
Beziehungen selbst nicht kennen mag, ist dabei unerheblich. Selbst
wenn ein Sänger nicht weiß, welche Schwingungssequenzen seine
Stimmbänder im einzelnen durchführen, so muß seinem Singen den-
noch irgendein spezifisches Schwingungsschema zugrunde liegen.
Gäbe es ein solches Schema nicht, etwa weil zwischen Tonhöhe und
Stimmbandaktivität keine gesetzmäßige Beziehung besteht, so könnten
wir kaum von einer einheitlichen Handlung >Singen< sprechen. Die
Erklärung einer Verhaltensweise scheint nun gerade in der Spezifizie-
rung des sie konstituierenden Handlungsschemas zu liegen.
Ausgehend von diesen Überlegungen stellt sich zunächst die Frage,
aufgrund welcher Kriterien für eine bestimmte dem Bewußtsein nicht
zugängliche Fähigkeit ein zugrundeliegendes System mentaler Reprä-
sentationen, also ein Wissenssystem anzusetzen ist. Mit anderen Wor-
ten, unter welchen Bedingungen ist es sinnvoll, eine Fähigkeit als Aus-
druck kognitiv verankerten Wissens anzusehen, wobei Wissen (tacit
knowledge) bedeutet »to be in a certain mental state, which persists as
a relatively steady component of transitory mental states« und »to have
a certain mental structure consisting of a system of rules and principles
that generate and relate mental representations of various types«
(Chomsky 1980:48)? Diese Frage kann natürlich nicht a priori entschie-
den werden; vielmehr ist das entscheidende Kriterium, ob durch die
Annahme einer zugrundeliegenden Wissenskomponente bestimmte
Aspekte einer Fähigkeit erklärt werden können, die ohne diese Annah-
me unerklärbar bleiben. Unter heuristischen Gesichtspunkten ist es
sicherlich sinnvoll, sich im Bereich unbewußter Fähigkeiten grundsätz-
lich an den gleichen Merkmalen zu orientieren, die auch bei den dem
Bewußtsein zugänglichen Fähigkeiten die Annahme eines zugrundelie-
genden Wissenssystems rechtfertigen.
Wir erinnern uns daran, daß im Falle des Schachspiels unser primä-
res Motiv, ein zugrundeliegendes Wissenssystem anzunehmen, darin
bestand, daß die entscheidenden Gesetzmäßigkeiten abstrakter Natur
sind und daß diesbezügliche Erklärungen des Schachspielers ebenfalls
auf abstrakte Regeln abzielen. Es gibt eine vermutlich unendliche
Anzahl von konkreten Arten und Weisen, in denen man eine Schachfi-
gur regelgemäß auf dem Brett bewegen kann. Jedoch sind gerade diese
konkreten Bewegungsabläufe völlig irrelevant. Wenn wir also sagen,
der Schachspieler kennt die Regeln des Spiels, so ist sein entsprechen-
des Wissen höchst abstrakter Natur, und es scheint gerade ein Merkmal
dessen zu sein, was wir als Wissen bezeichnen, daß es sich auf abstrakte
und nicht auf konkrete Sachverhalte bezieht.
Die entscheidende Beobachtung ist nun, daß derartige abstrakte
Regelschemata auch solchen Fähigkeiten zugrundezuliegen scheinen,
die weder explizierbar noch dem Bewußtsein zugänglich sind, d.h. die
entsprechende Fähigkeit besteht nicht in der Durchführbarkeit
bestimmter konkreter Handlungsabläufe, sondern darin, daß sich in
ihr eine Vielzahl z.T. recht heterogener Verhaltensweisen auf einer
abstrakten Ebene konzeptuell vereinigen; und es ist gerade der abstrak-
te Charakter derartiger Fähigkeiten, der es nahelegt, den Begriff »tacit
knowledge« anzusetzen und dem entsprechenden Organismus eine
mentale Repräsentation des jeweils zugrundeliegenden abstrakten
Regelschemas zuzusprechen.
Dieser Gedankengang läßt sich etwa am Beispiel musikalischer
Fähigkeiten illustrieren. Wenn jemand eine bestimmte Melodie kennt,
so ist er prinzipiell imstande, diese in jeder beliebigen Tonart bzw. Ton-
höhe und von jedem beliebigen Instrument gespielt zu identifizieren.
Sofern er über entsprechende technische Fähigkeiten verfügt, kann er
eine solche Melodie grundsätzlich auch auf jedem Instrument reprodu-
zieren. Dies zeigt, daß die Fähigkeit, Melodien zu kennen bzw. zu
identifizieren, nicht darin besteht, etwa bestimmte Fingerbewegungen
auf dem Klavier ausführen oder bestimmte Schallwellen auf konkrete
akustische Eigenschaften hin überprüfen zu können; vielmehr liegt die-
ser Fähigkeit offensichtlich die Kenntnis bestimmter musikalischer
Strukturen und Gesetzmäßigkeiten zugrunde, die - wie Lerdahl & Jak-
kendoff (1983) gezeigt haben - äußerst komplexer und vor allem
abstrakter Natur sind. Wenngleich die betreffenden Regeln und Prinzi-
pien - zumindest für den musikalischen Laien - weder dem Bewußt-
sein zugänglich noch individuell explizierbar sind, so scheint es doch
plausibel zu sein (und auch dem »common sense< Verständnis zu entspre-
chen), hier von einem kognitiv verankerten Kenntnis- bzw. Wissenssy-
stem zu sprechen, eben von >tacit knowledge<.
Fodor et al. (1974:5ff.) erläutern den Begriff des >tacit knowledge<
am Beispiel des Namenschreibens. Wenn jemand in einer konkreten
Situation seinen Namen schreibt, so läßt sich diese Handlung als »tem-
porally ordered sequence of gestures or of effector states« beschrei-
ben. Diese spezifische Folge von Bewegungen ist jedoch nur eine unter
im Prinzip unendlich vielen Arten und Weisen, in denen jemand sei-
nen Namen schreiben kann. All diese verschiedenen Bewegungsabläu-
fe lassen sich unter dem abstrakten Konzept »seinen Namen schrei-
ben« subsumieren. Ob eine bestimmte Handlung als »seinen Namen
schreiben« charakterisiert werden kann, hängt nicht von dem sich in
ihr manifestierenden spezifischen Bewegungsablauf ab, sondern viel-
mehr davon, ob diese Handlung als Instantiierung eines bestimmten
abstrakten Konzepts, in diesem Falle des Konzepts »seinen Namen
schreiben«, angesehen werden kann. »When we say of a man that he
knows how to write his name, we do not mean that he is able to execu-
te some specific sequence of gestures, nor that his muscles are capable
of assuming some specific sequence of states .... the man who writes
his name is guided in his performance by some concept, plan, schema,
idea, or mental content; and however he writes, large or small, in ink
or in chalk, etc.; there is some sense in which his behavior is guided
by the same mental content on each of the occasions when he writes
his name« (op.cit. 3/4).
Der Grund dafür, daß z.T. extrem unterschiedliche Bewegungsab-
läufe (z.B. die Unterschrift auf einem Brief vs. das Meißeln des Namens
in einen Stein) als Ausdruck der gleichen Handlung angesehen werden
können, liegt ex hypothesi darin, daß derartige Bewegungsabläufe auf
dem Hintergrund kognitiv verankerter Konzeptualisierungen interpre-
tiert werden. »... In the analysis of behavior, we frequently find that
while the output of the organism can be viewed as a temporally ordered
sequence of gestures or of effector states, there is, nevertheless, reason
to suppose that behavior is organized by reference to an internal repre-
sentation of the action as a whole« (op.cit. 5). Diese interne mentale
Repräsentation, die als Referenzpunkt für die Identifizierung und Klas-
sifizierung verschiedener konkreter Bewegungsabläufe fungiert, ist nun
genau das, was mit »tacit knowledge« gemeint ist. Diese Repräsenta-
tion muß offenkundig abstrakter Natur sein und kann sich nicht auf
konkrete Bewegungsabläufe beziehen, da es von diesen eine im Prinzip
unendliche Zahl gibt, die als Ausdruck der gleichen Handlung gelten
können. Die Annahme von »tacit knowledge« erfährt ihre Rechtferti-
gung also daraus, daß mit Hilfe dieses Begriffs erklärt werden kann,
inwiefern unterschiedliche konkrete Handlungsabläufe als »instances
of the same behavior« gelten können.
Vor diesem Hintergrund wird deutlich, in welchem Sinne die gram-
matische Kompetenz eines Sprechers als »tacit knowledge« aufzufassen
ist. Die Fähigkeit, für eine im Prinzip infinite Anzahl von Sätzen anzu-
geben, ob sie in einer gegebenen Sprache möglich sind oder nicht, läßt
sich eben durch die Annahme erklären, daß das Kognitionssystem des
erwachsenen Sprechers u.a. ein abstraktes Regelschema enthält, das
genau die Klasse der in der Sprache möglichen Sätze spezifiziert. Eine
Sprache zu kennen heißt demnach, mit kognitiven Strukturen ausge-
stattet zu sein, die dieses Regelschema ausmachen. Der entscheidende
Gesichtspunkt ist hier der abstrakte Charakter des anzusetzenden
Regelschemas. Es ist unser Eindruck, daß viele Kritiker dieses Erklä-
rungsansatzes (cf. Strawson 1972; Quine 1969, 1972) einfach die enor-
me Komplexität und Abstraktheit sprachlicher bzw. grammatischer
Regularitäten übersehen und in ihren Argumentationen von ausge-
wählten Phänomenen ausgehen, die in ihrer Struktur relativ einfach
sind und für die die Annahme eines mental repräsentierten Regelappa-
rates in der Tat überflüssig ist.
Es ist nun zuweilen darauf hingewiesen worden (z.B. Comrie 1984),
daß Aussagen über kognitive Strukturen und mentale >Objekte< eigent-
lich nur dann plausibel sind, wenn gleichzeitig gezeigt werden kann,
wie sich diese konkret auf neurophysiologischer Ebene manifestieren.
Mit anderen Worten, wenn wir eine bestimmte grammatische Regel
oder ein Prinzip dem menschlichen Kognitionssystem zuschreiben, so
muß gleichzeitig das entsprechende hirnphysiologische Korrelat nach-
gewiesen werden. Psychologische Aussagen wären in diesem Sinne auf
physiologische Aussagen zu reduzieren.
Zunächst ist hier anzumerken, daß aus der Sicht der Biologie kaum
bestritten wird, daß die Sprachfähigkeit des Menschen auf spezifischen
hirnphysiologischen Strukturen beruht, die etwa bei anderen Organis-
men in dieser Funktion nicht vorhanden sind (cf. Changeux 1984; Frie-
dend 1984; Lieberman 1984). Was bestenfalls umstritten sein kann, ist
die Frage, inwieweit eine direkte Korrelation zwischen konkreten, von
der Linguistik vorgeschlagenen Prinzipien und physiologischen Gege-
benheiten des Gehirns besteht. Insofern kann es sich bei diesem Ein-
wand nicht um eine grundsätzliche Kritik am Mentalismus handeln,
sondern lediglich um einen Hinweis auf einzelne empirische Defizite in
der gegenwärtigen Forschungslage.
Grundsätzlich kann man natürlich nicht die Möglichkeit ausschlie-
ßen, daß psychische bzw. mentale Gesetzmäßigkeiten auf entsprechen-
de physiologische Regularitäten vollständig reduzierbar sind. Selbst
wenn man eine solche extrem materialistische Position ernst nimmt,
scheint es durchaus möglich und sinnvoll zu sein, bei unserem derzeiti-
gen Kenntnisstand Prinzipien auf einer abstrakteren als der molekular-
biologischen Ebene zu formulieren. Ein solches Vorgehen ist selbst in
der Biologie nicht unbekannt, wie sich etwa an dem Mendel'schen
Gesetz der Vererbung erkennen läßt, das zunächst rein abstrakt und
völlig ohne Rekurs auf die spezifische chemische Struktur des Zell-
kerns formuliert wurde. Es scheint unklar, warum diese Möglichkeit
im Bereich sprachlicher Phänomene grundsätzlich nicht bestehen soll-
te. In diesem Sinne charakterisiert Chomsky (1980:5) den Ansatz lin-
guistischer Theoriebildung:

»When I use such terms as >mind<, >mental representations »mental computa-


tion<, and the like, I am keeping to the level of abstract characterization of the
properties of certain physical mechanisms, as yet almost entirely unknown. There
is no further ontological import to such references to mind or mental representa-
tions and acts. In the same way, a theory of human vision might be formulated
in concrete terms, referring, say, to specific cells in the visual cortex and their
properties; or it might be formulated abstractly in terms of certain modes of
representation (say, images, or stick figure sketches), computations on such
representations, organizing principles that determine the nature of such repre-
sentations and rules, and so on.« (Chomsky 1980:5)

J.A. Fodor (1975:9-26) nimmt in dieser Frage eine etwas andere Hal-
tung ein. Er weist zunächst darauf hin, daß hinter dem »physiological
reductionism« die Auffassung steht, daß Aussagen der »special scien-
ces« auf Aussagen einiger weniger Grundwissenschaften zurückgeführt
werden sollten, zu denen sicherlich die Physik, möglicherweise auch
die Physiologie gehören. Eine derart angestrebte Reduktion erfolgt
über sog. Brückengesetze, d.h. jedem Phänomen etwa auf der psycho-
logischen Ebene entspricht ein bestimmtes Phänomen auf der physio-
logischen Ebene, und diese Entsprechung ist in striktem Sinne gesetz-
mäßig. Aufgrund dieser Gesetzmäßigkeit lassen sich Aussageprädikate
der einen Ebene systematisch in Aussageprädikate der anderen Ebene
umformen.
Fodor argumentiert gegen diese Form des Reduktionismus mit dem
Hinweis, daß bei derartigen Reduktionen wichtige Generalisierungen
verlorengehen können bzw. auf der reduzierten Ebene nicht mehr for-
mulierbar sind; d.h. es lassen sich etwa auf der psychologischen Ebene
Generalisierungen und Gesetzmäßigkeiten über Phänomene ausdrük-
ken, deren physiologische und letztendlich physikalische Korrelate
entweder nichts gemeinsam haben oder deren mögliche Gemeinsam-
keiten für die Generalisierung selbst irrelevant sind. »It is often the case
that whether the physical descriptions of the events subsumed by such
generalizations have anything in common is, in an obvious sense,
entirely irrelevant to the truth of the generalizations, or to their inter-
estingness, or to their degree of confirmation, or, indeed, to any of their
epistemologically important properties« (Fodor 1975:15).
Zur Illustration dieses Gedankenganges verwendet Fodor ein Bei-
spiel aus der Ökonomie, und zwar das Gresham'sche Gesetz6, das die
Auswirkungen monetären Tausches betrifft. Es gilt nun sicherlich,
daß sich jeder Vorgang, der im Sinne des Gresham'schen Gesetzes als
monetärer Tausch charakterisiert werden kann, ebenfalls mit Hilfe des
Beschreibungsvokabulars der Physik darstellen läßt und somit gleich-
zeitig unter die Gesetze der Physik fällt. Entscheidend ist jedoch, daß
bei einer rein physikalischen Beschreibung aller als monetärer Tausch
zu bezeichnenden Vorgänge das, was einen monetären Tausch zum
monetären Tausch macht, verlorengeht bzw. daß die physikalischen
Gemeinsamkeiten dieser Vorgänge im Sinne des Gresham'schen
Gesetzes völlig irrelevant sind. »The point is that monetary exchan-
ges have interesting things in common; Gresham's law, if true, says
what one of these interesting things is. But what is interesting about
monetary exchanges is sure not their commonalities under physical
description. A kind like a monetary exchange could turn out to be co-

6 Greshams Gesetz besagt: Bei quantitativ oder qualitativ unterschiedlichem Edel-


metallgehalt von Münzen verdrängt die schlechtere Währung die bessere, d.h.
die metallisch wertvolleren Münzen verschwinden allmählich aus dem Verkehr.
extensive with a physical kind; but if it did, that would be an accident
on a cosmic scale« (Fodor 1975:15).
Die Unabhängigkeit und Eigenständigkeit einer bestimmten
Beschreibungsebene hängt folglich davon ab, ob sich auf ihr Gesetzmä-
ßigkeiten und Generalisierungen ausdrücken lassen, die auf einer ande-
ren Beschreibungsebene nicht formulierbar sind. Analoges gilt für die
Beziehung zwischen psychologischen und neurophysiologischen Aus-
sagen. Wenn sich in einem Bereich erweisen sollte, daß eine psychologi-
sche Generalisierung exhaustiv mit einer bestimmten physiologischen
Gesetzmäßigkeit korreliert, so ist anzunehmen, daß es sich eben um ein
primär physiologisches Phänomen handelt und daß der psychologische
Aspekt ein Derivat bzw. ein Epiphänomen der involvierten Physiologie
ist. Doch eine derartige Korrelation muß offenkundig nicht in allen Fäl-
len gegeben sein und kann erst recht nicht a priori postuliert werden.
Es ist durchaus denkbar, daß psychologische Generalisierungen eben
nicht analoge neuronale Generalisierungen implizieren. Dementspre-
chend ist es durchaus statthaft, psychologische Aussagen zu formulie-
ren, ohne die Struktur der zugrundeliegenden neuronalen >hardware<
zu kennen. Entscheidend ist, ob eine Aussage interessante Generalisie-
rungen enthält, und nicht, ob sie auf ein anderes Beschreibungsvokabu-
lar reduzierbar ist. Die Bedeutsamkeit der bisher erzielten Ergebnisse
und Einsichten rechtfertigen es daher, zunächst eine eigenständige psy-
chologische Beschreibungsebene anzusetzen, ohne die physiologische
Manifestation der involvierten Phänomene zu kennen. Die Auffassung,
Aussagen über psychologische Sachverhalte seien nur dann sinnvoll,
wenn deren neuronales Substrat aufgezeigt werden kann, ist demnach
völlig unmotiviert.
Letztlich sollte man in diesem Kontext nicht vergessen, daß die
Frage der Reduzierbarkeit psychischer auf physikalische Gesetzmäßig-
keiten im Kontext eines grundsätzlichen Problems steht, das die
abendländische Philosophie seit ihren Anfängen beschäftigt und
üblicherweise unter dem Terminus >Leib-Seele-Problem< bekannt ist.
Derzeit scheint sich abzuzeichnen (cf. v.Kutschera 1982:384ff.), daß
weder ein radikaler Physikalismus noch ein extremer Dualismus geeig-
net ist, aus psycho-physischen Wechselwirkungen resultierende Phä-
nomene zu erklären. Gerade die moderne Physik hat mittlerweile die
Vorstellung aufgegeben, »das Physische sei ein in sich geschlossener
Bereich, in dem sich alle Phänomene ohne Bezugnahme auf Psychi-
sches beschreiben und erklären lassen« (v.Kutschera 1982:385). Daher
ist nicht einmal aus allgemein-philosophischer Sichtweise zu erwarten,
daß sich für die von der Linguistik postulierten Prinzipien und Gesetz-
mäßigkeiten notwendigerweise sie erklärende physikalische Korrelate
finden lassen.

1.4 I-Struktur und E-Struktur

Die Überlegungen im vorangegangenen Abschnitt haben deutlich


gemacht, warum es sinnvoll ist, für bestimmte Formen des menschli-
chen Handelns und insbesondere des sprachlichen Verhaltens ein
zugrundeliegendes System mentaler Repräsentationen anzunehmen,
und zwar unabhängig davon, ob dessen Existenz dem Bewußtsein
zugänglich gemacht werden kann oder nicht. Für jeden Wissensbe-
reich lassen sich nun rein logisch zwei Strukturebenen angeben: die
externe oder E-Struktur, die den Gegenstandsbereich des Wissens spe-
zifiziert, also das, worüber ein Wissen besteht (z.B. die Gesetze der
Physik, das Periodensystem der Chemie, die Operationen der Mathe-
matik, oder der Stadtplan von Passau), und die interne oder I-Struk-
tur, die angibt, wie, d.h. nach welchen Regularitäten und Prinzipien
das Wissen in dem jeweiligen Gebiet mental repräsentiert ist (z.B. wie
etwa das Chemie-Wissen oder das Mathematik-Wissen im Gehirn
kognitiv organisiert ist).
Somit stellt sich die interessante Frage, in welcher Beziehung
E-Struktur und I-Struktur im jeweiligen Wissensgebiet zueinander ste-
hen. Einerseits wäre denkbar, daß E-Struktur und I-Struktur im
wesentlichen voneinander unabhängig sind, so daß jede für sich allein
zu spezifizieren ist. Andererseits ließe sich vorstellen, daß die I-Struk-
tur weitgehend ein Derivat der E-Struktur ist, bzw. umgekehrt. Dar-
über hinaus stellt sich die Frage, ob beide Strukturebenen in gleicher
Weise dem wissenschaftlichen Zugriff offen stehen, d.h. es wäre denk-
bar, daß nur über die E-Struktur oder nur über die I-Struktur sinnvolle
und interessante Aussagen möglich sind.
Die eigentliche Novität des generativen Forschungsprogramms liegt
nun keineswegs darin, daß für den sprachlichen bzw. grammatischen
Bereich ein System mentaler Repräsentationen, i.e. ein zugrundeliegen-
des Wissenssystem, angenommen wird - dies würde vermutlich auch
ein am strukturalistischen Deskriptivismus orientierter Linguist zuge-
stehen; vielmehr steht hinter dem generativen Programm die Auffas-
sung, daß sprachliche E-Strukturen ein Derivat der I-Strukturen sind
und daß sinnvolle Aussagen eigentlich nur über die I-Strukturen, i.e.
das mental repräsentierte Wissenssystem, gemacht werden können.
Diese Auffassung würde weder ein traditioneller Deskriptivist noch ein
Montague-Grammatiker oder Funktionalist teilen. Aus diesem Grunde
wollen wir etwas ausführlicher auf die Grundlagen dieser Auffassung
eingehen.
Um die grundlegende Problematik zu verdeutlichen, wollen wir zu-
nächst beispielhaft einige Wissensbereiche betrachten. Hierbei wird
offenbar werden, daß die Beziehung zwischen E-Struktur und I-Struk-
tur nicht grundsätzlich für den mentalen Bereich insgesamt festgesetzt
ist, sondern in verschiedenen Wissensgebieten durchaus unterschied-
lich sein kann.
Zunächst scheint unbestreitbar zu sein, daß I-Struktur und E-Struk-
tur - sofern beide für einen gegebenen Bereich existieren - zumindest
in einem trivialen Sinne unabhängig voneinander sein müssen. Die Art
und Weise, in der Datenbereiche im Gehirn abgespeichert sind, kann
nicht allein von deren Strukturierung abhängen, sondern muß offen-
kundig auch in irgendeiner Weise Eigenschaften und Gesetzmäßigkei-
ten kortikaler Neurophysiologie widerspiegeln. Man könnte aller-
dings im Sinne eines strengen Empirismus annehmen, daß diese neu-
rophysiologischen Gesetzmäßigkeiten eben weitgehend trivialer
Natur sind; dementsprechend würde etwa die visuelle Perzeption bzw.
die Repräsentation visueller Eindrücke im Gehirn nach einem einfa-
chen »Kameraprinzip« (cf. Rock 1985) funktionieren. In diesem Falle
wäre die I-Struktur im wesentlichen durch die E-Struktur determi-
niert, d.h. die mentalen Repräsentationen wären ein weitgehend
getreues Abbild der Gegebenheiten der E-Struktur. Unter einer sol-
chen Perspektive wäre allein die E-Struktur, nicht aber die I-Struktur
ein interessanter Forschungsgegenstand.
Unter einer schwächeren Version des Empirismus ließe sich zuge-
stehen, daß es in der Tat auch nicht-triviale kognitive Prinzipien/
Gesetzmäßigkeiten gibt. Diese würden die Modalitäten festlegen, unter
denen jeder beliebige Datenbereich im Gehirn des Menschen mental
repräsentiert wird. Derartige Prinzipien lassen sich als eine Funktion f
auffassen, die jeden Wissensgegenstand WE auf sein mentales Korrelat
f(WE)= W I abbildet. W I existiert dann zwar - aufgrund von f - in nicht-
trivialer Weise unabhängig von WE, die spezifische Form von W I , d.h.
das, was verschiedene W I voneinander unterscheidet, hängt jedoch ent-
scheidend von WE ab. Insofern ist auch in diesem Falle WE der determi-
nierende Faktor von W I .
Nun muß eine solche Funktion f schon aus rein logischen Gründen
existieren, d.h. es muß Wissensbereiche geben, in denen die I-Struktur in
einem strikten Abhängigkeitsverhältnis zur E-Struktur steht. Eine völli-
ge Unabhängigkeit der I-Struktur von der korrespondierenden E-Struk-
tur würde bedeuten, daß die I-Struktur als eigenständige Größe mate-
riell im Gehirn ausgezeichnet sein muß, d.h. sie existiert allein qua
mentale Repräsentation. Da es jedoch unbegrenzt viele Wissensberei-
che gibt, müßten bei einer völligen Unabhängigkeit aller I-Strukturen
ebenfalls unbegrenzt viele WI im Gehirn materiell vorgegeben sein.
Eine solche These kollidiert jedoch mit der trivialen Tatsache, daß das
Gehirn eben endlich und nicht unbegrenzt groß ist. Aus diesem Grun-
de muß es Wissensbereiche geben, deren mentale Repräsentationen
sich aus einer allgemeinen Adaptation an vorgegebene E-Strukturen
ergeben.
Demgegenüber scheint jedoch ebenso unzweifelhaft zu sein, daß es
auch I-Strukturen gibt, die völlig unabhängig von E-Strukturen sind,
und zwar deshalb, weil entsprechende E-Strukturen gar nicht existie-
ren. Dies mag etwa für den Bereich menschlicher Gefühle und Emp-
findungen gelten, also für Liebe, Haß, Glück, Freude, Trauer, Eifer-
sucht, etc. Sicher würde man nicht einer innerpsychisch determinier-
ten I-Liebe so etwas wie eine davon unabhängig existierende E-Liebe
gegenüberstellen wollen. Zumindest ist uns nicht bekannt, daß jemand
jemals so etwas behauptet hätte. Um eine Gegenposition zu vertreten,
könnte man bestenfalls im Sinne eines psychologischen Empirismus
derartige psychische Zustände auf Reiz-Reaktionsschemata zurück-
führen wollen bzw. grundsätzlich bestreiten, daß sich über derartige
Zustände sinnvolle Aussagen machen lassen.7
Ebenso wie es offenkundig I-Systeme gibt, die kein erkennbares
E-Korrelat besitzen, existieren jedoch auch I-Systeme, die zwar mit
einem E-System korrespondieren, jedoch von diesem strukturell völlig
unabhängig sind. Dies scheint z.B. für den logischen und mathemati-
schen Bereich zu gelten. So ist etwa die Multiplikation innerhalb der
Mathematik, also der E-Struktur, als allgemeingültige Operation über
zwei beliebige Zahlen definiert. Die mentale Repräsentation der Multi-
plikation, also die I-Struktur, ist jedoch vielfach völlig anderer Natur.
So haben wir etwa in der Schule das kleine Einmaleins gelernt, und es
ist anzunehmen, daß eine einfache Multiplikation wie 4 • 7 = 28
zumeist nicht über die Anwendung der allgemeinen mathematischen

7 Cf. Carnap (1928) und Wittgenstein (1967).


Operation durchgeführt wird, sondern daß das Ergebnis vielmehr aus
einer fest gespeicherten Liste von Multiplikationsergebnissen abgeru-
fen wird. Ebenso werden bei komplexeren Multiplikationen wie etwa
99 • 18 vielfach bestimmte Kombinationsstrategien verwendet, die von
der mathematisch definierten Multiplikationsoperation unabhängig
sind, z.B. 100 • 18 = 1800; 1800 - 18 = 1782. Unsere mentale Reprä-
sentation der Multiplikation enthält also ein Bündel von Wissenssyste-
men, zu dem u.a. das Einmaleins und bestimmte Kombinationsprinzi-
pien gehören. Die I-Struktur ist also in diesem Bereich kein Derivat
der E-Struktur, sondern wird durch eigenständige spezifische Prinzi-
pien und Gesetzmäßigkeiten geprägt.
Im Bereich der Logik gelang Johnson-Laird (1983) der Nachweis,
daß die internen mentalen Mechanismen des Schließens anders struk-
turiert sind als die externen Gesetzmäßigkeiten logischer Schlüsse. Die
E-Logik ist zunächst nichts anderes als eine Theorie des gültigen
Schließens, das auf unterschiedliche Weise als ein abstraktes Objekt
dargestellt werden kann, etwa durch ein System von Axiomen und
Schlußregeln, durch Venn-Diagramme oder durch modellsemantische
Konstrukte. Man hat lange Zeit angenommen8, daß der Mensch des-
halb gültig schließen kann, weil eben genau ein solches abstraktes
System logischer Schlüsse im Gehirn mental repräsentiert ist. Mit ande-
ren Worten, man glaubte, daß unsere mentalen Repräsentationen im
Bereich der Logik etwa die aristotelischen Syllogismen oder die Axio-
matisierungen von Kalish & Montague (1964) enthalten. Johnson-
Laird konnte nun zeigen, daß bestimmte Verhaltensweisen des Men-
schen mit einer solchen Annahme unvereinbar sind. Für den Menschen
sind manche Schlüsse leichter als andere; unter bestimmten Bedingun-
gen werden mögliche Schlüsse systematisch übersehen bzw. es treten

8 »There is a fundamental riddle to be resolved: how is it possible for people to


reason validly, that is, to draw a conclusion that must be true given that the pre-
mises are true? Psychologists have solved the riddle by postulating that there is
a logic in the mind. An extreme form of this idea of a mental logic is that reason-
ing is nothing more than the propositional calculus itself< (Inhelder & Piaget
1958:305). But some version of the doctrine appears to have been held by every
psychologist who has considered that human beings are capable of rational
thought« (Johnson-Laird 1983:24). Eine vergleichbare Auffassung vertreten
auch Autoren wie Osherson (1975), Braine (1978) oder Rips (1982). Allerdings
weist uns Peter Staudacher (persönliche Mitteilung) darauf hin, daß von Vertre-
tern der Formalen Logik kein Anspruch auf psychologische Realität oder Rele-
vanz erhoben wird.
regelmäßig Fehlschlüsse auf. Vor allem konnte Johnson-Laird die Kon-
textabhängigkeit menschlichen Schließens experimentell nachweisen:
Schlußfolgerungen werden um so leichter gefunden, je eher die invol-
vierten Sachverhalte sich in einem realistischen Modell darstellen las-
sen. All diese Befunde sind jedoch unvereinbar mit der Auffassung, for-
mal-logische Systeme seien direkt im Gehirn mental repräsentiert, da
derartige Systeme per definitionem neutral gegenüber inhaltlichen
Gegebenheiten sind.
Die Frage stellt sich nun, wie sich I-Struktur und E-Struktur im
sprachlichen Bereich zueinander verhalten. Nach eher traditioneller
Auffassung ist der Gegenstandsbereich der Linguistik die E-Struktur,
d.h. natürliche Sprachen werden als abstrakte Objekte angesehen,
deren Existenz unabhängig von ihrer mentalen Repräsentation im
menschlichen Gehirn ist. Die Aufgabe der Linguistik ist es demnach,
die diese abstrakten Objekte charakterisierenden strukturellen Gesetz-
mäßigkeiten zu beschreiben und zu spezifizieren. In jüngerer Zeit ist
diese Auffassung explizit von Katz (1981, 1984) vertreten worden, der
damit die Linguistik als einen Teilbereich der Mathematik und nicht
der Psychologie ansieht. Diese Auffassung liegt auch Arbeiten im
Bezugsrahmen der Montague-Grammatik zugrunde (cf. Thomason
1974a:1-3). Selbstverständlich wird nicht in Abrede gestellt, daß man
über die Beschäftigung mit Sprachen als abstrakten Objekten hinaus
auch nach deren mentaler Repräsentation im Gehirn fragen kann, doch
handelt es sich dabei sozusagen um eine zusätzliche Aufgabe, vergleich-
bar mit der eines Psychologen, der die mentale Repräsentation unseres
mathematischen Wissens untersucht.
Für die folgende Diskussion ist es sinnvoll, zunächst zwischen I-Spra-
che und I-Grammatik einerseits und E-Sprache und E-Grammatik ande-
rerseits zu unterscheiden. Diese Unterscheidung zwischen Sprache und
Grammatik soll nichts weiteres leisten als die Beziehung zwischen den
empirischen Daten und der Theorie über die diesen Daten zugrundelie-
genden Gesetzmäßigkeiten auszudrücken. I-Sprache ist demnach die
Menge aller Sätze, die ein >native speaker< als in seiner Sprache gramma-
tisch bzw. möglich klassifiziert, und die I-Grammatik ist jenes mental
repräsentierte System von Prinzipien und Regeln, aufgrund dessen der
Sprecher eben zu dieser Leistung fähig ist. Aus generativer Sicht ist das
eigentliche Forschungsobjekt der Linguistik (bzw. der Grammatik-
theorie) die I-Grammatik, d.h. das qua mentaler Repräsentation im
Gehirn real existierende Objekt, während die I-Sprache nichts anderes
ist als die empirische Datenbasis, die dem Linguisten den Zugriff auf
die I-Grammatik erlaubt, da ein direkter Zugang offensichtlich nicht
möglich ist. Somit ist die I-Sprache ein Derivat der I-Grammatik und
nicht etwa umgekehrt. Mit anderen Worten, ein gegebener Satz in einer
Sprache wird genau deshalb als grammatisch beurteilt, weil dieser Satz
den Prinzipien und Regeln der I-Grammatik folgt; die I-Grammatik
determiniert die Extension der I-Sprache, die folglich nicht unabhängig
von der I-Grammatik existieren kann. Demgegenüber ist aus traditio-
neller Perspektive die E-Sprache das eigentliche Forschungsobjekt der
Linguistik. Die E-Grammatik ist nichts anderes als eine Menge des-
kriptiver Aussagen über die E-Sprache, i.e. eine abstrakte Funktion, die
die Elemente der E-Sprache aufzählt. »The E-language is now under-
stood to be the real object of study. Grammar is a derivative notion; the
linguist is free to select the grammar one way or another as long as it
correctly identifies the E-language« (Chomsky 1984:30).
Versuchen wir unter dieser Perspektive den sprachlichen E-Bereich
näher zu spezifizieren, so ist zunächst klar, daß die E-Sprache eine
Menge tatsächlicher oder möglicher Sätze (bzw. Äußerungen oder
Sprechhandlungen) sein muß. Der entscheidende Unterschied zwi-
schen I-Sprache und E-Sprache ist nun, daß sich die I-Sprache aus der
Kompetenz des >native speaker< (i.e. der I-Grammatik) ergibt, während
die E-Sprache per definitionem unabhängig vom Menschen und seinen
Urteilen gegeben ist, ebenso wie etwa ein mathematisches Faktum
unabhängig davon existiert, ob und wie dieses Faktum im menschli-
chen Gehirn mental repräsentiert ist. Mit anderen Worten, E-Sprache
kann daher zunächst jede beliebige Menge von Sätzen (bzw. Äußerun-
gen etc.) sein, und zwar unabhängig davon, ob es für sie überhaupt eine
E-Grammatik gibt, also ein System von Regeln und Prinzipien, die
genau diese Sätze spezifizieren (cf. Maurer 1969).
Die Frage stellt sich nun, ob jede beliebige Menge von natürlich-
sprachlichen Sätzen für den Linguisten ein interessantes Forschungsob-
jekt darstellt oder nur bestimmte Mengen. Denkbar wäre etwa, eine
Menge real existierender Sätze, z.B. alle die in diesem Buch vorkom-
menden, im Sinne einer solchen E-Sprache zu betrachten. Zweifellos
existieren diese Sätze unabhängig davon, ob sie ein Sprecher über seine
I-Grammatik oder ein Computer mit Hilfe eines Zufallsgenerators
erzeugt hat. Dementsprechend ist es natürlich möglich, eine E-Gram-
matik zu formulieren, die genau diese E-Sprache, also die Sätze in die-
sem Buch, spezifiziert. Man könnte sich etwa vorstellen, daß eine sol-
che E-Grammatik im trivialsten Fall einfach aus einer Auflistung der
betreffenden Sätze besteht. Ebenso ließen sich beliebige Adäquatheits-
kriterien an diese Grammatik stellen, etwa bezüglich der Form und
Anzahl ihrer Regeln. Wenngleich dies eine logisch denkbare und prak-
tisch wohl auch durchführbare Möglichkeit ist, wäre ein solches Unter-
fangen aus linguistischer Sicht völlig unsinnig und uninteressant. Kein
Linguist würde ernsthaft auf die Idee kommen, eine solche E-Gramma-
tik zu schreiben.
Nun ist das Verfahren, bei der sprachlichen Analyse von einer festge-
legten Menge von Sätzen auszugehen, in der Linguistik eine etablierte
Vorgehensweise, die unter dem Terminus >Korpusanalyse< bekannt ist.
Vor allem in den 40er und 50er Jahren schwärmten Linguisten in abgele-
gene Sprachgebiete, sammelten ein Korpus von Sätzen bzw. Äußerun-
gen und versuchten, auf der Grundlage eines solchen Korpus eine Ana-
lyse der betreffenden Sprache auszuarbeiten. Doch auch hier schrieb
man nicht etwa eine Grammatik für das betreffende Korpus, also ein
System von Regeln, das genau die in dem Korpus auftretenden Sätze
spezifiziert; vielmehr diente das Korpus letztlich nur als heuristisches
Mittel, als grobe Orientierungshilfe. Ziel jeder linguistischen Analyse
ist es natürlich nicht, eine Grammatik für eine letztlich zufällig entstan-
dene Satzmenge zu schreiben, sondern eine Grammatik, die genau die in
einer natürlichen Sprache möglichen Sätze spezifiziert; ein Korpus wird
normalerweise als eine repräsentative Auswahl dieser möglichen Sätze
angesehen und kann daher als sinnvoller Ausgangspunkt, nicht jedoch
als Endziel dienen. Doch wie ist festgelegt, was in einer natürlichen
Sprache ein möglicher Satz ist? Offenkundig allein durch die I-Gram-
matik; denn das, was in diesem Sinne zur E-Sprache gehört und demzu-
folge letztlich von der E-Grammatik zu spezifizieren ist, ergibt sich allein
daraus, was ein >native speaker< als grammatischen Satz akzeptiert.
Durch diesen notwendigen Rekurs auf die I-Grammatik verlassen
wir jedoch den reinen E-Sprachenbereich, d.h. offensichtlich sind nur
solche E-Sprachen linguistisch interessant, die extensional identisch
mit einer I-Sprache sind, und zwar in dem Sinne, daß die E-Sprache
ein Derivat der I-Sprache ist. Linguistisch interessante E-Sprachen
existieren somit nur in Abhängigkeit von I-Grammatiken. Mit ande-
ren Worten, auch der an Korpusanalysen ausgerichtete Linguist
beschreibt eine Datenmenge, die sich nicht aus einem abstrakten
Objekt ergibt, sondern aus der mental repräsentierten sprachlichen
Kompetenz, i.e. der I-Grammatik.
Wenn nun nur solche E-sprachlichen Datenbereiche linguistisch
interessant sind, die mit dem I-sprachlichen Bereich identisch sind, so
ist klar, daß es eine I-Grammatik geben muß, die genau diesen Daten-
bereich spezifiziert. Diese I-Grammatik bildet das tatsächliche
System von Regeln und Prinzipien ab, das im menschlichen Gehirn
mental repräsentiert ist. Wenn der fragliche Datenbereich jedoch hin-
reichend durch eine I-Grammatik spezifizierbar ist, so stellt sich
natürlich die Frage, unter welchen Aspekten neben der I-Grammatik
auch eine E-Grammatik linguistisch interessant sein kann, da ja beide
den gleichen Phänomenbereich erfassen, wenngleich möglicherweise
in unterschiedlicher Form. Um diese Frage zu beantworten, ist
zunächst festzustellen, welche prinzipiellen Unterschiede zwischen
einer I-Grammatik und einer E-Grammatik bestehen (können). Da die
I-Grammatik eine kognitive Realität abbildet, während die E-Gramma-
tik ein rein abstraktes Objekt ist, unterliegt die I-Grammatik offenkun-
dig anderen Beschränkungen als die E-Grammatik. So kann die I-Gram-
matik zweifellos nur solche Mechanismen enthalten, die in einem endli-
chen Gehirn mental repräsentierbar sind. Diese mentalen Repräsenta-
tionen müssen darüber hinaus das Kriterium der Lernbarkeit erfüllen
(cf. Wexler & Culicover 1980), d.h. es muß prinzipiell erkennbar sein,
wie diese Repräsentationen unter den gegebenen Bedingungen des
Spracherwerbs vom Kind erlernt werden können (cf. Kap. 3 ) . Und letzt-
lich muß die I-Grammatik so beschaffen sein, daß sie in einen Sprach-
verarbeitungsmechanismus eingehen kann (cf. Bresnan 1978, 1982; Ber-
wick & Weinberg 1984). Mit anderen Worten, eine adäquate I-Gramma-
tik muß allen Kriterien genügen, die sich aus der Struktur der Kogni-
tion bzw. des Gehirns ergeben. Da die E-Grammatik hingegen ein rein
abstraktes Objekt ist, das per definitionem in keinerlei Beziehung zu
mentalen Repräsentationen stehen muß, ist klar, daß die genannten
Restriktionen für die E-Grammatik irrelevant sind; insbesondere
kann die E-Grammatik weitaus abstrakter sein als die I-Grammatik
(cf. Katz 1981, 1984). Allerdings ist umgekehrt denkbar, daß an eine
E-Grammatik Anforderungen gestellt werden, die wiederum für eine
I-Grammatik irrelevant sind, z.B. bestimmte Kriterien formaler Ele-
ganz, Übereinstimmung mit den mathematischen Eigenschaften
abstrakter Objekte, etc.
Den Unterschied zwischen den formalen Anforderungen, die an
I-Grammatiken und E-Grammatiken zu stellen sind, wollen wir am
Beispiel der Passivbildung illustrieren. Betrachten wir hierzu die bei-
den folgenden Sätze:

(14a) Fritz hat Maria ausgelacht


(14b) Maria wurde von Fritz ausgelacht
Offensichtlich besteht zwischen dem Aktivsatz (14a) und dem Passiv-
satz (14b) eine systematische Beziehung. Das Objekt Maria in (14a)
erscheint im Passivsatz (14b) als Subjekt, und das Subjekt des Aktivsat-
zes Fritz tritt im Passivsatz als Präpositionalphrase auf. Diese systema-
tische Beziehung manifestiert sich u.a. auch darin, daß ein Passivsatz
stets nur dann möglich ist, wenn es einen dazu analogen grammati-
schen Aktivsatz gibt, wie (15a) und (15b) zeigen:

(15a) *Fritz hat Maria gelacht


(15b) *Maria wurde von Fritz gelacht

Um die strukturelle Abhängigkeit zwischen diesen beiden Satztypen


auszudrücken, wird bereits in traditionellen Grammatiken zumeist
eine Passivregel angesetzt, die den Passivsatz aus dem entsprechenden
Aktivsatz ableitet, indem die grammatischen Funktionen - d.h. Sub-
jekt und Objekt - der Aktivkonstruktion entsprechend den passivi-
schen Verhältnissen umstrukturiert werden.
Wenngleich eine solche Regel intuitiv plausibel erscheint und den
meisten wohl auch aus dem Fremdsprachenunterricht bekannt ist, so
reicht sie dennoch nicht aus, um tatsächlich sämtliche möglichen Pas-
sivfälle zu erfassen. Während nämlich das Objekt des Aktivsatzes bei
der Passivbildung obligatorisch zum Subjekt werden muß, ist es mög-
lich, das Subjekt des Aktivsatzes bei der Passivierung fortfallen zu las-
sen. Ein derartig verkürzter Passivsatz kann nun offenkundig nicht
direkt aus einer entsprechenden Aktivstruktur abgeleitet sein, da es
eine solche überhaupt nicht gibt. Mit anderen Worten, (16b) kann nicht
das Ergebnis der Passivierung von (16a) sein, da ein Aktivsatz ohne
Subjekt ungrammatisch ist:

(16a) *hat Maria ausgelacht


(16b) Maria wurde ausgelacht

Aus diesem Grunde scheint es sinnvoll zu sein, (16b) aus (14b) abzulei-
ten, und zwar durch Anwendung einer sog. Tilgungsregel, die die Prä-
positionalphrase von Fritz löscht. Die Passivregel transformiert somit
(14a) in (14b) und die Tilgungsregel leitet daraus fakultativ (16b) ab.
Eine solche Behandlung des Passivs entspricht - von Details abgesehen
- weitgehend den in vielen Grammatiktheorien üblichen Beschrei-
bungsansätzen.
Unter E-grammatischen Gesichtspunkten ist gegen einen derarti-
gen Regelmechanismus zunächst nichts einzuwenden. Eine Gramma-
tik, die die oben skizzierte Passivregel wie auch die Tilgungsregel ent-
hält, ist imstande, die im Deutschen (und auch in anderen Sprachen)
möglichen Passivstrukturen korrekt zu spezifizieren. Aus formaler
Sicht erfüllt also eine solche Grammatik durchaus das Kriterium der
Beschreibungsadäquatheit. Es läßt sich jedoch zeigen, daß der darge-
stellte Regelapparat nicht Bestandteil der I-Grammatik sein kann, da
eine Tilgungsregel, die (16b) aus (14b) ableitet, zu prinzipiellen Schwie-
rigkeiten bei der Sprachverarbeitung führt.
Zunächst ist klar, daß der Hörer einer Äußerung in der Lage sein
muß, eventuell getilgte Elemente in einem Satz wieder rekonstruieren
zu können, da es sonst nicht möglich wäre, den Satz vollständig zu
interpretieren. Eine solche Rekonstruierbarkeit ist aber nur dann gege-
ben, wenn die Möglichkeit der Tilgung in sehr spezifischer Weise einge-
schränkt ist bzw. wenn aus der übrigen Satzstruktur klar erkennbar ist,
welche Elemente getilgt wurden. In der Tat zeigen Beispiele wie in (17)
und (18), daß Tilgungen spezifischen Restriktionen unterliegen:

(17a) Dagmar hat ein neues Auto gekauft und Egon auch
(17b) Dagmar hat ein neues Auto gekauft und Egon hat auch
ein neues Auto gekauft
(17c) Dagmar hat ein neues Auto gekauft und Egon hat auch
viel Geld ausgegeben
(18a) John finally left Boston, although he really didn't want to
(18b) John finally left Boston, although he really didn't want to
leave Boston
(18c) John finally left Boston, although he really didn't want to
find a job somewhere else

(17a) und (18a) können nur im Sinne von (17b) bzw. (18b) interpretiert
werden, nicht jedoch in der Bedeutung von (17c) bzw. (18c). Konkret:
es können in den genannten Beispielen nur die Elemente getilgt wer-
den, die zuvor im Satz bereits angesprochen wurden. Nur durch diese
Restriktion ist gewährleistet, daß ein Hörer Sätze wie (17a) und (18a)
überhaupt interpretieren kann. Wären Tilgungen völlig frei, so müßte
der Hörer eine im Prinzip unendlich große Zahl von Möglichkeiten
durchspielen, um die Intention des Sprechers zu erkennen. Damit
wären aber Sätze wie (17a) und (18a) überhaupt nicht, oder nur unter
großen Schwierigkeiten interpretierbar. In Wirklichkeit sind aber der-
artige Sätze für den Hörer völlig problemlos.
Betrachten wir nun wiederum den Passivsatz (16b), so wird deut-
lich, daß er keinerlei Hinweise darauf enthält, welche Präpositional-
phrase - wie in (14b) - getilgt worden sein könnte. Wenn die Tilgungs-
regel auf (14b) angewandt werden darf, so muß sie ebenfalls auf Sätze
wie (19a)-(19c) angewandt werden dürfen. In allen Fällen entsteht das
gleiche Resultat: (16b):

(19a) Maria wurde von Egon und seiner Mutter ausgelacht


(19b) Maria wurde von ihren Mitschülern ausgelacht
(19c) Maria wurde von dem Mann mit dem roten Hemd ausge-
lacht

Die Liste der Beispiele in (19) läßt sich beliebig fortsetzen. In der Tat
gibt es eine im Prinzip unendliche Anzahl von Sätzen, aus denen (16b)
per Tilgung abgeleitet sein könnte. Dies bedeutet aber, daß das oben
skizzierte Beschreibungsverfahren nur funktioniert, wenn freie Tilgung
der Präpositionalphrase wie in (14b) und in (19) zugelassen ist. Wie wir
jedoch anhand der Beispiele in (17) und (18) gezeigt haben, kann eine
solche freie Tilgungsregel aus I-grammatischer Perspektive nicht
akzeptiert werden, da die entsprechenden Strukturen vom Hörer nicht
mehr bzw. nur unter enormen zeitlichen Aufwand analysiert werden
könnten.
Dieses Beispiel verdeutlicht, daß eine Grammatik, die eine Passiv-
struktur wie (16b) über Tilgung aus (14b) ableitet, offenkundig nicht als
adäquate I-Grammatik angesehen werden kann, da sie das Kriterium
der Verarbeitbarkeit (und vermutlich auch der Lernbarkeit) verletzt.
Eine adäquate I-Grammatik (des Englischen oder des Deutschen) muß
die strukturellen Gegebenheiten der Passivbildung auf andere Weise
spezifizieren als durch die genannten Regeln. Andererseits ist klar, daß
eine E-Grammatik diesen Restriktionen nicht unterliegt und somit
ohne weiteres eine freie Tilgungsregel, die mit einer unendlichen Zahl
zugrundeliegender Strukturen arbeitet, enthalten kann. Eine E-Gram-
matik ist unter dieser Perspektive letztlich ein mathematisches Objekt,
das diesbezüglich keinen prinzipiellen Beschränkungen unterliegt (cf.
Katz 1984:37). Solange eine E-Grammatik die in einer Sprache mögli-
chen Sätze (und deren Struktur) korrekt spezifizieren kann, ist sie
unter rein deskriptivem Aspekt als adäquat anzusehen. Kriterien der
Lernbarkeit oder Verarbeitbarkeit sind hier irrelevant.
Somit stellt sich die Frage, unter welchen Bedingungen es sinnvoll
ist, neben einer I-Grammatik auch eine E-Grammatik zu schreiben.
Offensichtlich ist dies dann angezeigt, wenn natürliche Sprachen im
oben definierten Sinne interessante mathematische Objekte sind, d.h.
über Eigenschaften verfügen, die aus der Perspektive des Mathemati-
kers Einsichten in die allgemeine Struktur formal-abstrakter Objekte
liefern. Ob dies in der Tat der Fall ist, scheint bei unserem derzeitigen
Kenntnisstand noch weitgehend unklar zu sein. Natürlich ist unbe-
streitbar, daß sich natürliche Sprachen durchaus als mathematische
Objekte darstellen lassen; es ist jedoch keineswegs sicher, ob ein sol-
ches Unterfangen aus mathematischer Sicht lohnenswert ist.
So sehen etwa Gazdar et al. (1985) Linguistik als eine Teildisziplin
der Mathematik, und nicht etwa der Psychologie an. Im Gegensatz zu
der Auffassung von Chomsky versucht die von Gazdar entwickelte
Generalized Phrase Structure Grammar (GPSG), die Gesetzmäßigkeiten
natürlicher Sprachen nicht aus der Struktur der menschlichen Kogni-
tion, sondern aus mathematischen Prinzipien abzuleiten. Mit anderen
Worten, nach Gazdar et al. ergeben sich die universalen Eigenschaften
natürlicher Sprachen aus der Tatsache, daß natürliche Sprachen zu einer
ganz bestimmten mathematisch spezifizierbaren Klasse von abstrakten
Objekten gehören. Eine grundlegende empirische These der GPSG
besteht in der Aussage, daß für die Beschreibung der Strukturen natürli-
cher Sprachen nicht auf den Formalismus einer kontextsensitiven Gram-
matik zurückgegriffen werden muß, sondern daß diese Strukturen auch
durch eine kontextfreie Grammatik erfaßt werden können. Diese These
ergibt natürlich nur dann einen Sinn, wenn es unabhängige Gründe
dafür gibt, - ceteris paribus - eine kontextfreie Grammatik einer kon-
textsensitiven vorzuziehen, und man mag fragen, welcher Art diese
Gründe sind. Nach Auffassung der GPSG liegt der entscheidende
Grund in der Tatsache, daß über die mathematischen Eigenschaften
kontextfreier Grammatiken erheblich mehr bekannt ist als über die kon-
textsensitiver Grammatiken; insbesondere besitzen kontextfreie Spra-
chen Eigenschaften (cf. Hopcroft & Ullman 1979), die sie leichter pars-
bar und leichter lernbar erscheinen lassen. Wenn man sich also bei der
Beschreibung natürlicher Sprachen auf kontextfreie Grammatiken
beschränkt, so ergibt sich »the beginning of an explanation for the
obvious, but largely ignored, fact that humans process the sentences
they hear very rapidly« (Gazdar 1981:155). Hier zeigt sich jedoch, daß
die Beschränkung auf kontextfreie Beschreibungsformalismen durch
psychologische bzw. biologische Überlegungen motiviert wird, denn
Parsbarkeit und Lernbarkeit sind nur dann sinnvolle Adäquatheitskrite-
rien, wenn man Sprachen nicht allein im mathematischen Kontext be-
trachtet, sondern auf ein spezifisches kognitives Leistungsvermögen des
Menschen Bezug nimmt. Mit anderen Worten, es sind nicht rein mathe-
matische, sondern vor allem psychologische Gründe, die - sofern mög-
lich - für eine Bevorzugung kontextfreier Beschreibungen sprechen.
Wenn wir nun mit Gazdar et al. annehmen, daß natürliche Sprachen
in der Tat kontextfrei sind, so verlangt diese Tatsache selbst eine Erklä-
rung. Allgemeiner ausgedrückt: wenn natürliche Sprachen zu einer
bestimmten mathematischen Klasse von abstrakten Objekten gehören,
so stellt sich die Frage, warum dies so ist, d.h. warum natürliche Spra-
chen gerade zu dieser und keiner beliebig anderen Klasse gehören. Wie
immer die Antwort auf diese Frage im einzelnen lauten mag, sie kann
nicht aus mathematischen, sondern allein aus biologischen bzw. psy-
chologischen Überlegungen folgen. Die essentiellen, d.h. nicht-akzi-
dentellen Eigenschaften natürlicher Sprachen ergeben sich aus der
Struktur der menschlichen Kognition. Die Kriterien der Lernbarkeit,
Parsbarkeit und Repräsentierbarkeit zusammen mit der spezifischen,
biologisch vorgegebenen Struktur des »human mind« erfordern und
begründen die essentiellen formalen Eigenschaften natürlicher Spra-
chen. Der mathematische Formalismus liefert lediglich eine Beschrei-
bung sprachlicher Strukturen; allein der Rekurs auf psychologische
und biologische Fakten, nicht aber der mathematische Formalismus
bietet eine Erklärung für die Struktur natürlicher Sprachen. Mit ande-
ren Worten, es gibt keinen mathematischen Grund dafür, daß die Klasse
natürlicher Sprachen etwa durch das Subjazenzprinzip (cf. Band II,
Kap. 3 . 3 ) oder durch Bindungsprinzipien (cf. Band II, Kap. 2.4) einge-
schränkt ist. Offenkundig resultieren derartige Beschränkungen aus
der spezifischen Struktur der menschlichen Kognition und es ist denk-
bar, daß Organismen mit einer anderen mentalen Organisationsform
auch andere Typen von Sprachen erlernen und benutzen könnten.
Ebenso lassen sich etwa die Mendel<schen Vererbungsgesetze zwar
mathematisch beschreiben, jedoch wird man vergeblich in der Mathe-
matik nach einer Antwort auf die Frage suchen, warum die Vererbung
genau diesen und keinen anderen Gesetzmäßigkeiten folgt. Die Erklä-
rung liegt offensichtlich in der spezifischen Struktur der Gene. Lingu-
istik wie Biologie sind eben nicht mathematische, sondern empirische
Wissenschaften und mathematische Resultate sind für diese Wissen-
schaften nur in dem Maße relevant, wie sie zu spezifischen empirischen
Fakten in Beziehung gesetzt werden können.
Nun ließe sich natürlich vorstellen, daß die Klasse natürlicher Spra-
chen mit einer bestimmten mathematisch definierten Klasse von
abstrakten Objekten zusammenfällt. In diesem Falle wäre die mathe-
matische Charakterisierung wiederum nichts anderes als eine Beschrei-
bung, jedoch läge die Vermutung nahe, daß die entsprechenden mathe-
matischen Prinzipien eben in der Struktur der menschlichen Kognition
verankert wären, so daß sich daraus die Erklärung für die spezifischen
Eigenschaften natürlicher Sprachen ergäbe. Bislang ist jedoch noch nie-
mandem der Nachweis einer solchen Korrelation zwischen der Klasse
natürlicher Sprachen und einer mathematisch definierten Klasse von
abstrakten Objekten gelungen. Selbst wenn es zutrifft, daß alle natürli-
chen Sprachen kontextfrei sind, so sind offenkundig nicht alle kontext-
freien Sprachen auch mögliche natürliche Sprachen (cf. Berwick &
Weinberg 1984). So ist etwa die Sprache, die sich durch die Regel anbn
spezifizieren läßt9, zwar kontextfrei, aber offenkundig kein Kandidat
für eine natürliche Sprache. Mit anderen Worten, die Klasse der natür-
lichen Sprachen ist bestenfalls eine Untermenge der kontextfreien Spra-
chen; die Prinzipien, die diese Untermenge spezifizieren, sind jedoch
nicht aus der Kontextfreiheit ableitbar. Mit anderen Worten, es gibt kei-
nen erkennbaren mathematischen Grund, warum zwar das Deutsche
aber nicht die anbn-Sprache eine natürliche Sprache ist. Insofern geht
die mathematische Charakterisierung an dem grundlegenden Problem
völlig vorbei, nämlich, warum sehen natürliche Sprachen so aus, wie
sie aussehen. Darüber hinaus weisen Berwick & Weinberg (1984) dar-
auf hin, daß die »negativen« mathematischen Eigenschaften einer Klas-
se formaler Sprachen, wie schlechte Parsbarkeit oder Lernbarkeit, sich
stets auf den »worst case« beziehen. Da diese »worst cases« gleichzeitig
mathematische Eigenschaften haben10, die in natürlichen Sprachen
nicht auftreten, bleibt nach Berwick & Weinberg fraglich, inwieweit
diese mathematischen Resultate für linguistische Fragestellungen über-
haupt von Belang sind.
Die Vorstellung, Linguistik sei ein Teilbereich der Mathematik, ist
also eigentlich nur dann sinnvoll, wenn sich zeigen läßt, daß genau die
Klasse der natürlichen Sprachen ein mathematisch in sich konsistentes
und interessantes Objekt ist. Nur in diesem Fall lassen sich die Struk-
tureigenschaften natürlicher Sprachen plausiblerweise aus mathemati-
schen Prinzipien ableiten. Unseres Wissens steht ein solcher Nachweis
jedoch noch aus. Im Augenblick ist nur schwer erkennbar, inwieweit
derartig konzipierte E-Grammatiken linguistisch interessante Informa-
tionen liefern, die über das hinausgehen, was bereits durch die I-Gram-

9 In dieser Sprache, die nur die beiden Wörter a und b enthält, sind all diejenigen
Sätze grammatisch, in denen auf eine beliebige Zahl von a eine gleichgroße Zahl
von b folgt.
10 Hierzu gehören etwa formale Systeme, mit denen man das Entscheidungspro-
blem der Aussagenlogik lösen kann. Dies ist mit natürlichen Sprachen nachweis-
lich nicht möglich (cf. Berwick & Weinberg 1984).
matik ausgedrückt ist. Dies bedeutet natürlich nicht, daß mathemati-
sche Überlegungen bei der Erstellung von I-Grammatiken nicht von
erheblichem Wert sein können.11
In diesem Kontext haben vor allem Searle (1980) und Katz (1981)
darauf hingewiesen, daß auch mentalistisch orientierte Linguisten bei
der tatsächlichen Konzipierung von I-Grammatiken letztlich nicht
anders vorgehen als diejenigen, die Sprache als ein abstraktes und von
seiner mentalen Repräsentation unabhängiges Objekt ansehen. In bei-
den Fällen besteht das übliche Vorgehen darin, für eine bestimmte
Menge natürlich-sprachlicher Sätze eine optimale Grammatik zu
schreiben, wobei die Definition von >optimal< weitgehend formalen
Eleganz- und Konsistenzkriterien folgt (cf. hierzu Chomsky
1965:37-45). Es gibt nun keinerlei zwingende Gründe für die Annah-
me, daß eine in diesem Sinne optimale Grammatik auch tatsächlich die
in unserer Kognition verankerte ist. »It makes perfectly good sense to
ask whether the best theory we can devise about language is also a theo-
ry of psychological reality« (Katz 1981:70/71). Es ist denkbar, daß das
System mentaler Repräsentationen, das real im Gehirn existiert - etwa
durch evolutionären Zufall bedingt - Redundanzen oder Inkonsisten-
zen enthält. Mit anderen Worten, wir können nicht einfach annehmen,
daß die Evolution und die menschliche Biologie nach den gleichen Kri-
terien arbeiten wie der Linguist.

11 Natürlich ist nicht zu bestreiten, daß die Untersuchung der mathematischen


Eigenschaften realer Objekte auch für die empirischen Wissenschaften von
grundsätzlicher Bedeutung sein kann. So ist der vehemente Fortschritt der
modernen Physik sicher in erheblichem Maße auf die gleichzeitige Entwicklung
in der Mathematik zurückzuführen. Ebenso gewinnen mathematische Modelle
in der Biologie zunehmend an Bedeutung (cf. Dawkins 1979). In ähnlicher Weise
hat auch die mathematische Theorie der logisch denkbaren Sprachen Einsichten
geliefert, die für den an natürlichen Sprachen interessierten Linguisten von Inter-
esse sind. So kann etwa gezeigt werden, daß nur eine Teilklasse von Sprachen
durch Finite-State-Grammatiken erzeugt werden können und daß natürliche
Sprachen nicht zu dieser Klasse gehören. Vermutlich gehören natürliche Spra-
chen nicht einmal zur Klasse logisch denkbarer Sprachen, die allein mit Phrasen-
strukturgrammatiken erzeugbar sind (cf. Postal 1964; Huybregts 1976; Langen-
doen 1977; und Gazdar (1982) für eine Gegenposition). Auch die Theorie der
Lernbarkeit logisch denkbarer Sprachen hat wichtige Ergebnisse für die Lin-
guisten erbracht (cf. Gold 1967; Wexler & Culicover 1980). Demgegenüber ist
jedoch keineswegs erwiesen, daß natürliche Sprachen selbst interessante mathe-
matische Objekte wären, d.h. daß sie sich durch interessante mathematische
oder logische Eigenschaften von anderen logisch denkbaren Zeichensystemen
unterscheiden.
Der Grundgedanke von Searle und Katz läßt sich am Beispiel der
englischen Fragebildung illustrieren. Im Englischen werden wh-Fragen
üblicherweise dadurch gebildet, daß die zu erfragende Konstituente
durch ein wh-Wort ersetzt wird, das dann am Satzanfang erscheint. Aus
Gründen, die ausführlich in Band II, Kap. 3.2, erläutert werden, nimmt
man an, daß derartige Fragen über eine Regel gebildet werden, die das
wh-Wort von seiner ursprünglichen Konstituentenposition an den Satz-
anfang bewegt. Wir finden also zunächst Sätze wie in (20):

(20a) John will buy a car


(20b) what will John buy -?

Bereits zu Beginn der 60er Jahre erkannte man, daß die wh-Bewegungs-
regel in bestimmten Konstruktionen nicht angewandt werden darf bzw.
zu ungrammatischen Sätzen führt:

(21a) John met Mary and Tom


(21b) *who did John meet Mary and -
(22a) John believes the claim that Bill met Mary
(22b) *who does John believe the claim that Bill met -
(23a) for John to win the race will be easy
(23b) *what will for John to win - be easy

Ross (1967a) schlug zur Erklärung dieser Ungrammatikalitäten drei


Prinzipien vor, und zwar den Coordinate Structure Constraint für Struk-
turen wie (21b), den Complex NP Constraint für (22b) und den Senten-
tial Subject Constraint für (23b). Jedes dieser Prinzipien spezifiziert eine
bestimmte strukturelle Konfiguration, in der wh-Bewegungen nicht
erlaubt sind. Chomsky (1973) gelang es nun, die Ross'schen Constraints
(sowie einige weitere Daten) unter einem einzigen Prinzip zu vereini-
gen, und zwar dem sog. Subjazenzprinzip (cf. Band II, Kap. 3.3). Aus
der allgemein akzeptierten Perspektive der Grammatiktheorie war
Chomskys Analyse gegenüber Ross' Vorschlag ein Fortschritt, weil
sich nunmehr die gleiche Datenlage statt durch mehrere nur durch ein
einziges Prinzip erklären ließ. Nun ist jedoch keineswegs klar, warum
die Perspektive der Grammatiktheoretiker auch die Perspektive der
Natur sein muß. Es ist eben denkbar, daß die biologische I-Grammatik
- aus welchen Gründen auch immer - tatsächlich mit den Ross'schen
Prinzipien und nicht mit der Subjazenz arbeitet. In diesem Falle wäre
das tatsächliche System mentaler Repräsentationen zwar weniger ele-
gant und ökonomisch, aber es mag sein, daß die Biologie eben so
beschaffen ist. Aus diesen Überlegungen heraus vertreten Searle und
Katz die Auffassung, daß Linguisten, selbst wenn sie als Zielsetzung
die I-Grammatik angeben, letztlich nur abstrakte Objekte spezifizie-
ren, deren biologische Realität fraglich bzw. unentscheidbar ist.
Den Einwand von Searle und Katz kann man unter zwei Gesichts-
punkten betrachten. Zunächst ist natürlich immer vorstellbar, daß für
eine bestimmte Menge empirischer Daten zwei (oder auch mehr) glei-
chermaßen adäquate Lösungen existieren. Dies bedeutet allerdings
lediglich, daß auf der Grundlage dieser Daten nicht entscheidbar ist,
welche dieser Lösungen im Sinne der tatsächlichen mentalen Repräsen-
tation die richtige ist. In einer solchen Situation ist es angezeigt, nach
weiteren Daten und Evidenzen Ausschau zu halten, die für eine Ent-
scheidung zwischen den verschiedenen Lösungen relevant sind. Dies
ist die normale wissenschaftliche Praxis. Unter diesem Gesichtspunkt
ist der Einwand von Searle und Katz nicht prinzipieller Natur, sondern
spiegelt nur die triviale - weil allerseits bekannte - Tatsache wider, daß
unser derzeitiger Erkenntnisstand noch sehr lückenhaft ist und durch
weitere Forschung vertieft werden muß. Man kann den Einwand aller-
dings auch als einen prinzipiellen Einwand verstehen. Selbst wenn wir
oder künftige Generationen alle denkbare und verfügbare empirische
Evidenz zusammengetragen und analysiert hätten, so bestünde den-
noch die Möglichkeit, daß mehrere Lösungen mit den Daten kompati-
bel sind und wir daher nicht entscheiden können, wie die mentale
Repräsentation unseres grammatischen Wissens tatsächlich organisiert
ist. In dieser Lesart besagt der Einwand letztlich nichts anderes, als daß
die uns interessierende Frage aus prinzipiellen Gründen empirisch
nicht entscheidbar ist, d.h. daß es Bereiche geben mag, die in letzter
Konsequenz der menschlichen Erkenntnisfähigkeit entzogen sind.
Unter diesem Aspekt ist der Einwand zwar zutreffend, aber im Grunde
uninteressant, weil aus ihm nichts folgt außer der Einsicht, daß der
Mensch - und daran zweifeln nur wenige - nicht alles erkennen kann,
was er erkennen möchte. Aus dem Einwand folgt insbesondere nicht,
daß man die wissenschaftliche Erkenntnisfähigkeit nicht so weit wie
möglich ausschöpfen sollte. Dies wäre nämlich offenkundig eine Bank-
rotterklärung jeglichen wissenschaftlichen Bemühens. Im Grunde ist
die prinzipielle Lesart des Einwandes auch deshalb nicht ernstzuneh-
men, weil die Begrenztheit wissenschaftlicher Erkenntnismöglichkeit
natürlich nicht auf die Linguistik beschränkt ist, sondern für alle Wis-
senschaften gilt. Dies zeigt sich auch in trivialen Bereichen. Wenn etwa
ein Physiker eine Theorie über die Beschaffenheit des Kerns der Sonne
aufstellt, so gibt es aus prinzipiellen Gründen (er kann nämlich nicht
vor Ort nachschauen) keine Möglichkeit festzustellen, ob seine Aussa-
ge auch tatsächlich zutreffend ist. Doch diese Einsicht hindert den Phy-
siker nicht daran, weiterhin Physik zu betreiben; somit sollte auch der
Einwand von Searle und Katz den Linguisten nicht daran hindern, über
I-Grammatiken so viele Erkenntnisse wie möglich zu sammeln,
obwohl vielleicht eben doch nicht alles möglich ist.
Hinter Katz' und Searles Einwand steckt natürlich letztlich die Vor-
stellung, die optimale Beschreibung einer Sprache - etwa des Engli-
schen - sei prinzipiell gleichwertig mit oder sogar höherwertig als die
nicht-optimale, aber psychologisch reale Beschreibung dieser Sprache.
Bei diesem Einwand wird jedoch der entscheidende Unterschied zwi-
schen deskriptiven und explanatorischen Theorien übersehen. Eine
deskriptive Theorie zielt allein auf die präzise Spezifizierung eines Phä-
nomenbereichs ab; sie ist daher genau dann korrekt, wenn ihre
Beschreibungen mit dem jeweiligen Datenbereich exakt übereinstim-
men bzw. diesen exakt wiedergeben. Unter diesem deskriptiven Aspekt
sind alle verschiedenen Grammatiken einer Sprache gleichermaßen kor-
rekt, sofern sie die Daten in zutreffender Weise charakterisieren. Man
kann sich nun die Frage stellen, welche dieser verschiedenen, aber glei-
chermaßen korrekten Beschreibungen »gut« oder »optimal« ist. Offen-
sichtlich hängt dies vom jeweiligen Beschreibungszweck ab. Eine opti-
male Beschreibung des Englischen zum Zwecke des Fremdsprachenun-
terrichts wird vermutlich anders aussehen als eine Beschreibung, die als
Grundlage für eine Computerimplementierung dienen soll. Im ersten
Falle mag leichte allgemeine Verständlichkeit, im zweiten Fall formale
Nähe zu Prolog oder Lisp das entscheidende Kriterium sein.
Wenngleich es durchaus sinnvoll sein kann, Linguistik in diesem
Sinne als eine beschreibende Wissenschaft zu betreiben, so sind doch
die Kriterien optimal und korrekt identisch, sobald es nicht um Des-
kription, sondern um explanatorische Theorien geht. Fragen wir etwa,
warum der Satz wen widersprach Hans der Behauptung, daß Fritz ver-
führt hat als Frage zu Hans widersprach der Behauptung, daß Fritz Maria
verführt hat ungrammatisch ist, so mag man zunächst darauf hinwei-
sen, daß Fragebildungen aus komplexen Nominalphrasen generell
nicht erlaubt sind. Man mag weiterhin fragen, warum dies der Fall ist,
und nach der Analyse weiterer Datenbereiche als umfassendere Gene-
ralisierung für dieses und andere Phänomene auf das Subjazenzprinzip
hinweisen. Doch irgendwann wird der Rekurs auf das menschliche
Kognitionssystem unausweichlich. Warum natürliche Sprachen dem
Subjazenzprinzip unterliegen, läßt sich nicht aus allgemeinen Eigen-
schaften abstrakter Objekte ableiten; vielmehr unterliegen natürliche
Sprachen dem Subjazenzprinzip, weil spezifische Struktureigenschaf-
ten der menschlichen Kognition dies erfordern und weil nur die Exi-
stenz solcher kognitiv verankerten Prinzipien Lernbarkeit unter den
real gegebenen Bedingungen des kindlichen Aufwachsens garantieren
(cf. Kap. 3 ) . In einer erklärenden Wissenschaft ist die optimale
Beschreibung weder die ästhetisch einfachste noch die mathematisch
eleganteste, sondern diejenige, die die tatsächlichen - und nicht allein
theoretisch denkbaren - Ursachen für ein Faktum angibt und somit
eine Erklärung der Zusammenhänge liefert. Hierin liegt der zentrale
Unterschied zwischen Mathematik und Linguistik. Während sowohl
in der Mathematik als auch in der Linguistik einzelne Fakten wie all-
gemeingültige Gesetzmäßigkeiten über die Ableitung aus zugrundelie-
genden Prinzipien bzw. Axiomen erklärt werden, sind die Axiome in
der Mathematik innerhalb der Grenzen von Konsistenz und Wider-
spruchsfreiheit prinzipiell beliebig wählbar; in der Linguistik hinge-
gen unterliegen die Prinzipien der empirischen Überprüfung und
Rechtfertigung.
Der Begriff der E-Grammatik ließe sich nun allerdings auch in einer
etwas anderen Form konzipieren, und zwar als System von sozialen
Normen und Konventionen, auf die sich eine Sprachgemeinschaft geei-
nigt hat. Diese Vorstellung von Sprache als sozialem Normensystem
hat in der Linguistik und Philosophie eine lange Tradition und ist in
jüngerer Zeit explizit von Lewis (1969) vertreten worden. Das Interes-
sante an Lewis' Konventionsbegriff ist, daß er - im Gegensatz zu frü-
heren Ansätzen - auch solche Konventionen einschließt, die eine
Gemeinschaft nicht bewußt verabredet hat, sondern die vielmehr
durch einen sog. »invisible hand process« quasi wie von selbst entste-
hen. Dementsprechend müssen die Individuen der Gemeinschaft der-
artige Konventionen und Normen auch nicht explizieren können.
Durch diesen erweiterten Konventionsbegriff gelingt es Lewis erst,
gerade die für die natürliche Sprachfähigkeit typischen Merkmale
einem auf soziale Normen abzielenden Erklärungsansatz zuzuführen.
Somit scheint es zunächst in der Tat plausibel zu sein, Sprache als ein
System solcher Konventionen anzusehen und (E-)Grammatik als eine
explizite Formulierung dieses Systems aufzufassen.
Bei einem solchen Ansatz stellt sich zunächst die Frage, worin denn
die sprachbezogenen Konventionen konkret bestehen. Einerseits sind
hier sicherlich solch relativ triviale Phänomene zu nennen wie die Tat-
sache, daß man sich in Bayern üblicherweise mit Grüß Gott, in den mei-
sten anderen Teilen Deutschlands jedoch mit Guten Tag begrüßt.
Sprachliche Konventionen erstrecken sich also zunächst darauf, Sätze
situations- und kontextadäquat zu verwenden. In diesem Bereich lassen
sich zweifellos eine Fülle von Beispielen finden, bei denen der Begriff
der Konvention zunächst eine intuitiv plausible Erklärung liefert. Als
Alternative zum mentalistischen Erklärungsansatz der generativen
Grammatik ist der Begriff der Konvention jedoch nur dann tauglich,
wenn er den gleichen zur Erklärung anstehenden Phänomenbereich
abdeckt. Dies bedeutet aber, daß die Konvention über die situations-
adäquate Verwendung von Sprache hinaus auch die Tatsache mit ein-
schließen muß, daß Sprecher einer Gemeinschaft stets nur die in der
betreffenden Sprache möglichen Sätze überhaupt verwenden. Mit ande-
ren Worten, die Konvention muß nicht nur spezifizieren, welcher Satz
bzw. welche Äußerung in welcher Situation angemessen ist, sondern
sie muß auch angeben, was in einer Sprache überhaupt ein möglicher
Satz ist. Konkret: die Konvention muß u.a. die Klasse der in einer Spra-
che möglichen Sätze festlegen. Bereits in Kap. 1.2 hatten wir jedoch
gezeigt, daß diese Klasse prinzipiell unbegrenzt groß ist, so daß nicht
etwa einzelne Sätze bzw. eine Liste von Sätzen Gegenstand der Kon-
vention sein können, sondern nur ein diesen Sätzen zugrundeliegendes
endliches Regelsystem. Würde sich die Konvention auf Sätze beziehen,
so wäre sie selbst unendlich und könnte somit in endlicher Zeit weder
spezifiziert noch durch den einzelnen Sprecher überprüft werden.
Diese Beobachtung drückt die vielfach von Philosophen wie auch Lin-
guisten übersehene Tatsache aus, daß die Sätze einer natürlichen Spra-
che aufgrund der Unendlichkeitsproblematik allein durch das sie spezi-
fizierende Regelsystem, sprich: die Grammatik, existieren. Ohne
Rekurs auf den Begriff der Grammatik ist es schlichtweg nicht möglich,
etwas Sinnvolles darüber auszusagen, was in einer Sprache ein mögli-
cher Satz ist. Dies bedeutet aber, daß der Gegenstand der Konvention
letztendlich eine Grammatik sein muß, und nicht etwa eine Sprache im
Sinne einer spezifischen Satzmenge (cf. auch Chomsky 1980:85)12.
Wenn nun der Gegenstand der Konvention aufgrund der oben darge-
stellten Überlegungen eine Grammatik sein muß, so stellt sich die
Frage, welcher Natur diese Grammatik ist. Einerseits wäre nun denk-

12 Hierbei ist zu beachten, daß es Lewis selbst nicht um eine Erklärung grammati-
scher Fähigkeiten geht, sondern allein um den wahrheitsgemäßen Gebrauch von
Äußerungen. Insofern betrifft die nachfolgende Diskussion nur in bedingtem
Maße die speziell von Lewis explizierte Position.
bar, daß sich die Konvention schlicht und einfach darin manifestiert, daß
alle Sprecher einer Gemeinschaft - also etwa alle Sprecher des Deut-
schen - über eine mental repräsentierte Grammatik, d.h. eine I-Gram-
matik, verfügen, die in den zentralen Bereichen für alle Individuen
gleich ist und daher die sprachliche Kommunikation miteinander
ermöglicht. Die Konvention bestünde also in dem Besitz der gleichen
I-Grammatik und genau dieser gemeinsame Besitz wäre das entschei-
dende Merkmal, das die Sprecher der gleichen Sprachgemeinschaft aus-
zeichnet und sie von den Sprechern anderer Gemeinschaften - etwa
den Sprechern des Englischen - unterscheidet. Unter dieser Perspekti-
ve ist die Konvention jedoch vollständig auf die I-Grammatik reduzier-
bar; d.h. eine vollständige und adäquate Spezifizierung der I-Gramma-
tik ist gleichzeitig eine vollständige und adäquate Charakterisierung
der Konvention. Durch den Rekurs auf den Begriff der Konvention
wird also nichts erklärt, was über die Spezifizierung der I-Grammatik
hinausgeht. Der Begriff der Konvention ist somit völlig überflüssig und
würde bestenfalls das triviale Faktum benennen, daß das, was die Spre-
cher des Deutschen im hier relevanten Bereich auszeichnet, eben der
Umstand ist, Sprecher des Deutschen zu sein.
Abgesehen von diesen Überlegungen führt die Vorstellung, die Kon-
vention bestünde im gemeinsamen Besitz einer bestimmten I-Gramma-
tik, auch zu vielfältigen konzeptuellen Unverträglichkeiten. I-Gram-
matiken spezifizieren das grammatische Wissen eines Sprechers und
charakterisieren somit einen bestimmten mentalen Zustand. Nach
Lewis beziehen sich Konventionen jedoch stets auf Handlungen und
das grammatisches Wissen eines Sprechers kann wohl kaum selbst als
Handlung bezeichnet werden, sondern nur als die den sprachlichen
Handlungen zugrundeliegende Kompetenz. Zweifellos ist es auch
wenig sinnvoll, den Konventionsbegriff dahingehend zu erweitern, daß
auch mentale Zustände - also Wissen - eingeschlossen sind. Zumin-
dest scheint es uns eher ungewöhnlich bzw. kontraintuitiv zu sein,
wenn man behaupten wollte, daß etwa zwischen Schachspielern die
Konvention besteht, die Regeln des Schachspiels zu kennen (cf. Kap.
1.3). Bei einer derartigen Ausweitung wäre der Begriff der Konvention
eher geeignet, Sachverhalte und deren Zusammenhänge zu verschleiern
anstatt sie zu erklären. Darüber hinaus kann in einem intuitiven Sinne
von Konvention nur dann sinnvollerweise gesprochen werden, wenn zu
einer konventionalisierten Handlung prinzipiell Alternativen gegeben
sind, die ein Individuum bzw. eine Gemeinschaft ebensogut wählen
könnte, faktisch aber nicht wählt. Was das Wesen einer Kon-
vention auszumachen scheint, ist gerade der Umstand, daß sich eine
Gruppe von Individuen auf eine von verschiedenen prinzipiell ebenso
möglichen Handlungsweisen einigt, weil eine solche Einigung etwa für
das Funktionieren der Gemeinschaft vernünftig oder von Vorteil ist.
Der Begriff der Konvention scheint also stets die prinzipielle Möglich-
keit zu implizieren, die Konvention zu verletzen. So besteht etwa in
Deutschland die Konvention, im Straßenverkehr rechts zu fahren, wäh-
rend man in England oder Japan links fährt. Eine solche Konvention
besteht, weil die entsprechende Regelung für das Funktionieren eines
reibungslosen Straßenverkehrs förderlich ist. Zu dieser konventionali-
sierten Handlung gibt es natürlich sowohl für die Gemeinschaft als
auch für das Individuum prinzipiell verschiedene realisierbare Alterna-
tiven. Man könnte etwa - wiederum per Konvention - beschließen,
zukünftig in Deutschland links zu fahren oder auch jegliche Regelung
aufzuheben. Ebenso kann offenkundig jedes Individuum alternative
Handlungsweisen wählen und damit gegen die Konvention verstoßen.
Nur weil zu einer Konvention für jeden realisierbare Alternativen exi-
stieren, werden Konventionsverstöße vielfach durch die Gemeinschaft
- etwa in Form der Strafjustiz - geahndet. Demgegenüber würde man
sicher das Schließen der Augen beim Niesen nicht als Konvention
bezeichnen wollen. Man schließt die Augen beim Niesen nicht auf-
grund einer Konvention, sondern weil hier ein biologisch determinier-
ter Reflex abläuft. Selbst in Situationen, in denen diese Handlung
unvernünftig ist - etwa beim Fahren auf der Autobahn mit hoher
Geschwindigkeit - kann sie nicht vermieden werden. Und genau weil
es zu dieser Handlung keine realisierbare Alternative gibt, käme keine
Gemeinschaft auf den Gedanken, das Schließen oder Nicht-Schließen
der Augen beim Niesen unter Strafe zu stellen oder auf andere Weise
zu ahnden.
Unter diesem Aspekt ist es nun jedoch äußerst fraglich, ob man in
der Tat Spracherwerb und Sprachverwendung als Konvention bezeich-
nen kann. Kindern lernen ihre Muttersprache nicht, weil dies aufgrund
irgendeiner Konvention festgelegt ist, um ansonsten potentiell realisier-
bare Alternativen auszuschließen. Kinder haben gar keine andere Wahl.
Sie können weder den Spracherwerb insgesamt verweigern noch etwa
sich auf den Erwerb bestimmter sprachlicher Teilbereiche beschränken
(cf. Felix 1987). Wenn Kinder in der Tat ihre Muttersprache nicht oder
nur teilweise erwerben, so liegt dies an biologisch determinierten
Pathologien und nicht an der Weigerung, sich einer Konvention zu
unterwerfen. Dies gilt gerade auch in Situationen, in denen dem Kind
scheinbar Alternativen zur Verfügung stehen. Kinder, die in mehrspra-
chigen Umgebungen aufwachsen oder deren Eltern unterschiedliche
Sprachen verwenden, haben zwar logisch, aber eben nicht faktisch eine
Wahlmöglichkeit. Sie können nicht entscheiden, ob sie beide oder nur
eine der Sprachen erlernen wollen. Kinder lernen in derartigen Situatio-
nen stets beide der angebotenen Sprachen. Wie wir in Kap. 5.4 noch
ausführlich zeigen werden, ist der Spracherwerb ein Prozeß, der aus
biologischer Notwendigkeit abläuft und dem sich das Kind nicht ent-
ziehen kann. Auch im Bereich der Sprachverwendung scheint der
Begriff der Konvention im hier diskutierten Sinne kaum eine vernünfti-
ge Interpretation zuzulassen. Wenn Deutsche Deutsch oder Franzosen
Französisch sprechen, so ist dies sicher keine Konvention, die eine
unter verschiedenen alternativen Handlungsmöglichkeiten auszeich-
net. Jeder lernt und verwendet notwendigerweise die Sprache seiner
Umgebung; die Frage von Konvention und potentiellen Alternativen
stellt sich hier gar nicht. Ebensowenig würde man sagen wollen, daß
zwischen den Menschen die Konvention besteht, sich regelmäßig zu
ernähren. Auch in diesem Bereich folgt der Mensch biologischen, nicht
sozialen Notwendigkeiten.
Es wäre nun - im Gegensatz zu der oben skizzierten Vorstellung -
denkbar, daß die Konvention nicht im gemeinsamen Besitz einer I-Gram-
matik besteht, sondern daß es unabhängig von der (mental repräsentier-
ten) I-Grammatik eine weitere (deskriptiv adäquate) Grammatik gibt,
die eben nicht die Kriterien der Repräsentierbarkeit, Lernbarkeit, etc.
erfüllen muß. Dies wäre sozusagen der »klassische« Fall einer E-Gram-
matik, deren Existenz zunächst nichts mit der Struktur der menschli-
chen Kognition oder dem grammatischen Wissen eines Sprechers zu
tun hat. Hier stellt sich nun vor allem die Frage, unter welchem Aspekt
die Charkaterisierung dieser E-Grammatik interessant sein könnte. In
dem hier diskutierten Kontext könnte man sich nun vorstellen, daß
eben diese E-Grammatik Gegenstand der Konvention ist, und zwar im
Sinne einer Überprüfungsinstanz, an der sich der individuelle Sprecher
ausrichten kann. Mit anderen Worten, die in der E-Grammatik kodifi-
zierte Konvention bietet dem einzelnen Sprecher die Möglichkeit fest-
zustellen, ob die von seiner I-Grammatik spezifizierten Sätze (und
deren Strukturen) übereinstimmen mit denen, die auch andere Spre-
cher der Gemeinschaft als mögliche Sätze der betreffenden Sprache
ansehen. Die Aussage, Sprachverwendung sei Konvention, wäre
dementsprechend so zu verstehen, daß der einzelne Sprecher - wenn-
gleich unbewußt - die durch seine I-Grammatik erzeugten Sätze auf
Übereinstimmung mit der Konvention, i.e. der durch die E-Gramma-
tik spezifizierten Sätze, überprüfen kann.
Die Vorstellung, Gegenstand der Konvention sei eine E-Gramma-
tik, die als Überprüfungsinstanz dient, impliziert nun zumindest, daß
der Sprecher die E-Grammatik kennt, da er sonst nicht feststellen
kann, ob ein gegebener Satz (aus der unendlichen Menge möglicher
Sätze), den seine I-Grammatik erzeugt, ebenfalls von der E-Gramma-
tik erzeugt wird. Dies bedeutet aber, daß die E-Grammatik mental
repräsentierbar sein muß. Darüber hinaus muß die E-Grammatik aber
auch offensichtlich das Kriterium der Verarbeitbarkeit (Parsbarkeit)
erfüllen, denn nur dadurch ist gewährleistet, daß der Sprecher (in end-
licher Zeit) feststellen kann, ob ein gegebener Satz von der E-Gram-
matik erzeugt wird.
Somit reduziert sich der Vergleich zwischen der I-Grammatik und
der E-Grammatik auf das Kriterium der Lernbarkeit. Nun kann ein
Sprecher die E-Grammatik nur dann kennen, wenn er sie auf irgendei-
ne Art und Weise gelernt hat, da die E-Grammatik offenkundig nicht
angeboren ist. Allerdings ist »Lernen« hier nicht notwendigerweise im
engen Sinne des natürlichen Spracherwerbs zu verstehen. Es wäre denk-
bar, daß die E-Grammatik explizit gelehrt wird. Doch diese Möglich-
keit scheidet aus offenkundigen Gründen aus, denn die E-Grammatik
könnte nur dann gelehrt werden, wenn sie irgendwo in explizit kodifi-
zierter Form vorliegt. Uns ist nicht bekannt, daß dies für irgendeine
natürliche Sprache zutrifft. Für die meisten Sprachen liegen nicht ein-
mal halbwegs deskriptiv-adäquate Grammatiken für die wichtigsten
grammatischen Teilbereiche vor; ein Umstand, der letztlich den Berufs-
stand der Linguisten rechtfertigt.
Da die E-Grammatik also nicht gelehrt werden kann, muß sie -
genau wie die I-Grammatik - unter den Bedingungen des natürlichen
Spracherwerbs erworben werden. Nun ist aber eine E-Grammatik per
definitionem eine Grammatik, für die das Kriterium der Lernbarkeit -
im Sinne des natürlichen Spracherwerbs (cf. Kap. 3) - gerade nicht gilt.
Mit anderen Worten, eine E-Grammatik muß allein das Kriterium der
deskriptiven Adäquatheit erfüllen; Faktoren wie Lernbarkeit oder
Repräsentierbarkeit spielen keinerlei Rolle. Wären diese Faktoren bei
der Charakterisierung einer E-Grammatik zu berücksichtigen, würden
letztlich wiederum psychologische bzw. biologische Überlegungen als
Adäquatheitskriterium heranzuziehen sein: die E-Grammatik wäre
damit eine potentielle I-Grammatik. Wenn also der Gegenstand der
Konvention eine tatsächliche E-Grammatik sein soll, so könnte kein
Sprecher einer Gemeinschaft jemals in Erfahrung bringen, worin denn
die Konvention besteht. Eine Konvention, die jedoch niemand kennt
und demnach auch von niemandem befolgt oder verletzt werden kann,
verdient kaum diesen Namen.
Würden wir nun der Grammatik, die den Gegenstand der Konven-
tion ausmacht, das Kriterium der Lernbarkeit auferlegen (und ihr
somit den Status einer I-Grammatik zusprechen), so läßt sich die Vor-
stellung einer allen Sprechern gemeinsamen Überprüfungsinstanz nur
unter einer äußerst bizarren Gedankenkonstruktion aufrechterhalten.
Dies würde nämlich bedeuten, daß jeweils zwei I-Grammatiken von
jedem Kind erworben und von jedem Sprecher mental repräsentiert
werden. Eine dieser I-Grammatiken kann von Individuum zu Indivi-
duum verschieden sein, die andere hingegen ist bei allen Sprechern
einer Gemeinschaft gleich. Sprachliches Wissen bedeutet dann u.a., daß
der Sprecher bei der Sprachverwendung kontinuierlich überprüft, ob
die von den beiden Grammatiken spezifizierten Satzmengen identisch
sind, und nur solche Sätze verwendet, für die diese Identität zutrifft.
Wenngleich eine solche Möglichkeit a priori nicht auszuschließen ist, so
scheint uns jedoch die Verfolgung dieser Perspektive beim derzeitigen
Stand der Linguistik kein unaufschiebbares Forschungsdesiderat zu
sein, zumal bislang keinerlei Evidenz für die Richtigkeit dieser Vorstel-
lung vorliegt.
Autonomie der Syntax

2.1 Zum Begriff der Autonomie

Im vorangegangenen Kapitel haben wir zu zeigen versucht, warum es


sinnvoll ist, die mentalen Repräsentationen unseres sprachlichen Wis-
sens als zentralen Gegenstandsbereich der Linguistik zu betrachten.
Unter einer solchen Forschungsperspektive ist nun zunächst konkret
zu fragen, wie dieses System mentaler Repräsentationen qualitativ zu
charakterisieren ist, d.h. welche Bereiche in welcher Form repräsentiert
sind und wie eventuell verschiedene Komponenten miteinander inter-
agieren. Mit anderen Worten, wie »sieht« das System konkret aus? Eine
solche qualitative Charakterisierung ist dann in einer entsprechenden
Theorie exakt in Form eines Regel- bzw. Repräsentationssystems aus-
zubuchstabieren. Während wir die in den vergangenen Jahren von einer
Vielzahl von Linguisten ausgearbeiteten spezifischen Vorschläge für die
konkrete Ausgestaltung des Regel- und Repräsentationssystems in
Band II dieser Einführung ausführlich darstellen werden, wollen wir
uns hier zunächst der allgemeinen qualitativen Charakterisierung
zuwenden.
Traditionell hat man den Gegenstandsbereich der Linguistik in die
Teilbereiche Phonetik/Phonologie, Morphologie/Wortbildung, Syntax
und Semantik eingeteilt. Diese Einteilung ist keineswegs willkürlich,
sondern geht auf die vor allem in den 40er Jahren von amerikanischen
Strukturalisten aufgestellte These zurück, daß sich die Teilbereiche
jeweils durch ein eigenständiges System von Beschreibungskategorien
erfassen lassen1. In jüngerer Zeit sind vor allem Pragmatik, Stilistik,

1 Der strukturalistische Deskriptivismus ging von der These der >separation of


levels< aus (cf. Bolinger 1968), d.h. jede Strukturebene (Phonologie, Morpholo-
gie, Syntax, Semantik) kann als ein in sich geschlossenes und unabhängiges
System beschrieben werden, wobei die einzelnen Systeme hierarchisch geordnet
sind. »Language was split into levels, each higher level depending on the one
below. Until the lower floors were put in order, the upper ones were not to be
entered. The result was that in their theoretical work the structuralists gave great
attention to phonology, a fair amount to morphology, very little to syntax, and
practically none to meaning« (Bolinger 1968:518).
Sprachproduktion und Sprachperzeption als weitere linguistische Teil-
disziplinen hinzugekommen. Diese Einteilung impliziert nun zunächst
keinerlei Aussage über die Struktur sprachbezogener mentaler Reprä-
sentationen; die traditionelle Klassifizierung linguistischer Teildiszipli-
nen orientiert sich an rein deskriptiven Kategorien. Alle Daten, d.h. alle
sprachlichen Phänomene, die in einem intuitiven Sinne z.B. etwas mit
Bedeutung zu tun haben, werden als Gegenstand der Semantik angese-
hen. Aus dieser Klassifizierung folgt aber nicht, daß einer solchen intui-
tiv definierten Teildisziplin Semantik nun auch auf der Ebene der men-
talen Repräsentationen ein kohärentes und einheitliches Struktursy-
stem entspricht. Bedenkt man etwa, welche Phänomene üblicherweise
dem Bereich der »Bedeutung« zugerechnet werden - etwa Referenz
von Pronomina, Skopus von Quantoren, natürliche Schlüsse, Relatio-
nen zwischen Inhaltswörtern, perzeptuell bedingte Begrifflichkeiten,
Wissen über die Welt usw. - so scheinen diese Bereiche derart disparat
und mit so unterschiedlichen Fragestellungen und Regularitäten ver-
bunden zu sein, daß nicht notwendigerweise zu erwarten ist, hierfür
ein einheitliches kognitives System vorzufinden. Mit anderen Worten,
es kann nicht a priori angenommen werden, daß in unserem Gehirn so
etwas wie eine »Semantikkomponente« existiert, die genau das regelt,
was üblicherweise Gegenstand der linguistischen Semantik ist. Viel-
mehr scheint zu gelten, daß sich semantische Phänomene vermutlich
aus dem Zusammenspiel verschiedener Systeme ergeben, z.B. der
Grammatik, dem Weltwissen, pragmatischer Regeln, der allgemeinen
Struktur des menschlichen Begriffssystems usw. (siehe dazu Gazdar
1979; Johnson-Laird 1983; Jackendoff 1983; Hornstein 1984; May
1985; Fanselow 1985b, 1987a).
Die Forschungen der vergangenen zwei Jahrzehnte deuten nun dar-
auf hin, daß vor allem zwei Bereichen unseres sprachlichen Wissens ein
eigenständiges, d.h. in sich geschlossenes System kognitiver Strukturen
entspricht, und zwar der Syntax und der Phonologie. Üblicherweise
werden diese beiden Bereiche unter der Bezeichnung »Grammatik«
oder »formale Kompetenz« zusammengefaßt. Dementsprechend erge-
ben sich alle übrigen Aspekte sprachlichen Wissens aus dem Zusam-
menspiel dieser formalen Kompetenz mit anderen kognitiven Struktur-
systemen, die sich jedoch auch auf nicht-sprachliches Wissen erstrek-
ken. In diesem Zusammenhang spricht Chomsky (1980) vom »concep-
tual System«, einem allgemeinen, d.h. nicht-sprachspezifischen
Begriffssystem (cf. hierzu auch Fodor 1981a), und er geht davon aus,
daß sich ein Großteil der semantischen Gesetzmäßigkeiten aus den
Eigenschaften dieses konzeptuellen Systems ergeben. Ebenso mag man
annehmen, daß der Mensch auch im Handlungsbereich über allge-
meine, d.h. nicht allein auf Sprache bezogene Fähigkeiten verfügt, die
man unter dem Begriff »Pragmatik« zusammenfassen könnte. Die
Prinzipien der Pragmatik erklären somit nicht allein Gesetzmäßigkei-
ten sprachlichen Handelns, sondern ebenso etwa, wie sich im Zusam-
menhang mit Ethik Selbstverpflichtungen ergeben. Vermutlich lassen
sich die wichtigsten Gesetzmäßigkeiten von Sprechakten wie etwa
»Versprechen« oder »Befehlen« (cf. Austin 1962; Searle 1969) aus Kate-
gorien ableiten, die nicht nur sprachliches Handeln, sondern auch
menschliches Handeln generell determinieren. Somit scheint es kaum
plausibel zu sein, für den pragmatischen Bereich eine sprachspezifische
kognitive Fundierung anzunehmen, d.h. Pragmatik als einen spezifi-
schen Aspekt unseres sprachlichen Wissens anzusehen. Demgegenüber
scheint es aber gerade im Bereich der formalen Kompetenz, also der
Syntax und Phonologie, Gesetzmäßigkeiten zu geben, die sich in kei-
nerlei anderen Wissensdomänen wiederfinden und daher auch nicht
auf andere kognitive Struktursysteme reduzierbar sind. Mit anderen
Worten, diese Gesetzmäßigkeiten sind Spezifika unseres grammatischen
Wissens und müssen daher in einem eigenständigen System mentaler
Repräsentationen verankert sein. Genau in diesem Sinne ist die Aussage
der generativen Sprachtheorie zu verstehen, daß Syntax, i.e. unsere for-
male Kompetenz autonom ist; ihre Gesetzmäßigkeiten sind nur mit
eigenständigen grammatischen Kategorien formulierbar und erklären
sich auch nur aus grammatischen Prinzipien, nicht aber etwa aus prag-
matischen Prinzipien oder den Gesetzmäßigkeiten der allgemeinen
menschlichen Problemlösungskompetenz.
Bevor wir nun auf die Gründe für diese als Autonomiehypothese
bezeichnete Auffassung näher eingehen, soll zunächst noch auf einige
Mißverständnisse hingewiesen werden, die vielfach im Kontext der
Autonomiehypothese entstanden sind und dann zu ihrer Ablehnung
geführt haben. Chomsky selbst spricht in seinen Arbeiten häufig von
der language faculty und meint damit jenen Bereich der menschlichen
Kognition, in dem die spezifischen grammatischen Prinzipien und
Gesetzmäßigkeiten verankert sind. Language faculty ist in diesem Sinne
mit I-Grammatik gleichzusetzen (cf. Kapitel 1.4). Dieser Sichtweise
wird dann häufig der Vorwurf gemacht, daß »language . . . is in effect
reduced to grammar« (Foley & Van Valin 1984:3) und daß Sprache »as
a set of structural descriptions of sentences« (op.cit. 3/4.) definiert
wird. Einer solchen Perspektive wird entgegengehalten, daß Menschen
Sprache schließlich dazu benutzen, in einem soziokulturell definierten
Umfeld mit anderen Menschen zu kommunizieren; entsprechend sei der
korrekte Sprachbegriff eher der einer »form of social action« (op.cit. 8).
Diese Kritik an der Autonomiehypothese kann eigentlich nur ver-
wundern. In allen einschlägigen generativen Publikationen (cf. etwa
Chomsky 1975, 1980; Fodor 1981a; Lightfoot 1982) wird immer wieder
betont, daß Sprache als Gesamtphänomen vermutlich das Ergebnis
eines Zusammenspiels mehrerer Systeme und Faktoren ist. Unter die-
sen zeichnet sich die Grammatik (also unsere formale Kompetenz)
dadurch aus, daß sie die einzige sprach spezifische Komponente ist. Eine
Erklärung von Sprache involviert somit die Spezifizierung sowohl der
formalen als auch der pragmatischen Gesetzmäßigkeiten (und ver-
mutlich weiterer Komponenten). »... we could ... search for explanato-
ry theories that are concerned with the state of knowledge attained by
someone who knows a language and the basis in the human genetic
constitution for the acquisition of such knowledge, recognizing that
even full success will still not have answered all questions, for example,
the question »how we talk«, just as an account of our knowledge would
still leave open the question of »how we act«. It would be quite correct
to say that something very important is left out, in both cases; I not only
agree, but insist on that« (Chomsky 1980:80; Hervorhebung GFSF).
Chomskys These impliziert also geradezu, daß bestimmte Faktoren
sprachlichen Wissens - etwa semantische oder pragmatische - nicht
ausschließlich im engen sprachlichen Kontext betrachtet werden dür-
fen, sondern stets im Zusammenhang mit Soziologie, Handlungstheo-
rie oder Semiotik. Die Autonomiethese besagt lediglich, daß Gramma-
tik - und nur sie - sprachspezifisch, d.h. nicht auf andere kognitive
Domänen reduzierbar ist. Diese These kann nicht mit dem bloßen Ver-
weis abgetan werden, daß Sprache auch zur Kommunikation gebraucht
wird. Genausowenig widerlegt die Beobachtung, daß Schweine in
nicht-mohammedanischen Gesellschaften zu Nahrungsmitteln verar-
beitet werden, die Tatsache, daß die Genetik der Schweine nicht durch
die Gesetzmäßigkeiten menschlicher Ernährung bedingt ist.
Darüber hinaus stellt sich natürlich die Frage, wie stark der Faktor
Kommunikation im Sinne eines strukturbestimmenden Elements bei
Sprache wirklich ist. Wenngleich natürliche Sprachen zweifellos zur
Kommunikation verwendet werden, so folgt daraus nicht notwendiger-
weise, daß die Kommunikation ein so hochkomplexes Regelsystem wie
eine natürlichsprachliche Grammatik erforderlich macht. In der Tat ist
erfolgreiche und effiziente Kommunikation bereits mit Kindern im
Alter von 2-3 Jahren sehr gut möglich, obwohl diese keineswegs das
vollständige System von Regularitäten und Gesetzmäßigkeiten ihrer
Muttersprache beherrschen (cf. hierzu Felix 1987).
Ein entscheidendes Merkmal natürlicher Sprachen liegt hingegen in
der Möglichkeit, bestimmte Sachverhalttypen auszudrücken, die prin-
zipiell nur über eine strukturelle Repräsentation wiedergegeben werden
können. Wie schon Wittgenstein (1921) in seinem Traktat betonte und
Johnson-Laird (1983) empirisch nachwies, scheint eine bildliche Dar-
stellung von Gegebenheiten bei der kognitiven Verarbeitung von zen-
traler Bedeutung zu sein. Bestimmte Sachverhalte mit charakteristi-
schen Eigenschaften lassen sich jedoch grundsätzlich nicht auf bildliche
Weise darstellen; hierzu gehören etwa universelle Quantifikation, Dis-
junktion oder Negation, d.h. es scheint nicht möglich zu sein, ein Bild
zu erstellen, das »alle Menschen« oder »kein grüner Baum« darstellt.
Um solche logischen bzw. logiknahen Bedeutungselemente wiederge-
ben zu können, benötigt man offenkundig ein strukturiertes Aus-
druckssystem, das auch nicht-bildliche Repräsentationen einschließt;
natürliche Sprachen verfügen nun über genau diese Eigenschaft. In die-
sem Kontext sind vor allem auch die Ergebnisse von Untersuchungen
mit Menschenaffen (z.B. Premack 1983; Premack & Premack 1983) ein-
schlägig. Bei einem Menschenaffen, dem der Umgang mit einem belie-
bigen Gegenstand gelehrt wird, läßt sich ein Intelligenzzuwachs beob-
achten, der jedoch nicht global, sondern auf die Lösung ganz spezifi-
scher Aufgaben beschränkt ist. Es zeigt sich nun, daß eine Vielzahl von
Aufgaben, z.B. die Beurteilung kausaler Sachverhalte, nur dann von
Menschenaffen korrekt gelöst werden können, wenn ihnen zuvor pri-
mitive sprachähnliche Zeichensysteme gelehrt wurden (cf. Kap. 5.6).
Offensichtlich setzt die Lösungskompetenz etwa für kausale Probleme
die Existenz eines nicht-bildlichen strukturierten Repräsentationssy-
stems voraus. Unter dieser (eher evolutionären Perspektive) kann man
daher die eigentliche Bedeutung von Sprache für den Menschen in ihrer
Funktion als nicht-bildliches Repräsentationssystem für bestimmte
Problemlösungen sehen (cf. Monod 1971; Chomsky 1980; Premack
1983). In diesem Sinne setzt Marquardt (1984) die explosionsartige Ver-
größerung des Neokortex in der menschlichen Evolution mit dem
Erwerb der Sprachfähigkeit in Beziehung. Damit aber tritt automatisch
der Strukturaspekt und nicht der Kommunikationsaspekt von Sprache
in den Vordergrund; i.e. das, was Sprache ausmacht, ist nicht, daß man
mit ihr kommunizieren kann, sondern, über welchen Strukturmechanis-
mus man mit ihr kommunizieren kann.
Ein weiteres Mißverständnis der Autonomiehypothese manifestiert
sich in der vielfach publizierten Auffassung, die generative Theorie
impliziere, daß zwischen syntaktischen Strukturen und semantisch-
funktionalen Gegebenheiten kein Zusammenhang bestehe. So schrei-
ben Schank & Birnbaum (1984:209) aus der Perspektive der Künstli-
chen Intelligenz: »... our successes and failures in trying to construct
computational models capable of performing significant linguistic
tasks seem to point in another direction: they indicate that language
and thought are inextricably bound together«. Somit wird vielfach der
Nachweis einer irgendwie gearteten Beziehung zwischen Syntax und
Semantik bereits als Widerlegung der Autonomiehypothese angesehen.
Die Logik dieses Argumentes läßt sich leicht am Beispiel der deutschen
Verbstellung illustrieren. Im Deutschen kann das finite Verb am Satzan-
fang stehen, und diese Stellung signalisiert stets entweder einen Frage-
oder Bedingungssatz:

(1a) wird Hans seine Kinder heute in die Schule bringen?


(1b) bringt Hans seine Kinder heute in die Schule, so wird er
sein neues Auto schon bekommen haben
(1c) *Fritz behauptet: wird Hans seine Kinder heute in die
Schule bringen

(1a)-(1c) zeigen, daß die Verbvoranstellungsregel offenkundig semanti-


sche Effekte hat; Ähnliches gilt etwa auch für die Passivregel oder die
Imperativregel (Stein 1979; Foley & Van Valin 1984). Aus derartigen
semantischen oder funktionalen Effekten syntaktischer Regeln wird
vielfach geschlossen, die Autonomiehypothese der generativen Gram-
matik sei widerlegt.
Solche Argumentationen sind in der Regel schon aus empirischen
Gründen zumeist recht problematisch, da zwar manche, aber keines-
wegs alle Wortstellungsregeln semantische Effekte haben. Wie wir aus-
führlich in Band II darstellen werden, sind im Deutschen u.a. folgende
Verbstellungsregularitäten zu berücksichtigen:
(a) im Nebensatz steht das finite Verb stets am Ende, wenn eine
Konjunktion vorhanden ist:

(2a) ich glaube, daß Peter Maria liebt


(2b) ich glaube, Peter liebt Maria
(2c) *ich glaube, daß Peter liebt Maria
(2d) *ich glaube, Peter Maria liebt
(2e) *ich glaube, daß liebt Peter Maria
(b) im Hauptsatz steht das finite Verb stets an der zweiten Position 2;
davor kann jede beliebige Konstituente gestellt werden:

(3a) *der Mann den Hund gestern an den Baum führte


(3b) der Mann führte den Hund gestern an den Baum
(3c) den Hund führte der Mann gestern an den Baum
(3d) gestern führte der Mann den Hund an den Baum
(3e) an den Baum führte der Mann den Hund gestern

Aus Gründen, die wir in Band II, Kap. 3 darstellen werden, herrscht
unter Grammatiktheoretikern weitgehend Übereinstimmung darüber,
daß Sätze wie in (3) mit den sog. Drach'schen Regeln zu beschreiben
sind (cf. Drach 1940; Thiersch 1978; v.Stechow 1979b). Zunächst wer-
den alle Sätze mit Verbendstellung erzeugt; unter bestimmten Bedin-
gungen kann danach eine Regel angewendet werden, die das finite Verb
an die Satzspitze stellt (wie in (1a) und (1b)). Nach dieser Regel kann
dann eine beliebige Konstituente vor das vorangestellte Verb gesetzt
werden; daraus ergeben sich Sätze wie (3b)-(3e). Dies bedeutet aber,
daß die Verbvoranstellungsregel auch in (3b)-(3e), d.h. bei jedem
Hauptsatz angewendet wird. Da (3b)-(3e) aber weder Frage- noch
Bedingungssätze sind, darf die Voranstellungsregel keine diesbezügli-
chen semantischen Effekte besitzen; sie muß bedeutungsmäßig neutral
sein. Die semantische Verbindung besteht lediglich zu bestimmten
Satzkonfigurationen, aber nicht zu den Regeln, die diese erzeugen. Wir
werden in Band II, Kap. 3.1 noch zeigen, daß dasselbe auch für das
Passiv gilt.
Neben diesen empirischen Problemen ist der Einwand jedoch auch
konzeptuell irregeleitet. Die These der Autonomie der Syntax besagt
ja keineswegs, daß Grammatik nichts mit Semantik oder Pragmatik zu
tun hat. Autonomie bedeutet ausschließlich, daß die grammatischen
Regeln nicht auf semantische bzw. pragmatische Phänomene reduzier-
bar sind, d.h. es gibt keine semantische/pragmatische Gesetzmäßig-
keit, aus denen die grammatischen Regeln notwendigerweise folgen.
Zur Illustration betrachten wir nochmals das Beispiel der deutschen
Verbstellung. Enthält ein Satz mehrere Verben, so dürfen nur Verben
des Hauptsatzes vorangestellt werden, und zwar nur dann, wenn sie
finit sind.

2 »Zweite Position« bezieht sich hier auf die Konstituentenabfolge maximaler


Projektionen (cf. Koster 1975; Thiersch 1978)
((4a) (ich glaube, daß) der Mann, den Maria liebt, uns zur Party
4 einlädt
a(4b) lädt der Mann, den Maria liebt, uns zur Party ein?
)
(4c) *liebt der Mann, den Maria, uns zur Party einlädt
(4d) (ich glaube, daß) Maria uns einladen können wird
(
(4e) wird Maria uns einladen können?
4
(4f) *einladen Maria uns können wird
b
(4g) *können Maria uns einladen wird
)
(4h) lädt Maria uns ein?
(
Wie4 die Sätze (4b) und (4h) zeigen, müssen darüber hinaus bei den sog.
c
Partikelverben wie einladen die Partikel bei der Verbvoranstellung
)
zurückbleiben. Die These der Autonomie der Syntax besagt nun, daß
allein syntaktische Gründe dafür verantwortlich sind, daß nur Matrix-
(
verben vorangestellt werden dürfen, daß nur finite Verbformen von die-
ser 4Regel betroffen sind und daß Partikel stets zurückbleiben müssen.
d
Dementsprechend kann die Autonomiethese nicht durch die Beobach-
tung) widerlegt werden, daß der Sprechakt »Frage« im Deutschen mit
Verbanfangsstellung verbunden ist, sondern allein durch den Nachweis,
daß( aus semantischen bzw. pragmatischen Gesetzmäßigkeiten notwen-
4
digerweise folgt, daß Verbpartikel zurückbleiben müssen, oder daß die
e
Voranstellungsregel nur Matrixverben betrifft.
)
Ein weiteres verbreitetes Mißverständnis der Autonomiethese be-
zieht sich auf die Interpretation der Begriffe »Grammatik« bzw. »Syn-
tax«.( Hier geht es vor allem um die Frage, welche Phänomene als syntak-
tisch4 anzusehen sind. Oftmals wird unterstellt, daß der Phänomenbe-
reich,
f auf den sich die Autonomiehypothese bezieht, identisch mit
jenem) Gegenstandsbereich ist, der in der traditionellen deskriptiven Lin-
guistik als Syntax bezeichnet wird. Daraus schließt man, die Autonomie-
these( würde besagen, daß alles, was in einem intuitiven Sinne mit dem
Satzbau
4 zu tun hat, allein aus grammatischen Regeln bzw. Prinzipien zu
erklären
g wäre. Denken wir etwa an die Kasuszuweisung, so ist offenkun-
dig,) daß sie sowohl syntaktische als auch semantische Aspekte hat (cf.
Fillmore 1968;Eroms 1981;Reis 1982). So können die Argumente eines
Verbs( einerseits nach semantischen Begriffen wie Agens, Patiens, Instru-
ment 4 usw. klassifiziert werden, andererseits besteht die syntaktische Ge-
setzmäßigkeit,
h daß bei zweiwertigen Verben im Aktiv stets das Agens
den) Nominativkasus trägt. Dieses Phänomen zeigt- so wird behauptet-,
daß zur Erklärung syntaktischer Regularitäten wie der Nominativzu-
weisung auch semantische Erwägungen herangezogen werden müssen.
Wir haben bereits zu Anfang dieses Kapitels darauf hingewiesen,
daß die Systematik innerhalb der mentalen Repräsentation unseres
sprachlichen Wissens nicht notwendigerweise mit den traditionellen
deskriptiven Einteilungen der Linguistik korrelieren muß. In der Tat
wäre eine solche enge Korrelation auch eher verwunderlich. Aus der
Perzeptionspsychologie weiß man etwa, daß das, was wir als eine
bestimmte Farbe oder einen bestimmten Helligkeitswert wahrneh-
men, auf sehr unterschiedliche physiologische Mechanismen zurück-
gehen kann (cf. Rock 1985). Dementsprechend ist auch nicht zu
erwarten, daß jede Regularität, die intuitiv etwas mit Satzbau zu tun
zu haben scheint, auch notwendigerweise aus den Prinzipien der
mentalen I-Grammatik folgen muß. Andererseits ist denkbar, daß
Phänomene, die wir intuitiv als semantisch klassifizieren, in der Tat
aus Gesetzmäßigkeiten der mentalen I-Grammatik ableitbar und
somit im Sinne der Autonomiethese als syntaktisch zu klassifizieren
sind. Die generative Theorie geht von einer grundlegenden Annahme
aus (zur Begründung dieser Annahme cf. insbesondere Kap. 3): es
gibt ein autonomes mentales System >Grammatik<, dessen Prinzipien
und Regularitäten allein auf grammatischen Kategorien und Begriff-
lichkeiten aufgebaut sind. Zunächst ist es eine rein empirische Frage,
ob diese Annahme im Kern richtig ist oder nicht. Erweist sie sich
als korrekt oder zumindest plausibel, so stellt sich dann die wieder-
um rein empirische Frage, welche sprachlichen Regularitäten von
diesem autonomen System erfaßt werden. Eine Vielfalt von For-
schungsergebnissen der letzten Jahre deutet darauf hin, daß zahl-
reiche intuitiv als syntaktisch empfundene Regularitäten sich nicht
aus der I-Grammatik ergeben, sondern vielmehr ein Reflex des
menschlichen Sprachverarbeitungssystems sind (cf. Kap. 5.2 und J.D.
Fodor 1978; J.A. Fodor 1983; Berwick & Weinberg 1984); demge-
genüber weisen eine Reihe von scheinbar semantischen Phänome-
nen, wie etwa Quantorenskopus oder Pronominalreferenz Gesetz-
mäßigkeiten auf, die aus den Prinzipien der autonomen Grammatik-
komponente folgen (cf. Band II, Kap. 3.5 und May 1977, 1985;
Hornstein 1984).
Da die Autonomiethese also die Existenz eines spezifischen kogni-
tiven Systems postuliert und keinesfalls impliziert, daß alles, was in
der traditionellen Grammatik zur Syntax gerechnet wird, auch zum
Wirkungsbereich dieses kognitiven Systems gehört, läßt sie sich nicht
allein durch den Hinweis widerlegen, daß einige nach traditioneller
Auffassung syntaktische Prozesse offensichtlich funktional oder
semantisch begründet sind. Chomsky selbst hat mehrfach auf die Unlo-
gik derartiger Widerlegungsversuche hingewiesen:

»Let me first try to make a simple logical point, without trying to resolve the
issues. Suppose I were to say that something in the room is green, and suppose
somebody were to respond: >well, that is not so because there is something that
is white< - that wouldn't convince me that I was wrong in saying that something
in the room was green. Correspondingly, if I say that some properties of lan-
guage use and structure are determined in the initial state by language-specific
principles, it does not convince me that I am wrong if I am told that some aspects
of language use and structure are related to other aspects of cognitive development
- that is a simple point of logic.« (Chomsky in Piattelli-Palmarini 1980:138)

Wer also die Autonomiehypothese widerlegen will, muß zeigen, daß


genau diejenigen Phänomene, für die in der generativen Grammatik
rein autonom-syntaktische Erklärungen angeboten wurden, im kon-
kreten Fall auf semantische bzw. pragmatische Gesetzmäßigkeiten
zurückgeführt werden können. Dies ist von den Gegnern der Autono-
miethese bisher in noch keinem einzigen Fall versucht, geschweige
denn erfolgreich durchgeführt worden. In der Regel werden zumeist
nur Versprechungen angeboten (z.B. Bates 1984; Wang 1984). In diesem
Kontext ist darauf hinzuweisen, daß etwa der Funktionalismus eine im
Vergleich zur Autonomiethese weitaus stärkere These vertritt. Aus der
Beobachtung einiger Beziehungen zwischen Syntax und Semantik lei-
tet er die These ab, daß alle syntaktischen Phänomene funktional-
semantisch erklärbar sein müssen.
Die empirische Rechtfertigung der Autonomiehypothese setzt nun
zunächst eine umfangreiche und tiefgehende Analyse sprachlicher
Gesetzmäßigkeiten voraus, d.h. es ist ein System von Regeln und Prin-
zipien zu erarbeiten, aus dem sich die beobachtbaren Regularitäten
natürlicher Sprachen in einem nicht-trivialen Datenbereich ableiten
lassen. In Band II werden wir darstellen, wie beim derzeitigen Kennt-
nisstand ein solches System aussehen mag. Sollte sich nachweisen las-
sen, daß dieses System als vollständiges Derivat eines anderen kogni-
tiven Bereichs dargestellt werden kann, so wäre die Autonomiethese
widerlegt. Ein solcher Nachweis ist bislang noch niemandem gelun-
gen; in der Tat scheint der Versuch, die bekannten syntaktischen Prin-
zipien auf andere mentale Systeme zurückzuführen, immer aussichts-
loser zu werden, da zunehmend deutlich wird, daß die Prinzipien, die
den beobachteten sprachlichen Gesetzmäßigkeiten zugrunde liegen,
eben sehr spezifischer Art sind und nicht erkennbar in anderen kogni-
tiven Bereichen auftreten.
Prinzipiell lassen sich ohnehin nicht sonderlich viele Bereiche aus-
machen, auf die die Erklärung syntaktischer Fakten plausiblerweise
reduzierbar sein könnte. Einerseits wäre denkbar, daß grammatische
Gesetzmäßigkeiten ein Reflex semantischer oder pragmatischer Prinzi-
pien sind, wie dies zumeist von Funktionalisten behauptet wird. Wei-
terhin wäre vorstellbar, daß unser Sprachverarbeitungssystem in einer
Weise strukturiert ist, daß aus ihm die grammatischen Prinzipien natür-
licher Sprachen notwendigerweise folgen. Mit anderen Worten, unser
Sprachverarbeitungssystem könnte strukturelle Eigenschaften besit-
zen, die nur mit bestimmten mentalen Repräsentationen umzugehen
erlauben, so daß die Restriktionen des Verarbeitungssystems die Orga-
nisation des sprachlichen Wissens vollständig determinieren. Letztlich
ist ebensowenig auszuschließen, daß unsere Intelligenz nicht ausreicht,
um bestimmte logisch denkbare syntaktische Strukturen zu handha-
ben. Dementsprechend können derartige Strukturen in natürlichen
Sprachen auch nicht auftreten. In diesem Falle wären die Prinzipien
natürlicher Sprachen lediglich ein Reflex von Beschränkungen unserer
allgemeinen Intelligenz. In den folgenden Abschnitten wollen wir eini-
ge dieser Möglichkeiten näher betrachten.

2.2 Syntax und Semantik

Die Vorstellung, syntaktische Gesetzmäßigkeiten seien letztlich nichts


anderes als ein Reflex semantischer Phänomene und Prinzipien und
somit auch nur im Zusammenhang mit diesen zu beschreiben, hat in
der Sprachwissenschaft eine sehr lange Tradition. Diese Idee taucht in
der einschlägigen Literatur in einer stärkeren und einer schwächeren
Version auf. Der stärkeren Version liegt die Annahme zugrunde, gram-
matische Prozesse seien prinzipiell identisch mit semantischen Prozes-
sen, so daß Grammatik als eigenständiger Beschreibungsbereich im
Grunde nicht existiert. Unter dieser Perspektive liefert eine vollständi-
ge und adäquate semantische Theorie gleichzeitig und automatisch
sämtliche Erklärungen auch für diejenigen Phänomene, die traditionell
als syntaktisch angesehen werden. Diese Auffassung wurde vor allem
von der Generativen Semantik vertreten, die gegen Ende der 6oer Jahre
die linguistische Forschung in weiten Bereichen dominierte. In der
schwächeren Version wird zwar die Existenz syntaktischer Begriffe
und Regeln zugestanden, jedoch wird gleichzeitig postuliert, daß die
Prinzipien und Restriktionen, denen diese unterliegen, stets semanti-
scher Natur sind. Im folgenden wollen wir diese beiden Positionen aus
der Perspektive der Autonomiehypothese etwas näher betrachten.
Die Generative Semantik entwickelte sich vor allem aus der als
Katz-Postal-Hypothese bekannten Beobachtung (Katz & Postal 1964;
Katz & Fodor 1964), daß Transformationsregeln, wie sie in den 60er
Jahren im Mittelpunkt der linguistischen Forschung standen, üblicher-
weise die Bedeutung einer Struktur nicht verändern. So ist etwa ein Pas-
sivsatz wie (5b) im wesentlichen bedeutungsgleich mit dem dazugehö-
rigen Aktivsatz (5a). Ebenso drücken (6a) und (6b) den gleichen Sach-
verhalt aus, so daß die Transformationen, die die jeweilige Position des
eingebetteten Satzes festlegen, wiederum die Bedeutung der Gesamt-
struktur nicht verändern:

(5a) der Autohändler hat Dagmars neues Auto zugelassen


(5b) Dagmars neues Auto wurde vom Autohändler zugelassen
(6a) daß Dagmar sich über ihr Auto freut, ist offensichtlich
(6b) es ist offensichtlich, daß Dagmar sich über ihr Auto freut

Im Rahmen der sog. Standardtheorie (Chomsky 1965) wurden Sätze


wie (5a) und (5b) bzw. (6a) und (6b) über verschiedene Transformatio-
nen aus einer gemeinsamen zugrundeliegenden Struktur erzeugt.
Dementsprechend bestand die Grammatik aus zwei wesentlichen
Strukturebenen: der Tiefenstruktur, die für die obigen (a)- und (b)-
Sätze jeweils gleich ist, und der Oberflächenstruktur, die über Transfor-
mationsregeln aus der Tiefenstruktur abgeleitet wird und die struktu-
rellen Besonderheiten des jeweiligen Satzes ausdrückt. Die Tiefenstruk-
tur übernahm somit zwei wichtige Funktionen: einerseits wurden die
bedeutungsrelevanten Beziehungen zwischen den Konstituenten spezi-
fiziert und andererseits war sie die Ebene, auf der die lexikalischen Ele-
mente, also die Wörter, in eine zunächst abstrakte Struktur eingefügt
wurden. Diese Unterscheidung zwischen Tiefenstruktur und Oberflä-
chenstruktur scheint auch intuitiv plausibel zu sein, da sie die Tatsache
widerspiegelt, daß die obigen Satzpaare einerseits etwas gemeinsam
haben, nämlich die grundlegende Bedeutung, und andererseits sich
etwa in der Wortstellung oder der Besetzung der Subjektposition von-
einander unterscheiden. Aus einer derartigen Behandlung von Struktu-
ren wie (5) und (6) ergibt sich nun, daß die semantische Interpretation
eines Satzes allein durch die Tiefenstruktur bestimmt wird, und daß die
Transformationen zwar die Konstituentenstruktur, nicht aber die
Bedeutung eines Satzes verändern können.
Die Beobachtung, daß Transformationen bedeutungserhaltend
sind, und daß sich dementsprechend die semantische Interpretation
eines Satzes vollständig aus der Tiefenstruktur ergibt, wurde von der
Generativen Semantik nun zum grundlegenden Prinzip erhoben (cf.
Lakoff 1968). Dies führte zu einer Reihe entscheidender Konsequen-
zen. Zunächst mußte für alle Sätze, die (im wesentlichen) bedeutungs-
gleich sind, eine gemeinsame Tiefenstruktur angesetzt werden3; dies
galt insbesondere auch für solche Sätze, die oberflächenstrukturell sehr
stark voneinander abweichen, wie etwa die folgenden Beispiele zeigen:
(7a) Peter hackte das Holz mit einer Axt
(7b) Peter benutzte eine Axt, um das Holz zu hacken
(8a) daß die Feinde die Stadt zerstörten, löste eine Panik unter
den Bewohnern aus
(8b) durch die Zerstörung der Stadt durch die Feinde gerieten
die Bewohner in Panik
(9a) der Schmied hat das Metall flach gehämmert
(9b) der Schmied hat das Metall so lange gehämmert, bis es
flach war
In analoger Weise mußten für Sätze, die verschiedene semantische
Interpretation erlauben, auch unterschiedliche Tiefenstrukturen ange-
setzt werden:
(10) die armen Bewohner dieses Hauses sollten einen Miet-
nachlaß bekommen
(11) Hans hat ihn fast zu Tode geprügelt
(12) Fritz hat Maria nicht verlassen, weil sie ein Kind erwartet
(10) kann entweder bedeuten, daß alle Bewohner aufgrund der Tatsa-
che, daß sie in einem solchen Haus wohnen müssen, arm sind und des-
halb einen Mietnachlaß bekommen sollten, oder daß nur denjenigen
Bewohnern des Hauses, die auch arm sind, ein Nachlaß gewährt wird.
Ebenso hat auch (11) zwei verschiedene Lesarten: a) es wäre fast so
weit gekommen, daß Hans ihn brutal verprügelt (aber glücklicherweise
hat jemand zuvor den Streit geschlichtet); b) Hans hat ihn so stark ver-
prügelt, daß er fast gestorben wäre. In (12) kann sich nicht entweder
auf das Prädikat des Matrixsatzes oder auf die kausale Beziehung zwi-

3 Dies ist in der Tat keine logische Notwendigkeit. Es wäre denkbar, daß ein ent-
scheidender Anteil der semantischen Interpretation nicht aus der syntaktischen
Tiefenstruktur, sondern aus interpretativen Projektionsregeln abgeleitet wird
(cf. hierzu Newmeyer 1980:96).
schen den beiden Sätzen beziehen. Dementsprechend bedeutet (12) ent-
weder, daß Fritz Maria zwar verlassen hat, aber der Grund ist nicht die
Schwangerschaft, oder daß aufgrund der Schwangerschaft Fritz bei
Maria geblieben ist.
Diese wenigen Beispiele zeigen bereits, daß bei einer sehr engen
Auslegung der Katz-Postal-Hypothese Tiefenstrukturen anzusetzen
sind, die sich in extremer Weise von den aus ihnen transformationell
abgeleiteten Oberflächenstrukturen unterscheiden. Während sich also
etwa (5a) und (5b) strukturell noch relativ ähnlich sind und sich im
Grunde nur durch die Position von Subjekt und Objekt unterscheiden,
zeigen etwa (7a) und (7b) doch einen in wichtigen Aspekten völlig
unterschiedlichen strukturellen Aufbau. Da die den beiden Sätzen
zugrundeliegende Tiefenstruktur jedoch in gewissem Sinne neutral
gegenüber den jeweiligen oberflächenstrukturellen Besonderheiten
sein muß, ist klar, daß derartige Tiefenstrukturen relativ zur Oberflä-
chenstruktur äußerst abstrakter Natur sein müssen. Gegen Ende der
60er Jahre erschienen eine Vielzahl von Publikationen (z.B. Bach 1968;
Lakoff 1968; Ross 1969; Postal 1970), die sich in umfangreichen Analy-
sen um den Nachweis bemühten, daß wichtige Generalisierungen in
der Tat nur dann erfaßt werden können, wenn sehr abstrakte Tiefen-
strukturen angesetzt werden.
Der extrem abstrakte Charakter derartiger Tiefenstrukturen führte
nun zunächst dazu, daß sich die Ebene der Tiefenstruktur im Grunde
nicht mehr als syntaktische Ebene auffassen ließ (cf. McCawley 1968;
Postal 1972), da die syntaktischen Eigenschaften eines Satzes in der Tie-
fenstruktur eben noch völlig unspezifiziert waren und sich erst aus der
Anwendung der Transformationen ergaben. Die Tiefenstruktur wurde
somit zu einer rein semantischen Ebene, auf der einzig und allein bedeu-
tungsrelevante Relationen und Distinktionen ausgedrückt wurden.
Aus der Perspektive der Generativen Semantik bestand die Gram-
matik daher einerseits aus einer (rein) semantischen Repräsentations-
ebene (cf. Newmeyer 1970; Lakoff 1972), der Tiefenstruktur, und einer
(rein) syntaktischen Repräsentationsebene, der Oberflächenstruktur.
Die Aufgabe der Transformationen bestand darin, die semantischen
Strukturen in syntaktische Strukturen zu überführen. Hier stellt sich
nun die Frage, ob diese Transformationen ihrem Wesen nach syntakti-
sche Regeln sind - wie dies in der Standardtheorie (Chomsky 1965)
angenommen wurde -, oder ob Transformationen im Grunde auch
nichts anderes als semantische Prozesse spezifizieren. Die Vertreter der
Generativen Semantik brachten nun eine Vielzahl von Argumenten vor,
die darauf hindeuteten, daß Transformationen in der Tat semantische
und nicht syntaktische Regeln sind. Zunächst ließ sich zeigen, daß lexi-
kalische Elemente nicht mehr wie in der Standardtheorie als unanaly-
siertes Ganzes in die Tiefenstruktur einzuführen sind, sondern vielmehr
transformationell eingesetzt werden müssen. Das hierfür nunmehr klas-
sische Beispiel (cf. Morgan 1969) ist die Ambiguität von Satz (13), dem
die zugrundeliegenden Strukturen (14a) und (14b) zugeordnet werden:

(13) I almost killed John


(14a) I almost caused John to die
(14b) I caused John almost to die

Das oberflächenstrukturelle Verb kill taucht als solches auf der tiefen-
strukturellen Ebene gar nicht auf, sondern muß durch eine Transforma-
tion aus cause to die abgeleitet werden. Mit anderen Worten, Transforma-
tionen operieren in einem Bereich, der sozusagen die Manifestation der
Semantik par excellence ist, nämlich dem Bereich lexikalischer Elemente.
Darüber hinaus konnte gezeigt werden, daß Restriktionen, die auf
den ersten Blick rein syntaktischer Natur zu sein scheinen, auch im
lexikalischen, i.e. rein semantischen Bereich auftreten, so daß hier die
Unterscheidung zwischen Syntax und Semantik bedeutungslos ist. Seit
Ross (1967a) war bekannt, daß die wh-Transformation, die bei der Fra-
gebildung wh-Konstituenten an die Satzanfangsposition bewegt, nicht
auf die Konstituenten eines Relativsatzes angewendet werden darf:

(15a) John loves Mary


(15b) John loves who
(15c) who does John love
(16a) John loves the woman who wears the red dress
(16b) John loves the woman who wears what
(16c) *what does John love the woman who wears

Ross nannte derartige Strukturen wh-islands, da wh-Phrasen nicht aus


ihnen herausbewegt werden dürfen. Wenngleich es sich hierbei um ein
rein syntaktisches Phänomen zu handeln scheint, konnte McCawley
(1968) zeigen, daß auch die mögliche Bedeutung von Wörtern offen-
kundig den Restriktionen der wh-islands unterliegt. McCawley prägte
hierzu das im Englischen nicht existierende Verb to flimp und stellte die
Frage, welche Bedeutungen ein solches Verb potentiell übernehmen
könnte. Es zeigt sich nun, daß ein solches Verb eine Vielzahl auch recht
komplexer Bedeutungsstrukturen annehmen kann, aber keine, die
einen Relativsatz involviert:
(17a) John liked to drive big cars when he was in New York
(17b) John flimped when he was in New York
(18a) John always teils scary stories to his girlfriend
(18b) John always flimps to his girlfriend
(19a) John kissed a girl who is allergic to bananas
(19b) *John flimped bananas

In den Beispielen (17)-(18) soll die Bedeutung von flimp jeweils dem
kursiv gedruckten komplexen Ausdruck im (a)-Satz entsprechen. Dies
scheint in (17) und (18) problemlos zu sein, d.h. es ist denkbar, daß es
im Englischen ein Verb to flimp mit der Bedeutung to like to drive big
cars geben könnte. Andererseits haben Sprecher des Englischen starke
Intuitionen darüber, daß ein Verb to flimp eben nicht die Bedeutung
von (19a), i.e. to kiss a girl who is allergic to haben kann. Der Grund
dafür scheint zu sein, daß ein solches Verb das Subjekt des Matrixsat-
zes mit dem Objekt des eingebetteten Satzes in Beziehung setzt. Mit
anderen Worten, es scheint nahezuliegen, die Ungrammatikalität von
(16c) und die Unmöglichkeit einer Bedeutung von flimp wie in (19a)
auf das gleiche Prinzip zurückzuführen.
Diese Beispiele zeigen nun, daß zentrale Transformationen und
Restriktionen sowohl den syntaktischen als auch semantischen
Bereich betreffen. Nun könnte man natürlich durchaus Transforma-
tionen danach unterscheiden, ob sie in einem intuitiven Sinne syn-
taktische oder semantische Phänomenbereiche betreffen; jedoch
wäre eine solche Unterscheidung völlig belanglos, da derartige >syn-
taktische< bzw. >semantische< Transformationen keinerlei formale
Unterschiede aufweisen. Mit anderen Worten, grammatische Pro-
zesse und semantische Prozesse fallen zusammen und sind letztlich
bezüglich ihrer formalen Eigenschaften identisch. Wenn jedoch die
Tiefenstruktur eine rein semantische Repräsentationsebene ist, und
wenn Transformationen auch im wesentlichen semantische Prozesse
spezifizieren, so bedeutet dies, daß sich die syntaktischen Eigen-
schaften der Oberflächenstruktur vollständig aus semantischen
Strukturen und Prozessen ableiten lassen. Aus diesen Beobachtun-
gen leitet sich die zentrale These der Generativen Semantik ab:
wenngleich natürliche Sprachen oberflächlich zweifellos Eigenschaften
aufweisen, die intuitiv syntaktischer Natur sind, so sind diese jedoch
nicht über ein separates und eigenständiges Regelsystem zu erfassen,
sondern lassen sich vollständig aus semantischen Strukturphänomenen
ableiten.
Gegen Ende der 6oer und zu Beginn der 70er Jahre war die Generative
Semantik unbestreitbar - zumindest in den USA - die dominierende
Forschungsrichtung im Bereich der theoretischen Linguistik (cf. New-
meyer 1980). Dennoch wurde sehr bald klar, daß eine konsequente An-
wendung des generativ-semantischen Ansatzes sowohl unter deskripti-
ven als auch konzeptuellen Gesichtspunkten in eine Sackgasse führen
mußte. Aus diesem Grunde kann man das Programm der Generativen Se-
mantik spätestens seit Mitte der 70er als gescheitert ansehen; in der aktu-
ellen linguistischen Diskussion betrachtet eigentlich niemand mehr die
Generative Semantik als ernstzunehmende linguistische Theorie. »To-
day many of these hypotheses have no public adherents at all, and the
term >generative semantics< itself evokes nostalgia rather than partisan
fervor« (Newmeyer 1980:133). Die Gründe für das Scheitern dieser For-
schungsrichtung sind mannigfaltiger Art; jedoch scheinen insbesondere
drei Faktoren ausschlaggebend gewesen zu sein. Zunächst zeigte sich,
daß die Katz-Postal-Hypothese, die entscheidende theoretische Grund-
lage der Generativen Semantik, schon rein empirisch nicht zu rechtferti-
gen war. Darüber hinaus mehrte sich Evidenz dafür, daß sich wichtige
syntaktische Generalisierungen nicht mehr erfassen lassen, wenn die
Grammatik ausschließlich aus semantischen Strukturen und semanti-
schen Prozessen besteht. Und letztlich wurde deutlich, daß die extreme
Abstraktheit der Tiefenstruktur und die daraus folgende enorme Kom-
plexität der transformationellen Komponente zu einer Grammatikkon-
zeption führt, die nicht mehr die Kriterien der Lernbarkeit und Reprä-
sentierbarkeit erfüllt und darüber hinaus offensichtlich absurde Aussa-
gen über die Beziehung zwischen sprachlichem und nicht-sprachlichem
Wissen impliziert. Wir wollen hier kurz auf diese drei Bereiche eingehen.
Die Idee, daß Transformationen nicht die Bedeutung eines Satzes ver-
ändern, war in der Standardtheorie nicht mehr als eine Arbeitshypothe-
se. Sie entstand aus aus der Beobachtung, daß in den meisten damals
betrachteten Fällen, insbesondere bei der Passivtransformation, die
zugrundeliegende Struktur und die daraus transformationell abgeleitete
Struktur in der Tat im wesentlichen bedeutungsgleich waren. Bereits
Chomsky (1965:224) wies in einer Fußnote darauf hin, daß dies aller-
dings nicht grundsätzlich zu gelten scheint; sobald Strukturen Quanto-
ren enthalten, unterscheidet sich die Bedeutung eines Passivsatzes von
der des zugrundeliegenden Aktivsatzes:

(20a) everyone in the room knows at least two languages


(20b) at least two languages are known by everyone in the room
Wenngleich nach der damals gängigen Auffassung (20b) über die Passiv-
transformation aus (20a) abgeleitet ist, so unterscheiden sich die beiden
Sätze doch in ihrer Bedeutung. (20a) besagt, daß jeder zwei Sprachen
kennt, wobei dies bei jedem zwei unterschiedliche Sprachen sein kön-
nen. (20b) hingegen bedeutet, daß für zwei bestimmte Sprachen gilt,
daß jeder in dem Zimmer sie kennt. Chomsky vermutete schon damals,
daß zumindest in bestimmten Fällen nicht nur die Tiefenstruktur, son-
dern auch die Oberflächenstruktur für die semantische Interpretation
von Bedeutung ist. »... I think that a reasonable explication of the term
>semantic interpretation< would lead to the conclusion that surface
structure also contributes in a restricted but important way to semantic
interpretation ...« (Chomsky 1967:407).
In den Folgejahren mehrte sich die Evidenz dafür, daß der Skopus
(i.e. die Reichweite) eines Quantors bzw. Operators prinzipiell allein
über die Oberflächenstruktur bestimmt werden kann. Dementspre-
chend ergeben sich jeweils unterschiedliche Lesarten für die folgen-
den (nunmehr schon klassischen) Satzpaare (cf. Jackendoff 1969a, b;
Kuroda 1969):

(21a) everyone loves a woman


(21b) a woman is loved by everyone
(22a) many arrows did not hit the target
(22b) the target was not hit by many arrows

Ein weiterer Bereich, in dem die oberflächenstrukturellen Verhältnisse


für die semantische Interpretation von Bedeutung sind, ist die Kore-
ferenz. Ob zwei Ausdrücke koreferent sein können, d.h. sich auf die
gleiche Person bzw. das gleiche Objekt beziehen können, hängt von
deren Position in der Oberflächenstruktur ab. In den folgenden Bei-
spielen sind die koindizierten Elemente als koreferent zu interpretie-
ren:

(23a) everyone; loves his; mother


(23b) *his; mother is loved by everyone;
(24a) which book that John; read did he; like
(24b) *he; liked the book that John; read

Diese Beispiele zeigen, daß die semantische Interpretation in wesentli-


chen Bereichen von der Oberflächenstruktur abzulesen ist (cf. Choms-
ky 1967; Partee 1971; Jackendoff 1972; Wasow 1979). In gewissem
Sinne sind Koreferenz und Quantorenskopus die stärksten Argumente
gegen die Katz-Postal-Hypothese und somit gegen die Generative
Semantik4. Sie zeigen, daß spezifische syntaktische Strukturverhältnisse
die semantische Interpretation bestimmen. Mit anderen Worten, hier
determiniert die Syntax die Semantik, während die Generative Seman-
tik davon ausging, daß stets die Semantik die Syntax bestimmt.
Eine wesentliche Konsequenz des generativ-semantischen Ansatzes
ist die transformationelle Behandlung von Nominalisierungen, d.h.
deverbale Nomina werden aus zugrundeliegenden Satzstrukturen abge-
leitet, da beide die gleiche semantische Interpretation haben (cf. Lees
1960; Brekle 1970). Dementsprechend sind die folgenden (b)-Sätze aus
den jeweiligen (a)-Sätzen abgeleitet:
(25 a) that the enemies destroyed the city surprised everyone
(25b) the destruction of the city by the enemies surprised every-
one
(26a) John believes that Mary kissed Tom
(26b) John's belief that Mary kissed Tom
Es läßt sich nun leicht zeigen, daß Nominale und Satzstrukturen ein
Vielzahl völlig unterschiedlicher Eigenschaften haben. Zunächst sind
Subjekte und Objekte in Sätzen obligatorisch, während ein deverbal
abgeleitetes Nomen allein auftreten kann:
(27a) the destruction of the city surprised everyone
(27b) the destruction surprised everyone
(27c) *that destroyed the city surprised everyone
(27d) *that destroyed surprised everyone
Williams (1982) führt eine große Zahl von Beispielen auf, die zeigen,
daß Nominalisierungen vielfach nicht in den gleichen strukturellen
Kontexten wie ihre zugrundeliegenden Verben auftreten können:
(28a) John appears to love Mary
(28b) *John's appearance to love Mary
(29a) John arrived dead
(29b) *John's arrival dead
Darüber hinaus können bestimmte Strukturen zwar als Verbkomple-
mente, nicht jedoch als Nominalkomplemente auftreten:
(30a) John believes Tom to be an idiot
(30b) *John's belief of Tom to be an idiot

4 Im Prinzip ließen sich natürlich für diese bedeutungsverschiedenen Aktiv- vs.


Passivsätze unterschiedliche Tiefenstrukturen ansetzen. Doch damit gehen sämt-
liche Generalisierungen über die Aktiv-Passiv-Relation verloren.
Offenkundig müssen diese syntaktischen Unterschiede zwischen Ver-
ben und den ihnen entsprechenden Nominalisierungen auf irgendeiner
Ebene der Grammatik erfaßt werden (cf. Chomsky 1971; Aronoff
1976). In der Standardtheorie war dies die Ebene der syntaktischen Tie-
fenstruktur. Auf ihr wurde etwa spezifiziert, daß sich Nomina wie
destruction oder belief trotz ihrer semantisch engen Beziehung zu
destroy bzw. believe in vielerlei Hinsicht syntaktisch genauso verhalten
wie etwa table oder hat. Eine solche Generalisierung läßt sich jedoch in
einem generativ-semantischen Modell nicht ausdrücken, da eine unab-
hängige syntaktische Ebene fehlt. Mit anderen Worten, die obigen Bei-
spiele zeigen, daß es - entgegen der Behauptung der Generativen
Semantik - eben doch syntaktische Gesetzmäßigkeiten gibt, die mit
keinerlei semantischen Regularitäten korrespondieren und somit auch
nicht aus ihnen ableitbar sind.
Wie bereits mehrfach erwähnt, führt der Ansatz der Generativen
Semantik notwendigerweise zur Annahme einer extrem abstrakten Tie-
fenstruktur und einer äußerst komplexen transformationellen Kompo-
nente. Diese Annahme bringt nun eine Vielzahl grundsätzlicher kon-
zeptueller Probleme mit sich, die vor allem den Bereich der Lernbar-
keit und Repräsentierbarkeit betreffen. Zunächst legt der Ansatz der
Generativen Semantik nahe5, Pronomina transformationell über eine
Pronominalisierungsregel einzuführen, da Pronomina ja semantisch
mit den Nominalphrasen, die sie ersetzen, identisch sind. Dementspre-
chend werden die folgenden (b)-Sätze aus den ihnen zugrundeliegen-
den (a)-Sätzen abgeleitet, d.h. bei zwei koreferenten Nominalphrasen,
wird die zweite - unter bestimmten Bedingungen - durch ein Prono-
men ersetzt:

(31a) John; believes that Mary loves John;


(31b) John believes that Mary loves him
(32a) [the man next door]; believes that Mary loves [the man
next door];
(32b) the man next door believes that Mary loves him

5 Die Generative Semantik ist natürlich nicht gezwungen, an der Pronominalisie-


rungsregel festzuhalten. Um die mit dieser Regel verbundenen Schwierigkeiten
zu umgehen, setzte man für Pronomina gebundene Variablen mit Quantorensen-
kung an. Dies führte jedoch notwendigerweise zur Annahme von globalen
Regeln und >transderivational constraints< die aus unabhängigen Gründen eine
Reihe konzeptueller Probleme mit sich bringen (cf. Newmeyer 1980:156ff.)
Bach (1970) konnte nun zeigen, daß bei einer solchen Behandlung der
Pronominalisierung in bestimmten Fällen eine unendliche zugrundelie-
gende Struktur angenommen werden muß, auf die die betreffende Pro-
nominalisierungsregel anzuwenden ist. Dieses Phänomen wird in der
einschlägigen Literatur üblicherweise als das Bach-Peters-Paradox
bezeichnet. Der entscheidende Beispielsatz ist (33):

(33) the woman who wrote to him saw the man who loves her

Her ist hier über Pronominalisierung für die NP the woman who wrote
to him einzusetzen. Diese NP wiederum enthält das Pronomen him,
das ebenfalls erst über die Pronominalisierungsregel eingesetzt wird,
und zwar anstelle von the man who loves her. Doch nun geraten wir in
eine infinite Rekursion, denn diese NP enthält erneut das ursprüngli-
che her, das wiederum anstelle von the woman who wrote to him einge-
setzt wird. Wie sich der Leser leicht selbst überzeugen kann, läßt sich
dieser Pronominalisierungsprozeß infinit fortsetzen. Stets enthält die
NP, auf die die Pronominalisierung anzuwenden ist, selbst ein Prono-
men, das aus einer zugrundeliegenden NP abzuleiten ist.
Das Bach-Peters-Paradox zeigt also, daß bei einer generativ-seman-
tischen Behandlung der Pronominalisierung für bestimmte Strukturen
eine unendlich tiefe semantische Repräsentationsebene und somit eine
unendliche Anzahl von Transformationen angesetzt werden müssen.
Eine Grammatik, die mit diesen Mechanismen arbeitet, ist nun offen-
kundig nicht einmal imstande, Sätze wie (33) zu erzeugen, d.h. die tat-
sächlich in der Sprache auftretenden Sätze aufzuzählen. Allein dieser
Umstand zeigt schon, daß das Modell der Generativen Semantik als lin-
guistische Theorie nicht in Frage kommt. Darüber hinaus ist ebenso
klar, daß unendliche Tiefenstrukturen nicht im Gehirn repräsentiert
werden können, und es stellt sich weiterhin die Frage, wie ein derart
komplexer und durch keinerlei Prinzipien eingeschränkter Regelappa-
rat durch ein Kind auf der Grundlage der ihm verfügbaren Evidenz
überhaupt erlernbar sein soll. Wir werden auf diesen Problemkreis aus-
führlich in Kap. 3 eingehen.
Die semantischen Repräsentationen, die generative Semantiker in
ihren Analysen vorlegten, ähnelten im Laufe der Zeit immer mehr den
Notationen, die aus der Prädikatenlogik bekannt sind. »The base com-
ponent suggested here looks in some ways very much like the logical
Systems familiar from the work of modern logicians like Rudolf Car-
nap, Hans Reichenbach, and others. In particular, such Systems do not
have any subdivision of >lexical items< into nouns, verbs, and adjectives.
Much more basic is the distinction between variables, names, and gene-
ral >predicates< ...« (Bach 1968:121). Diese Entdeckung führte nun zu
der These, daß ein solches Logiksystem Bestandteil unserer Kognition
ist; somit läßt sich sowohl die menschliche Sprachfähigkeit als auch die
Fähigkeit zu logischen Schlüssen auf einer gemeinsamen Basis erklären.
Wie die Untersuchungen von Johnson-Laird (1983) jedoch zeigen,
können die logischen Fähigkeiten des Menschen nicht über die Annah-
me einer >mental logic< erklärt werden (cf. Kap. 1.4). Da somit alles
dafür spricht, daß in unserer Kognition kein formales Logiksystem
direkt abgespeichert ist, entbehren semantische Repräsentationen, die
unmittelbar als logische Notationen konzipiert sind, jeglicher psycho-
logischen Plausibilität.
Wenngleich die These der Generativen Semantik, Sprache sei letzt-
lich nichts anderes als ein rein semantisches Phänomen, aus den oben
beschriebenen Gründen nicht haltbar ist und heutzutage auch von nie-
mandem mehr ernsthaft vertreten wird, so kann man sich dennoch
einer schwächeren Version der Semantikthese anschließen, nämlich der,
daß zwischen Syntax und Semantik ein sehr enges Verhältnis besteht,
bzw. daß die Struktur syntaktischer Repräsentationen weitgehend von
semantischen Gesetzmäßigkeiten bestimmt wird. So geht etwa die
Montague-Grammatik (Montague 1970a; 1970b; 1973; Dowty et al.
1981) von einer eins-zu-eins-Beziehung zwischen syntaktischen und
semantischen Prozessen aus, d.h. jeder syntaktischen Gesetzmäßigkeit
entspricht genau eine semantische Gesetzmäßigkeit et vice versa. Eben-
so wird von ernstzunehmenden Kritikern wie etwa Seebaß (1981) häu-
fig der Vorwurf erhoben, die generative Theorie übersehe bei der Spezi-
fizierung sprachbezogener mentaler Repräsentationen schlicht und ein-
fach die zentrale Rolle der Bedeutung für diesen Phänomenbereich.
Wir hatten bereits mehrfach darauf hingewiesen, daß die Autono-
miethese natürlich nicht bestreitet, daß bestimmte Fakten, die man
unter deskriptiven Gesichtspunkten dem traditionellen Bereich der
Syntax zuordnen kann, durchaus eine semantische Erklärung finden
können. So zeigt etwa Fanselow (1986a), daß die Datenverteilung bei
pränominalen Adjektivphrasen vermutlich semantisch zu begründen
ist. Die Autonomiethese besagt lediglich, daß es einen nicht-trivialen
Bereich sprachlicher Phänomene gibt, die eben nicht semantisch erklär-
bar sind; und genau aus diesem Grunde ist eine autonome syntaktische
Komponente anzusetzen. In der Tat zeigt sich zumeist bei der genauen
Betrachtung semantischer Erklärungen, daß in dem betreffenden Phä-
nomenfeld noch ein Rest »übrigbleibt«, der sich der semantischen
Begründung entzieht und offenbar rein syntaktischer Natur ist. Wir
wollen dies an einem Datenbereich illustrieren, der auf den ersten Blick
eine rein semantische Erklärung geradezu herausfordert, und zwar den
sog. Kontrollphänomenen.
Vergleichen wir die Sätze in (34) miteinander, so lassen sich sowohl
Gemeinsamkeiten als auch Unterschiede feststellen:
(34a) ich verspreche ihm, zu kommen
(34b) ich bitte ihn, zu kommen
Beiden ist gemeinsam, daß der eingebettete Satz zu kommen infinit ist
und daß das Subjekt dieses eingebetteten Satz lexikalisch nicht realisiert
ist. Darin unterscheiden sich die Sätze in (34) von denen in (35):
(35 a) ich verspreche ihm, daß ich komme
(35 b) ich bitte ihn, daß er kommt
Wenngleich das Subjekt zu kommen in (34) lexikalisch nicht vorhanden
ist, so wird es doch sozusagen »mitverstanden«, und zwar als identisch
mit ich in (34a) und ihn in (34b). Dieser Unterschied hat nun einige syn-
taktische Konsequenzen:
(36a) *ich verspreche ihm; sich; zu rasieren
(36b) ich bitte ihn; sich; zu rasieren
Das Reflexivpronomen sich beispielsweise darf nur dann auftreten,
wenn - wie in (36b) - das mitverstandene Subjekt nicht ich, sondern
eine Nominalphrase in der dritten Person ist.
Man mag nun vermuten, daß das »mitverstandene« Subjekt des ein-
gebetteten Satzes stets vom jeweiligen Verb des Matrixsatzes abhängt:
bei versprechen etwa ist das »mitverstandene« Subjekt identisch mit
dem Subjekt des Matrixsatzes, bei bitten ist es identisch mit dem
Objekt des Matrixsatzes. Technisch spricht man bei Verben wie verspre-
chen und bitten von Subjektkontrolle bzw. Objektkontrolle. In der
Standardtheorie (Chomsky 1965) betrachtete man die Kontrolleigen-
schaften eines Verbs im wesentlichen als ein syntaktisches Phänomen.
Eine erste Schwierigkeit dieses Ansatzes besteht darin, daß Verben
wie glauben sowohl Subjektkontrolle als auch Objektkontrolle aus-
üben können:
(37) ich glaubte ihm, gestern abend besoffen gewesen zu sein

(= ich glaubte ihm, daß ich gestern abend besoffen war)


(= ich glaubte ihm, daß er gestern abend besoffen war)
Gravierender ist jedoch (cf. Abraham 1983a; Manzini 1983; Ruzicka
1983), daß syntaktische Variationen im eingebetteten Satz die Kontroll-
eigenschaften des Matrixverbs zu verändern scheinen. Ist etwa ein Pas-
sivsatz oder ein Satz mit einem Modalverb eingebettet, so zeigen
sowohl bitten als auch versprechen Subjekt- und Objektkontrolle, d.h.
in (38) kann das Subjekt des eingebetteten Satzes sich sowohl auf das
Subjekt als auch auf das Objekt des Matrixsatzes beziehen. Dement-
sprechend haben alle Sätze zwei Lesarten:

(38 a) ich versprach ihm, eingeladen zu werden


(38b) ich bat ihn, eingeladen zu werden
(38c) ich versprach ihm, nicht in die Schule gehen zu müssen
(38d) ich bat ihn, in die Schule gehen zu dürfen

In (39) hingegen scheint die Lesart mit Objektkontrolle naheliegender


zu sein:

(39a) ich versprach ihm, nicht von der Klippe fallen zu müssen
(39b) der Chefarzt versprach dem Patienten, diese Nacht schla-
fen zu können

Durch eine leichte Veränderung des verbalen Elements im eingebette-


ten Satz lassen sich die Kontrollverhältnisse in (34a) auch ohne Passivie-
rung bzw. Modalisierung umkehren.

(40a) ich versprach ihm, nicht von der Klippe zu stürzen


(40b) der Chefarzt versprach dem Patienten, diese Nacht zu
überstehen

Diese Daten demonstrieren letztlich, daß es so etwas wie eine syntakti-


sche Eigenschaft »Kontrolle« nicht gibt. Welcher nominale Ausdruck
eines Infinitivsatzes zum mitverstandenen Subjekt wird, hängt sowohl
vom Matrixverb als auch vom Gehalt des Infinitivsatzes ab. Die
zugrundeliegenden Regularitäten sind bereits an den obigen Daten
leicht zu erkennen. Offenkundig kann man sich selbst im Sinne eines
Versprechens nur zu eigenen Handlungen verpflichten. Drückt der ein-
gebettete Satz also einen Handlungssachverhalt aus, so legt allein die
Semantik von versprechen nahe, daß in (34a) ich das mitverstandene
Subjekt ist.
Versprechen kann sich nun selbstverständlich nur auf eigene Hand-
lungen, nicht aber etwa auf Zustände oder Handlungen anderer bezie-
hen. Dennoch kann man natürlich eine Handlung versprechen, die
einen bestimmten Zustand oder die Handlung eines Dritten herbei-
führt. Auf dem Hintergrund dieser rein semantischen Überlegungen
ergeben sich weitgehend die unterschiedlichen Referenzmöglichkeiten
des »mitverstandenen« Subjekts. In (34a) bezieht sich das Versprechen
auf die Handlung des Kommens; da sich nun Versprechen primär auf
eigene Handlungen bezieht, wird das lexikalisch nicht spezifizierte
Subjekt des Kommens auf denjenigen bezogen, der das Versprechen
gibt. In (38a) hingegen ergibt sich aus der Passivkonstruktion, daß die
Handlung des Einladens von einem nicht genannten Dritten vollzogen
wird. Da man offenkundig die Handlung eines anderen nicht verspre-
chen kann, wird das Versprechen als Bereitschaft zu einer Handlung
verstanden, die den Dritten zum Aussprechen der Einladung veranlaßt.
Auf wen sich diese Einladung jedoch bezieht, bleibt offen, und so
gestattet (38a) eine zweifache Lesart. Bei bitten verhalten sich die Kon-
trolleigenschaften in analoger Weise. Zweifellos sind die Verhältnisse im
Bereich der Kontrolle noch weitaus komplexer als wir sie hier darstel-
len (cf. Fanselow 1983; Manzini 1982); an dieser Stelle geht es zunächst
allein darum, die Abhängigkeit syntaktischer Phänomene von semanti-
schen Gegebenheiten aufzuzeigen.
Wenngleich sich wichtige Gesetzmäßigkeiten der Kontrolle aus der
Semantik der involvierten Verben ableiten lassen, so ist damit keines-
wegs der Bereich erklärungsbedürftiger Phänomene erschöpft. Zu fra-
gen ist etwa, warum in derartigen Infinitivsätzen stets nur das Subjekt,
nicht aber das Objekt fehlen darf (cf. Chomsky 1965). Wenn die Seman-
tik des Verbs eine ausreichende Erklärung für Kontrollphänomene
wäre, so wäre zu erwarten, daß ein Satz wie (41a) mit der Bedeutung
von (41b) möglich sein sollte.

(41a) *ich versprach ihm, mein Bruder einzuladen


(41b) ich versprach ihm, von meinem Bruder eingeladen zu
werden

Rein semantisch ist ebenfalls nicht zu erklären, weshalb das »mitver-


standene Subjekt« sich immer nur auf ein Argument des Matrixverbs
beziehen darf, nicht aber auf zwei (cf. Chomsky 1981). Da die Bedeu-
tung von (42a) unproblematisch ist, sollte auch (42b) möglich sein:

(42a) Hans glaubte Maria, daß sie sich eines Tages wieder tref-
fen werden
(42b) *Hans; glaubte Mariaj, sichij eines Tages zu treffen
Wenngleich das mitverstandene Subjekt aus semantischen Gründen
offensichtlich irgendeine Referenz haben muß, so läßt sich semantisch
eigentlich nicht erklären, warum diese Referenz nicht höher als ein Satz
liegen darf (cf. Manzini 1983). Warum ist also (43b) in der Bedeutung
(43a) nicht möglich?

(43a) ich glaube, Hans hat Maria versprochen, daß ich eingela-
den werde
(43b) ich glaube, Hans hat Maria versprochen, eingeladen zu
werden

Diese Beispiele zeigen, daß die bei Kontrollphänomenen auftretenden


Gesetzmäßigkeiten sich nicht allein aus semantischen Prinzipien ablei-
ten lassen, sondern daß ein offenkundig nicht-trivialer Bereich rein
syntaktischer Natur zu sein scheint. Nichts anderes jedoch behauptet
die Autonomiethese. Die gesamte Datenverteilung ergibt sich aus
einem Zusammenspiel semantischer und syntaktischer Prinzipien, aber
eben nicht allein aus semantischen Überlegungen.
Ein weiterer Bereich, bei dem zunächst eine rein semantische Erklä-
rung naheliegt, ist die Verwendung von Reziprokpronomina wie etwa
deutsch einander oder englisch each other. So ist die Ungrammatikalität
von (44) sicher darauf zurückzuführen, daß die Verwendung eines
Reziprokpronomens das Vorhandensein von mindestens zwei Bezugs-
personen voraussetzt (cf. Dougherty 1969):

(44) *John likes each other

Wenngleich eine solche semantische Erklärung sicherlich zutreffend


ist, so hat Chomsky (1973) gezeigt, daß die Verteilung von each other
auch von rein syntaktischen Prinzipien gesteuert wird. Betrachten wir
zunächst die gleichbedeutenden Sätze (45a) und (45b):

(45 a) each of the men likes the other


(45 b) the men like each other

Entscheidend ist jedoch, daß nur die Konstruktion (45 a) über eine Satz-
grenze hinaus gehen kann, wie (46) zeigt:

(46a) each of the men believes that John likes the other
(46b) *the men believe that John likes each other

Daß sich each other in (46b) nicht auf the men beziehen kann, kann
offensichtlich keine semantischen Gründe haben, da sonst auch (46a)
ungrammatisch sein müßte. Auch hier zeigt sich, daß neben semanti-
schen Regularitäten auch autonome syntaktische Prinzipien die Daten-
verteilung steuern (cf. Chomsky 1980).
Ein weiteres Phänomen, das zunächst eine semantische Erklärung
nahezulegen scheint, betrifft die Tatsache, daß Konstituenten, die sich
etwa innerhalb indirekter Fragen oder innerhalb von Koordinations-
strukturen befinden, selbst nicht erfragt werden können (cf. Ross
1967a; Chomsky 1973):
(47a) Hans traf Egon und Fritz
(47b) *wen traf Hans Egon und - (Antwort: Fritz)
(47c) *wen traf Hans - und Fritz (Antwort: Egon)
(48a) Hans weiß nicht, warum Dagmar ein Auto gekauft hat
(48b) *was weiß Hans nicht, warum Dagmar - gekauft hat
Man mag nun im Sinne einer semantischen Erklärung annehmen, daß
(47b) und (47c) deshalb ungrammatisch sind, weil ein koordinierter
Ausdruck wie Egon und Fritz eine inhaltliche Einheit ist, die nicht
durch die Erfragung einer Konstituenten »aufgebrochen« werden darf.
In ähnlicher Weise ließe sich vermuten, daß eine Konstituente innerhalb
eines Fragesatzes deshalb nicht erfragt werden kann, weil Fragen inner-
halb einer Frage aus semantisch-logischen Gründen nicht möglich
sind. Bei genauerer Betrachtung erweisen sich diese Erklärungen
jedoch als nicht haltbar. In einer Sprache wie etwa dem Japanischen
sind die zu (47b), (47c) und (48b) analogen Sätze völlig grammatisch.
Der hier entscheidende Unterschied zwischen dem Japanischen und
dem Deutschen betrifft die Tatsache, daß im Japanischen das Fragewort
nicht am Satzanfang erscheint, sondern in seiner ursprünglichen Kon-
stituentenposition verbleibt:
(49a) Hans-wa Egon-to Fritz-ni atta
Hans(nom.) Egon- und Fritz(dat.) traf
»Hans traf Egon und Fritz«
(49b) Hans-wa dare-to Fritz-ni atta (dare = wer)
»Hans traf wen und Fritz«
(49c) Hans-wa Egon-to dare-ni atta
»Hans traf Egon und wen«
(50a) Dagmar-ga doshite kuruma-o katta-ka Hans-ga shi-
ranai
Dagmar(nom.) warum Auto(acc.) kaufte Hans weiß
nicht
»Hans weiß nicht, warum Dagmar ein Auto kaufte«
(50b) Dagmar-ga doshite nani-o katta-ka Hans-ga shiranai
(nani = was)
»Hans weiß nicht, warum Dagmar was kaufte«
Die Ungrammatikalität von (47b), (47c) und (48b) ergibt sich also nicht
aus dem Umstand, daß Koordinationen oder indirekte Fragesätze
semantische Inseln für die Fragen sind, sondern daß im Deutschen die
Fragebildung einen syntaktischen Prozeß involviert, der Fragewörter an
die Satzanfangsposition bewegt. Koordination und indirekte Fragesät-
ze sind aber Inseln für diesen syntaktischen Prozeß.
Daß es sich hier um ein syntaktisches Phänomen handelt, kann man
auch daran erkennen, daß die japanischen Sätze ungrammatisch wer-
den, sobald das Fragewort nicht mehr an seiner ursprünglichen Posi-
tion verbleibt, sondern aus der betreffenden Struktur herausbewegt
wird. Dies geschieht etwa bei der Topikalisierung, durch die das Frage-
wort eine besondere Hervorhebung erfährt:

(51a) Hans-wa dare-ni atta


Hans(nom.) wen(dat.) traf
»wen traf Hans?«
(51b) Hans-wa atta-no-wa dare desuka
Hans(nom.) traf-NOM wer ist
»wer ist es, den Hans traf?«

In (51b) wird der Satz Hans traf durch die Partikel no-wa nominalisiert;
dare (=wer) erscheint nun nicht mehr innerhalb dieses Satzes, sondern
wird offenkundig in eine Position vor der Kopula herausbewegt. Ent-
scheidend ist nun, daß eine Konstruktion wie (51b) den gleichen
Restriktionen wie die deutsche Fragebildung unterliegt. Dementspre-
chend sind (52a)-(52c) ungrammatisch:

(52a) *Hans-wa Egon-to atta-no-wa dare desuka


Hans Egon-und traf-NOM wer ist
»wer ist die Person, für die gilt, daß Hans Egon und diese
Person traf?«
(52b) *Hans-wa (to) Fritz-ni atta-no-wa dare desuka
Hans und Fritz traf-NOM wer ist
»wer ist die Person, für die gilt, daß Hans diese Person
und Fritz traf?«
(52c) *Dagmar-ga doshite katta-ka Hans-ga shiranai-no-wa
Dagmar warum kaufte Hans weiß nicht-NOM
nan desuka
was ist
»welches ist die Sache, für die gilt, daß Hans nicht weiß,
warum Dagmar diese Sache gekauft hat?«
Auch diese Beispiele zeigen, daß die Fragebildung Regularitäten auf-
weist, die offenkundig unabhängig von der Semantik von Fragen sind.
Derartige Regularitäten spiegeln vielmehr syntaktische Prozesse wider,
die Restriktionen unterliegen, die nur auf der Grundlage eines gramma-
tischen Vokabulars spezifiziert werden können. Nicht mehr und nicht
weniger behauptet die Autonomiethese. Wer also diese These widerle-
gen will, kann sich nicht darauf beschränken, irgendwelche semanti-
schen Regularitäten und Abhängigkeiten aufzuzeigen, sondern er muß
für die einschlägigen Phänomene, von denen wir hier nur einzelne Bei-
spiele aufgeführt haben, eine adäquate semantische Erklärung vorle-
gen; soweit uns bekannt, ist dies bislang noch niemandem gelungen.

2.3 Syntax und Funktionalismus

Einen weitverbreiteten Ansatz, der sich ebenfalls als Konkurrenz zur


Autonomiehypothese versteht, stellt die Funktionale Grammatik dar
(cf. etwa Erteshik-Shir 1973; Dik 1978, 1981; Givon 1979a; Bates &
McWhinney 1982; Foley & Van Valin 1984). Sie geht von der These aus,
daß sich die syntaktischen Gesetzmäßigkeiten natürlicher Sprachen aus
pragmatischen und textstrukturellen Prinzipien im Wechselspiel mit
semantischen Faktoren ableiten lassen. Zur funktionalistischen Kritik
an der Autonomiethese läßt sich im Grunde nur wiederholen, was wir
bereits in Kap. 2.2 im Zusammenhang mit semantischen Erklärungen
gesagt haben. Die Autonomiethese bestreitet keineswegs, daß für
bestimmte sprachliche Phänomene, die sich intuitiv dem Bereich der
Syntax zuordnen lassen, eine funktionalistische Erklärung möglich
und plausibel ist; sie bestreitet lediglich, daß sich sämtliche syntakti-
schen Phänomene aus semantisch-pragmatischen bzw. textstrukturel-
len Prinzipien ableiten lassen. Die Autonomiethese behauptet, daß es
eben einen autonomen syntaktischen Bereich gibt, der sich auf keinerlei
nicht-syntaktische Gesetzmäßigkeiten reduzieren läßt. Wir haben
bereits im vorangegangenen Kapitel eine Reihe von Beispielen aufge-
führt, für die von der Autonomiethese eine rein syntaktische Erklärung
postuliert wird. Hierzu gehören u.a. auch die folgenden Phänomene:
a) aus bestimmten komplexen Nominalphrasen dürfen Fragewör-
ter nicht herausbewegt werden:
(53a) who did you see pictures of
(53b) *who did you see John's pictures of
b) Anaphern wie each other können nur als Subjekt eines Infinitivsat-
zes, nicht jedoch als Subjekt eines finiten Satzes erscheinen:

(54a) the students expect each other to win the game


(54b) *the students expect that each other will win the game

c) aus that-Sätzen darf das Subjekt bei der Fragebildung nicht extra-
hiert werden; fehlt die Konjunktion that, so ist die Extraktion möglich:

(55a) who does John believe that Mary loves


(55b) who does John believe Mary loves
(55c) *who does John believe that loves Tom
(55d) who does John believe loves Tom

Die einschlägige funktionalistische Literatur schweigt sich zu solchen


Datenverteilungen beständig aus und präsentiert statt dessen ein Viel-
zahl von sprachlichen Phänomenen, für die - zu Recht oder zu
Unrecht - eine funktionale Begründung vermutet wird. Damit argu-
mentieren die Vertreter des Funktionalismus an den zentralen Aussa-
gen der Autonomiethese vorbei.
Ein bevorzugter Bereich funktionalistischer Erklärungen ist die
Passivkonstruktion, so daß wir die grundlegende Problematik exem-
plarisch an diesem Strukturtyp darstellen wollen. Zunächst zeigt sich
bei funktionalistischen Erklärungsansätzen vielfach, daß Gesetzmä-
ßigkeiten bei der Verwendung optionaler Regeln gerne mit deren
struktureller Fundierung verwechselt werden. So weisen etwa Foley &
Van Valin (1984) darauf hin, daß die Funktion des Passivs darin
besteht, das Agens eines transitiven Verbs zu detopikalisieren und das
logische Objekt zu topikalisieren. Das Passiv dient also dazu, die
Fokusverteilung des Aktivs umzukehren. Ebenso betonen die beiden
Autoren, daß Subjekte weitaus mehr syntaktische Optionen als
Nicht-Subjekte besitzen, so daß die Passivkonstruktion dem logi-
schen Objekt eine Möglichkeit eröffnet, diese syntaktischen Optio-
nen auszuschöpfen, wenn dies für die Textgestaltung sinnvoll oder
erforderlich ist. So können etwa im Englischen nur Subjekte, nicht
aber Objekte bei Identität mit einem vorangehenden nominalen Aus-
druck getilgt werden. (56a) in der Bedeutung von (56b) ist somit mög-
lich, nicht hingegen (57a) in der Lesart (57b). Ebenso erlauben Gerun-
dial- und Infinitivkonstruktion unter bestimmten Bedingungen die
Auslassung des Subjekts, aber nicht des Objekts; dadurch ergeben
sich die Kontraste in (58) und (59).
(56a) John kissed Mary and attacked Tom
(56b) »Johni kissed Mary and Johni attacked Tom«
(57a) *John kissed Mary and Bill attacked
(57b) »John kissed Mary; and Bill attacked Maryi«
(58a) knowing the answer, John responded immediately
(58b) *John knowing, he gave the answer immediately
(59a) I began to attack my brother
(59b) *I began my brother to attack
Die Passivkonstruktion bietet nun die Möglichkeit, unter Beibehaltung
der Tilgungsverhältnisse entsprechend grammatische Sätze zu bilden:
(57a') John kissed Mary and was attacked by Bill
(58b') being known to John, the answer did not surprise anyone
(59b') I began to be attacked by my brother
Nun ist es durchaus legitim und sinnvoll, die Verwendungsgesetzmä-
ßigkeiten einer Regel zu beschreiben; nur ersetzt eine solche Beschrei-
bung nicht die Spezifizierung der Regel selbst. Die Funktion einer
Regel ist also nicht gleichzusetzen mit den strukturellen Eigenschaften
der Regel. Dies läßt sich etwa an der deutschen Passivkonstruktion illu-
strieren, die eine Vielzahl von interessanten Gesetzmäßigkeiten auf-
weist, die mit ihrer Funktion im Sinne von Foley & Van Valin (1984)
überhaupt nichts zu tun haben:
a) Verben mit Dativobjekt bilden ein »unpersönliches Passiv«, wäh-
rend bei Verben mit Akkusativobjekt dies im Passiv als Subjekt auftritt:
(60a) der Arzt half dem Mann
(60b) dem Mann wurde geholfen
(60c) *der Mann wurde geholfen
(61a) der Arzt heilte den Mann
(61b) *den Mann wurde geheilt
(61c) der Mann wurde geheilt
b) Zwar können sowohl transitive als auch intransitive Verben das Pas-
siv mit werden bilden, aber nur transitive Verben erlauben das Passiv
mit bekommen (cf. Höhle 1978; Eroms 1978):
(62a) Hans widerlegte mir meine Theorie
(62b) mir wurde meine Theorie widerlegt
(62c) ich bekam meine Theorie widerlegt
(63 a) man tanzte auf der Terrasse
(63b) auf der Terrasse wurde getanzt
(63c) *auf der Terrasse bekam getanzt
c) Nur bei wenigen Verben ist die Passivierung eines eingebetteten
Objekts erlaubt, so daß sich Kontraste wie in (64) und (65) ergeben (cf.
Höhle 1978):

(64a) man begann, einen neuen Stall zu bauen


(64b) ein neuer Stall wurde zu bauen begonnen
(65a) man bat, einen neuen Stall zu bauen
(65b) *ein neuer Stall wurde zu bauen gebeten

d) Intransitive Verben können nur dann ein Passiv bilden, wenn sie ihr
Perfekt mit haben und nicht mit sein bilden (cf. Burzio 1981; Fanselow
1987b):

(66a) es wurde bis spät in die Nacht getanzt


(66b) hier darf nicht so viel geschimpft werden
(67a) *es wurde die Treppe heruntergefallen
(67b) *heute darf nicht so früh angekommen werden

Diese Beispiele zeigen, daß die Passivkonstruktion einer Vielzahl von


äußerst subtilen und komplexen Restriktionen unterliegt, deren
zugrundeliegende Prinzipien wir ausführlich in Band II darstellen wer-
den. Es ist nicht erkennbar, wie diese Restriktionen unter funktiona-
listischer Perspektive erklärt werden können, und in der Tat liegen hier-
für keinerlei ernstzunehmende Vorschläge von Seiten der Vertreter des
Funktionalismus vor. In der Tat könnte das Passiv seine Fokussierungs-
funktion weitaus besser erfüllen, wenn derartige Restriktionen nicht
bestünden.
Vollends merkwürdig wird der funktionalistische Ansatz freilich
dann, wenn man - wie Foley & Van Valin - die Betrachtung auf Spra-
chen ausdehnt, in denen das Passiv eine völlig andere Funktion zu
haben scheint. So kennen etwa die Bantu-Sprachen eine syntaktisch
relevante Prominenzhierarchie im Bereich der nominalen Ausdrücke:
Nominalphrasen in der 1. Person sind prominenter als solche in der 2.
Person; es folgen Nominalphrasen der 3. Person, wobei menschliche
Denotata vor belebten nicht-menschlichen, und diese wiederum vor
Abstrakta und unbelebten Konkreta rangieren. Nach Foley & Van
Valin besteht die Aufgabe des Passivs im Bantu darin, die jeweils promi-
nenteste Nominalphrase zum Satzsubjekt zu machen. Andererseits
zeigt sich jedoch, daß das Bantu-Passiv alle wesentlichen syntaktischen
Eigenschaften des deutschen Passivs zu teilen scheint. Daraus ergibt
sich, daß die syntaktischen Eigenschaften des Bantu-Passivs eben nicht
- im Sinne einer funktionalistischen Erklärung - Reflex der Pronomi-
nahierarchie bzw. der damit einhergehenden pragma-stilistischen Fak-
toren sein können; denn diese Faktoren fehlen im Deutschen. Mit
anderen Worten, die syntaktischen Charakteristika des Passivs beste-
hen offensichtlich im Deutschen oder im Bantu unabhängig davon, für
welche Zwecke man das Passiv in der jeweiligen Sprache verwendet.
Besonders anfällig für funktionalistische Erklärungsversuche schei-
nen auch die Begriffe Subjekt und Objekt zu sein (cf. Chafe 1976;
Givon 1976). Intuitiv liegt durchaus die Vermutung nahe, Subjekt und
Objekt seien ein Reflex pragmatischer Distinktionen. So könnte man
etwa annehmen, daß das Subjekt den Ausgangspunkt oder den Initiator
einer Handlung bzw. eines Geschehens bezeichnet, während das
Objekt das Ziel oder den Rezipienten angibt.
Bei genauer Betrachtung zeigt sich jedoch, daß Subjekt und Objekt
eben doch rein syntaktische Begriffe sind (cf. Keenan 1976; Marantz
1984), die sich nicht über pragmatische oder stilistische Regularitäten
erfassen lassen. Das Subjekt kann in der Tat eine Vielzahl von sehr
unterschiedlichen semantischen Rollen und thematischen Rollen über-
nehmen (cf. Reis 1982):

(68a) Hans schreibt einen Brief (=Agens)


(68b) Hans erhält einen Brief (=Empfänger)
(68c) Hans kennt die Wahrheit (=>Experiencer<)
(68d) die Dose enthält ein Loch ( = Ort)
(68e) dieses Messer schneidet schlecht (=Instrument)
(68f) es regnet (keine Rolle)

Darüber hinaus können sich die thematischen Rollen bei verschiedenen


Verben komplementär in Subjekt und Objekt verteilen:

(69a) Hans verkaufte Fritz ein Auto


(69b) Fritz kaufte von Hans ein Auto
(70a) dem Lehrer unterlief ein Fehler
(70b) der Lehrer machte einen Fehler

Ebenso können nicht nur nominale Ausdrücke, sondern auch Sätze in


Subjektposition auftreten, ohne daß hier eine eindeutige thematische
Funktion spezifizierbar wäre (cf. Reis 1982):

(71) daß Fritz verlieren wird ist doch klar


(72) in Passau Linguistik zu studieren erfreut jeden Studenten

Andererseits unterliegt die Besetzung der Subjektposition Restriktio-


nen, die einer funktionalistischen Perspektive geradezu zuwiderlaufen:
(73) *auf dem Berg liegt in Wolken

Unter semantisch-pragmatischen Gesichtspunkten ist (73) völlig in


Ordnung. Die Präpositionalphrase auf dem Berg gibt einen Ort an und
von diesem Ort wird gesagt, daß er in Wolken liegt. Daß Subjekte eine
Ortsangabe enthalten ist nicht ungewöhnlich, wie etwa (68d) zeigt.
(73) ist nicht deshalb ungrammatisch, weil pragmatische oder semanti-
sche Prinzipien verletzt sind, sondern allein, weil im Deutschen Präpo-
sitionalphrasen nicht in Subjektposition auftreten können; und dies ist
eine rein syntaktische Regularität.
Die meisten Sprachen verfügen über die Möglichkeit, einzelne Ele-
mente eines Satzes besonders hervorzuheben. Im Deutschen geschieht
dies etwa dadurch, daß die Elemente an die Satzanfangsposition bewegt
werden:

(74a) Hans hat in Passau von seinem Freund ein Auto gekauft
(74b) in Passau hat Hans von seinem Freund ein Auto gekauft
(74c) von seinem Freund hat Hans in Passau ein Auto gekauft
(74d) ein Auto hat Hans von seinem Freund in Passau gekauft

Auf den ersten Blick scheint eine solche Topikalisierungsregel eine


funktionalistische Erklärung geradezu herauszufordern (cf. Engel
1977:217-221). Letztlich dient diese Regel dazu, eine bestimmte stilisti-
sche Funktion auszuüben, nämlich ein Satzelement hervorzuheben. Es
zeigt sich jedoch, daß diese Topikalisierung einigen sehr merkwürdigen
Restriktionen unterliegt, die sich kaum pragmatisch erklären lassen. So
läßt sich der verbale Ausdruck gekauft mit beliebigen Konstituenten in
beliebiger Reihenfolge topikalisieren, nur nicht mit dem Subjekt Hans
(cf. Thiersch 1982; Haider 1983):

(75a) in Passau ein Auto gekauft hat Hans von seinem Freund
(75b) in Passau von seinem Freund gekauft hat Hans ein Auto
(75c) ein Auto in Passau von seinem Freund gekauft hat Hans
(75d) *Hans gekauft hat in Passau von seinem Freund ein Auto

Auch im Englischen ist die Topikalisierung Restriktionen unterworfen,


die aus pragmatisch-funktionalistischer Perspektive rätselhaft erschei-
nen müssen. So lassen sich zwar finite, aber keine infiniten Sätze topi-
kalisieren (Koster 1979):
(76a) John had never expected that Mary would come to the
party
(76b) that Mary would come to the party, John had never
expected
(76c) John had never expected Mary to come to the party
(76d) *Mary to come to the party, John had never expected

Zuweilen zeigen natürliche Sprachen Gesetzmäßigkeiten, die sich nicht


nur nicht funktionalistisch erklären lassen, sondern einer funktiona-
listisch naheliegenden und sinnvollen Interpretation geradezu zuwider-
laufen. Mit anderen Worten, unter pragmatischen Gesichtspunkten
drängen sich Lesarten auf, die die entsprechenden Strukturen gerade
nicht haben. Ein besonders augenfälliges Beispiel hierfür findet sich in
Chomsky (1984):

(77a) John is eating an apple


(77b) John is eating
(78a) John is too stubborn to talk to Bill
(78b) John is too stubborn to talk to

Betrachten wir zunächst das Satzpaar (77). Die beiden Sätze unterschei-
den sich darin, daß in (77a) das, was gegessen wird, explizit genannt
wird, i.e. ein Apfel. In (77b) hingegen bleibt das Objekt des Essens
unspezifiziert. (77b) ließe sich also paraphrasieren als Hans ißt irgend-
etwas, aber was dies ist, bleibt offen. Unter funktionalistisch-pragmati-
schen Gesichtspunkten ist dieser syntaktische Kontrast durchaus ver-
ständlich. Es ist vernünftig, einen Gegenstand oder eine Handlung nur
dann explizit zu nennen, wenn dies für die intendierte Mitteilung wich-
tig und essentiell ist. Natürlich weiß jeder Gesprächspartner, daß die
Handlung des Essens impliziert, daß irgendetwas gegessen wird; aber
es mag Situationen geben, in denen es unnötig oder unerwünscht ist,
das Objekt des Essens näher zu spezifizieren. Unter einer funktionali-
stischen Perspektive wäre daher zu erwarten, daß natürliche Sprachen
so strukturiert sind, daß das Objekt einer Handlung entweder lexika-
lisch spezifiziert wird, oder bei Bedarf ungenannt bleibt und somit
irgendein beliebiges Objekt ist. Betrachten wir nun (78a). Das implizite
Subjekt des eingebetteten Satzes to talk to Bill ist offensichtlich John.
Das Objekt der Sprechhandlung ist explizit genannt, i.e. es ist Bill. Der
Satz ließe sich also wie folgt paraphrasieren: Hans ist zu halsstarrig als
daß er (=Hans) mit Bill sprechen würde. In (78b) hingegen bleibt das
Objekt von to talk to ungenannt. In Analogie zu (77b) wäre nun unter
Berücksichtigung der genannten pragmatischen Gesichtspunkte zu
erwarten, daß nunmehr irgendeine beliebige Person, die nicht näher
genannt werden soll, gemeint ist. Dementsprechend wäre (78b) zu
paraphrasieren als: Hans ist zu halsstarrig, als daß er (=Hans) mit irgend-
einer beliebigen Person sprechen würde. Doch diese Lesart ist für (78b)
gerade nicht möglich. Der Satz kann nur bedeuten: Hans ist zu halsstar-
rig, als daß irgendeine Person mit ihm (=Hans) sprechen würde. Dies
bedeutet, daß in (78b) - im Gegensatz zu (77b) - das explizite Fehlen
des Objekts nunmehr Hans und nicht etwa irgendeine beliebige Person
zum Objekt der Sprechhandlung macht. Demgegenüber tritt nun die
beliebige Person als implizites Subjekt auf. Auch dieses Phänomen deu-
tet in sehr drastischer Weise darauf hin, daß sich die Struktur natürli-
cher Sprachen eben nicht strikt nach funktionalistischen oder pragmati-
schen Kriterien richtet, sondern derartigen Gesichtspunkten sogar
zuwiderlaufen kann.
Im Prinzip ließe sich die Liste von Beispielen beliebig fortführen.
Sie alle zeigen, daß natürliche Sprachen eben nicht rein funktionale
Gebilde sind, sondern über Struktureigenschaften verfügen, die zuwei-
len dem pragmatisch Sinnvollen und Naheliegenden eher entgegenwir-
ken. Natürlich haben Sprachen mannigfaltige Funktionen und diese
spiegeln sich zweifellos auch in einer Reihe von Merkmalen wider, aber
natürliche Sprachen lassen sich nicht auf ihre Funktionalität reduzie-
ren. Genau diese Einsicht liegt jedoch der Autonomiethese zugrunde:
das, was wir als Sprache bezeichnen, ergibt sich aus dem Zusammen-
spiel höchst unterschiedlicher Komponenten, von denen eine eben die
Grammatik als eigenständiges und autonomes Struktur- und Wissens-
system ist.
Das logische Problem des Spracherwerbs

3.1 Das Lernbarkeitskriterium

Die erklärte Zielsetzung der generativen Sprachtheorie, das unserem


grammatischen Wissen zugrundeliegende System mentaler Repräsen-
tationen zu spezifizieren, führt natürlich zu der Frage, wie bei der
Bewerkstelligung dieser Aufgabe im einzelnen vorzugehen ist. Dies ist
zunächst, aber nicht ausschließlich, ein methodisches Problem. Wie
wir bereits in Kap. 1.2 dargestellt haben, basiert das am weitesten ver-
breitete und bislang erfolgreichste Verfahren auf Grammatikalitätsur-
teilen1. Dahinter steht die Idee, daß es für die Bestimmung der menta-
len Fundierung eines bestimmten Wissenssystems zunächst sinnvoll ist
zu fragen, worin denn das Wissen in dem betreffenden Gebiet besteht
(cf. Chomsky 1975), und offenkundig manifestiert sich ein Aspekt die-
ses Wissens in der prinzipiellen Fähigkeit des erwachsenen Sprechers,
für beliebige Sätze anzugeben, ob sie in seiner Sprache möglich sind
oder nicht. Eine grundsätzlich analoge Verfahrensweise finden wir
auch in anderen Disziplinen der kognitiven Wissenschaften, etwa in der
Wahrnehmungspsychologie. Hier versucht man zunächst, die perzep-
tuellen Leistungen, zu denen z.B. der Mensch prinzipiell fähig bzw.
nicht fähig ist, möglichst umfassend und präzis zu spezifizieren, um
sich darauf aufbauend die Frage zu stellen, über welche Struktureigen-
schaften ein kognitiver Mechanismus verfügen muß, der genau diese
Leistungen erbringt. In ähnlicher Weise geht die generative Sprachtheo-
rie von Grammatikalitätsurteilen aus und versucht, einen formalen
Mechanismus (i.e. einen Algorithmus) zu erstellen, der das den Gram-

1 In jüngerer Zeit hat man verstärkt auch auf Daten aus dem Bereich der Sprach-
verarbeitung (z.B. Marcus 1980; Frazier & Fodor 1978; Berwick & Weinberg
1982, 1983), der Aphasiologie (cf. Kean 1985) und der Psycholinguistik (cf. Wan-
ner & Gleitman 1982; White 1982; Felix 1987) zurückgegriffen. Dennoch sind
Grammatikalitätsurteile nach wie vor das vorherrschende Arbeitsinstrument
generativer Grammatiker. Dieser Umstand hat jedoch keine prinzipiellen Grün-
de; grundsätzlich sind alle Datenbereiche heranzuziehen, aus denen Einsichten
in theoretisch relevante Aspekte des menschlichen Sprachvermögens gewonnen
werden können (cf. auch Chomsky 1981:9)
matikalitätsurteilen zugrundeliegende Wissen modelliert. Dieser Algo-
rithmus muß offensichtlich so beschaffen sein, daß er in systematischer
Art und Weise genau die Klasse der in der betreffenden Sprache mögli-
chen Sätze spezifiziert und sie somit von den ungrammatischen Sätzen
unterscheidet. In der generativen Terminologie wird ein solcher Algo-
rithmus als »Grammatik« bezeichnet.
Hierbei taucht nun ein grundsätzliches Problem auf. Mathematisch
läßt sich nachweisen, daß es für einen gegebenen Satz von Daten stets
mehr als eine Grammatik gibt, die das oben genannte Kriterium erfüllt
(cf. Kratzer et al. 1974). Die Vielfalt derartiger Grammatiken hängt u.a.
davon ab, welche formalen Anforderungen man an sie stellt (cf. Baker
1979:537-541). So könnte man etwa von der betreffenden Grammatik
lediglich verlangen, daß sie angibt, ob ein gegebener Satz in einer Spra-
che möglich ist oder nicht. Eine Grammatik, die diese Bedingung
erfüllt, bezeichnet man als beobachtungsadäquat (»observationally
adequate«). Eine stärkere Anforderung wäre, daß die Grammatik nicht
nur angibt, welche Sätze möglich sind, sondern jedem dieser möglichen
Sätze auch eine ganz bestimmte Struktur zuordnet. Grammatiken sol-
cher Art nennt man beschreibungsadäquat (»descriptively adequate«).
Zwei Grammatiken, die für eine gegebene Menge von Sätzen das Krite-
rium der Beobachtungsadäquatheit erfüllen, nennt man schwach äqui-
valent (»weakly equivalent«), während zwei entsprechend beschrei-
bungsadäquate Grammatiken stark äquivalent (»strongly equivalent«)
sind. Wenngleich die Klasse der stark äquivalenten Grammatiken
erheblich kleiner ist als die Klasse der schwach äquivalenten Grammati-
ken, so ist sie immer noch so groß, daß sich die Frage stellt, welche die-
ser Grammatiken denn nun der tatsächlichen mentalen Repräsentation
im »human mind« entspricht.
An einigen einfachen Beispielen aus Baker (1979) wollen wir die
Grundproblematik illustrieren und betrachten hierzu die folgenden
Sätze:

(1a) John gave the book to Alice


(1b) John gave Alice the book
(2a) we sent a letter to him
(2b) we sent him a letter

In der Standardtheorie (Chomsky 1965) wurde eine Transformationsre-


gel wie (3) angenommen, die Dativkonstruktionen mit to wie in (1a)
und (2a) in entsprechende Sätze ohne to wie in (1b) und (2b) umformt.
Diese Regel wird üblicherweise als dative movement bezeichnet. Der
Doppelpfeil ist eine notationelle Konvention, nach der die durchnumme-
rierten Konstituenten in der angegebenen Weise umgestellt werden
sollen:

(3) X-V-NP-to-NP
1 2 3 4 5
=> 1, 2, 5 + 3, Ø, Ø

Das Grundproblem dieser Transformationsregel liegt darin, daß sie


auch ungrammatische Sätze wie in (4b) und (5b) generiert:

(4a) George said something uncharitable to Maxine


(4b) *George said Maxine something uncharitable
(5a) we reported the accident to the police
(5b) *we reported the police the accident

Die Anwendbarkeit der Regel (3) ist somit bestimmten lexikalischen


Restriktionen unterworfen, die von dem jeweiligen Verb abhängen;
d.h. bei give und send ist (3) anwendbar, bei say und report nicht. Derar-
tige Restriktionen lassen sich im Lexikoneintrag der jeweiligen Verben
spezifizieren: Verben wie say oder report enthalten dementsprechend
in ihrem Lexikoneintrag ein negatives Regelmerkmal [-dative move-
ment], das die Anwendung von (3) verbietet. In allen anderen Fällen ist
(3) grundsätzlich anwendbar.
Zu dieser transformationellen Behandlung der obigen Daten gibt es
eine phrasenstrukturelle Alternative, die gleichermaßen beschreibungs-
adäquat ist, d.h. sie generiert exakt die gleichen Sätze mit den gleichen
Strukturbeschreibungen. Im Rahmen dieser Alternative werden zwei
verschiedene Phrasenstrukturregeln angesetzt, eine für die Konstruk-
tion mit und eine für die Konstruktion ohne to:

(6a) VP -> V NP PrepP


(6b) VP -> V NP NP

Um die korrekte Datenverteilung zu erhalten, werden nunmehr für die


einzelnen Verben verschiedene Subkategorisierungsrahmen2 spezifi-
ziert:

2 Subkategorisierung bezieht sich auf die unterschiedlichen syntaktischen Struk-


turen, in denen verschiedene Verben obligatorisch auftreten müssen. So ver-
langt etwa sehen ein direktes Objekt, geben ein direktes und indirektes Objekt,
glauben ein direktes Objekt, eine Präpositionalphrase oder einen eingebetteten
Satz.
(7a) send <_____NP to NP>, <_____NP NP>
(7b) give <_____NP to NP>, <_____NP NP>
(7c) say <_____NP to NP>
(7d) report <_____NP to NP>

Der hier geschilderte Fall ist keineswegs ein Einzelphänomen. Auch die
folgende Datenlage läßt sich auf unterschiedliche Weise gleichermaßen
beschreibungsadäquat erfassen:

(8a) the child seems to be happy


(8b) the child seems happy
(9a) John appears to be reluctant to leave
(9b) John appears reluctant to leave
(10a) Fred happens to be sleepy
(10b) *Fred happens sleepy
(11a) the baby seems to be sleeping
(11b) *the baby seems sleeping
(12) X - to be - Y
1 2 3
=> 1, Ø, 3

Auch bei diesen Daten ließe sich einerseits eine Transformationsregel


wie (12) ansetzen, die auf die jeweiligen (a)-Sätze angewandt wird und
die Kopula to be tilgt. Um ungrammatische Sätze wie (10b) und (11b)
auszuschließen, wäre die lexikalische Umgebung zu spezifizieren, in
der (12) nicht zulässig ist. Andererseits könnte man aber auch - wie im
vorangehenden Fall - zwei verschiedene Phrasenstrukturregeln (eine
mit Satzkomplement und eine mit Adjektivphrasenkomplement) anset-
zen, wobei der für jedes einzelne Verb im Lexikon eingetragene Subka-
tegorisierungsrahmen angibt, welches Verb mit welcher dieser beiden
Phrasenstrukturen auftreten kann. Weitere ähnlich gelagerte Beispiele
finden sich in Baker (1979).
Aufgrund dieses Sachverhaltes ergibt sich für eine Grammatiktheo-
rie, deren erklärtes Ziel die Spezifizierung der mentalen Repräsentation
sprachlichen Wissens ist, ein fundamentales Problem. Da die relevan-
ten Daten auf unterschiedliche Weise beschreibungsadäquat erfaßt wer-
den können, stellt sich die Frage, welches dieser alternativen Regelsy-
steme nun dasjenige ist, das tatsächlich im Kognitionsapparat des
erwachsenen Sprechers repräsentiert ist. Da diese Frage ex hypothesi (es
handelt sich ja in allen Fällen um beschreibungsadäquate Regelsysteme)
nicht über die reine Datenanalyse beantwortet werden kann, muß ein
ein zusätzliches Entscheidungskriterium gefunden werden. Mit ande-
ren Worten, wir brauchen ein Maß, das alternative beschreibungsadä-
quate Grammatiken bzw. Teilgrammatiken hinsichtlich ihrer kognitiven
Verankerung evaluiert. Welche ist die tatsächliche mentale Grammatik?
Das entscheidende Kriterium zur Evaluierung unterschiedlicher
beschreibungsadäquater Grammatiken kommt aus dem Bereich des
Spracherwerbs. Eine Grammatik ist offenkundig nur dann ein plausi-
bles Modell der mentalen Repräsentation sprachlichen Wissens, wenn
sie unter den üblichen Bedingungen des natürlichen Spracherwerbs
auch erlernt werden kann. Da Kinder ja nicht mit der Kenntnis ihrer
Muttersprache geboren werden, sondern diese erst erwerben müssen,
scheidet eine Grammatik, die aus prinzipiellen Gründen nicht erlern-
bar ist, als Modell sprachlichen Wissens aus. Etwas salopp ausge-
drückt: wenn eine Grammatik Wissen beschreibt, das wir im Kopf
haben, so muß grundsätzlich auch gewährleistet sein, daß ein solches
Wissen in den Kopf hineinkommen kann. Das Lernbarkeitskriterium
ist somit der entscheidende Maßstab für die Beurteilung unterschiedli-
cher, aber gleichermaßen beschreibungsadäquater Analysen. Ziel der
linguistischen Theorie ist es, ein Modell grammatischen Wissens zu ent-
werfen, das einerseits die tatsächlichen Fähigkeiten des erwachsenen
Sprechers widerspiegelt und andererseits das Lernbarkeitskriterium
erfüllt.
In sehr allgemeiner Form läßt sich das Lernbarkeitsproblem etwa
wie folgt formulieren: was versetzt ein Kind in die Lage, unter den übli-
chen Bedingungen eine beliebige natürliche Sprache als Muttersprache
zu erwerben? Eine offenkundige Voraussetzung für den Spracherwerb
ist nun sicherlich, daß das Kind der betreffenden Sprache in seiner
Umgebung ausgesetzt ist. Diese Beobachtung scheint trivial zu sein,
und so ist der Laie vielfach geneigt, das Lernbarkeitsproblem mit dem
Hinweis abzutun, daß Kinder ihre Muttersprache deshalb erlernen,
weil sie tagtäglich mit dem Gebrauch von Sprache und mit sprachlichen
Handlungen konfrontiert sind. Bei genauer Betrachtung kann eine sol-
che Antwort jedoch nicht ausreichen. Sprachliche Erfahrung ist zwei-
fellos eine notwendige, jedoch keine hinreichende Bedingung für den
Spracherwerb. Auch Hunde, Katzen und andere Haustiere sind alltäg-
lich sprachlichen Handlungen ausgesetzt, aber dennoch erwerben sie -
im Gegensatz zum Kind - natürliche Sprachen nicht. Daraus folgt, daß
ein Lebewesen nur dann etwas lernen kann, wenn es mit einem Lern-
mechanismus ausgestattet ist, dessen Eigenschaften der zu bewältigen-
den Aufgabe angemessen sind.
Man mag nun annehmen, daß der für den Spracherwerb relevante
Lernmechanismus primär kognitiver Natur ist; i.e. was den Menschen
in diesem Bereich von anderen Lebewesen unterscheidet, ist nicht etwa
seine spezifische Anatomie oder Physiologie, sondern die Struktur sei-
ner Kognition. Das Lernbarkeitsproblem involviert somit vor allem
drei Aspekte, die zueinander in Beziehung zu setzen sind: a) die Struk-
tur des (kognitiven) Lernmechanismus; b) den Gegenstand des Ler-
nens, in unserem Fall die Sprache; c) die verfügbare Datenbasis. Die
entscheidende Frage ist nun: welche Struktureigenschaften muß ein
Lernmechanismus bzw. ein Kognitionssystem besitzen, um auf der
Grundlage der üblicherweise verfügbaren Daten, den Erwerb einer
beliebigen natürlichen Sprache zu ermöglichen?
Ausgangspunkt für die Beantwortung dieser Frage bildet das sog.
»poverty-of-stimulus« Argument (cf. Fodor 1975; Baker 1979; Light-
foot 1982). Bei genauer Betrachtung zeigt sich, daß das grammatische
Wissen, das ein Kind im Laufe seiner sprachlichen Entwicklung
erwirbt, durch die ihm verfügbare empirische Evidenz unterdetermi-
niert ist; d.h. das Kind erwirbt Wissen, für das ihm seine sprachliche
Umgebung keinerlei Anhaltspunkte bietet. Vereinfacht ausgedrückt:
am Ende des Erwerbsprozesses weiß das Kind viel mehr, als es auf-
grund seiner sprachlichen Erfahrung eigentlich wissen kann. Nach dem
derzeitigen Stand der Dinge lassen sich vor allem drei Aspekte aufzei-
gen, unter denen das grammatische Wissen, das das Kind erwirbt,
durch die verfügbare Evidenz unterdeterminiert ist:
1. quantitative Unterdeterminiertheit:
die sprachliche Erfahrung des Kindes umfaßt stets nur einen relativ
kleinen Ausschnitt der in einer Sprache möglichen Sätze und Struk-
turen.
2. qualitative Unterdeterminiertheit:
das zu erwerbende Wissen besteht im wesentlichen aus Regeln und
Prinzipien, während die sprachliche Erfahrung aus konkreten
Äußerungen besteht, die lediglich als Exemplifizierung der zu
erwerbenden Regeln und Prinzipien gelten können.
3. Unterdeterminiertheit durch Fehlen negativer Evidenz:
die sprachlichen Daten, die dem Kind zum Erwerb des grammati-
schen Wissens zur Verfügung stehen, enthalten zwar positive, aber
keine negative Evidenz; d.h. das Kind kann an den Daten erkennen,
ob eine Struktur grammatisch ist, aber es kann nicht eindeutig
erkennen, ob eine Struktur ungrammatisch ist.
Die quantitative Unterdeterminiertheit ergibt sich primär aus logischen
Erwägungen und ist letztlich eher trivialer Natur. Die sprachliche
Erfahrung des Kindes ist offenkundig finit; d.h. die Anzahl der Sätze
und Äußerungen, mit denen das Kind im Laufe des Spracherwerbs
konfrontiert wird, mag zwar sehr groß sein, sie ist jedoch in jedem Fall
begrenzt. Dies gilt selbst dann, wenn wir - entgegen der üblichen Auf-
fassung, nach der der Grammatikerwerb in etwa mit dem 6.-7. Lebens-
jahr abgeschlossen ist - den Spracherwerb als einen lebenslangen Pro-
zeß ansehen würden. Damit mag sich die sprachliche Erfahrung zwar
um ein Vielfaches vergrößern, ist jedoch auch dann in jedem Falle end-
lich. Trotz dieser begrenzten Erfahrung umfaßt das grammatische Wis-
sen eines kompetenten erwachsenen Sprechers jedoch, wie wir in Kap.
1.2 dargelegt haben, eine im Prinzip unbegrenzt große Anzahl von Sät-
zen; d.h. der kompetente Sprecher kann auch solche Sätze bezüglich
ihrer Akzeptabilität beurteilen, die er zuvor weder gehört noch selbst
produziert hat. Grammatisches Wissen erstreckt sich somit auch auf
solche Sätze, die unabhängig von der jeweiligen individuellen sprachli-
chen Erfahrung sind. Somit vermittelt die sprachliche Erfahrung
jeweils nur einen kleinen Ausschnitt dessen, was die Sprache an gram-
matischen Ausdrucksmöglichkeiten bereitstellt.
Das Problem der qualitativen Unterdeterminiertheit schließt unmit-
telbar an diese Überlegungen an. Da sich das grammatische Wissen
eines kompetenten Sprechers auf eine im Prinzip unbegrenzt große
Anzahl von Sätzen erstreckt, die Speicherkapazität des Gehirns jedoch
begrenzt ist, kann das grammatische Wissen offensichtlich nicht aus
einer Liste aller in der jeweiligen Sprache möglichen Sätze bestehen.
Vielmehr ist das grammatische Wissen als ein finites System von Regeln
und Prinzipien anzusehen, die so beschaffen sind, daß sie genau die
Klasse der möglichen Sätze spezifizieren (cf. Kap. 1.2). Daraus folgt,
daß das, was das Kind zu erwerben hat, eben nicht eine Menge von Sät-
zen oder Äußerungen ist, sondern genau dieses finite System von
Regeln und Prinzipien. Nun besteht aber der Input des Erwerbsprozes-
ses, i.e. die sprachliche Erfahrung des Kindes, eben nicht aus Regeln
und Prinzipien, sondern aus konkreten Sätzen und Äußerungen.
Wenngleich diese Überlegungen noch relativ wenig darüber aussa-
gen, wie ein Erwerbsmechanismus für natürliche Sprachen konkret
auszusehen hat, so ist doch klar, daß er keine reine »Speichermaschine«
sein kann, die lediglich die sprachlichen Erfahrungsdaten aufzeichnet.
Vielmehr muß ein solcher Mechanismus in irgendeiner Form über
einen Abstraktionsalgorithmus verfügen, der imstande ist, aus dem
Input, i.e. den konkreten Äußerungen, die diesem zugrundeliegenden
Strukturregeln und Prinzipien zu erschließen. Mit anderen Worten, er
muß in der Lage sein, Generalisierungen über konkrete Daten auszu-
führen. Welcher Art diese Generalisierungen sind, bzw. sein müssen,
und wie ein Erwerbsmechanismus mit entsprechenden Fähigkeiten aus-
zusehen hat, werden wir im folgenden noch ausführlich besprechen.
Das zu erwerbende grammatische Wissen wird dem Kind somit
nicht direkt durch seine sprachliche Erfahrung vermittelt, sondern
sozusagen in »verschlüsselter« Form durch konkrete Sätze und Äuße-
rungen. Diese Sätze stellen jedoch lediglich einen begrenzten und weit-
gehend zufälligen Ausschnitt der in der jeweiligen Sprache gegebenen
Strukturmöglichkeiten dar. Eltern und Spielkameraden sprechen mit
Kindern, um ihnen bestimmte Inhalte mitzuteilen, und nicht, um in
systematischer Weise grammatische Strukturen vorzuführen. Die
sprachliche Erfahrung des Kindes ist somit im wesentlichen exemplari-
scher Natur und keineswegs repräsentativ für das, was die Sprache an
strukturellen Möglichkeiten bereitstellt (cf. Wanner & Gleitman 1982;
Felix 1987). Darüber hinaus ist die dem Kind verfügbare Datenbasis
dahingehend eingeschränkt, daß sie zwar positive, aber keine negative
Evidenz bezüglich der Grammatikalität von Sätzen enthält. Das Kind
kann zunächst sicher davon ausgehen, daß die Sätze, die es in seiner
Umgebung hört, (im Regelfall) grammatisch sind. Mit anderen Worten,
die sprachliche Erfahrung bietet positive Evidenz dafür, was in der zu
erwerbenden Sprache ein möglicher Satz ist. Andererseits folgt aus dem
exemplarischen Charakter der Inputdaten, daß das Kind an diesen nicht
erkennen kann, ob ein Satz ungrammatisch ist. Die Tatsache, daß eine
bestimmte Struktur in der sprachlichen Erfahrung nicht auftritt, darf
das Kind natürlich nicht zu der Schlußfolgerung verleiten, diese Struk-
tur sei ungrammatisch. Eine solche Schlußfolgerung würde dazu füh-
ren, daß sich das grammatische Wissen des Kindes stets nur auf eine
finite Zahl von Sätzen (nämlich die, die es tatsächlich hört) erstrecken
könnte. In der Tat führt der Erwerbsprozeß jedoch zur vollen sprachli-
chen Kompetenz, d.h. zu einem grammatischen Wissen, das eine unbe-
grenzt große Anzahl von Sätzen umfaßt. Mit anderen Worten, ein
bestimmter Satz kann in den Inputdaten nicht auftreten, entweder weil
er ungrammatisch ist, oder weil er »zufällig« von niemandem geäußert
wird. Das Kind muß daher immer davon ausgehen, daß auch solche
Sätze, die es nicht hört, durchaus grammatisch sein können. Die
sprachliche Erfahrung enthält also keine negative Evidenz, i.e. keine
eindeutigen Hinweise darauf, welche Sätze ungrammatisch sind.
Im Grunde könnte das Kind nur dann sicher sein, daß ein bestimm-
ter Satz bzw. eine Struktur ungrammatisch ist, wenn ihm dies jemand
explizit mitteilen würde. Nun ist zwar bekannt, daß Eltern vielfach die
(ungrammatischen) Äußerungen ihrer Kinder korrigieren; nur tun sie
dies eben nicht systematisch (cf. Brown & Hanlon 1970; Slobin 1971).
Eltern müßten in der Tat jede ungrammatische Äußerung korrigieren,
damit das Kind sich blind auf die Inputinformation verlassen könnte.
Darüber hinaus müßte das Kind für jede denkbare Regel, die es aus den
Inputdaten ableiten könnte, die daraus folgenden Strukturen systema-
tisch abtesten. Kinder und Eltern wären dann letztlich mit nichts ande-
rem als systematischer Syntaxanalyse beschäftigt. Wenngleich Eltern
zuweilen tatsächlich auch die Form kindlicher Äußerungen korrigie-
ren, so bezieht sich ihr Korrekturverhalten jedoch überwiegend auf den
Inhalt der Äußerungen (Wanner & Gleitman 1982). Eltern und Kinder
kommunizieren miteinander, um Bedürfnisse und Gedanken mitzutei-
len, nicht um systematischen Syntaxerwerb zu betreiben. Hinzu
kommt die Schwierigkeit, daß das Kind bei einer Korrektur durch die
Eltern nicht ohne weiteres erkennen kann, worauf sich diese bezieht.
Sagt das Kind etwa zu einer Besucherin des Elternhauses du bist aber
eine dicke, häßliche Tante und die Eltern wenden ein so etwas kann man
doch nicht sagen, so weiß das Kind natürlich zunächst nicht, ob der
Inhalt oder die grammatische Form seiner Äußerung Anlaß zur Bean-
standung gibt. Darüber hinaus ist in der Literatur hinreichend die Tat-
sache dokumentiert, daß Kinder formale Korrekturen durch die Eltern
vielfach mißachten (Smith 1973). Bestimmte Strukturen, die das Kind
im Laufe seiner sprachlichen Entwicklung produktiv verwendet, schei-
nen überhaupt nicht korrigierbar zu sein.
Unter dem Stichwort Motherese Hypothesis ist zuweilen die Auffas-
sung vertreten worden, daß Eltern den Spracherwerbsprozeß in sehr
direkter Form steuern, indem sie dem Kind auf den verschiedenen Stu-
fen seiner sprachlichen Entwicklung in sehr gezielter Form spezifi-
schen Input anbieten, aus dem die korrekten sprachlichen Regeln und
Prinzipien relativ problemlos abgeleitet werden können. Diese Auffas-
sung basiert auf der Beobachtung, daß Mütter die syntaktische Kom-
plexität ihrer Äußerungen dem jeweiligen Entwicklungsstand des Kin-
des anpassen (cf. Bates 1976; Snow 1977). In den frühen Phasen spre-
chen Mütter langsamer und deutlicher, die Sätze sind von geringerer
Komplexität und direkt an die Kinder gerichtet. Wenngleich diese
Beobachtungen grundsätzlich richtig sind, so ist die Schlußfolgerung
doch äußerst problematisch. Zunächst haben Newport et al. (1977) und
Warmer & Gleitman (1982) gezeigt, daß Mütter in den frühen Phasen
des Spracherwerb in einer Art und Weise strukturieren, die für den
Erwerbsprozeß eher hinderlich als förderlich ist. So überwiegen in der
Sprache der Mütter Imperative und Fragen sowie Satzfragmente, wäh-
rend Kinder zunächst Aussagesätze erwerben. Würden sich die Kinder
direkt am Input orientieren, so müßte der Erwerb von Aussagesätzen
mit kanonischer Wortstellung eher schwierig sein, da die entsprechende
Vorlage im Input vergleichsweise selten ist. Weiterhin haben Chomsky
(1975) und Wexler (1982) darauf hingewiesen, daß eine Einschränkung
der Datenbasis durch die Mütter den Erwerbsprozeß eher schwieriger
als leichter macht. Je eingeschränkter die Datenbasis, desto größer ist
die Zahl der Hypothesen und Regeln, die mit diesen Daten kompatibel
sind. Entsprechend ist es für das Kind weitaus schwerer, die korrekte
Generalisierung bzw. Regel zu ermitteln, wenn Mütter in systemati-
scher Weise bestimmte Strukturen vermeiden, die aus vermeintlichen
Gründen für das Kind zu komplex sind.
Die Logik dieses Gedankengangs läßt sich am nunmehr klassischen
Beispiel der strukturabhängigen Regeln illustrieren (cf. Chomsky
1967). Es geht hierbei um den Erwerb der englischen Interrogation
sowie um die Frage, aufgrund welcher Daten das Kind die dieser Kon-
struktion zugrundeliegende korrekte Regel erwerben kann. Man kann
zunächst davon ausgehen, daß das Kind in den Inputdaten sicher Struk-
turen wie die folgenden vorfindet:

(13a) John will come to the party


(13b) will John come to the party?
(14a) John has said that he will come
(14b) has John said that he will come?

Auf der Grundlage dieser Daten könnte das Kind nun die beiden fol-
genden Interrogationsregeln aufstellen:

(15) Suche die erste finite Verbform des Satzes und stelle diese
an den Satzanfang.
(16) Suche die erste finite Verbform, die auf die Subjekt-NP
folgt, und stelle sie an den Satzanfang.

(15) ist eine strukturunabhängige Regel, bei der allein die lineare Abfol-
ge der einzelnen Wörter berücksichtigt wird; d.h. die lexikalischen Ele-
mente werden nacheinander auf das Auftreten einer finiten Verbform
hin abgesucht. (16) hingegen ist eine strukturabhängige Regel, in der
nicht nur auf einzelne Wörter, sondern auf abstrakte Strukturelemente
wie Subjekt-NP Bezug genommen wird. Mit anderen Worten, die
Anwendung von (16) - im Gegensatz zu (15) - setzt eine Strukturana-
lyse des Satzes voraus, in der zunächst die Subjekt-NP identifiziert
werden muß. Entscheidend ist nun, daß anhand von Daten wie (13)
und (14) nicht entscheidbar ist, ob (15) oder (16) die korrekte Formulie-
rung der Interrogationsregel ist. Für diese Entscheidung muß das Kind
Zugang zu komplexeren Strukturen haben, insbesondere zu solchen,
die einen Subjektrelativsatz enthalten:

(17a) the old man that I will meet tomorrow is John's grandpa
(17b) *will the old man that I meet tomorrow is John's grandpa
(17c) is the old man that I will meet tomorrow John's grandpa

Der Kontrast zwischen (17b) und (17c) verdeutlicht, daß (16) und nicht
(15) die korrekte Regel ist. (17b) ist durch Anwendung von (15) entstan-
den: die erste finite Verbform in (17a) ist will, und dieses Element ist in
(17b) an den Satzanfang gesetzt worden. Der Satz ist ungrammatisch.
In (17c) hingegen ist die erste finite Verbform, die auf die Subjekt-NP
the old man that I will meet tomorrow folgt, also is, an den Satzanfang
bewegt worden. (17c) ist grammatisch.
Diese Daten zeigen, daß das Kind auf der Grundlage seiner sprach-
lichen Erfahrung nur dann zwischen den alternativen Regeln (15) und
(16) entscheiden kann, wenn es Zugang zu Daten wie (17c) hat. Würden
Mütter allerdings im Sinne der Motherese Hypothesis den Gebrauch
komplexer Strukturen wie etwa Relativsätze vermeiden, so wäre dem
Kind damit der Zugang zu Daten verwehrt, die es braucht, um zwi-
schen alternativen Generalisierungen zu entscheiden.
Der Sachverhalt ist jedoch noch weitaus komplexer. Zwar kann das
Kind an Sätzen wie (17c) erkennen, daß (16) eine mögliche Form der
englischen Interrogationsregel ist, nicht aber, daß (15) etwa als alterna-
tive Form ausgeschlossen ist3. Um (15) ausschließen zu können, müßte
es wissen, daß (17b) ungrammatisch ist. Doch diese Information kann
es nicht aus seiner sprachlichen Erfahrung gewinnen, da die Tatsache,

3 Dieses Faktum ist u.a. deshalb von Bedeutung, weil natürliche Sprachen in zahl-
reichen Bereichen durchaus alternative Formen zur Verfügung stellen, so daß das
Kind derartige Alternativen einkalkulieren muß, und zwar unabhängig davon,
ob es sie in der sprachlichen Umgebung hört:
(a) John met Bill in Paris and Tom met Sue in York
(b) John met Bill in Paris and Tom Sue in York
(c) wenn Fritz nicht kommt, fällt der Vortrag aus
(d) kommt Fritz nicht, fällt der Vortrag aus
daß (17b) im Input nicht auftritt, nicht als Nachweis für Ungrammatika-
lität gelten kann. Aus der Perspektive des Kindes wäre ja denkbar, daß
(17b) durchaus grammatisch ist, aber eben aus reinem Zufall von nie-
mandem geäußert wird. Um Gewißheit über die Ungrammatikalität
von (17b) zu erhalten, müßte das Kind eine solche Struktur seinen Ge-
sprächspartnern zunächst anbieten und darauf hoffen, daß eine entspre-
chende Äußerung explizit als ungrammatisch zurückgewiesen wird.
Derartige Überlegungen führen jedoch zu einer absurden Vorstellung
über den tatsächlichen Ablauf des Spracherwerbsprozesses. Wir haben
bereits darauf hingewiesen, daß Eltern Äußerungen ihrer Kinder zwar
hin und wieder, aber eben nicht systematisch korrigieren, und daß sich
Korrekturen zumeist auf den Inhalt und nicht die Form einer Äußerung
beziehen. Somit wäre denkbar, daß das Kind (17b) äußert, aber die El-
tern überhaupt nicht reagieren, etwa weil sie den Satz nicht verstehen
oder gerade mit etwas anderem beschäftigt sind. Man könnte sich auch
vorstellen, daß die Eltern etwa mit no, it's not John's grandpa, it's his fat-
her antworten. In diesem Falle würde das Kind durch die elterliche Re-
aktion in die Irre geleitet. Im übrigen müßte das Kind konsequenterwei-
se in allen Fällen, in denen der Input alternative Regeln zuläßt, diese Al-
ternativen systematisch abtesten. Dem Kind bliebe dann wenig Zeit für
inhaltsvolle Kommunikation, da es fortlaufend damit beschäftigt wäre,
seinen Grammatikerwerb voranzutreiben. Es ist jedoch hinreichend be-
kannt, daß Kinder Äußerungen produzieren, um ihre Gedanken und
Wünsche mitzuteilen, und nicht, um syntaktische Regeln auszuprobie-
ren. Im übrigen deuten die empirischen Untersuchungen zum Spracher-
werb darauf hin, daß Strukturen wie (17b) in der Kindersprache über-
haupt nicht auftreten; es scheint, als schlösse das Kind strukturunab-
hängige Regeln wie (15) von vornherein aus, und zwar auch dann, wenn
die ihm verfügbaren Daten mit einer solchen Regel kompatibel sind.
Wir sehen also, daß das Kind keinen systematischen Zugang zu ne-
gativer Evidenz hat, i.e. es fehlen ihm verläßliche Informationen dar-
über, welche Strukturen ungrammatisch sind. Daraus folgt, daß Regeln,
die nur über negative Evidenz erlernbar sind, als Spezifizierung der
mentalen Repräsentation grammatischen Wissens auszuschließen sind.
Mit dieser Überlegung eröffnet sich nun eine Möglichkeit, bei mehre-
ren gleichermaßen deskriptiv adäquaten Strukturbeschreibungen zu
entscheiden, welche Beschreibungen als Modell mentaler Repräsenta-
tionen in Frage kommen bzw. ausscheiden. Hierzu betrachten wir
nochmals die Daten aus Baker (1979), die wir an dieser Stelle exempla-
risch wiederholen:
(18a) John gave the book to Alice
(18b) John gave Alice the book
(19a) we reported the accident to the police
(19b) *we reported the police the accident

Der Kontrast zwischen (18b) und (19b) läßt sich, wie wir gesehen
haben, auf zweierlei Weise erfassen. Einerseits können wir eine Regel
dative movement ansetzen (die die beiden Objekte unter Tilgung von
to vertauscht - und im Lexikoneintrag von report vermerken, daß die
Regel bei diesem Verb nicht angewandt werden darf); andererseits lie-
ßen sich zwei Phrasenstrukturregeln aufstellen, die die Abfolge NP +
to + NP bzw. die Abfolge NP + NP spezifizieren. Im Lexikon wird
nun eingetragen, daß give in beiden Strukturen, report hingegen nur in
der ersten Struktur auftreten darf.
Betrachten wir zunächst die erste Alternative. Auf der Basis positi-
ver Evidenz, also Strukturen wie (18a) und (18b), kann das Kind zwei-
fellos die Regel dative movement erwerben. Es muß nun jedoch erken-
nen, daß diese Regel bei Verben wie report nicht angewandt werden
darf. Dazu muß es jedoch explizit wissen, daß (19b) ungrammatisch ist,
und diese Information kann es nur über negative Evidenz erhalten, die
ihm jedoch nicht zur Verfügung steht. Mit anderen Worten, eine Regel
dative movement mit gleichzeitigem Lexikoneintrag, der die Anwen-
dung der Regel bei bestimmten Verben verbietet, ist zwar eine deskrip-
tiv adäquate Beschreibung der relevanten Daten, scheidet aber als men-
tale Repräsentation aus, da dieser Mechanismus nicht lernbar ist.
Wenden wir uns nun der zweiten Alternative zu. Zunächst ist klar,
daß das Kind für jedes Verb die strukturelle Umgebung lernen muß, in
der dieses Verb auftreten kann. So muß es etwa lernen, daß eat sowohl
transitiv als auch intransitiv gebraucht werden kann, während see stets
ein direktes Objekt verlangt:

(20a) John was eating an apple


(20b) John was eating
(21a) John was seeing a beautiful girl
(21b) *John was seeing

Da dem Kind nur positive Evidenz zur Verfügung steht, können wir
annehmen, daß es für jedes Verb im Lexikon die strukturelle Umge-
bung vermerkt, die es in den entsprechenden Äußerungen seiner
sprachlichen Umgebung belegt findet. Für eat wird es also aufgrund
von (20a) und (20b) transitiv und intransitiv vermerken, für see hinge-
gen nur transitiv. Analog hierzu wird es aufgrund von Sätzen wie (18a)
und (18b) im Lexikoneintrag von give die strukturellen Umgebungen
NP + to + NP und NP + NP vermerken, während (19a) bei report nur
den Eintrag NP + to + NP erlaubt. Wir sehen also, daß bei diesem
Beschreibungsansatz der Kontrast zwischen (18b) und (19b) allein
durch positive Evidenz erlernbar ist. Daraus folgt, daß als mentale
Repräsentation allein die phrasenstrukturelle Alternative, nicht jedoch
die transformationelle Variante mit dative movement in Frage kommt.

3.2 Das Projektionsproblem

Das Lernbarkeitskriterium sagt nun natürlich noch relativ wenig dar-


über, wie im einzelnen ein kognitiver Erwerbsmechanismus auszuse-
hen hat, der imstande ist, auf der Grundlage einer begrenzten Zahl kon-
kreter Sätze das der betreffenden Sprache zugrundeliegende System
von Regeln und Prinzipien abzuleiten. Die im vorangegangenen Kapi-
tel dargestellten Überlegungen deuten lediglich darauf hin, daß dieser
Er