Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
UTB
FÜR WISSEN
SCHAFT
Eine Arbeitsgemeinschaft der Verlage
Sprachtheorie
Eine Einführung in die Generative Grammatik
Band 1:
Grundlagen und Zielsetzungen
3. Auflage
Fanselow, Gisbert:
Sprachtheorie: eine Einführung in die generative Grammatik /
Gisbert Fanselow; Sascha W. Felix. - Tübingen; Basel: Francke
NE: Felix, Sascha, W.:
Bd. 1. Grundlagen und Zielsetzungen. - 3. Aufl. - 1993.
(UTB für Wissenschaft: Uni-Taschenbücher ; 1441)
ISBN 3-8252-1441-9 (UTB)
ISBN 3-7720-1731-2 (Francke)
NE: UTB für Wissenschaft/Uni-Taschenbücher
1 . Auflage 1987
2. Auflage 1990
3. unveränderte Auflage 1993
Vorwort ................................................................................... 7
Viele Linguisten (cf. Watt 1970; Kanngießer 1971; Labov 1971a) sahen
in dieser Aussage die programmatische Erklärung eines neuen For-
schungsansatzes. Dabei empfand man zunächst ein gewisses Unbeha-
gen darüber, daß hier der Gegenstandsbereich der Linguistik scheinbar
abseits der sprachlichen Wirklichkeit unserer realen Welt in sehr merk-
würdiger Weise idealisiert und eingeschränkt wird. Dennoch ist die
zitierte Aussage im Grunde nicht mehr als die explizite Charakterisie-
rung einer Grundposition, die in den Arbeiten der modernen Sprach-
wissenschaft seit jeher implizit vorhanden war. »This seems to me to
have been the position of the founders of modern general linguistics,
and no cogent reason for modifying it has been offered« (Chomsky
1965:3-4). Chomskys Aussage spiegelt somit allein die (an sich triviale)
Erkenntnis wider, daß die Linguistik, wie jede andere Wissenschaft
auch, mit bestimmten Idealisierungen und Abstraktionen arbeiten
muß. Erst dadurch ist es ihr möglich, über die Aufzählung beliebiger
Einzelbeobachtungen hinaus zu generalisierten Aussagen und Gesetz-
mäßigkeiten zu gelangen. Eine derartige Idealisierung ist also kein Spe-
zifikum der generativen Sprachtheorie, sondern gilt und galt für
sprachwissenschaftliches Bemühen jedweder Prägung schlechthin.
Bereits eine Aussage wie im Deutschen kongruieren Subjekt und Verb,
die sich in jeder traditionellen Grammatik findet, geht von einem idea-
lisierten Sprecher aus und wird nicht allein durch die Beobachtung fal-
sifiziert, daß ein bestimmter realer Sprecher in einer spezifischen Situa-
tion gegen die entsprechende Regel verstößt. Selbstverständlich ist stets
zu fragen, ob eine bestimmte Idealisierung sinnvoll und legitim ist;
jedoch scheint Chomsky auch hier weitgehend Standardannahmen der
modernen Linguistik zu übernehmen, die sich bei genauer Betrachtung
theoretisch wie empirisch sehr wohl begründen lassen1. Ebenso waren
die von Chomsky in Aspects benutzten Notationsformalismen zur
Beschreibung natürlicher Sprachen keineswegs revolutionär. Phrasen-
strukturregeln (cf. Band II, Kap. 2) sind letztlich nichts anderes als die
strikte Formalisierung von Beschreibungskonventionen, die seit jeher
zum Standardrepertoire linguistischer Analysen gehörten, wie etwa
Postal (1964) ausführlich dargelegt hat. Und auch die Transformations-
regel - vielfach als Markenzeichen von Chomskys Theorie angesehen
- wurde bereits von Harris (1951, 1957) verwendet und war implizit
bereits in weitaus früheren Analysen vorhanden2.
Die eigentliche programmatische Novität der zitierten Passage liegt
- eher verborgen - in der Formulierung »... applying his knowledge of
the language in actual performance ...« (Hervorhebung GFSF). Bereits
hier deutet sich der für die generative Theorie entscheidende Bruch
zum traditionellen Deskriptivismus an3. Sprache wird nicht mehr als
ein rein abstraktes und unabhängig vom Menschen existierendes
System von Regularitäten über »the totality of utterances that can be
made in a speech Community« (Bloomfield 1926:155) aufgefaßt; viel-
mehr wird Sprache als eine mentale Größe betrachtet, als ein im
»human mind« verankertes Wissenssystem. Dieser Sichtweise liegt die
nischen Deskriptivismus der 50er Jahre. Die Frage der psychologischen Rele-
vanz und Implikation linguistischer Beschreibung ist bereits lange vor Chomsky
diskutiert worden. »...we have no recourse but to accept language as a fully for-
med functional system within man's psychic or >spiritual< Constitution« (Sapir
1921:11). Auch Bloomfield ging es letztlich bei der linguistischen Analyse um
psychologische Aussagen, wenngleich er im Gegensatz zu Chomskys Mentalis-
mus von einer materialistischen Psychologie ausging (cf. Bloomfield 1933:32ff.).
an sich triviale Beobachtung zugrunde, daß jeder (erwachsene) Mensch
zumindest eine Sprache, nämlich seine Muttersprache, beherrscht und
daß die Verwendung von Sprache offensichtlich deren Kenntnis voraus-
setzt. Da Kenntnis und Wissen offensichtlich Phänomene des kogniti-
ven Bereichs sind, so ist klar, daß die Spezifizierung des sprachlichen
Wissens, über das ein Sprecher verfügt, zu Aussagen über mentale
Strukturphänomene führt. Ziel einer derart konzipierten Linguistik ist
die Beantwortung der Frage: »what exactly does a person know when
we say he knows his language?« (Jackendoff 1977:2). Das sprachliche
Wissen, über das ein Sprecher verfügt und das die Voraussetzung für
den Gebrauch von Sprache bildet, wird üblicherweise als Kompetenz
bezeichnet. Dieser Kompetenz steht die Performanz gegenüber, i.e. die
Anwendung des sprachlichen Wissens in konkreten Sprechsituationen.
Gegenstandsbereich der generativen Theorie ist zunächst die Kom-
petenz, also das sprachliche Wissen, das der Verwendung von Sprache
zugrunde liegen muß. Ziel der linguistischen Analyse ist es nicht, eine
beliebige Sammlung sprachlicher Daten allein konsistent und in sich
widerspruchsfrei zu beschreiben; vielmehr ist es die Aufgabe der Lin-
guistik, zu Aussagen über einen spezifischen Bereich mentaler Phäno-
mene zu gelangen, d.h. über jenes System kognitiver Strukturen, das
das sprachliche Wissen ausmacht. Da sprachliches Wissen sicherlich
Merkmale aufweist, die sich aus dem spezifischen Strukturaufbau des
menschlichen Kognitionssystems ergeben, ist zu erwarten, daß eine
hinreichend präzise Spezifizierung der sprachlichen Kompetenz letzt-
lich Einsichten eben in die Organisation der menschlichen Kognition,
i.e. des »human mind« zu liefern vermag. Somit geht es der generativen
Theorie nicht allein um Sprache und sprachliches Wissen, sondern um
»the structure of the human mind«, um »human cognitive capacities
and the mental structures that serve as vehicles for the exercise of these
capacities« (Chomsky 1980:3). Es geht um die Frage, wie die menschli-
che Kognition aufgebaut und strukturiert ist, wie unser Wissen mental
repräsentiert, i.e. kognitiv verankert ist und wie verschiedene Wissens-
systeme miteinander interagieren. Eine so konzipierte linguistische
Theorie eröffnet »the possibility of learning something, from the study
of language, that will bring to light inherent properties of the human
mind« (Chomsky 1972:103).
Unter dieser Perspektive stellt sich u.a. die Frage, ob es überhaupt
ein eigenständiges Wissenssystem »Sprache« gibt, oder ob sich das, was
wir als sprachliches Wissen bezeichnen, nicht vielmehr aus dem Zusam-
menspiel verschiedener Wissenssysteme ableitet. Chomsky neigt aus
Gründen, auf die wir ausführlich in Kap. 2 eingehen werden, zu der
Ansicht, daß zwar für unser grammatisches Wissen ein autonomes
System mentaler Repräsentationen besteht, daß jedoch der Begriff
>Sprache< eher ein Epiphänomen ist, das auf dem Wechselspiel verschie-
dener kognitiver Systeme beruht:
»I do not know why I never realized that clearly before, but it seems obvious
when you think about it, that the notion language is a much more abstract
notion than the notion of grammar. The reason is that grammars have to have a
real existence, that is, there is something in your brain that corresponds to the
grammar. That has got to be true.« (Chomsky 1982a:107)
4 Chomsky (1980:59-60) weist darauf hin, daß eine solche zunächst rein logisch-
konzeptuelle Distinktion natürlich empirische Konsequenzen hat. So folgt aus
ihr etwa, daß es im Prinzip möglich sein sollte, daß jemand in einem gegebenen
Bereich (z.B. Sprache) über volle Kompetenz verfügt, diese jedoch nicht anwen-
den kann, da der entsprechende Anwendungsmechanismus - etwa aus patholo-
gischen Gründen - defekt ist. In der Tat scheint es Sprachstörungen zu geben
(cf. Blank et al. 1979), bei denen just dies der Fall ist. Wir werden auf diese Phä-
nomene noch näher in Kap. 5 eingehen.
inkorrekt. Natürlich unterliegt auch der Gebrauch von Sprache
erkennbaren Gesetzmäßigkeiten; jedoch stellt sich die Frage, ob diese
Gesetzmäßigkeiten der gleichen Natur sind wie diejenigen, die sich im
Kompetenzbereich erkennen lassen. Ob ein gegebenes sprachliches
Phänomen zur Kompetenz oder zur Performanz gehört, läßt sich hier-
bei weder a priori noch rein mechanistisch feststellen, sondern kann
letztlich nur im Kontext der Gesamttheorie entschieden werden.
Der empirische Gehalt der Kompetenz-Performanz-Dichotomie
läßt sich am Beispiel der englischen Sätze (1a) und (2a) illustrieren:
Legt man derartige Sätze einem Sprecher des Englischen vor, so wird
er vermutlich beide spontan als ungrammatisch bezeichnen. Dies hat
offenkundig nichts mit der Bedeutung der Sätze zu tun, da der Aussa-
gegehalt in beiden Fällen völlig klar ist. In (1a) wird über ein Boot aus-
gesagt, daß es den Fluß hinuntertrieb und dann sank; in (2a) erwartet
jeder Student, daß der andere den Preis gewinnen wird. Dennoch
besteht ein entscheidender Unterschied zwischen den beiden Sätzen;
die Ungrammatikalität von (1a) besteht nämlich nur scheinbar. Der
Satz wird sofort als korrekt erkannt, wenn seine Struktur durch ver-
gleichbare Konstruktionen wie in (1b) und (1c) deutlich gemacht wird:
(1b) the boat (which was) floated down the river sank
(1c) the boat taken down the river sank
(10) Hans sagt, daß Fritz glaubt, daß Maria weiß, daß Egon
behauptet hat,...., daß Flugzeuge gefährlich sind
Man kann sich natürlich darüber streiten, ob ein Satz wie (10) ein stili-
stisches Meisterstück ist; dennoch erkennt jeder Sprecher des Deut-
schen, daß (10) - etwa im Gegensatz zu (4) und (6b) - völlig gramma-
tisch ist. Daran scheint sich auch nichts zu ändern, wenn wir diesen
Satz durch weitere Einschübe noch etwas länger machen. Demnach
scheint sich unsere Fähigkeit, die Grammatikalität von Sätzen zu beur-
teilen, grundsätzlich auf eine unbeschränkt große Anzahl von Sätzen
zu erstrecken. Diese Beobachtung ist aus zwei Gründen von entschei-
dender Bedeutung. Zunächst ist unsere sprachliche Erfahrung, d.h. die
Sätze, die wir bereits einmal geäußert bzw. gehört haben, aus offen-
sichtlichen Gründen endlich. Darüber hinaus ist aber auch die Spei-
cherkapazität unseres Gehirns, in dem das dieser Urteilsfähigkeit
zugrunde liegende Wissen verankert ist, eben nicht unbeschränkt groß.
Diese Überlegungen machen zunächst einmal deutlich, in welcher
Form unser grammatisches Wissen im Gehirn nicht repräsentiert sein
kann. Rein logisch wäre denkbar, daß alle Sätze, die wir jemals in unse-
rer sprachlichen Umgebung hören, kognitiv abgespeichert werden;
d.h. unser sprachliches Wissen bestünde dann aus einer Liste von abge-
speicherten Sätzen. Bei der Grammatikalitätsbeurteilung würden wir
einfach in diesem Speicher »nachschauen«, ob der entsprechende Satz
dort vorhanden ist. Im positiven Falle beurteilen wir ihn als gramma-
tisch, im negativen als ungrammatisch. Offensichtlich kann diese
Lösung nicht richtig sein. Wir könnten dann stets nur eine endliche
Anzahl von Sätzen, nämlich die, die wir bereits einmal gehört haben,
beurteilen; tatsächlich sind wir aber auch imstande, völlig neue Sätze
zu verstehen und zu beurteilen. Dieses Faktum würde jedoch bei der
oben skizzierten »Lösung« eine unendlich große Speicherkapazität des
Gehirns voraussetzen, eine offenkundig unsinnige Idee.
Die Vorstellung, daß Wissen in Form einer endlichen Liste von Ein-
trägen im Gehirn abgespeichert wird, ist keineswegs von vornherein
abwegig. In der Tat scheint es durchaus auch sprachliche Bereiche zu
geben, in denen gerade dies vermutlich der Fall ist. Betrachten wir etwa
den lexikalischen Bereich, also unser Wortschatzwissen. Gibt es im
Deutschen etwa das Wort Göpel oder Luppe? Einige Sprecher werden
diese Frage positiv beantworten und hinzufügen, daß Göpel ein fach-
sprachlicher Ausdruck für Förderband ist und Luppe eine Hündin in
der Jägersprache bezeichnet. Anderen werden diese Wörter nicht
bekannt sein und sie werden die Frage daher mit »nein« oder »ich weiß
nicht« beantworten. Worauf gründet sich das unterschiedliche lexikali-
sche Wissen dieser beiden Personengruppen? Offenkundig hängt die
Kenntnis eines bestimmten Wortes von der konkreten sprachlichen
Erfahrung des jeweiligen Sprechers ab. Man kennt ein Wort nur dann,
wenn man es schon einmal gehört bzw. gelesen hat. Man kann also ver-
muten, daß unterschiedliche Personengruppen z.T. auch über einen
unterschiedlichen Wortschatz verfügen, und zwar jeweils in Abhängig-
keit ihrer spezifischen sprachlichen Erfahrung. So steht etwa der Wort-
schatz von Fachsprachen in der Regel nur denjenigen zur Verfügung,
die in diesem Fach tätig sind. Somit läßt sich annehmen, daß unser
Wortschatzwissen in der Tat aus einer endlichen Liste lexikalischer Ein-
heiten besteht, die mental abgespeichert ist. Wird nach der Existenz
bzw. Nicht-Existenz eines Wortes gefragt, so überprüft der Befragte
lediglich, ob dieses Wort in der mentalen Liste vorhanden ist oder
nicht. Lexikalisches Wissen erstreckt sich somit auf eine endliche Liste
von Wörtern, grammatisches Wissen hingegen auf eine unbestimmt
große Anzahl von Satzstrukturen.
Wir stoßen hier auf den entscheidenden Aspekt unserer grammati-
schen Kompetenz: ihre Kreativität. Unser grammatisches Wissen
gestattet es, eine im Prinzip unbegrenzte Zahl neuer Sachverhalte aus-
zudrücken. Wir sind imstande, beliebig viele neue Sätze und Äußerun-
gen zu produzieren und zu verstehen, und zwar unabhängig von der
jeweiligen individuellen sprachlichen Erfahrung. Demgegenüber ist die
Kreativität unseres lexikalischen Wissens weitaus eingeschränkter5:
man kennt genau die Wörter einer Sprache, mit denen man in der Ver-
gangenheit schon einmal konfrontiert worden ist. Kreativität in diesem
Sinne, i.e. die Fähigkeit, unabhängig von konkreter Erfahrung beliebig
5 Diese Aussage gilt natürlich nur für einfache Wörter. Es gibt selbstverständlich
auch im lexikalischen Bereich Kreativität, d.h. Regeln, mit denen aus einfachen
komplexe Wörter gebildet werden können (cf. Aronoff 1976; Selkirk 1982; Lie-
ber 1983; Fanselow 1985a). Allerdings bemerkt Chomsky (1982a:96) zu diesem
Bereich: »where we have options to get an infinite vocabulary, it appears to be
through pretty trivial mechanisms usually«.
viele Urteile zu treffen, ist natürlich nicht allein auf unsere sprachliche
Fähigkeit beschränkt. So erstreckt sich etwa unsere Fähigkeit, bestimm-
te Lebewesen z.B. als Menschen zu identifizieren, ebenfalls auf eine im
Prinzip beliebig große Zahl von Fällen. Desgleichen ist die Fähigkeit,
Zahlen miteinander zu multiplizieren, nicht auf bestimmte Zahlen
beschränkt, sondern umfaßt grundsätzlich alle, d.h. eine unendliche
Menge von Zahlen.
Ein weiterer spezifischer Aspekt unserer grammatischen Kompe-
tenz manifestiert sich u.a. in der Tatsache, daß wir Sätze nicht nur nach
den Kategorien »grammatisch« und »ungrammatisch« beurteilen kön-
nen, sondern darüber hinaus imstande sind, unterschiedliche Grade
der Grammatikalität zu erkennen:
(11a) ich kann mir vorstellen, warum niemand die Maria leiden
kann
(11b) ?die Maria kann ich mir vorstellen, warum niemand leiden
kann
(12a) ich kann mir vorstellen, warum die Maria niemanden lei-
den kann
(12b) *die Maria kann ich mir vorstellen, warum niemanden lei-
den kann
(13 a) ?the person that John described without examining any
pictures of
(13b) *the person that John described without any pictures of
being on file
Für sich allein betrachtet, werden die meisten Sprecher des Deutschen
(insbesondere norddeutsche Sprecher) (11b) wohl eher als ungramma-
tisch beurteilen. Erst im Kontrast mit (12b) wird deutlich, daß (11b)
zwar schlecht, aber doch erheblich besser als (12b) ist. Würde unsere
grammatische Urteilsfähigkeit nun in irgendeiner Weise direkt damit
zusammenhängen, ob wir einen Satz schon einmal gehört haben, so
wären derartige differenzierte Urteile im Bereich ungrammatischer
Strukturen völlig unerklärbar. Da weder (11b) noch (12b) im Deut-
schen möglich sind, gehören sie auch nicht zu unserer sprachlichen
Erfahrung. Dennoch sind wir in der Regel imstande, auch im rein
ungrammatischen Bereich abgestufte Grammatikalitätsurteile zu fäl-
len. Noch deutlicher fällt der Kontrast im Satzpaar (13) aus, das aus
Kayne (1983) stammt. Beide Sätze sind deutlich ungrammatisch und
werden erst dann akzeptabel, wenn ein Pronomen wie his oder her hin-
ter der Präposition of erscheint. Dennoch erkennt ein Sprecher des
Englischen, daß (13b) deutlich schlechter als (13a) ist. Unser grammati-
sches Wissen schließt somit die Fähigkeit ein, Grammatikalitätsunter-
schiede in Bereichen festzustellen, die offenkundig überhaupt nicht zu
unserer sprachlichen Erfahrung gehören.
Es zeigt sich also deutlich, daß die mentale Repräsentation unseres
grammatischen Wissens nicht aus einer Liste aller in der jeweiligen
Sprache möglichen Sätze bzw. Äußerungen bestehen kann, da eine sol-
che Vorstellung nicht die Kreativität unseres sprachlichen Vermögens
zu erklären vermag und darüber hinaus an der Unendlichkeitsproble-
matik scheitert. Es gilt also, nach einer plausibleren und adäquateren
Lösung Ausschau zu halten. In Aspects of the Theory of Syntax stellte
Chomsky ursprünglich die (im Grunde eher traditionelle) Hypothese
auf, daß das grammatische Wissen eines Sprechers in Form eines Regel-
apparats mental repräsentiert ist. Mit anderen Worten, das, was unser
grammatisches Wissen ausmacht, ist ein endliches System von Regeln,
die so beschaffen sind, daß sie eine unendliche Anzahl von Satzstruktu-
ren spezifizieren. Wie ein solcher Regelapparat konkret aussieht, ist
natürlich zunächst eine rein empirische Frage, und die generative For-
schung der vergangenen 25 Jahre hat sich intensiv darum bemüht, spe-
zifische Antworten und Vorschläge auszuarbeiten. In jüngerer Zeit
mehrt sich jedoch Evidenz dafür, daß die Vorstellung, grammatische
Kompetenz sei ausschließlich als ein System von Regeln anzusehen,
vermutlich falsch ist. Sowohl konzeptuelle Überlegungen als auch
empirische Evidenz aus einer Vielzahl von Sprachen deuten darauf hin,
daß grammatische Kompetenz wohl eher als ein System von interagie-
renden Prinzipien zu betrachten ist, die auf verschiedenen Ebenen
strukturelle Repräsentationen auf bestimmte Wohlgeformtheitsbedin-
gungen hin überprüfen. Diese Einsicht führte zur Formulierung der
Rektions- und Bindungstheorie (Theory of Government and Binding),
die wir ausführlich in Band II darstellen werden.
J.A. Fodor (1975:9-26) nimmt in dieser Frage eine etwas andere Hal-
tung ein. Er weist zunächst darauf hin, daß hinter dem »physiological
reductionism« die Auffassung steht, daß Aussagen der »special scien-
ces« auf Aussagen einiger weniger Grundwissenschaften zurückgeführt
werden sollten, zu denen sicherlich die Physik, möglicherweise auch
die Physiologie gehören. Eine derart angestrebte Reduktion erfolgt
über sog. Brückengesetze, d.h. jedem Phänomen etwa auf der psycho-
logischen Ebene entspricht ein bestimmtes Phänomen auf der physio-
logischen Ebene, und diese Entsprechung ist in striktem Sinne gesetz-
mäßig. Aufgrund dieser Gesetzmäßigkeit lassen sich Aussageprädikate
der einen Ebene systematisch in Aussageprädikate der anderen Ebene
umformen.
Fodor argumentiert gegen diese Form des Reduktionismus mit dem
Hinweis, daß bei derartigen Reduktionen wichtige Generalisierungen
verlorengehen können bzw. auf der reduzierten Ebene nicht mehr for-
mulierbar sind; d.h. es lassen sich etwa auf der psychologischen Ebene
Generalisierungen und Gesetzmäßigkeiten über Phänomene ausdrük-
ken, deren physiologische und letztendlich physikalische Korrelate
entweder nichts gemeinsam haben oder deren mögliche Gemeinsam-
keiten für die Generalisierung selbst irrelevant sind. »It is often the case
that whether the physical descriptions of the events subsumed by such
generalizations have anything in common is, in an obvious sense,
entirely irrelevant to the truth of the generalizations, or to their inter-
estingness, or to their degree of confirmation, or, indeed, to any of their
epistemologically important properties« (Fodor 1975:15).
Zur Illustration dieses Gedankenganges verwendet Fodor ein Bei-
spiel aus der Ökonomie, und zwar das Gresham'sche Gesetz6, das die
Auswirkungen monetären Tausches betrifft. Es gilt nun sicherlich,
daß sich jeder Vorgang, der im Sinne des Gresham'schen Gesetzes als
monetärer Tausch charakterisiert werden kann, ebenfalls mit Hilfe des
Beschreibungsvokabulars der Physik darstellen läßt und somit gleich-
zeitig unter die Gesetze der Physik fällt. Entscheidend ist jedoch, daß
bei einer rein physikalischen Beschreibung aller als monetärer Tausch
zu bezeichnenden Vorgänge das, was einen monetären Tausch zum
monetären Tausch macht, verlorengeht bzw. daß die physikalischen
Gemeinsamkeiten dieser Vorgänge im Sinne des Gresham'schen
Gesetzes völlig irrelevant sind. »The point is that monetary exchan-
ges have interesting things in common; Gresham's law, if true, says
what one of these interesting things is. But what is interesting about
monetary exchanges is sure not their commonalities under physical
description. A kind like a monetary exchange could turn out to be co-
Aus diesem Grunde scheint es sinnvoll zu sein, (16b) aus (14b) abzulei-
ten, und zwar durch Anwendung einer sog. Tilgungsregel, die die Prä-
positionalphrase von Fritz löscht. Die Passivregel transformiert somit
(14a) in (14b) und die Tilgungsregel leitet daraus fakultativ (16b) ab.
Eine solche Behandlung des Passivs entspricht - von Details abgesehen
- weitgehend den in vielen Grammatiktheorien üblichen Beschrei-
bungsansätzen.
Unter E-grammatischen Gesichtspunkten ist gegen einen derarti-
gen Regelmechanismus zunächst nichts einzuwenden. Eine Gramma-
tik, die die oben skizzierte Passivregel wie auch die Tilgungsregel ent-
hält, ist imstande, die im Deutschen (und auch in anderen Sprachen)
möglichen Passivstrukturen korrekt zu spezifizieren. Aus formaler
Sicht erfüllt also eine solche Grammatik durchaus das Kriterium der
Beschreibungsadäquatheit. Es läßt sich jedoch zeigen, daß der darge-
stellte Regelapparat nicht Bestandteil der I-Grammatik sein kann, da
eine Tilgungsregel, die (16b) aus (14b) ableitet, zu prinzipiellen Schwie-
rigkeiten bei der Sprachverarbeitung führt.
Zunächst ist klar, daß der Hörer einer Äußerung in der Lage sein
muß, eventuell getilgte Elemente in einem Satz wieder rekonstruieren
zu können, da es sonst nicht möglich wäre, den Satz vollständig zu
interpretieren. Eine solche Rekonstruierbarkeit ist aber nur dann gege-
ben, wenn die Möglichkeit der Tilgung in sehr spezifischer Weise einge-
schränkt ist bzw. wenn aus der übrigen Satzstruktur klar erkennbar ist,
welche Elemente getilgt wurden. In der Tat zeigen Beispiele wie in (17)
und (18), daß Tilgungen spezifischen Restriktionen unterliegen:
(17a) Dagmar hat ein neues Auto gekauft und Egon auch
(17b) Dagmar hat ein neues Auto gekauft und Egon hat auch
ein neues Auto gekauft
(17c) Dagmar hat ein neues Auto gekauft und Egon hat auch
viel Geld ausgegeben
(18a) John finally left Boston, although he really didn't want to
(18b) John finally left Boston, although he really didn't want to
leave Boston
(18c) John finally left Boston, although he really didn't want to
find a job somewhere else
(17a) und (18a) können nur im Sinne von (17b) bzw. (18b) interpretiert
werden, nicht jedoch in der Bedeutung von (17c) bzw. (18c). Konkret:
es können in den genannten Beispielen nur die Elemente getilgt wer-
den, die zuvor im Satz bereits angesprochen wurden. Nur durch diese
Restriktion ist gewährleistet, daß ein Hörer Sätze wie (17a) und (18a)
überhaupt interpretieren kann. Wären Tilgungen völlig frei, so müßte
der Hörer eine im Prinzip unendlich große Zahl von Möglichkeiten
durchspielen, um die Intention des Sprechers zu erkennen. Damit
wären aber Sätze wie (17a) und (18a) überhaupt nicht, oder nur unter
großen Schwierigkeiten interpretierbar. In Wirklichkeit sind aber der-
artige Sätze für den Hörer völlig problemlos.
Betrachten wir nun wiederum den Passivsatz (16b), so wird deut-
lich, daß er keinerlei Hinweise darauf enthält, welche Präpositional-
phrase - wie in (14b) - getilgt worden sein könnte. Wenn die Tilgungs-
regel auf (14b) angewandt werden darf, so muß sie ebenfalls auf Sätze
wie (19a)-(19c) angewandt werden dürfen. In allen Fällen entsteht das
gleiche Resultat: (16b):
Die Liste der Beispiele in (19) läßt sich beliebig fortsetzen. In der Tat
gibt es eine im Prinzip unendliche Anzahl von Sätzen, aus denen (16b)
per Tilgung abgeleitet sein könnte. Dies bedeutet aber, daß das oben
skizzierte Beschreibungsverfahren nur funktioniert, wenn freie Tilgung
der Präpositionalphrase wie in (14b) und in (19) zugelassen ist. Wie wir
jedoch anhand der Beispiele in (17) und (18) gezeigt haben, kann eine
solche freie Tilgungsregel aus I-grammatischer Perspektive nicht
akzeptiert werden, da die entsprechenden Strukturen vom Hörer nicht
mehr bzw. nur unter enormen zeitlichen Aufwand analysiert werden
könnten.
Dieses Beispiel verdeutlicht, daß eine Grammatik, die eine Passiv-
struktur wie (16b) über Tilgung aus (14b) ableitet, offenkundig nicht als
adäquate I-Grammatik angesehen werden kann, da sie das Kriterium
der Verarbeitbarkeit (und vermutlich auch der Lernbarkeit) verletzt.
Eine adäquate I-Grammatik (des Englischen oder des Deutschen) muß
die strukturellen Gegebenheiten der Passivbildung auf andere Weise
spezifizieren als durch die genannten Regeln. Andererseits ist klar, daß
eine E-Grammatik diesen Restriktionen nicht unterliegt und somit
ohne weiteres eine freie Tilgungsregel, die mit einer unendlichen Zahl
zugrundeliegender Strukturen arbeitet, enthalten kann. Eine E-Gram-
matik ist unter dieser Perspektive letztlich ein mathematisches Objekt,
das diesbezüglich keinen prinzipiellen Beschränkungen unterliegt (cf.
Katz 1984:37). Solange eine E-Grammatik die in einer Sprache mögli-
chen Sätze (und deren Struktur) korrekt spezifizieren kann, ist sie
unter rein deskriptivem Aspekt als adäquat anzusehen. Kriterien der
Lernbarkeit oder Verarbeitbarkeit sind hier irrelevant.
Somit stellt sich die Frage, unter welchen Bedingungen es sinnvoll
ist, neben einer I-Grammatik auch eine E-Grammatik zu schreiben.
Offensichtlich ist dies dann angezeigt, wenn natürliche Sprachen im
oben definierten Sinne interessante mathematische Objekte sind, d.h.
über Eigenschaften verfügen, die aus der Perspektive des Mathemati-
kers Einsichten in die allgemeine Struktur formal-abstrakter Objekte
liefern. Ob dies in der Tat der Fall ist, scheint bei unserem derzeitigen
Kenntnisstand noch weitgehend unklar zu sein. Natürlich ist unbe-
streitbar, daß sich natürliche Sprachen durchaus als mathematische
Objekte darstellen lassen; es ist jedoch keineswegs sicher, ob ein sol-
ches Unterfangen aus mathematischer Sicht lohnenswert ist.
So sehen etwa Gazdar et al. (1985) Linguistik als eine Teildisziplin
der Mathematik, und nicht etwa der Psychologie an. Im Gegensatz zu
der Auffassung von Chomsky versucht die von Gazdar entwickelte
Generalized Phrase Structure Grammar (GPSG), die Gesetzmäßigkeiten
natürlicher Sprachen nicht aus der Struktur der menschlichen Kogni-
tion, sondern aus mathematischen Prinzipien abzuleiten. Mit anderen
Worten, nach Gazdar et al. ergeben sich die universalen Eigenschaften
natürlicher Sprachen aus der Tatsache, daß natürliche Sprachen zu einer
ganz bestimmten mathematisch spezifizierbaren Klasse von abstrakten
Objekten gehören. Eine grundlegende empirische These der GPSG
besteht in der Aussage, daß für die Beschreibung der Strukturen natürli-
cher Sprachen nicht auf den Formalismus einer kontextsensitiven Gram-
matik zurückgegriffen werden muß, sondern daß diese Strukturen auch
durch eine kontextfreie Grammatik erfaßt werden können. Diese These
ergibt natürlich nur dann einen Sinn, wenn es unabhängige Gründe
dafür gibt, - ceteris paribus - eine kontextfreie Grammatik einer kon-
textsensitiven vorzuziehen, und man mag fragen, welcher Art diese
Gründe sind. Nach Auffassung der GPSG liegt der entscheidende
Grund in der Tatsache, daß über die mathematischen Eigenschaften
kontextfreier Grammatiken erheblich mehr bekannt ist als über die kon-
textsensitiver Grammatiken; insbesondere besitzen kontextfreie Spra-
chen Eigenschaften (cf. Hopcroft & Ullman 1979), die sie leichter pars-
bar und leichter lernbar erscheinen lassen. Wenn man sich also bei der
Beschreibung natürlicher Sprachen auf kontextfreie Grammatiken
beschränkt, so ergibt sich »the beginning of an explanation for the
obvious, but largely ignored, fact that humans process the sentences
they hear very rapidly« (Gazdar 1981:155). Hier zeigt sich jedoch, daß
die Beschränkung auf kontextfreie Beschreibungsformalismen durch
psychologische bzw. biologische Überlegungen motiviert wird, denn
Parsbarkeit und Lernbarkeit sind nur dann sinnvolle Adäquatheitskrite-
rien, wenn man Sprachen nicht allein im mathematischen Kontext be-
trachtet, sondern auf ein spezifisches kognitives Leistungsvermögen des
Menschen Bezug nimmt. Mit anderen Worten, es sind nicht rein mathe-
matische, sondern vor allem psychologische Gründe, die - sofern mög-
lich - für eine Bevorzugung kontextfreier Beschreibungen sprechen.
Wenn wir nun mit Gazdar et al. annehmen, daß natürliche Sprachen
in der Tat kontextfrei sind, so verlangt diese Tatsache selbst eine Erklä-
rung. Allgemeiner ausgedrückt: wenn natürliche Sprachen zu einer
bestimmten mathematischen Klasse von abstrakten Objekten gehören,
so stellt sich die Frage, warum dies so ist, d.h. warum natürliche Spra-
chen gerade zu dieser und keiner beliebig anderen Klasse gehören. Wie
immer die Antwort auf diese Frage im einzelnen lauten mag, sie kann
nicht aus mathematischen, sondern allein aus biologischen bzw. psy-
chologischen Überlegungen folgen. Die essentiellen, d.h. nicht-akzi-
dentellen Eigenschaften natürlicher Sprachen ergeben sich aus der
Struktur der menschlichen Kognition. Die Kriterien der Lernbarkeit,
Parsbarkeit und Repräsentierbarkeit zusammen mit der spezifischen,
biologisch vorgegebenen Struktur des »human mind« erfordern und
begründen die essentiellen formalen Eigenschaften natürlicher Spra-
chen. Der mathematische Formalismus liefert lediglich eine Beschrei-
bung sprachlicher Strukturen; allein der Rekurs auf psychologische
und biologische Fakten, nicht aber der mathematische Formalismus
bietet eine Erklärung für die Struktur natürlicher Sprachen. Mit ande-
ren Worten, es gibt keinen mathematischen Grund dafür, daß die Klasse
natürlicher Sprachen etwa durch das Subjazenzprinzip (cf. Band II,
Kap. 3 . 3 ) oder durch Bindungsprinzipien (cf. Band II, Kap. 2.4) einge-
schränkt ist. Offenkundig resultieren derartige Beschränkungen aus
der spezifischen Struktur der menschlichen Kognition und es ist denk-
bar, daß Organismen mit einer anderen mentalen Organisationsform
auch andere Typen von Sprachen erlernen und benutzen könnten.
Ebenso lassen sich etwa die Mendel<schen Vererbungsgesetze zwar
mathematisch beschreiben, jedoch wird man vergeblich in der Mathe-
matik nach einer Antwort auf die Frage suchen, warum die Vererbung
genau diesen und keinen anderen Gesetzmäßigkeiten folgt. Die Erklä-
rung liegt offensichtlich in der spezifischen Struktur der Gene. Lingu-
istik wie Biologie sind eben nicht mathematische, sondern empirische
Wissenschaften und mathematische Resultate sind für diese Wissen-
schaften nur in dem Maße relevant, wie sie zu spezifischen empirischen
Fakten in Beziehung gesetzt werden können.
Nun ließe sich natürlich vorstellen, daß die Klasse natürlicher Spra-
chen mit einer bestimmten mathematisch definierten Klasse von
abstrakten Objekten zusammenfällt. In diesem Falle wäre die mathe-
matische Charakterisierung wiederum nichts anderes als eine Beschrei-
bung, jedoch läge die Vermutung nahe, daß die entsprechenden mathe-
matischen Prinzipien eben in der Struktur der menschlichen Kognition
verankert wären, so daß sich daraus die Erklärung für die spezifischen
Eigenschaften natürlicher Sprachen ergäbe. Bislang ist jedoch noch nie-
mandem der Nachweis einer solchen Korrelation zwischen der Klasse
natürlicher Sprachen und einer mathematisch definierten Klasse von
abstrakten Objekten gelungen. Selbst wenn es zutrifft, daß alle natürli-
chen Sprachen kontextfrei sind, so sind offenkundig nicht alle kontext-
freien Sprachen auch mögliche natürliche Sprachen (cf. Berwick &
Weinberg 1984). So ist etwa die Sprache, die sich durch die Regel anbn
spezifizieren läßt9, zwar kontextfrei, aber offenkundig kein Kandidat
für eine natürliche Sprache. Mit anderen Worten, die Klasse der natür-
lichen Sprachen ist bestenfalls eine Untermenge der kontextfreien Spra-
chen; die Prinzipien, die diese Untermenge spezifizieren, sind jedoch
nicht aus der Kontextfreiheit ableitbar. Mit anderen Worten, es gibt kei-
nen erkennbaren mathematischen Grund, warum zwar das Deutsche
aber nicht die anbn-Sprache eine natürliche Sprache ist. Insofern geht
die mathematische Charakterisierung an dem grundlegenden Problem
völlig vorbei, nämlich, warum sehen natürliche Sprachen so aus, wie
sie aussehen. Darüber hinaus weisen Berwick & Weinberg (1984) dar-
auf hin, daß die »negativen« mathematischen Eigenschaften einer Klas-
se formaler Sprachen, wie schlechte Parsbarkeit oder Lernbarkeit, sich
stets auf den »worst case« beziehen. Da diese »worst cases« gleichzeitig
mathematische Eigenschaften haben10, die in natürlichen Sprachen
nicht auftreten, bleibt nach Berwick & Weinberg fraglich, inwieweit
diese mathematischen Resultate für linguistische Fragestellungen über-
haupt von Belang sind.
Die Vorstellung, Linguistik sei ein Teilbereich der Mathematik, ist
also eigentlich nur dann sinnvoll, wenn sich zeigen läßt, daß genau die
Klasse der natürlichen Sprachen ein mathematisch in sich konsistentes
und interessantes Objekt ist. Nur in diesem Fall lassen sich die Struk-
tureigenschaften natürlicher Sprachen plausiblerweise aus mathemati-
schen Prinzipien ableiten. Unseres Wissens steht ein solcher Nachweis
jedoch noch aus. Im Augenblick ist nur schwer erkennbar, inwieweit
derartig konzipierte E-Grammatiken linguistisch interessante Informa-
tionen liefern, die über das hinausgehen, was bereits durch die I-Gram-
9 In dieser Sprache, die nur die beiden Wörter a und b enthält, sind all diejenigen
Sätze grammatisch, in denen auf eine beliebige Zahl von a eine gleichgroße Zahl
von b folgt.
10 Hierzu gehören etwa formale Systeme, mit denen man das Entscheidungspro-
blem der Aussagenlogik lösen kann. Dies ist mit natürlichen Sprachen nachweis-
lich nicht möglich (cf. Berwick & Weinberg 1984).
matik ausgedrückt ist. Dies bedeutet natürlich nicht, daß mathemati-
sche Überlegungen bei der Erstellung von I-Grammatiken nicht von
erheblichem Wert sein können.11
In diesem Kontext haben vor allem Searle (1980) und Katz (1981)
darauf hingewiesen, daß auch mentalistisch orientierte Linguisten bei
der tatsächlichen Konzipierung von I-Grammatiken letztlich nicht
anders vorgehen als diejenigen, die Sprache als ein abstraktes und von
seiner mentalen Repräsentation unabhängiges Objekt ansehen. In bei-
den Fällen besteht das übliche Vorgehen darin, für eine bestimmte
Menge natürlich-sprachlicher Sätze eine optimale Grammatik zu
schreiben, wobei die Definition von >optimal< weitgehend formalen
Eleganz- und Konsistenzkriterien folgt (cf. hierzu Chomsky
1965:37-45). Es gibt nun keinerlei zwingende Gründe für die Annah-
me, daß eine in diesem Sinne optimale Grammatik auch tatsächlich die
in unserer Kognition verankerte ist. »It makes perfectly good sense to
ask whether the best theory we can devise about language is also a theo-
ry of psychological reality« (Katz 1981:70/71). Es ist denkbar, daß das
System mentaler Repräsentationen, das real im Gehirn existiert - etwa
durch evolutionären Zufall bedingt - Redundanzen oder Inkonsisten-
zen enthält. Mit anderen Worten, wir können nicht einfach annehmen,
daß die Evolution und die menschliche Biologie nach den gleichen Kri-
terien arbeiten wie der Linguist.
Bereits zu Beginn der 60er Jahre erkannte man, daß die wh-Bewegungs-
regel in bestimmten Konstruktionen nicht angewandt werden darf bzw.
zu ungrammatischen Sätzen führt:
12 Hierbei ist zu beachten, daß es Lewis selbst nicht um eine Erklärung grammati-
scher Fähigkeiten geht, sondern allein um den wahrheitsgemäßen Gebrauch von
Äußerungen. Insofern betrifft die nachfolgende Diskussion nur in bedingtem
Maße die speziell von Lewis explizierte Position.
bar, daß sich die Konvention schlicht und einfach darin manifestiert, daß
alle Sprecher einer Gemeinschaft - also etwa alle Sprecher des Deut-
schen - über eine mental repräsentierte Grammatik, d.h. eine I-Gram-
matik, verfügen, die in den zentralen Bereichen für alle Individuen
gleich ist und daher die sprachliche Kommunikation miteinander
ermöglicht. Die Konvention bestünde also in dem Besitz der gleichen
I-Grammatik und genau dieser gemeinsame Besitz wäre das entschei-
dende Merkmal, das die Sprecher der gleichen Sprachgemeinschaft aus-
zeichnet und sie von den Sprechern anderer Gemeinschaften - etwa
den Sprechern des Englischen - unterscheidet. Unter dieser Perspekti-
ve ist die Konvention jedoch vollständig auf die I-Grammatik reduzier-
bar; d.h. eine vollständige und adäquate Spezifizierung der I-Gramma-
tik ist gleichzeitig eine vollständige und adäquate Charakterisierung
der Konvention. Durch den Rekurs auf den Begriff der Konvention
wird also nichts erklärt, was über die Spezifizierung der I-Grammatik
hinausgeht. Der Begriff der Konvention ist somit völlig überflüssig und
würde bestenfalls das triviale Faktum benennen, daß das, was die Spre-
cher des Deutschen im hier relevanten Bereich auszeichnet, eben der
Umstand ist, Sprecher des Deutschen zu sein.
Abgesehen von diesen Überlegungen führt die Vorstellung, die Kon-
vention bestünde im gemeinsamen Besitz einer bestimmten I-Gramma-
tik, auch zu vielfältigen konzeptuellen Unverträglichkeiten. I-Gram-
matiken spezifizieren das grammatische Wissen eines Sprechers und
charakterisieren somit einen bestimmten mentalen Zustand. Nach
Lewis beziehen sich Konventionen jedoch stets auf Handlungen und
das grammatisches Wissen eines Sprechers kann wohl kaum selbst als
Handlung bezeichnet werden, sondern nur als die den sprachlichen
Handlungen zugrundeliegende Kompetenz. Zweifellos ist es auch
wenig sinnvoll, den Konventionsbegriff dahingehend zu erweitern, daß
auch mentale Zustände - also Wissen - eingeschlossen sind. Zumin-
dest scheint es uns eher ungewöhnlich bzw. kontraintuitiv zu sein,
wenn man behaupten wollte, daß etwa zwischen Schachspielern die
Konvention besteht, die Regeln des Schachspiels zu kennen (cf. Kap.
1.3). Bei einer derartigen Ausweitung wäre der Begriff der Konvention
eher geeignet, Sachverhalte und deren Zusammenhänge zu verschleiern
anstatt sie zu erklären. Darüber hinaus kann in einem intuitiven Sinne
von Konvention nur dann sinnvollerweise gesprochen werden, wenn zu
einer konventionalisierten Handlung prinzipiell Alternativen gegeben
sind, die ein Individuum bzw. eine Gemeinschaft ebensogut wählen
könnte, faktisch aber nicht wählt. Was das Wesen einer Kon-
vention auszumachen scheint, ist gerade der Umstand, daß sich eine
Gruppe von Individuen auf eine von verschiedenen prinzipiell ebenso
möglichen Handlungsweisen einigt, weil eine solche Einigung etwa für
das Funktionieren der Gemeinschaft vernünftig oder von Vorteil ist.
Der Begriff der Konvention scheint also stets die prinzipielle Möglich-
keit zu implizieren, die Konvention zu verletzen. So besteht etwa in
Deutschland die Konvention, im Straßenverkehr rechts zu fahren, wäh-
rend man in England oder Japan links fährt. Eine solche Konvention
besteht, weil die entsprechende Regelung für das Funktionieren eines
reibungslosen Straßenverkehrs förderlich ist. Zu dieser konventionali-
sierten Handlung gibt es natürlich sowohl für die Gemeinschaft als
auch für das Individuum prinzipiell verschiedene realisierbare Alterna-
tiven. Man könnte etwa - wiederum per Konvention - beschließen,
zukünftig in Deutschland links zu fahren oder auch jegliche Regelung
aufzuheben. Ebenso kann offenkundig jedes Individuum alternative
Handlungsweisen wählen und damit gegen die Konvention verstoßen.
Nur weil zu einer Konvention für jeden realisierbare Alternativen exi-
stieren, werden Konventionsverstöße vielfach durch die Gemeinschaft
- etwa in Form der Strafjustiz - geahndet. Demgegenüber würde man
sicher das Schließen der Augen beim Niesen nicht als Konvention
bezeichnen wollen. Man schließt die Augen beim Niesen nicht auf-
grund einer Konvention, sondern weil hier ein biologisch determinier-
ter Reflex abläuft. Selbst in Situationen, in denen diese Handlung
unvernünftig ist - etwa beim Fahren auf der Autobahn mit hoher
Geschwindigkeit - kann sie nicht vermieden werden. Und genau weil
es zu dieser Handlung keine realisierbare Alternative gibt, käme keine
Gemeinschaft auf den Gedanken, das Schließen oder Nicht-Schließen
der Augen beim Niesen unter Strafe zu stellen oder auf andere Weise
zu ahnden.
Unter diesem Aspekt ist es nun jedoch äußerst fraglich, ob man in
der Tat Spracherwerb und Sprachverwendung als Konvention bezeich-
nen kann. Kindern lernen ihre Muttersprache nicht, weil dies aufgrund
irgendeiner Konvention festgelegt ist, um ansonsten potentiell realisier-
bare Alternativen auszuschließen. Kinder haben gar keine andere Wahl.
Sie können weder den Spracherwerb insgesamt verweigern noch etwa
sich auf den Erwerb bestimmter sprachlicher Teilbereiche beschränken
(cf. Felix 1987). Wenn Kinder in der Tat ihre Muttersprache nicht oder
nur teilweise erwerben, so liegt dies an biologisch determinierten
Pathologien und nicht an der Weigerung, sich einer Konvention zu
unterwerfen. Dies gilt gerade auch in Situationen, in denen dem Kind
scheinbar Alternativen zur Verfügung stehen. Kinder, die in mehrspra-
chigen Umgebungen aufwachsen oder deren Eltern unterschiedliche
Sprachen verwenden, haben zwar logisch, aber eben nicht faktisch eine
Wahlmöglichkeit. Sie können nicht entscheiden, ob sie beide oder nur
eine der Sprachen erlernen wollen. Kinder lernen in derartigen Situatio-
nen stets beide der angebotenen Sprachen. Wie wir in Kap. 5.4 noch
ausführlich zeigen werden, ist der Spracherwerb ein Prozeß, der aus
biologischer Notwendigkeit abläuft und dem sich das Kind nicht ent-
ziehen kann. Auch im Bereich der Sprachverwendung scheint der
Begriff der Konvention im hier diskutierten Sinne kaum eine vernünfti-
ge Interpretation zuzulassen. Wenn Deutsche Deutsch oder Franzosen
Französisch sprechen, so ist dies sicher keine Konvention, die eine
unter verschiedenen alternativen Handlungsmöglichkeiten auszeich-
net. Jeder lernt und verwendet notwendigerweise die Sprache seiner
Umgebung; die Frage von Konvention und potentiellen Alternativen
stellt sich hier gar nicht. Ebensowenig würde man sagen wollen, daß
zwischen den Menschen die Konvention besteht, sich regelmäßig zu
ernähren. Auch in diesem Bereich folgt der Mensch biologischen, nicht
sozialen Notwendigkeiten.
Es wäre nun - im Gegensatz zu der oben skizzierten Vorstellung -
denkbar, daß die Konvention nicht im gemeinsamen Besitz einer I-Gram-
matik besteht, sondern daß es unabhängig von der (mental repräsentier-
ten) I-Grammatik eine weitere (deskriptiv adäquate) Grammatik gibt,
die eben nicht die Kriterien der Repräsentierbarkeit, Lernbarkeit, etc.
erfüllen muß. Dies wäre sozusagen der »klassische« Fall einer E-Gram-
matik, deren Existenz zunächst nichts mit der Struktur der menschli-
chen Kognition oder dem grammatischen Wissen eines Sprechers zu
tun hat. Hier stellt sich nun vor allem die Frage, unter welchem Aspekt
die Charkaterisierung dieser E-Grammatik interessant sein könnte. In
dem hier diskutierten Kontext könnte man sich nun vorstellen, daß
eben diese E-Grammatik Gegenstand der Konvention ist, und zwar im
Sinne einer Überprüfungsinstanz, an der sich der individuelle Sprecher
ausrichten kann. Mit anderen Worten, die in der E-Grammatik kodifi-
zierte Konvention bietet dem einzelnen Sprecher die Möglichkeit fest-
zustellen, ob die von seiner I-Grammatik spezifizierten Sätze (und
deren Strukturen) übereinstimmen mit denen, die auch andere Spre-
cher der Gemeinschaft als mögliche Sätze der betreffenden Sprache
ansehen. Die Aussage, Sprachverwendung sei Konvention, wäre
dementsprechend so zu verstehen, daß der einzelne Sprecher - wenn-
gleich unbewußt - die durch seine I-Grammatik erzeugten Sätze auf
Übereinstimmung mit der Konvention, i.e. der durch die E-Gramma-
tik spezifizierten Sätze, überprüfen kann.
Die Vorstellung, Gegenstand der Konvention sei eine E-Gramma-
tik, die als Überprüfungsinstanz dient, impliziert nun zumindest, daß
der Sprecher die E-Grammatik kennt, da er sonst nicht feststellen
kann, ob ein gegebener Satz (aus der unendlichen Menge möglicher
Sätze), den seine I-Grammatik erzeugt, ebenfalls von der E-Gramma-
tik erzeugt wird. Dies bedeutet aber, daß die E-Grammatik mental
repräsentierbar sein muß. Darüber hinaus muß die E-Grammatik aber
auch offensichtlich das Kriterium der Verarbeitbarkeit (Parsbarkeit)
erfüllen, denn nur dadurch ist gewährleistet, daß der Sprecher (in end-
licher Zeit) feststellen kann, ob ein gegebener Satz von der E-Gram-
matik erzeugt wird.
Somit reduziert sich der Vergleich zwischen der I-Grammatik und
der E-Grammatik auf das Kriterium der Lernbarkeit. Nun kann ein
Sprecher die E-Grammatik nur dann kennen, wenn er sie auf irgendei-
ne Art und Weise gelernt hat, da die E-Grammatik offenkundig nicht
angeboren ist. Allerdings ist »Lernen« hier nicht notwendigerweise im
engen Sinne des natürlichen Spracherwerbs zu verstehen. Es wäre denk-
bar, daß die E-Grammatik explizit gelehrt wird. Doch diese Möglich-
keit scheidet aus offenkundigen Gründen aus, denn die E-Grammatik
könnte nur dann gelehrt werden, wenn sie irgendwo in explizit kodifi-
zierter Form vorliegt. Uns ist nicht bekannt, daß dies für irgendeine
natürliche Sprache zutrifft. Für die meisten Sprachen liegen nicht ein-
mal halbwegs deskriptiv-adäquate Grammatiken für die wichtigsten
grammatischen Teilbereiche vor; ein Umstand, der letztlich den Berufs-
stand der Linguisten rechtfertigt.
Da die E-Grammatik also nicht gelehrt werden kann, muß sie -
genau wie die I-Grammatik - unter den Bedingungen des natürlichen
Spracherwerbs erworben werden. Nun ist aber eine E-Grammatik per
definitionem eine Grammatik, für die das Kriterium der Lernbarkeit -
im Sinne des natürlichen Spracherwerbs (cf. Kap. 3) - gerade nicht gilt.
Mit anderen Worten, eine E-Grammatik muß allein das Kriterium der
deskriptiven Adäquatheit erfüllen; Faktoren wie Lernbarkeit oder
Repräsentierbarkeit spielen keinerlei Rolle. Wären diese Faktoren bei
der Charakterisierung einer E-Grammatik zu berücksichtigen, würden
letztlich wiederum psychologische bzw. biologische Überlegungen als
Adäquatheitskriterium heranzuziehen sein: die E-Grammatik wäre
damit eine potentielle I-Grammatik. Wenn also der Gegenstand der
Konvention eine tatsächliche E-Grammatik sein soll, so könnte kein
Sprecher einer Gemeinschaft jemals in Erfahrung bringen, worin denn
die Konvention besteht. Eine Konvention, die jedoch niemand kennt
und demnach auch von niemandem befolgt oder verletzt werden kann,
verdient kaum diesen Namen.
Würden wir nun der Grammatik, die den Gegenstand der Konven-
tion ausmacht, das Kriterium der Lernbarkeit auferlegen (und ihr
somit den Status einer I-Grammatik zusprechen), so läßt sich die Vor-
stellung einer allen Sprechern gemeinsamen Überprüfungsinstanz nur
unter einer äußerst bizarren Gedankenkonstruktion aufrechterhalten.
Dies würde nämlich bedeuten, daß jeweils zwei I-Grammatiken von
jedem Kind erworben und von jedem Sprecher mental repräsentiert
werden. Eine dieser I-Grammatiken kann von Individuum zu Indivi-
duum verschieden sein, die andere hingegen ist bei allen Sprechern
einer Gemeinschaft gleich. Sprachliches Wissen bedeutet dann u.a., daß
der Sprecher bei der Sprachverwendung kontinuierlich überprüft, ob
die von den beiden Grammatiken spezifizierten Satzmengen identisch
sind, und nur solche Sätze verwendet, für die diese Identität zutrifft.
Wenngleich eine solche Möglichkeit a priori nicht auszuschließen ist, so
scheint uns jedoch die Verfolgung dieser Perspektive beim derzeitigen
Stand der Linguistik kein unaufschiebbares Forschungsdesiderat zu
sein, zumal bislang keinerlei Evidenz für die Richtigkeit dieser Vorstel-
lung vorliegt.
Autonomie der Syntax
Aus Gründen, die wir in Band II, Kap. 3 darstellen werden, herrscht
unter Grammatiktheoretikern weitgehend Übereinstimmung darüber,
daß Sätze wie in (3) mit den sog. Drach'schen Regeln zu beschreiben
sind (cf. Drach 1940; Thiersch 1978; v.Stechow 1979b). Zunächst wer-
den alle Sätze mit Verbendstellung erzeugt; unter bestimmten Bedin-
gungen kann danach eine Regel angewendet werden, die das finite Verb
an die Satzspitze stellt (wie in (1a) und (1b)). Nach dieser Regel kann
dann eine beliebige Konstituente vor das vorangestellte Verb gesetzt
werden; daraus ergeben sich Sätze wie (3b)-(3e). Dies bedeutet aber,
daß die Verbvoranstellungsregel auch in (3b)-(3e), d.h. bei jedem
Hauptsatz angewendet wird. Da (3b)-(3e) aber weder Frage- noch
Bedingungssätze sind, darf die Voranstellungsregel keine diesbezügli-
chen semantischen Effekte besitzen; sie muß bedeutungsmäßig neutral
sein. Die semantische Verbindung besteht lediglich zu bestimmten
Satzkonfigurationen, aber nicht zu den Regeln, die diese erzeugen. Wir
werden in Band II, Kap. 3.1 noch zeigen, daß dasselbe auch für das
Passiv gilt.
Neben diesen empirischen Problemen ist der Einwand jedoch auch
konzeptuell irregeleitet. Die These der Autonomie der Syntax besagt
ja keineswegs, daß Grammatik nichts mit Semantik oder Pragmatik zu
tun hat. Autonomie bedeutet ausschließlich, daß die grammatischen
Regeln nicht auf semantische bzw. pragmatische Phänomene reduzier-
bar sind, d.h. es gibt keine semantische/pragmatische Gesetzmäßig-
keit, aus denen die grammatischen Regeln notwendigerweise folgen.
Zur Illustration betrachten wir nochmals das Beispiel der deutschen
Verbstellung. Enthält ein Satz mehrere Verben, so dürfen nur Verben
des Hauptsatzes vorangestellt werden, und zwar nur dann, wenn sie
finit sind.
»Let me first try to make a simple logical point, without trying to resolve the
issues. Suppose I were to say that something in the room is green, and suppose
somebody were to respond: >well, that is not so because there is something that
is white< - that wouldn't convince me that I was wrong in saying that something
in the room was green. Correspondingly, if I say that some properties of lan-
guage use and structure are determined in the initial state by language-specific
principles, it does not convince me that I am wrong if I am told that some aspects
of language use and structure are related to other aspects of cognitive development
- that is a simple point of logic.« (Chomsky in Piattelli-Palmarini 1980:138)
3 Dies ist in der Tat keine logische Notwendigkeit. Es wäre denkbar, daß ein ent-
scheidender Anteil der semantischen Interpretation nicht aus der syntaktischen
Tiefenstruktur, sondern aus interpretativen Projektionsregeln abgeleitet wird
(cf. hierzu Newmeyer 1980:96).
schen den beiden Sätzen beziehen. Dementsprechend bedeutet (12) ent-
weder, daß Fritz Maria zwar verlassen hat, aber der Grund ist nicht die
Schwangerschaft, oder daß aufgrund der Schwangerschaft Fritz bei
Maria geblieben ist.
Diese wenigen Beispiele zeigen bereits, daß bei einer sehr engen
Auslegung der Katz-Postal-Hypothese Tiefenstrukturen anzusetzen
sind, die sich in extremer Weise von den aus ihnen transformationell
abgeleiteten Oberflächenstrukturen unterscheiden. Während sich also
etwa (5a) und (5b) strukturell noch relativ ähnlich sind und sich im
Grunde nur durch die Position von Subjekt und Objekt unterscheiden,
zeigen etwa (7a) und (7b) doch einen in wichtigen Aspekten völlig
unterschiedlichen strukturellen Aufbau. Da die den beiden Sätzen
zugrundeliegende Tiefenstruktur jedoch in gewissem Sinne neutral
gegenüber den jeweiligen oberflächenstrukturellen Besonderheiten
sein muß, ist klar, daß derartige Tiefenstrukturen relativ zur Oberflä-
chenstruktur äußerst abstrakter Natur sein müssen. Gegen Ende der
60er Jahre erschienen eine Vielzahl von Publikationen (z.B. Bach 1968;
Lakoff 1968; Ross 1969; Postal 1970), die sich in umfangreichen Analy-
sen um den Nachweis bemühten, daß wichtige Generalisierungen in
der Tat nur dann erfaßt werden können, wenn sehr abstrakte Tiefen-
strukturen angesetzt werden.
Der extrem abstrakte Charakter derartiger Tiefenstrukturen führte
nun zunächst dazu, daß sich die Ebene der Tiefenstruktur im Grunde
nicht mehr als syntaktische Ebene auffassen ließ (cf. McCawley 1968;
Postal 1972), da die syntaktischen Eigenschaften eines Satzes in der Tie-
fenstruktur eben noch völlig unspezifiziert waren und sich erst aus der
Anwendung der Transformationen ergaben. Die Tiefenstruktur wurde
somit zu einer rein semantischen Ebene, auf der einzig und allein bedeu-
tungsrelevante Relationen und Distinktionen ausgedrückt wurden.
Aus der Perspektive der Generativen Semantik bestand die Gram-
matik daher einerseits aus einer (rein) semantischen Repräsentations-
ebene (cf. Newmeyer 1970; Lakoff 1972), der Tiefenstruktur, und einer
(rein) syntaktischen Repräsentationsebene, der Oberflächenstruktur.
Die Aufgabe der Transformationen bestand darin, die semantischen
Strukturen in syntaktische Strukturen zu überführen. Hier stellt sich
nun die Frage, ob diese Transformationen ihrem Wesen nach syntakti-
sche Regeln sind - wie dies in der Standardtheorie (Chomsky 1965)
angenommen wurde -, oder ob Transformationen im Grunde auch
nichts anderes als semantische Prozesse spezifizieren. Die Vertreter der
Generativen Semantik brachten nun eine Vielzahl von Argumenten vor,
die darauf hindeuteten, daß Transformationen in der Tat semantische
und nicht syntaktische Regeln sind. Zunächst ließ sich zeigen, daß lexi-
kalische Elemente nicht mehr wie in der Standardtheorie als unanaly-
siertes Ganzes in die Tiefenstruktur einzuführen sind, sondern vielmehr
transformationell eingesetzt werden müssen. Das hierfür nunmehr klas-
sische Beispiel (cf. Morgan 1969) ist die Ambiguität von Satz (13), dem
die zugrundeliegenden Strukturen (14a) und (14b) zugeordnet werden:
Das oberflächenstrukturelle Verb kill taucht als solches auf der tiefen-
strukturellen Ebene gar nicht auf, sondern muß durch eine Transforma-
tion aus cause to die abgeleitet werden. Mit anderen Worten, Transforma-
tionen operieren in einem Bereich, der sozusagen die Manifestation der
Semantik par excellence ist, nämlich dem Bereich lexikalischer Elemente.
Darüber hinaus konnte gezeigt werden, daß Restriktionen, die auf
den ersten Blick rein syntaktischer Natur zu sein scheinen, auch im
lexikalischen, i.e. rein semantischen Bereich auftreten, so daß hier die
Unterscheidung zwischen Syntax und Semantik bedeutungslos ist. Seit
Ross (1967a) war bekannt, daß die wh-Transformation, die bei der Fra-
gebildung wh-Konstituenten an die Satzanfangsposition bewegt, nicht
auf die Konstituenten eines Relativsatzes angewendet werden darf:
In den Beispielen (17)-(18) soll die Bedeutung von flimp jeweils dem
kursiv gedruckten komplexen Ausdruck im (a)-Satz entsprechen. Dies
scheint in (17) und (18) problemlos zu sein, d.h. es ist denkbar, daß es
im Englischen ein Verb to flimp mit der Bedeutung to like to drive big
cars geben könnte. Andererseits haben Sprecher des Englischen starke
Intuitionen darüber, daß ein Verb to flimp eben nicht die Bedeutung
von (19a), i.e. to kiss a girl who is allergic to haben kann. Der Grund
dafür scheint zu sein, daß ein solches Verb das Subjekt des Matrixsat-
zes mit dem Objekt des eingebetteten Satzes in Beziehung setzt. Mit
anderen Worten, es scheint nahezuliegen, die Ungrammatikalität von
(16c) und die Unmöglichkeit einer Bedeutung von flimp wie in (19a)
auf das gleiche Prinzip zurückzuführen.
Diese Beispiele zeigen nun, daß zentrale Transformationen und
Restriktionen sowohl den syntaktischen als auch semantischen
Bereich betreffen. Nun könnte man natürlich durchaus Transforma-
tionen danach unterscheiden, ob sie in einem intuitiven Sinne syn-
taktische oder semantische Phänomenbereiche betreffen; jedoch
wäre eine solche Unterscheidung völlig belanglos, da derartige >syn-
taktische< bzw. >semantische< Transformationen keinerlei formale
Unterschiede aufweisen. Mit anderen Worten, grammatische Pro-
zesse und semantische Prozesse fallen zusammen und sind letztlich
bezüglich ihrer formalen Eigenschaften identisch. Wenn jedoch die
Tiefenstruktur eine rein semantische Repräsentationsebene ist, und
wenn Transformationen auch im wesentlichen semantische Prozesse
spezifizieren, so bedeutet dies, daß sich die syntaktischen Eigen-
schaften der Oberflächenstruktur vollständig aus semantischen
Strukturen und Prozessen ableiten lassen. Aus diesen Beobachtun-
gen leitet sich die zentrale These der Generativen Semantik ab:
wenngleich natürliche Sprachen oberflächlich zweifellos Eigenschaften
aufweisen, die intuitiv syntaktischer Natur sind, so sind diese jedoch
nicht über ein separates und eigenständiges Regelsystem zu erfassen,
sondern lassen sich vollständig aus semantischen Strukturphänomenen
ableiten.
Gegen Ende der 6oer und zu Beginn der 70er Jahre war die Generative
Semantik unbestreitbar - zumindest in den USA - die dominierende
Forschungsrichtung im Bereich der theoretischen Linguistik (cf. New-
meyer 1980). Dennoch wurde sehr bald klar, daß eine konsequente An-
wendung des generativ-semantischen Ansatzes sowohl unter deskripti-
ven als auch konzeptuellen Gesichtspunkten in eine Sackgasse führen
mußte. Aus diesem Grunde kann man das Programm der Generativen Se-
mantik spätestens seit Mitte der 70er als gescheitert ansehen; in der aktu-
ellen linguistischen Diskussion betrachtet eigentlich niemand mehr die
Generative Semantik als ernstzunehmende linguistische Theorie. »To-
day many of these hypotheses have no public adherents at all, and the
term >generative semantics< itself evokes nostalgia rather than partisan
fervor« (Newmeyer 1980:133). Die Gründe für das Scheitern dieser For-
schungsrichtung sind mannigfaltiger Art; jedoch scheinen insbesondere
drei Faktoren ausschlaggebend gewesen zu sein. Zunächst zeigte sich,
daß die Katz-Postal-Hypothese, die entscheidende theoretische Grund-
lage der Generativen Semantik, schon rein empirisch nicht zu rechtferti-
gen war. Darüber hinaus mehrte sich Evidenz dafür, daß sich wichtige
syntaktische Generalisierungen nicht mehr erfassen lassen, wenn die
Grammatik ausschließlich aus semantischen Strukturen und semanti-
schen Prozessen besteht. Und letztlich wurde deutlich, daß die extreme
Abstraktheit der Tiefenstruktur und die daraus folgende enorme Kom-
plexität der transformationellen Komponente zu einer Grammatikkon-
zeption führt, die nicht mehr die Kriterien der Lernbarkeit und Reprä-
sentierbarkeit erfüllt und darüber hinaus offensichtlich absurde Aussa-
gen über die Beziehung zwischen sprachlichem und nicht-sprachlichem
Wissen impliziert. Wir wollen hier kurz auf diese drei Bereiche eingehen.
Die Idee, daß Transformationen nicht die Bedeutung eines Satzes ver-
ändern, war in der Standardtheorie nicht mehr als eine Arbeitshypothe-
se. Sie entstand aus aus der Beobachtung, daß in den meisten damals
betrachteten Fällen, insbesondere bei der Passivtransformation, die
zugrundeliegende Struktur und die daraus transformationell abgeleitete
Struktur in der Tat im wesentlichen bedeutungsgleich waren. Bereits
Chomsky (1965:224) wies in einer Fußnote darauf hin, daß dies aller-
dings nicht grundsätzlich zu gelten scheint; sobald Strukturen Quanto-
ren enthalten, unterscheidet sich die Bedeutung eines Passivsatzes von
der des zugrundeliegenden Aktivsatzes:
(33) the woman who wrote to him saw the man who loves her
Her ist hier über Pronominalisierung für die NP the woman who wrote
to him einzusetzen. Diese NP wiederum enthält das Pronomen him,
das ebenfalls erst über die Pronominalisierungsregel eingesetzt wird,
und zwar anstelle von the man who loves her. Doch nun geraten wir in
eine infinite Rekursion, denn diese NP enthält erneut das ursprüngli-
che her, das wiederum anstelle von the woman who wrote to him einge-
setzt wird. Wie sich der Leser leicht selbst überzeugen kann, läßt sich
dieser Pronominalisierungsprozeß infinit fortsetzen. Stets enthält die
NP, auf die die Pronominalisierung anzuwenden ist, selbst ein Prono-
men, das aus einer zugrundeliegenden NP abzuleiten ist.
Das Bach-Peters-Paradox zeigt also, daß bei einer generativ-seman-
tischen Behandlung der Pronominalisierung für bestimmte Strukturen
eine unendlich tiefe semantische Repräsentationsebene und somit eine
unendliche Anzahl von Transformationen angesetzt werden müssen.
Eine Grammatik, die mit diesen Mechanismen arbeitet, ist nun offen-
kundig nicht einmal imstande, Sätze wie (33) zu erzeugen, d.h. die tat-
sächlich in der Sprache auftretenden Sätze aufzuzählen. Allein dieser
Umstand zeigt schon, daß das Modell der Generativen Semantik als lin-
guistische Theorie nicht in Frage kommt. Darüber hinaus ist ebenso
klar, daß unendliche Tiefenstrukturen nicht im Gehirn repräsentiert
werden können, und es stellt sich weiterhin die Frage, wie ein derart
komplexer und durch keinerlei Prinzipien eingeschränkter Regelappa-
rat durch ein Kind auf der Grundlage der ihm verfügbaren Evidenz
überhaupt erlernbar sein soll. Wir werden auf diesen Problemkreis aus-
führlich in Kap. 3 eingehen.
Die semantischen Repräsentationen, die generative Semantiker in
ihren Analysen vorlegten, ähnelten im Laufe der Zeit immer mehr den
Notationen, die aus der Prädikatenlogik bekannt sind. »The base com-
ponent suggested here looks in some ways very much like the logical
Systems familiar from the work of modern logicians like Rudolf Car-
nap, Hans Reichenbach, and others. In particular, such Systems do not
have any subdivision of >lexical items< into nouns, verbs, and adjectives.
Much more basic is the distinction between variables, names, and gene-
ral >predicates< ...« (Bach 1968:121). Diese Entdeckung führte nun zu
der These, daß ein solches Logiksystem Bestandteil unserer Kognition
ist; somit läßt sich sowohl die menschliche Sprachfähigkeit als auch die
Fähigkeit zu logischen Schlüssen auf einer gemeinsamen Basis erklären.
Wie die Untersuchungen von Johnson-Laird (1983) jedoch zeigen,
können die logischen Fähigkeiten des Menschen nicht über die Annah-
me einer >mental logic< erklärt werden (cf. Kap. 1.4). Da somit alles
dafür spricht, daß in unserer Kognition kein formales Logiksystem
direkt abgespeichert ist, entbehren semantische Repräsentationen, die
unmittelbar als logische Notationen konzipiert sind, jeglicher psycho-
logischen Plausibilität.
Wenngleich die These der Generativen Semantik, Sprache sei letzt-
lich nichts anderes als ein rein semantisches Phänomen, aus den oben
beschriebenen Gründen nicht haltbar ist und heutzutage auch von nie-
mandem mehr ernsthaft vertreten wird, so kann man sich dennoch
einer schwächeren Version der Semantikthese anschließen, nämlich der,
daß zwischen Syntax und Semantik ein sehr enges Verhältnis besteht,
bzw. daß die Struktur syntaktischer Repräsentationen weitgehend von
semantischen Gesetzmäßigkeiten bestimmt wird. So geht etwa die
Montague-Grammatik (Montague 1970a; 1970b; 1973; Dowty et al.
1981) von einer eins-zu-eins-Beziehung zwischen syntaktischen und
semantischen Prozessen aus, d.h. jeder syntaktischen Gesetzmäßigkeit
entspricht genau eine semantische Gesetzmäßigkeit et vice versa. Eben-
so wird von ernstzunehmenden Kritikern wie etwa Seebaß (1981) häu-
fig der Vorwurf erhoben, die generative Theorie übersehe bei der Spezi-
fizierung sprachbezogener mentaler Repräsentationen schlicht und ein-
fach die zentrale Rolle der Bedeutung für diesen Phänomenbereich.
Wir hatten bereits mehrfach darauf hingewiesen, daß die Autono-
miethese natürlich nicht bestreitet, daß bestimmte Fakten, die man
unter deskriptiven Gesichtspunkten dem traditionellen Bereich der
Syntax zuordnen kann, durchaus eine semantische Erklärung finden
können. So zeigt etwa Fanselow (1986a), daß die Datenverteilung bei
pränominalen Adjektivphrasen vermutlich semantisch zu begründen
ist. Die Autonomiethese besagt lediglich, daß es einen nicht-trivialen
Bereich sprachlicher Phänomene gibt, die eben nicht semantisch erklär-
bar sind; und genau aus diesem Grunde ist eine autonome syntaktische
Komponente anzusetzen. In der Tat zeigt sich zumeist bei der genauen
Betrachtung semantischer Erklärungen, daß in dem betreffenden Phä-
nomenfeld noch ein Rest »übrigbleibt«, der sich der semantischen
Begründung entzieht und offenbar rein syntaktischer Natur ist. Wir
wollen dies an einem Datenbereich illustrieren, der auf den ersten Blick
eine rein semantische Erklärung geradezu herausfordert, und zwar den
sog. Kontrollphänomenen.
Vergleichen wir die Sätze in (34) miteinander, so lassen sich sowohl
Gemeinsamkeiten als auch Unterschiede feststellen:
(34a) ich verspreche ihm, zu kommen
(34b) ich bitte ihn, zu kommen
Beiden ist gemeinsam, daß der eingebettete Satz zu kommen infinit ist
und daß das Subjekt dieses eingebetteten Satz lexikalisch nicht realisiert
ist. Darin unterscheiden sich die Sätze in (34) von denen in (35):
(35 a) ich verspreche ihm, daß ich komme
(35 b) ich bitte ihn, daß er kommt
Wenngleich das Subjekt zu kommen in (34) lexikalisch nicht vorhanden
ist, so wird es doch sozusagen »mitverstanden«, und zwar als identisch
mit ich in (34a) und ihn in (34b). Dieser Unterschied hat nun einige syn-
taktische Konsequenzen:
(36a) *ich verspreche ihm; sich; zu rasieren
(36b) ich bitte ihn; sich; zu rasieren
Das Reflexivpronomen sich beispielsweise darf nur dann auftreten,
wenn - wie in (36b) - das mitverstandene Subjekt nicht ich, sondern
eine Nominalphrase in der dritten Person ist.
Man mag nun vermuten, daß das »mitverstandene« Subjekt des ein-
gebetteten Satzes stets vom jeweiligen Verb des Matrixsatzes abhängt:
bei versprechen etwa ist das »mitverstandene« Subjekt identisch mit
dem Subjekt des Matrixsatzes, bei bitten ist es identisch mit dem
Objekt des Matrixsatzes. Technisch spricht man bei Verben wie verspre-
chen und bitten von Subjektkontrolle bzw. Objektkontrolle. In der
Standardtheorie (Chomsky 1965) betrachtete man die Kontrolleigen-
schaften eines Verbs im wesentlichen als ein syntaktisches Phänomen.
Eine erste Schwierigkeit dieses Ansatzes besteht darin, daß Verben
wie glauben sowohl Subjektkontrolle als auch Objektkontrolle aus-
üben können:
(37) ich glaubte ihm, gestern abend besoffen gewesen zu sein
(39a) ich versprach ihm, nicht von der Klippe fallen zu müssen
(39b) der Chefarzt versprach dem Patienten, diese Nacht schla-
fen zu können
(42a) Hans glaubte Maria, daß sie sich eines Tages wieder tref-
fen werden
(42b) *Hans; glaubte Mariaj, sichij eines Tages zu treffen
Wenngleich das mitverstandene Subjekt aus semantischen Gründen
offensichtlich irgendeine Referenz haben muß, so läßt sich semantisch
eigentlich nicht erklären, warum diese Referenz nicht höher als ein Satz
liegen darf (cf. Manzini 1983). Warum ist also (43b) in der Bedeutung
(43a) nicht möglich?
(43a) ich glaube, Hans hat Maria versprochen, daß ich eingela-
den werde
(43b) ich glaube, Hans hat Maria versprochen, eingeladen zu
werden
Entscheidend ist jedoch, daß nur die Konstruktion (45 a) über eine Satz-
grenze hinaus gehen kann, wie (46) zeigt:
(46a) each of the men believes that John likes the other
(46b) *the men believe that John likes each other
Daß sich each other in (46b) nicht auf the men beziehen kann, kann
offensichtlich keine semantischen Gründe haben, da sonst auch (46a)
ungrammatisch sein müßte. Auch hier zeigt sich, daß neben semanti-
schen Regularitäten auch autonome syntaktische Prinzipien die Daten-
verteilung steuern (cf. Chomsky 1980).
Ein weiteres Phänomen, das zunächst eine semantische Erklärung
nahezulegen scheint, betrifft die Tatsache, daß Konstituenten, die sich
etwa innerhalb indirekter Fragen oder innerhalb von Koordinations-
strukturen befinden, selbst nicht erfragt werden können (cf. Ross
1967a; Chomsky 1973):
(47a) Hans traf Egon und Fritz
(47b) *wen traf Hans Egon und - (Antwort: Fritz)
(47c) *wen traf Hans - und Fritz (Antwort: Egon)
(48a) Hans weiß nicht, warum Dagmar ein Auto gekauft hat
(48b) *was weiß Hans nicht, warum Dagmar - gekauft hat
Man mag nun im Sinne einer semantischen Erklärung annehmen, daß
(47b) und (47c) deshalb ungrammatisch sind, weil ein koordinierter
Ausdruck wie Egon und Fritz eine inhaltliche Einheit ist, die nicht
durch die Erfragung einer Konstituenten »aufgebrochen« werden darf.
In ähnlicher Weise ließe sich vermuten, daß eine Konstituente innerhalb
eines Fragesatzes deshalb nicht erfragt werden kann, weil Fragen inner-
halb einer Frage aus semantisch-logischen Gründen nicht möglich
sind. Bei genauerer Betrachtung erweisen sich diese Erklärungen
jedoch als nicht haltbar. In einer Sprache wie etwa dem Japanischen
sind die zu (47b), (47c) und (48b) analogen Sätze völlig grammatisch.
Der hier entscheidende Unterschied zwischen dem Japanischen und
dem Deutschen betrifft die Tatsache, daß im Japanischen das Fragewort
nicht am Satzanfang erscheint, sondern in seiner ursprünglichen Kon-
stituentenposition verbleibt:
(49a) Hans-wa Egon-to Fritz-ni atta
Hans(nom.) Egon- und Fritz(dat.) traf
»Hans traf Egon und Fritz«
(49b) Hans-wa dare-to Fritz-ni atta (dare = wer)
»Hans traf wen und Fritz«
(49c) Hans-wa Egon-to dare-ni atta
»Hans traf Egon und wen«
(50a) Dagmar-ga doshite kuruma-o katta-ka Hans-ga shi-
ranai
Dagmar(nom.) warum Auto(acc.) kaufte Hans weiß
nicht
»Hans weiß nicht, warum Dagmar ein Auto kaufte«
(50b) Dagmar-ga doshite nani-o katta-ka Hans-ga shiranai
(nani = was)
»Hans weiß nicht, warum Dagmar was kaufte«
Die Ungrammatikalität von (47b), (47c) und (48b) ergibt sich also nicht
aus dem Umstand, daß Koordinationen oder indirekte Fragesätze
semantische Inseln für die Fragen sind, sondern daß im Deutschen die
Fragebildung einen syntaktischen Prozeß involviert, der Fragewörter an
die Satzanfangsposition bewegt. Koordination und indirekte Fragesät-
ze sind aber Inseln für diesen syntaktischen Prozeß.
Daß es sich hier um ein syntaktisches Phänomen handelt, kann man
auch daran erkennen, daß die japanischen Sätze ungrammatisch wer-
den, sobald das Fragewort nicht mehr an seiner ursprünglichen Posi-
tion verbleibt, sondern aus der betreffenden Struktur herausbewegt
wird. Dies geschieht etwa bei der Topikalisierung, durch die das Frage-
wort eine besondere Hervorhebung erfährt:
In (51b) wird der Satz Hans traf durch die Partikel no-wa nominalisiert;
dare (=wer) erscheint nun nicht mehr innerhalb dieses Satzes, sondern
wird offenkundig in eine Position vor der Kopula herausbewegt. Ent-
scheidend ist nun, daß eine Konstruktion wie (51b) den gleichen
Restriktionen wie die deutsche Fragebildung unterliegt. Dementspre-
chend sind (52a)-(52c) ungrammatisch:
c) aus that-Sätzen darf das Subjekt bei der Fragebildung nicht extra-
hiert werden; fehlt die Konjunktion that, so ist die Extraktion möglich:
d) Intransitive Verben können nur dann ein Passiv bilden, wenn sie ihr
Perfekt mit haben und nicht mit sein bilden (cf. Burzio 1981; Fanselow
1987b):
(74a) Hans hat in Passau von seinem Freund ein Auto gekauft
(74b) in Passau hat Hans von seinem Freund ein Auto gekauft
(74c) von seinem Freund hat Hans in Passau ein Auto gekauft
(74d) ein Auto hat Hans von seinem Freund in Passau gekauft
(75a) in Passau ein Auto gekauft hat Hans von seinem Freund
(75b) in Passau von seinem Freund gekauft hat Hans ein Auto
(75c) ein Auto in Passau von seinem Freund gekauft hat Hans
(75d) *Hans gekauft hat in Passau von seinem Freund ein Auto
Betrachten wir zunächst das Satzpaar (77). Die beiden Sätze unterschei-
den sich darin, daß in (77a) das, was gegessen wird, explizit genannt
wird, i.e. ein Apfel. In (77b) hingegen bleibt das Objekt des Essens
unspezifiziert. (77b) ließe sich also paraphrasieren als Hans ißt irgend-
etwas, aber was dies ist, bleibt offen. Unter funktionalistisch-pragmati-
schen Gesichtspunkten ist dieser syntaktische Kontrast durchaus ver-
ständlich. Es ist vernünftig, einen Gegenstand oder eine Handlung nur
dann explizit zu nennen, wenn dies für die intendierte Mitteilung wich-
tig und essentiell ist. Natürlich weiß jeder Gesprächspartner, daß die
Handlung des Essens impliziert, daß irgendetwas gegessen wird; aber
es mag Situationen geben, in denen es unnötig oder unerwünscht ist,
das Objekt des Essens näher zu spezifizieren. Unter einer funktionali-
stischen Perspektive wäre daher zu erwarten, daß natürliche Sprachen
so strukturiert sind, daß das Objekt einer Handlung entweder lexika-
lisch spezifiziert wird, oder bei Bedarf ungenannt bleibt und somit
irgendein beliebiges Objekt ist. Betrachten wir nun (78a). Das implizite
Subjekt des eingebetteten Satzes to talk to Bill ist offensichtlich John.
Das Objekt der Sprechhandlung ist explizit genannt, i.e. es ist Bill. Der
Satz ließe sich also wie folgt paraphrasieren: Hans ist zu halsstarrig als
daß er (=Hans) mit Bill sprechen würde. In (78b) hingegen bleibt das
Objekt von to talk to ungenannt. In Analogie zu (77b) wäre nun unter
Berücksichtigung der genannten pragmatischen Gesichtspunkte zu
erwarten, daß nunmehr irgendeine beliebige Person, die nicht näher
genannt werden soll, gemeint ist. Dementsprechend wäre (78b) zu
paraphrasieren als: Hans ist zu halsstarrig, als daß er (=Hans) mit irgend-
einer beliebigen Person sprechen würde. Doch diese Lesart ist für (78b)
gerade nicht möglich. Der Satz kann nur bedeuten: Hans ist zu halsstar-
rig, als daß irgendeine Person mit ihm (=Hans) sprechen würde. Dies
bedeutet, daß in (78b) - im Gegensatz zu (77b) - das explizite Fehlen
des Objekts nunmehr Hans und nicht etwa irgendeine beliebige Person
zum Objekt der Sprechhandlung macht. Demgegenüber tritt nun die
beliebige Person als implizites Subjekt auf. Auch dieses Phänomen deu-
tet in sehr drastischer Weise darauf hin, daß sich die Struktur natürli-
cher Sprachen eben nicht strikt nach funktionalistischen oder pragmati-
schen Kriterien richtet, sondern derartigen Gesichtspunkten sogar
zuwiderlaufen kann.
Im Prinzip ließe sich die Liste von Beispielen beliebig fortführen.
Sie alle zeigen, daß natürliche Sprachen eben nicht rein funktionale
Gebilde sind, sondern über Struktureigenschaften verfügen, die zuwei-
len dem pragmatisch Sinnvollen und Naheliegenden eher entgegenwir-
ken. Natürlich haben Sprachen mannigfaltige Funktionen und diese
spiegeln sich zweifellos auch in einer Reihe von Merkmalen wider, aber
natürliche Sprachen lassen sich nicht auf ihre Funktionalität reduzie-
ren. Genau diese Einsicht liegt jedoch der Autonomiethese zugrunde:
das, was wir als Sprache bezeichnen, ergibt sich aus dem Zusammen-
spiel höchst unterschiedlicher Komponenten, von denen eine eben die
Grammatik als eigenständiges und autonomes Struktur- und Wissens-
system ist.
Das logische Problem des Spracherwerbs
1 In jüngerer Zeit hat man verstärkt auch auf Daten aus dem Bereich der Sprach-
verarbeitung (z.B. Marcus 1980; Frazier & Fodor 1978; Berwick & Weinberg
1982, 1983), der Aphasiologie (cf. Kean 1985) und der Psycholinguistik (cf. Wan-
ner & Gleitman 1982; White 1982; Felix 1987) zurückgegriffen. Dennoch sind
Grammatikalitätsurteile nach wie vor das vorherrschende Arbeitsinstrument
generativer Grammatiker. Dieser Umstand hat jedoch keine prinzipiellen Grün-
de; grundsätzlich sind alle Datenbereiche heranzuziehen, aus denen Einsichten
in theoretisch relevante Aspekte des menschlichen Sprachvermögens gewonnen
werden können (cf. auch Chomsky 1981:9)
matikalitätsurteilen zugrundeliegende Wissen modelliert. Dieser Algo-
rithmus muß offensichtlich so beschaffen sein, daß er in systematischer
Art und Weise genau die Klasse der in der betreffenden Sprache mögli-
chen Sätze spezifiziert und sie somit von den ungrammatischen Sätzen
unterscheidet. In der generativen Terminologie wird ein solcher Algo-
rithmus als »Grammatik« bezeichnet.
Hierbei taucht nun ein grundsätzliches Problem auf. Mathematisch
läßt sich nachweisen, daß es für einen gegebenen Satz von Daten stets
mehr als eine Grammatik gibt, die das oben genannte Kriterium erfüllt
(cf. Kratzer et al. 1974). Die Vielfalt derartiger Grammatiken hängt u.a.
davon ab, welche formalen Anforderungen man an sie stellt (cf. Baker
1979:537-541). So könnte man etwa von der betreffenden Grammatik
lediglich verlangen, daß sie angibt, ob ein gegebener Satz in einer Spra-
che möglich ist oder nicht. Eine Grammatik, die diese Bedingung
erfüllt, bezeichnet man als beobachtungsadäquat (»observationally
adequate«). Eine stärkere Anforderung wäre, daß die Grammatik nicht
nur angibt, welche Sätze möglich sind, sondern jedem dieser möglichen
Sätze auch eine ganz bestimmte Struktur zuordnet. Grammatiken sol-
cher Art nennt man beschreibungsadäquat (»descriptively adequate«).
Zwei Grammatiken, die für eine gegebene Menge von Sätzen das Krite-
rium der Beobachtungsadäquatheit erfüllen, nennt man schwach äqui-
valent (»weakly equivalent«), während zwei entsprechend beschrei-
bungsadäquate Grammatiken stark äquivalent (»strongly equivalent«)
sind. Wenngleich die Klasse der stark äquivalenten Grammatiken
erheblich kleiner ist als die Klasse der schwach äquivalenten Grammati-
ken, so ist sie immer noch so groß, daß sich die Frage stellt, welche die-
ser Grammatiken denn nun der tatsächlichen mentalen Repräsentation
im »human mind« entspricht.
An einigen einfachen Beispielen aus Baker (1979) wollen wir die
Grundproblematik illustrieren und betrachten hierzu die folgenden
Sätze:
(3) X-V-NP-to-NP
1 2 3 4 5
=> 1, 2, 5 + 3, Ø, Ø
Der hier geschilderte Fall ist keineswegs ein Einzelphänomen. Auch die
folgende Datenlage läßt sich auf unterschiedliche Weise gleichermaßen
beschreibungsadäquat erfassen:
Auf der Grundlage dieser Daten könnte das Kind nun die beiden fol-
genden Interrogationsregeln aufstellen:
(15) Suche die erste finite Verbform des Satzes und stelle diese
an den Satzanfang.
(16) Suche die erste finite Verbform, die auf die Subjekt-NP
folgt, und stelle sie an den Satzanfang.
(15) ist eine strukturunabhängige Regel, bei der allein die lineare Abfol-
ge der einzelnen Wörter berücksichtigt wird; d.h. die lexikalischen Ele-
mente werden nacheinander auf das Auftreten einer finiten Verbform
hin abgesucht. (16) hingegen ist eine strukturabhängige Regel, in der
nicht nur auf einzelne Wörter, sondern auf abstrakte Strukturelemente
wie Subjekt-NP Bezug genommen wird. Mit anderen Worten, die
Anwendung von (16) - im Gegensatz zu (15) - setzt eine Strukturana-
lyse des Satzes voraus, in der zunächst die Subjekt-NP identifiziert
werden muß. Entscheidend ist nun, daß anhand von Daten wie (13)
und (14) nicht entscheidbar ist, ob (15) oder (16) die korrekte Formulie-
rung der Interrogationsregel ist. Für diese Entscheidung muß das Kind
Zugang zu komplexeren Strukturen haben, insbesondere zu solchen,
die einen Subjektrelativsatz enthalten:
(17a) the old man that I will meet tomorrow is John's grandpa
(17b) *will the old man that I meet tomorrow is John's grandpa
(17c) is the old man that I will meet tomorrow John's grandpa
Der Kontrast zwischen (17b) und (17c) verdeutlicht, daß (16) und nicht
(15) die korrekte Regel ist. (17b) ist durch Anwendung von (15) entstan-
den: die erste finite Verbform in (17a) ist will, und dieses Element ist in
(17b) an den Satzanfang gesetzt worden. Der Satz ist ungrammatisch.
In (17c) hingegen ist die erste finite Verbform, die auf die Subjekt-NP
the old man that I will meet tomorrow folgt, also is, an den Satzanfang
bewegt worden. (17c) ist grammatisch.
Diese Daten zeigen, daß das Kind auf der Grundlage seiner sprach-
lichen Erfahrung nur dann zwischen den alternativen Regeln (15) und
(16) entscheiden kann, wenn es Zugang zu Daten wie (17c) hat. Würden
Mütter allerdings im Sinne der Motherese Hypothesis den Gebrauch
komplexer Strukturen wie etwa Relativsätze vermeiden, so wäre dem
Kind damit der Zugang zu Daten verwehrt, die es braucht, um zwi-
schen alternativen Generalisierungen zu entscheiden.
Der Sachverhalt ist jedoch noch weitaus komplexer. Zwar kann das
Kind an Sätzen wie (17c) erkennen, daß (16) eine mögliche Form der
englischen Interrogationsregel ist, nicht aber, daß (15) etwa als alterna-
tive Form ausgeschlossen ist3. Um (15) ausschließen zu können, müßte
es wissen, daß (17b) ungrammatisch ist. Doch diese Information kann
es nicht aus seiner sprachlichen Erfahrung gewinnen, da die Tatsache,
3 Dieses Faktum ist u.a. deshalb von Bedeutung, weil natürliche Sprachen in zahl-
reichen Bereichen durchaus alternative Formen zur Verfügung stellen, so daß das
Kind derartige Alternativen einkalkulieren muß, und zwar unabhängig davon,
ob es sie in der sprachlichen Umgebung hört:
(a) John met Bill in Paris and Tom met Sue in York
(b) John met Bill in Paris and Tom Sue in York
(c) wenn Fritz nicht kommt, fällt der Vortrag aus
(d) kommt Fritz nicht, fällt der Vortrag aus
daß (17b) im Input nicht auftritt, nicht als Nachweis für Ungrammatika-
lität gelten kann. Aus der Perspektive des Kindes wäre ja denkbar, daß
(17b) durchaus grammatisch ist, aber eben aus reinem Zufall von nie-
mandem geäußert wird. Um Gewißheit über die Ungrammatikalität
von (17b) zu erhalten, müßte das Kind eine solche Struktur seinen Ge-
sprächspartnern zunächst anbieten und darauf hoffen, daß eine entspre-
chende Äußerung explizit als ungrammatisch zurückgewiesen wird.
Derartige Überlegungen führen jedoch zu einer absurden Vorstellung
über den tatsächlichen Ablauf des Spracherwerbsprozesses. Wir haben
bereits darauf hingewiesen, daß Eltern Äußerungen ihrer Kinder zwar
hin und wieder, aber eben nicht systematisch korrigieren, und daß sich
Korrekturen zumeist auf den Inhalt und nicht die Form einer Äußerung
beziehen. Somit wäre denkbar, daß das Kind (17b) äußert, aber die El-
tern überhaupt nicht reagieren, etwa weil sie den Satz nicht verstehen
oder gerade mit etwas anderem beschäftigt sind. Man könnte sich auch
vorstellen, daß die Eltern etwa mit no, it's not John's grandpa, it's his fat-
her antworten. In diesem Falle würde das Kind durch die elterliche Re-
aktion in die Irre geleitet. Im übrigen müßte das Kind konsequenterwei-
se in allen Fällen, in denen der Input alternative Regeln zuläßt, diese Al-
ternativen systematisch abtesten. Dem Kind bliebe dann wenig Zeit für
inhaltsvolle Kommunikation, da es fortlaufend damit beschäftigt wäre,
seinen Grammatikerwerb voranzutreiben. Es ist jedoch hinreichend be-
kannt, daß Kinder Äußerungen produzieren, um ihre Gedanken und
Wünsche mitzuteilen, und nicht, um syntaktische Regeln auszuprobie-
ren. Im übrigen deuten die empirischen Untersuchungen zum Spracher-
werb darauf hin, daß Strukturen wie (17b) in der Kindersprache über-
haupt nicht auftreten; es scheint, als schlösse das Kind strukturunab-
hängige Regeln wie (15) von vornherein aus, und zwar auch dann, wenn
die ihm verfügbaren Daten mit einer solchen Regel kompatibel sind.
Wir sehen also, daß das Kind keinen systematischen Zugang zu ne-
gativer Evidenz hat, i.e. es fehlen ihm verläßliche Informationen dar-
über, welche Strukturen ungrammatisch sind. Daraus folgt, daß Regeln,
die nur über negative Evidenz erlernbar sind, als Spezifizierung der
mentalen Repräsentation grammatischen Wissens auszuschließen sind.
Mit dieser Überlegung eröffnet sich nun eine Möglichkeit, bei mehre-
ren gleichermaßen deskriptiv adäquaten Strukturbeschreibungen zu
entscheiden, welche Beschreibungen als Modell mentaler Repräsenta-
tionen in Frage kommen bzw. ausscheiden. Hierzu betrachten wir
nochmals die Daten aus Baker (1979), die wir an dieser Stelle exempla-
risch wiederholen:
(18a) John gave the book to Alice
(18b) John gave Alice the book
(19a) we reported the accident to the police
(19b) *we reported the police the accident
Der Kontrast zwischen (18b) und (19b) läßt sich, wie wir gesehen
haben, auf zweierlei Weise erfassen. Einerseits können wir eine Regel
dative movement ansetzen (die die beiden Objekte unter Tilgung von
to vertauscht - und im Lexikoneintrag von report vermerken, daß die
Regel bei diesem Verb nicht angewandt werden darf); andererseits lie-
ßen sich zwei Phrasenstrukturregeln aufstellen, die die Abfolge NP +
to + NP bzw. die Abfolge NP + NP spezifizieren. Im Lexikon wird
nun eingetragen, daß give in beiden Strukturen, report hingegen nur in
der ersten Struktur auftreten darf.
Betrachten wir zunächst die erste Alternative. Auf der Basis positi-
ver Evidenz, also Strukturen wie (18a) und (18b), kann das Kind zwei-
fellos die Regel dative movement erwerben. Es muß nun jedoch erken-
nen, daß diese Regel bei Verben wie report nicht angewandt werden
darf. Dazu muß es jedoch explizit wissen, daß (19b) ungrammatisch ist,
und diese Information kann es nur über negative Evidenz erhalten, die
ihm jedoch nicht zur Verfügung steht. Mit anderen Worten, eine Regel
dative movement mit gleichzeitigem Lexikoneintrag, der die Anwen-
dung der Regel bei bestimmten Verben verbietet, ist zwar eine deskrip-
tiv adäquate Beschreibung der relevanten Daten, scheidet aber als men-
tale Repräsentation aus, da dieser Mechanismus nicht lernbar ist.
Wenden wir uns nun der zweiten Alternative zu. Zunächst ist klar,
daß das Kind für jedes Verb die strukturelle Umgebung lernen muß, in
der dieses Verb auftreten kann. So muß es etwa lernen, daß eat sowohl
transitiv als auch intransitiv gebraucht werden kann, während see stets
ein direktes Objekt verlangt:
Da dem Kind nur positive Evidenz zur Verfügung steht, können wir
annehmen, daß es für jedes Verb im Lexikon die strukturelle Umge-
bung vermerkt, die es in den entsprechenden Äußerungen seiner
sprachlichen Umgebung belegt findet. Für eat wird es also aufgrund
von (20a) und (20b) transitiv und intransitiv vermerken, für see hinge-
gen nur transitiv. Analog hierzu wird es aufgrund von Sätzen wie (18a)
und (18b) im Lexikoneintrag von give die strukturellen Umgebungen
NP + to + NP und NP + NP vermerken, während (19a) bei report nur
den Eintrag NP + to + NP erlaubt. Wir sehen also, daß bei diesem
Beschreibungsansatz der Kontrast zwischen (18b) und (19b) allein
durch positive Evidenz erlernbar ist. Daraus folgt, daß als mentale
Repräsentation allein die phrasenstrukturelle Alternative, nicht jedoch
die transformationelle Variante mit dative movement in Frage kommt.