Beruflich Dokumente
Kultur Dokumente
Sprache
Sprachzentren im Gehirn:
Fast immer lateralisiert à bei Rechtshändern fast immer linkshemisphärisch, bei Linkshändern unterschiedlich à macht insgesamt bei 90% d.
Menschen linkshemisphärisch
Name Funktion Location i.d. sprachdominanten Bei Läsionen (z.B. durch Schlaganfall) Ausnahmen
Hirnhälfte u. wichtige Verbindungen
Broca-Areal Syntax, motorische Liegt unten hinten am i.d.R. motorische Aphasie: das Sprechen ist Kommen vor!
Aspekte der Frontallappen, etwa stark beeinträchtigt, mühsam, es werden Es kann trotz Läsion kaum
Sprachproduktion Schläfengegend sehr kurze Sätze (Telegrammstil) gebildet, bis keine Beeinträchtigung
Funktional in die motorischen Grammatikalität geht verloren, aber das vorkommen, sowie auch
Steuerungsareale des Gyrus Gesagte ist sinnvoll! Sprachverstehen ist Beeinträchtigung obwohl
präcentralis integriert (logisch – will weitestgehend intakt Läsion in völlig anderem
ja den Sprachapparat motor. steuern) Bereich
Zusätzlich zu aphasischen
Stör. Auch nonverbal-
kognitive Defizite möglich
à alles ist möglich
Wernicke-Areal Verstehen, Liegt hinten oben am i.d.R. sensorischer Aphasie: die Leute reden
Sprachrezeption Temporallappen, also etwa oben flüssig (also kein Problem der
hinterm Ohr, (dehnt sich Sprachproduktion), oft unsinnig, das
genaugenommen aus bis auf Verstehen ist stark beeinträchtigt, die
Parietallappen) Bedeutung des Gehörten wird nicht erkannt
Ist eng mit der Hörrinde verbunden
(logisch – will ja verstehen)
Fodor (1983) postuliert ein „Input-Output-Modul“ der Sprache und somit, dass Denken und Sprechen nicht so eng zusammenhängen, wie es die
berühmte Sapir-Whorf-Hypothese (linguistische Relativität: Denken hängt von der jeweiligen Sprache ab) behauptet, diese sei damit widerlegt!
Fodor gründet seine These auf die Existenz der oben beschriebenen beiden Sprachzentren, die unterschiedliche Funktionen besitzen.
Sprachspezifisches Wissen
Sensitivität für Sprachlaute bei Säuglingen geht auf sprachl. Wahrnehmung schon vor der Geburt zurück. Der Mutterspracherwerb ist mit zwölf
Jahren abgeschlossen, bis dahin hat das Kind auch die zahlreichen Regularitäten erworben, mit denen es aus dem riesigen Wortschatz komplexe
Äußerungen produzieren kann.
Dass die beiden Arten von Wissen getrennt werden, ist deshalb sinnvoll, weil es möglich ist inhaltlich sinnlose Sätze zu bilden, die aber einen
korrekten Satzbau haben (Chomsky: „green ideas sleep furiously“)
Grammatik im linguistischen Sinn möchte wissenschaftlich beschreiben, wie Muttersprachler Äußerungen aufbauen und für richtig halten (im
Gegensatz zu Schulgrammatik!). Das Wissen darüber (muttersprachlicher Gebrauch) ist grammatikalisches Wissen.
Variabilität innerhalb von Sprachen beschreibt, dass es regionale Unterschiede in derselben Muttersprache gibt (Bayern sagen „das Cola“, jeder
normale Mensch jedoch „die Cola“ =) z.B.)
Sprachrezeption
Rezeption sprachlicher Äußerungen
am Anfang: Sprachwahrnehmung →Worterkennung ( ← lexikalisches Wissen)
syntaktische Analyse ( ← syntaktisches Wissen)
s emantische Interpretation (Inhalt erfassen) (← semantisches und Weltwissen)
Inhalt überführen in ein mentales Modell und mit vorhandenem Wissen integrieren
→ inkrementeller Vorgang (Wort für Wort), kann aber auch rückwärts gerichtet werden, wenn Probleme auftauchen (semantischer oder
syntaktischer Art) → Reanalyse
Ambiguität
Fast jeder Satz ist stellenweise mehrdeutig (lokal ambig – das würde sich an einer bestimmten Stelle auflösen), manche auch global ambig (also
auch am Ende des Satzes ist nicht eindeutig, welche Bedeutung gemeint ist)
Bsp.: Dass der Doktorand der Professorin Urlaub genommen hat...
Müllers sahen die Störche auf ihrem Flug nach Afrika
Ursache sind häufig Wörter, die in mehreren Funktionen eingesetzt werden können (bspw. mit)
Bsp.: m it dem Flugzeug nach New York fliegen (Art und Weise)
it der Freundin nach New York fliegen (...zusammen, nicht auf ihr)
m
mit Lufthansa nach New York fliegen (mit denen macht man da aber nicht Urlaub)
mit dem Flugsimulator nach New York fliegen (dann steigt man nicht in NY aus)
......
→ sehr verschiedene Schlüsse können gezogen werden, sinngemäß wird aber meist die richtige Bedeutung von mit erkannt. =)
→ siehe hierzu als grafische Darstellung des Modells S. 288 (unklar ist mir, warum unten aus dem Modell „Schrift“
rauskommt...ich hätte eher „Verstehen“ oder „Repräsentation des Gehörten“ erwartet)
[Forschungsfragen auf dem Gebiet befassen sich mit den einzelnen Schritten/Detailprozessen, der Ablaufmodalität (parallel? Nacheinander?
Rückkoppelnd?...) sehr interdisziplinär: Psychologie, Linguistik, Informatik]
Kategoriale Wahrnehmung
Lautsignale kann man kontinuierlich verändern, bspw. Von /da/ nach /ta/
Der Phonem-Restaurationseffekt von Warren, 1970: schneidet man ein Phonem aus einer (Tonband-)Aufnahme von etwas Gesprochenem heraus
und ersetzt es durch ein anderes Geräusch (bspw. Husten), dann glauben die VP dennoch, das Phonem gehört zu haben.
Samuel (1982) zeigte, dass dies v.a. im Wortkontext geschieht, weniger bei isolierten Silben. „Bei der Sprachwahrnehmung greifen also bottom-up
und top-down getriebene Prozesse ineinander.“ [Ich würde sagen, das „Überhören“ falscher Phoneme und automatische Ergänzen von Wörtern ist
top-down – man hat eine bestimmte/unbewusste Erwartung, was man hören wird (Stichwort: Voraktivierung). Wenn etwas irritierendes eintritt UND
bemerkt wird (wie bei Samuel einzelne verfälschte Silben – an die hat man keine besondere Erwartung, da sinnlos), das wird bottom-up verarbeitet.
...meine Interpretation]
Eine Anwendung dessen findet sich in der Wiedererkennung eines Sprechers (Täter, wenn’s um Verbrechen geht) durch Ohrenzeugen.
Spricht der Zeuge die gleiche Sprache wie der Täter, gelingt die Identifikation besser, da der Zeuge „geringfügige Idiosynkrasien“ also
individuelle Besonderheiten in der Sprache des Täters nur beurteilen kann, wenn er gute Kenntnis des Bezugssystems (der Sprache samt
Verwendung etc.) hat. [verwirrt? à S. 290 links]
Lesen
• Lernt man nicht spontan, sondern nur durch Unterricht.
• Es bedarf einiger Übung, bis man direkt von der visuellen Mustererkennung auf das mentale Lexikon zugreifen kann (der Zwischenschritt
des Lautwerdenlassens, also Umsetzung von der Schrift in den Klang der Sprache, war bis ins Mittelalter noch üblich – man las laut, und
auch kleine Kinder brauchen das ja zu Anfang noch)
• Die Blickbewegungen erfolgen sakkadisch (in Sprüngen), eine Fixation dauert 100 bis 250 ms, links vom Fixationspunkt werden 2-4
Buchstaben wahrgenommen, rechts vom Fixationspunkt 5-9 Buchstaben (wenn von links nach rechts gelesen wird! à lernabhängig, nicht
biologisch fundiert)
• Für sprachpsychologische Forschung ist lesen interessant, weil es die Verarbeitungsgeschwindigkeit abbildet – diese ist bei Höraufgaben
nicht „ausgelastet“, wir sind kognitiv viel schneller als die normale Sprechgeschwindigkeit
Lexikalischer Zugriff
= zu einem wahrgenommenen Schall- oder visuellen Muster die passende mentale Repräsentation zu finden
Mentales Lexikon = Gesamtheit des sprachspezifischen Wissens, soweit es auf Wörter bezogen ist (Wortstamm (=Lemma) + seine
morphologischen Formen)
Lemmata (Sg.: Lemma): Elemente des mentalen Lexikons, enthalten semantische und grammatische
Information (Wortart, Genus)
Morpheme: kleinste bedeutungstragende Sprachbausteine.... Lehrerin hat 3 Morpheme: lehr weist auf
eine spezifische Tätigkeit hin, er weist auf den Akteur der Tätigkeit hin, in auf das weibl. Geschlecht des
Akteurs; Wasserball hat zwei Morpheme
Morpheme sind nicht Silben!! Ein Morphem kann mehrere Silben haben. Und auch Morphem- und
Silbengrenzen unterscheiden sich ggf.: tanzen besteht aus den Morphemen tanz und en, aber
Silbentrennung tan-zen
Worterkennung
Sicherheit und Schnelligkeit der Worterkennung lässt sich experimentell sehr gut mit der shadowing-Technik darstellen: VP hören etwas über
Kopfhörer und sollen es direkt nachsprechen. Die beste VP hatte nur ca. eine Silbe Abstand zum Vorgesprochenen (250ms). Es werden sogar
Fehler der „Vorlage“ beim Shadowing korrigiert à offensichtlich ist die Sprachverarbeitung beteiligt!
Marslen-Wilson (1985) nahm auf dieser Grundlage in seinem Kohortenmodell an, dass die Worterkennung wie ein Ausschlussverfahren
funktioniert: Phonem für Phonem bleiben nur die Wörter des „Lexikons“ im Spiel, die noch möglich sind mit der Phonemkonstellation, solange
bis es eindeutig ein bestimmtes Wort ist oder nur noch sein kann.
Neuere Versionen des Modells gehen aber davon aus, dass nicht Phoneme sondern phonologische Merkmale auf unterspezifizierte Wortformen
abgebildet werden.
Segmentierung
ist die Kunst Wortgrenzen in einem Redeschwall zu erkennen, die sind nämlich nur selten tatsächlich durch Pausen markiert. Kleine Kinder
(2J) entwickeln meist die „Theorie“, dass Wörter prinzipiell maximal zweisilbig sind und auf der ersten Silbe betont (lade für Schokolade; mate für
Tomate). Auch bei englischen Erwachsenen zeigte sich dass ambige Äußerungen bevorzugt als ein Wort wahrgenommen werden, wenn auf der
ersten Silbe betont (lettuce / let us), im Vergleich zu solchen, die auf der zweiten Silbe betont werden (invests / in vests). Solche Strategien sind aber
sehr sprachspezifisch, daher nicht ohne weiteres übertragbar!
Der Geltungsbereich all dieser Modelle ist unklar, neben Wortlänge und Vorkommenshäufigkeit spielen auch semantische Faktoren
(Konkreta schneller erkannt als Abstrakta) und kontextuelle Aspekte usw. eine Rolle.
[Neuropsychologische Modelle: ...werden an alle möglichen auftretenden Ausfallerscheinungen, Krankheiten und Phänomene angepasst,
sind deshalb zunehmend komplexer und lassen auch am Konzept eines einzigen mentalen Lexikons zweifeln. Für gesunde Erwachsene und unseren
Zweck eines einführenden Kapitels kann man das aber einfach trotzdem annehmen.]
Semantische Information
Verschiedene Annahmen: direkt schon im mentalen Lexikon könnte die Wortbedeutung durch semantische Merkmale repräsentiert sein, à das ist
aber eigentlich nicht so wahrscheinlich, deshalb geht man eher davon aus, dass die Bedeutung eines Wortes im semantischen Gedächtnis ist, und das
mentale Lexikon auf die jeweilige Begriffsrepräsentation im semant. Gedächtnis verweist. Diese „Arbeitsteilung“ scheint insofern schlüssig, als das
mentale Lexikon einzelsprachlichen Charakter hat, die begriffl. Repräsentation im semant. Gedächtnis wiederum für verschiedene Sprachen dienen
kann.
Morphologische Information
Ein Eintrag im mentalen Lexikon kann verschiedene Varianten enthalten (Kasus-/Numerusformen, Konjugationsformen, je nach Wortart). Im
Deutschen kann man sich vorstellen, dass die umfangreiche Flexionsmorphologie in Klassen organisiert ist, die eine Art „Wortsyntax“ vorgeben, so
dass wenigstens z.B. die regelmäßigen Verben nicht alle einen eigenen Eintrag brauchen, sondern die sparsamere Form der Klassenzuordnung
ausreicht. Unregelmäßige Verben bräuchten jedoch wohl einen eigenen Eintrag.
Syntaktische Information
Auch im mentalen Lexikon sind die syntaktischen Eigenschaften eines Wortes, an erster Stelle die Kategorie (Verb, Nomen, etc.), eventuell noch
Subkategorisierung für ggf. notwendige Komplemente (ein Verb braucht eine Nominalphrase, kein Verb ohne Subjekt; falls es ein transitives Verb
ist, muss auch noch ein Objekt her, z.B. man kennt immer jemanden; oder sogar ein ditransitives Verb, dass noch ein indirektes Objekt braucht)
Auch Präpositionen brauchen immer noch ein Komplement in einem bestimmten Kasus. Gibt auch noch optionale Komplemente, die müssen nicht
sein, sind aber erwartbar (z.B. eine Tochter ist immer die Tochter von jemandem, ein Entdecker der Entdecker von etwas)
Wortbedeutung
Schon viele Versuche Semantik von Wörtern zu erfassen.
Extensionale Bedeutung = Referenzsemantik: bezieht sich auf Objekte in der Welt (z.B. alle Tomaten die es so gibt)
Intensionale Bedeutung: das, was wir folgern können, wenn jemand von einer Tomate spricht (meist rot, 2-10cm, essbares Gemüse...)
Andere Unterscheidung:
Denotation: wörtliche Bedeutung (intensional wie extensional)
Konnotation: affektiv getönter Bedeutungs-„Hof“
Außerdem:
...ist ein Begriff möglicherweise durch die hierarchische Anordnung von semantischen Merkmalen charakterisiert à allerdings nicht sehr
überzeugend.
Man kann per statistischer Analyse Ähnlichkeitsbeziehungen zwischen Wörtern „errechnen“, indem man untersucht, welche Wörter in vielen
Textabschnitten oft zusammen vorkommen, hat aber eigentlich nicht richtig viel mit semantischem Gedächtnis zu tun.
LSA=latente semantische Analyse: ist quasi das vorgenannte - semantische Ähnlichkeit, wird angenommen, wenn Wörter mit den gleichen anderen
Wörtern oft vorkommen....komplizierte statistische Analyse=Bahnhof....ist im Endeffekt aber weniger die Bedeutung einzelner Wörter, die
rauskommt, als vielmehr die Bestimmung von Ähnlichkeitsstrukturen in einer Menge von Wörtern. [nix verstanden? à S.295]
Priming-Effekt zeigt sich sogar bei polysemen Wörtern wie Bank, und zwar in beide Richtungen (keine Bevorzugung) – sogar im Satzkontext, wenn
die eine Bedeutung manifestiert ist, funktioniert bei kurzer SOA das Priming auch für den anderen Bedeutungsbereich des Wortes (bei längerer SOA
nicht, dann nur kontextangemessen)
Erklärung des Effektes: Wahrnehmung des Prime-Wortes aktiviert die entsprechende Repräsentation im mentalen Lexikon (und schwach
auch phonologische Wortknoten) und die seiner Bedeutung entsprechenden Konzeptknoten im semant. Gedächtnis - die Aktivierung klingt nur
langsam ab und ist deshalb bei Erscheinen des Zielwortes noch teilaktiviert.
Opake (nicht sinnvoll ersetzbare) Wörter wie Himmelsschlüssel (=eine Blume), primen zwar die Wortbestandteile (Himmel und Schlüssel), aber
nicht damit verwandte Wörter (wie Sonne oder Tür).
Nach dem Auseinanderklamüsern einzelner Wörter aus dem Redefluss, müssen diese nun weiterverarbeitet werden. Dies beginnt quasi unmittelbar
nach einer Worterkennung.
2 Hauptaufgaben: Rekonstruktion der Struktur einer Äußerung und Interpretation der Äußerung
Syntaktische Verarbeitung geschieht mit jedem Wort, denn meistens ist die Möglichkeit der folgenden Sätze begrenzt (zumindest die Art des
notwendigerweise folgenden Satzes ist oft klar), zu einem Verb gehört ein Agent, zu einer bestimmten Präposition muss vllt. eine Nominalphrase im
Dativ,.... Man kann das als Phrasenstruktur darstellen in Form einer Formel oder eines Strukturbaumes (s. S. 297/298)
Parsing geschieht automatisch, ist nicht unterdrückbar, und nachweisbar im Experiment, wie z.B. von Flores D’Arcais (1982), der zeigte, dass
unbemerkte syntaktische Fehler in einem Lesetext dennoch zu einer Verzögerung der Verarbeitungszeit führten!
Syntax+Lexikon=Grammatik
Erinnerung: Grammatik bedeutet hier „wissenschaftlicher Versuch, die dem Sprachgefühl und Sprachgebrauch entsprechenden sprachlichen
Regularitäten zu beschreiben, und zwar möglichst sparsam und systematisch (wie jede gute Theorie)“
Hier wird sich auf die Phrasenstrukturgrammatik beschränkt, diese ist als generative Grammatik formuliert, also mit einigen Erzeugungsregeln, wie
Sätze gebildet werden können (z.B. dass ein Satz ein Verb (V) benötigt, dieses eine Nominalphrase (NP), auch eine Präpositionalphrase (PP)
braucht zur Präposition (Prep) eine Nominalphrase (NP).......) à Der Hund jagt die Katze (NP, VP (V, NP)) à die wesentlichen syntaktischen
Abhängigkeiten werden von diesen Regeln jedoch nicht erfasst. Das kann HPSG (head-driven phrase structure - andere Methode)
Mentale Repräsentation syntaktischen Wissens: Grammatikalisches Wissen sehr implizit! Wissen höchstens nachträglich in der Schule
erlernt.
EEG-Technik: Hirnaktivität messen, hohe zeitliche/schlechte räumliche Auflösung, muss wegen hoher Hintergrundaktivität über die Methode der
evozierten Potentiale erhoben werden (ca. 50 Messungen gemittelt, um dann den Effekt sichtbar zu machen). Messzeitpunkt
muss sehr genau platziert und sonstige Bewegungen weitgehend ausgeschlossen werden
Effekt heißen dann nach ihrem Scheitelpunkt: P600 ist der Zacke nach 600ms etc..
Mgl: fMRI als komplementäre Ergänzung (gute räuml. Auflösung)
Materialkonstruktion:
Muss sehr sorgfältig erfolgen. Testsätze in „Füllsätze“ einbetten, damit nicht zu offensichtlich. Wegen interindividueller Unterschiede der
Lesegeschwindigkeit zw. VP wird die Lesezeit innerhalb einer VP gemessen (Bsp. S. 302)
Inkrementalität: Sprachverarbeitung findet während des Hörens/lesens schon Wort für Wort inkrementell statt
Anbindungs-Ambiguitäten:
In Relativsätzen. Erst an der Disambiguierungsstelle erhöht sich die Lesezeit, beim Holzweg-Effekt (also einer heftigen Verletzung
der Erwartung, die auch bewusst wird) ist diese sehr stark erhöht.
Weitere Ambiguitäten:
Häufig durch freiere Wortstellung im Deutschen und gleichzeitig häufige Ambig. durch Nominativ und Akkusativ
Theoretische Modelle des menschlichen Parsers
Parsing: inkrementell, eine erste syntaktische Analyse wird erstellt noch ohne von inhaltlichen Hinweisen Gebrauch zu machen, hier geht
auch Frequenzinformation (wie häufig kommt ein Wort so vor/in der Lesart), wenn bei dieser ersten Analyse Unstimmigkeiten, dann Reanalyse der
Satzstruktur à modular, da vorläufig nur syntakt. Analyse; es wird nur eine Analyse (nicht mehrere parallel) durchgeführt
Parsing-Modelle ohne Reanalyse: gehen entweder von multiplen Analysen aus oder von der wait-and-see-Analyse, bei der erst am
Disambiguierungspunkt analysiert wird.
Empirie zeigt:
à Parallele Analyse unwahrscheinlich: kein messbar höherer Aufwand während des Lesens ambiger Stellen
à Aufschub-Theorie: müsste immer zu längerer Zeit am Disambig.-punkt führen, da immer erst da analysiert wird, passiert aber nur, wenn erste
Annahme falsch war!
à Reanalysemodelle entsprechen der Befundlage: manchmal am Disambig.-punkt längere Lesezeiten, wenn die eine erstellte Analyse falsch war
Constraint-satisfaction-Modell: syntaktische, semantische und andere Faktoren wirken gleichzeitig, aber unterschiedlich stark auf ein auf Ausgleich
bedachtes konnektionistisches System à solche Modelle zwar gut in der Vorhersage, aber so komplex, dass schon wieder nicht falsifizierbar
Das Construction-Integration-Modell:
Zweistufig: 1) Konstruktion der Textbasis: Text in Propositionen (= elementare Aussagen) zerlegen, diese sind durch inhaltliche Bezüge
verknüpft à propositionales Netzwerk
2) Integration: Textbasis hat nun gleiche Form wie Wissen im Langzeitgedächtnis, kann also mit Vorwissen integriert werden
bei Ambiguitäten: Widersprüche als hemmende Verbindungen in 1), pendelt sich in dem Netz so ein während 2), dass die passendste
Lesart übrig bleibt/“gewinnt“
Was für dieses Modell spricht: Versuche haben gezeigt, dass der Inhalt hängen bleibt, nicht aber die Formulierung (ist nach Teilsatz schon
vergessen!)
Diskursmodell/Partnermodell: beziehen die Gesprächssituation mit ein, da diese ggf. eine sehr große Rolle spielen kann
Das Kompositionalitätsprinzip: Die Bedeutung eines komplexen Satzes ergibt sich aus den in ihm enthaltenen einzelnen Aussagen, wobei zu
beachten ist, wie diese miteinander verknüpft sind.
Suche nach dem Antezedenten der Anapher (z.B. was ist mit er gemeint?) durch:
- Diskurs-Information: „Liste“ von möglichen Referenzobjekten von der aktuellen Situation ausgehend, nach Salienz geordnet, wird
durchgearbeitet, bis eins passt
- Syntaktische Information: Restriktionen, wie z.B. dass Genus und Numerus passen müssen (gibt Ausnahmen!)
Anaphern:
- Die Art der Bezugnahme spielt keine Rolle (ob Eigenname, Pronomen oder indirekt)
- Werden bevorzugt auf Hauptperson bezogen
- Hauptmittel zur Textkohäsion (der innere Zusammenhang eines Textes); je mehr Bezugnahmen eine Proposition im Text enthält, desto
zentraler ist ihre Rolle, je zentraler desto länger verweilt sie im KZG, je länger im KZG desto eher geht’s ins LZG