Sie sind auf Seite 1von 41

Einleitung, Geschichte, Methoden

 (doppelte) Dissoziation und Assoziation

Dissoziation (lateinisch dissociatio= Trennung)

Variable beeinflusst die Durchführung einer Aufgabe, aber nicht die Durchführung einer
anderen Aufgabe. Patient zeigt Probleme bei Aufgabe A, wohingegen er Aufgabe B ohne
weitere Schwierigkeiten bearbeiten kann. Konkretes Beispiel: Die meisten Amnesie-Patienten
haben Schwierigkeiten Aufgaben zu bewältigen, die mit dem Langzeitgedächtnis
zusammenhängen, wohingegen das Kurzzeitgedächtnis nicht beeinträchtig ist.

Dissoziationen können also Hinweise auf verschiedene Module bzw. Prozesse geben und es
ist naheliegend anzunehmen, dass diese Prozesse unabhängig voneinander sind. ABER: Eine
Dissoziation an sich ist kein Beweis dafür, dass Prozesse unabhängig und an unterschiedliche
Verarbeitungsmodule gebunden sind. Eine Aufgabe ist möglicherweise nur wesentlich
schwerer als die andere Aufgabe und kann deshalb nicht gelöst werden.

Doppelte Dissoziation

Eine Doppelte Dissoziation zwischen zwei Aufgaben A und B liegt dann vor, wenn ein
Patient mit Läsion X eine Aufgabe A ohne Schwierigkeiten lösen kann, aber bei Aufgabe B
beeinträchtigt ist, während es sich bei einem anderen Patienten mit Läsion Y genau
umgekehrt verhält. Die Doppelte Dissoziation erlaubt also Rückschlüsse auf die
Unabhängigkeit von Verarbeitungsprozessen.

Assoziation

Zusammenhängende Effekte, Aktivitäten etc.

Effekte einer Aufgabe gehen mit Effekten einer anderen Aufgabe einher

Bsp: Patient, der nach einem Schlaganfall bestimmte Gesichter nicht mehr erkennen kann,
kann sich evtl. auch nicht mehr bestimmte Gesichter vorstellen

-> Gemeinsamer Prozess / gemeinsame Repräsentation der Wahrnehmung und Vorstellung


von Gesichtern

Problem: Zwei dicht beieinander liegende Areale, die beide betroffen sind, suggerieren einen
Zusammenhang, der keiner ist.

 
 Methoden der Psychophysik 

Drei klassische Messmethoden der Psychophysik, die dazu dienen psychologische


Phänomene (objektive Reizeigenschaften – subjektives Reizempfinden) zu erfassen sind:
Grenzmethode, Konstanzmethode, Herstellungsmethode

Grenzmethode

- Aufsteigendes Verfahren: Versuchsleiter bietet unterschwelligen Reiz an, dessen Intensität


in festen Schritten erhöht wird, bis die Versuchsperson die Wahrnehmung des Reizes angibt

- Absteigendes Verfahren: Versuchsleiter beginnt mit überschwelligem Reiz, Intensität wird


schrittweise verringert bis keine Wahrnehmung mehr angegeben wird

-> Schwelle ergibt sich aus Mittelwert mehrerer auf- und absteigender Messreize (wird als
adaptives Vorgehen bezeichnet)

Konstanzmethode

- Versuchsleiter wählt eine feste Menge von Reizen unterschiedlicher Intensität aus

- Reize werden in zufälliger Reihenfolge dargeboten,

- Beobachter gibt für jede Reizausprägung ein Wahrnehmungsurteil ab

- absolute Schwelle entspricht der 50 % Unterschiedswahrscheinlichkeit = Absolutschwelle


(der Wert der Reizintensität bei dem der Beobachter mit gleicher Wahrscheinlichkeit angibt
den Reiz erkannt zu haben oder nicht)

Herstellungsmethode

- Beobachter stellt selbst die Reizintensität ein, an der er einen Reiz gerade noch wahrnimmt
bzw. nicht mehr wahrnimmt.

- Analog dazu stellt er die Unterschiedsschwelle ein (eben noch merklicher Unterschied
zwischen zwei Reizen)

- Schwellenwerte ergeben sich aus den Mittelwerten verschiedener Einstellungen.

Kritik:

Schwellenwerte sind nicht nur von der Reizintensität abhängig


- In allen Methoden muss der Beobachter ein Urteil fällen

- Wahl des subjektiven Entscheidungskriteriums bestimmt also ebenso die Lage der Schwelle

Die Signalentdeckungstheorie berücksichtigt diese Urteilsbesonderheiten der Beobachter

- die Antwort wird sowohl vom sensorischen Prozess als auch vom Entscheidungsprozess
beeinflusst

- die Methode der Signalerkennung erlaubt eine getrennte Bewertung der beiden Stufen:

Sensitivitätsmaß und Entscheidungskriterium

Sensitivitätsmaß: Inter- und intraindividuelle Messvariation als Ergebnis unterschiedlicher


Zustände des jeweiligen sensorischen Apparats. (Beispiel: Sehschärfe). Die Erkennbarkeit des
Reizes unterliegt den Sensitivitätsschwankungen des sensorischen Systems.

Entscheidungskriterium: Entscheidungsverhalten des Individuums, bei der Entscheidung


darüber, ob ein im Schwellenbereich dargebotener Reiz tatsächlich präsentiert wurde, oder
nicht. (konservativ vs. risikoreich); Ich bin mir nicht sicher, also entscheide ich mit... Ja …
Nein

Vorgehen:

- es wird variiert, ob ein Reiz dargeboten wird oder nicht

- der Beobachter kann mit „Ja“ oder „Nein“ antworten

  

 Webersche Konstante, Gesetze von Fechner und Stevens

Weber‘sche Konstante

Der eben noch bemerkbare Reizunterschied zwischen zwei Gewichten steht in einem
konstanten

Verhältnis zur Größe des Bezugsgewichts. Dies bedeutet, dass bei einer Weberschen
Konstanten (k) von 1/50 zwei Gewichte von 50 und 51g eben noch unterschieden werden
können, also 1 g zur Unterscheidung ausreicht, bei einem Gewicht von 500 g dazu aber 10 g
nötig sind.
Die Weber-Konstante k berechnet sich als Quotient aus der Unterschiedsschwelle und dem
Reiz selbst

Fechner‘sches Gesetz

Weber und Fechner drücken einen ähnlichen Sachverhalt aus. Fechner überprüfte Webers
Annahmen und formulierte den Zusammenhang zwischen objektiven Reizintensitäten und
subjektivem Reizerleben mathematisch. Das Fechner‘sche Gesetz besagt, dass die
Empfindungsstärke mit dem Logarithmus der Reizstärke wächst. Einer Verdoppelung der
Reizstärke entspricht subjektiv ein Zuwachs um etwa 30%, einer Verzehnfachung ungefähr
eine Verdoppelung der Empfindungsintensität.

Grenzen des Feschner’schen Gesetztes: konstante Beziehung gilt nicht für sehr kleine oder
sehr große Reize, sondern nur im mittleren Reizspektrum

Stevens‘sches Potenzgesetz

 Stevens stellte fest, dass Fechners Logarithmusfunktion nur begrenzte Gültigkeit hat.

Stevens neue Methode: Methode der direkten Größenschätzung

- der Versuchsleiter weist einem Standardreiz einen numerischen Wert zu

- ein Vergleichsreiz wird auf einer Ratingskala eingeschätzt

- es zeigten sich in einigen Fällen andere Abhängigkeiten zwischen der Reiz- und
Empfindungsstärke

-> Stevens erkannte, dass der Zusammenhang zwischen Empfindungsstärke und


Reizintensität am besten als Potenzfunktion beschrieben werden kann:

Der Exponent b variiert mit der Reizmodaltität

Unterschiede der Methoden von Fechner und Stevens: Fechner: Vorhandensein eines
Reizerlebens? Stevens: Intensität eines Reizerlebens? Bsp. Schmerz Fechner: Empfindest du
Schmerzen? - Ja (Nein) -> Nominalskaliert Stevens: Auf einer Skala von 1-10, wie stark sind
die Schmerzen, die du empfindest? – „4“ ->Intervallskaliert
Wahrnehmung 1 + 2 + 3

Wahrnehmung 1 – Basale Prozesse

Literatur: Vorlesung J.Lüdtke/ Tutorien M.Irinkow,


A. Thomas/ „Biopsychologie“ Pinel

Rezeptoren: Zapfen und Stäbchen

 nehmen Informationen aus der


Umwelt auf (Rezeption)
 wandeln Lichtenergie in
elektrische Energie um
(Transduktion)

Informationen der Ganglienzellen  Sehnerven  Thalamus(CGL)  Primärer visueller


Cortex
Retinotope Organisation

 Jede Ebene des visuellen Systems entspricht einer Karte der Retina
 Reize auf benachbarten Bereichen der Retina erregen benachbarte Neuronen im Cortex

Rezeptive Felder des visuellen Cortex

einfache kortikale Zellen:

 Rechteckiges rezeptives Feld mit erregenden und hemmenden Zonen (quasi gestreift)
 orts- und orientierungssensitiv

komplexe kortikale Zellen:

 Rechteckiges rezeptives Feld, reagiert auf korrekt ausgerichtete, sich bewegende Balken
 bewegungs-richtungs-sensitiv

endinhibierte Zellen:

 antwortet auf Ecken/ Winkel/ Balken bestimmter Länge, die sich in bestimmte Richtung
bewegen
Funktionale Spezialisierung

 Annahme, dass verschiedene Areale des Cortex auf Verarbeitung verschiedener Merkmale
spezialisiert sind
 Zunehmende Spezialisierung auf höheren Verarbeitungsebenen
 Anschließend zu einem Bild/Eindruck verarbeitet

Bedeutung:

 Komplexe, unvorhersehbare Kombinationen von Eigenschaften müssen zur korrekten


Erkennung von Objekten erfasst werden (Ball/Gesicht)
 notwendige Verarbeitungsprozesse für verschiedene Eigenschaften visueller Stimuli
unterscheiden sich stark voneinander (bewegte/statische Bilder)

V1 und V2:

 Frühe Visuelle Verarbeitung


 Reagieren auf Farbe, Form und Orientierung
Evidenz: Bildgebende Verfahren,
 Verarbeitung von Details
V3 / V3A: Reagiert eher auf Form und Bewegung Läsionsstudien

V4: Reagiert eher auf Farbe/Form, komplexere Orientierungsmuster

V5: Reagiert eher auf Bewegung


Binding Problem:

Wie werden getrennte Informationen über Farbe, Form und/oder Bewegung eines Objekts
zusammengefügt und integriert, um ein kohärentes (stimmiges) Bild zu ergeben?

Lösungsansätze:

1. Weniger funktionelle Spezialisierung als angenommen


2. Synchronisations-Hypothese (Visuelle Verarbeitung findet synchron in verschiedenen
kortikalen Bereichen statt)

Pfade der visuellen Verarbeitung

Magno- und Parvozellulärer Pfad

 Unabhängige Kommunikationskanäle die vom Thalamus(CGL) zum visuellen Cortex


projizieren
 Magnozellulärer Kanal: Hauptinput von Stäbchen(reagieren auf Bewegung)
 Parvozellulärer Kanal: Hauptinput von Zapfen (reagieren auf Farbe, Musterdetails,
statische Objekte)

Ventraler und dorsaler Pfad

• Ventrale Bahn: Richtung Temporallappen (Input von Parvozellulärem Pfad), bewusst

• Dorsale Bahn: Richtung Parietalen Kortex (Input von magnozellulärem Pfad), nicht
notwendig bewusst

• Verarbeitungsströme durch
Querverbindungen und
Feedbacksysteme verbunden

a) Ungerleider & Mishkin (1982):


 Welche Information wird in den
beiden Pfaden verarbeitet? (Was-Pfad vs. Wo-Pfad)
Läsionsstudien an Affen:

Ventrale Läsion: Schwierigkeiten bei Objekterkennung

Dorsale Läsion: Schwierigkeiten bei Objektlokalisation

b) Milner & Goodale (1995):


 Wozu dient die Information in den beiden Pfaden? (vision for perception vs. vision for
action)
Neurologische Evidenz – Patientin mit Schäden der ventralen Bahn

a)Anpassung der Orientierung einer Karte an Vergleichsreiz (perzeptueller Abgleich) keine


Übereinstimmung
b)Karte in einen Briefschlitz stecken (visomotorischer Abgleich) kaum Unterschied zu
gesunden Probanden

Anfälligkeit für visuelle Illusionen:

Probanden wurden gebeten :

Größe oder Länge einzuschätzen (vision for perception)/nach Figur zu greifen (vision for
action)

kein illusorischer Größeneffekt bei Greifaufgaben

c) Dual-Process Theory - Norman, 2002:(Knowing one‘s environment vs. Guidance of


behavior in one‘s environm.)
 Weitere Differenzierung der Funktionen des Dorsalen/ Ventralen Pfads gegenüber Ansatz
von Millner & Goodale

Wahrnehmung 2 - Farbwahrnehmung

Allgemein:

Konvergenz von Stäbchen und Zapfen ist unterschiedlich stark

120 Stäbchen: 1 Ganglienzelle 6 Zapfen: 1Ganglienzell bzw. 1:1 in der


Fovea
 hohe Konvergenz: hohe  niedrige Konvergenz: gute
Lichtempfindlichkeit/ geringer Detailwahrnehmung/ geringere
Detailwahrnehmung Lichtempfindlichkeit
Vermitteln: achromatisches (schwarz- Vermitteln: chromatisches (farbiges)
weiß) Sehen, reagieren auf niedrige Sehen
Lichtintensität

Licht besteht aus verschiedenen Wellenlängen, die als unterschiedl. Farben wahrgenommen
werden, abhängig von:

 Reflektanz des Objekts (Welche Wellenlängen werden reflektiert und gelangen zu


Rezeptoren)
 spektraler Zusammensetzung der Beleuchtungsquelle (Welche Wellenlängen enthält
aktuelle Beleuchtung)

Theorien der Farbwahrnehmung:


1. Dreifarbetheorie - Thomas Young (1802) und Hermann von Helmholtz (1852)

Farbmischexperimente: jedes Licht ist aus mind. 3 Lichtquellen unterschiedlicher


Wellenlänge zusammensetzbar

 3 Rezeptor-Typen mit unterschiedlicher spektraler Empfindlichkeit (zufällig über Retina


verstreut)
 S-Zapfen (ca. 1 Mio)
sensitiv für kurze Wellenlängen (Blau-Bereich des sichtbaren Farbspektrums)
 M-Zapfen (ca. 2 Mio)
sensitiv für mittlere Wellenlängen (Gelb- bis Grün-Bereich des sichtbaren
Farbspektrums)
 L-Zapfen (ca. 4 Mio)
sensitiv für lange Wellenlängen (deckt den Orange bis Rot-Bereich des sichtbaren
Farbspektrums)

Lichteinfall sorgt für eine Aktivierung verschiedener Zapfen-Typen (S,M,L)

relative Aktivität der einzelnen Typen bestimmt die Farbwahrnehmung (Aktivität aller drei
Systeme: Weiß)

Erklärt: Erklärt nicht:


Farbfehlsichtigkeit durch Fehlen von  Rot-Grün-Blindheit/ Blau-Gelb-Blindheit
Rezeptor-Systemen  farbige Nachbilder
 Dichromat: Fehlen eines Rezeptor-Typs  Farbkonstanz
 Monochromat: Fehlen zweier Rezeptor-
Typen keine Farbunterscheidung
möglich

2. Gegenfarbentheorie - Ewald Hering (1834-1918)

 Annahme dreier antagonistisch wirkender Farbenpaare:


 rot-grün (reagiert positiv auf rot und negativ auf grün)
 blau-gelb (reagiert positiv auf gelb und negativ auf blau)
 hell-dunkel (reagiert positiv auf weiß und negativ auf schwarz)
 Reizantworten beruhen auf Auf- und Abbau einer chemischen Substanz in der Netzhaut

Erklärt: Erklärt nicht:


Farbfehlsichtigkeit Komplementärer Farben  Farbkonstanz
Komplementärfarben können nicht gleichzeitig
wahrgenommen werden
Farbige Nachbilder (Empfindlichkeit einer Zapfenart sinkt für
eine Farbe Gegenfarbe wird wahrgenommen)
3. Dual process theory - Hurvich & Jameson, 1957 (Verbindet Dreifarben- und
Gegenfarbentheorie)

1. Stufe: 3 verschiedene Zapfentypen

2. Stufe: Gegenfarbenempfindliche Verarbeitungssysteme

Es gibt 3 Kanäle: Rot-Grün-Kanal / Blau-Gelb-Kanal/ Hell-Dunkel-Kanal (achromatic channel)

 Rot-Grün: M-Zapfen (grün) senden erregende, L-Zapfen (rot) hemmende Signale


 Blau-Gelb: S-Zapfen (blau) senden erregendes Signal, Signale aus M- und L-Zapfen (grün
und rot) werden gebündelt, senden hemmendes Signal
 Achromatischer Kanal: erhält erregende Signale von M- und L-Zapfen (unabhängig von
Wellenlänge)

Kritik

 Theorie ist zu stark vereinfacht


 Menschen haben unterschiedliches Verhältnis verschiedener Zapfen-Typen kein Effekt
auf Farbwahrnehmung
 Anordnung der Zapfen-Typen ist zufällig

Farbkonstanz

Tendenz Oberflächen und Objekte selbst dann als gleichfarbig wahrzunehmen, wenn es zu
Veränderungen der Wellenlängen des einstrahlenden Lichtes kommt

Retinex Theory, Kontexteffekte - (Land, 1977)

Wir bestimmen die Farbe einer Oberfläche, indem wir ihre Fähigkeit kurz-, mittel und
langwelliges Licht zu reflektieren mit den Oberflächen der nahen Umgebung vergleichen

Con exitation ratio - (Foster & Nascimento, 1994):

Bestimmung der Farbe einer Oberfläche, indem die relative Erregung der jeweiligen Zapfen-
Gruppen (S,M,L) miteinander vergleichen werden (Unabhängig von Farben der Umgebung)
Chromatische Adaptation:

Reduzierte Empfindlichkeit bezüglich Licht einer bestimmten Farbe/Farbton, wenn man


diesem länger ausgesetzt ist

visuelles System passt sich dem umgebenden Kontext an (Bsp. farbige Nachbilder)

Top-Down Einflüsse:

Der Einfluss des eigenen Wissens und der eigenen Erfahrung auf die Farbwahrnehmung

Tiefen- und Größenwahrnehmung

Monokulare Hinweisreize (werden mit einem, aber auch mit beiden Augen
wahrgenommen):

1. Verdeckung / Überlappung
2. Relative Höhe: Objekte, die näher am Horizont sind, werden als weiter entfernt
interpretiert.
3. Relative Größe im Gesichtsfeld
4. Atmosphärische Perspektive (in größerer Entfernung erscheinen Objekte
undeutlicher)
5. Das Wissen über die Größe von Objekten
6. Lineare Perspektive (Bsp.: Parallele Linien scheinen in größerer Entfernung
näher)
7. Texturgradient (Bsp.: Bild. Die „Texturdichte“ nimmt mit größerer Entferung
zu.)
8. Schatten
9. Bewegungsparallaxe: Bewegung der retinalen Abbilder eines Objekts
aufgrund der Bewegung des Kopfes des Beobachters. (Bsp.: Bild, Zugfahrt)
Okulomotorische Hinweisreize (wahrgenommene Kontraktionen der
Augenmuskulatur):

1. Konvergenz: Augen werden nach


innen gerichtet, um besser nahe
Objekte zu fokussieren.
2. Akkomodation: Anpassung der
Brechkraft des Auges durch den
Ziliarmuskel des Auges, an dem die
Linse hängt. Nahakkomodation: Linse
wird kugelförmig. Fernakkomodation:
Linse wird ellipsenförmig.

Binokulare Schätzmechanismen (Zwischen den Augen besteht ein Abstand von


ca. 6 cm. Somit entstehen zwei unterschiedliche Netzhautbilder.)

1. Stereopsis / Querdisparation: Tiefenwahrnehmung mittels Ungleichheit der


retinalen Abbilder beider Augen (bei größeren Entfernungen weniger nützlich).

Stereopsis / Horopter: Auf der Netzhaut lassen sich korrespondierende Punkte


definieren, die das gleiche visuelle Objekt abbilden. Sie liegen alle auf einer
gedachten Kreislinie (Horopter).

Beweise: Autostereogramm. Ein eigentlich zweidimensionales Bild wird als


dreidimensional wahrgenommen, wenn man die Augen so fixiert, dass der
Fixationspunkt „hinter“ dem Bild liegt. Dadurch entstehen zwei leicht zueinander
verschobene retinale Abbilder und die Illusion der drei Dimensionen.

Größenkonstanz:
Bestimmte Objekte (Bsp.: Münze) werden immer gleich groß wahrgenommen,
obwohl die Größe ihrer retinalen Abbildung (abhängig von der Entfernung) variiert.

Exp. von Holway & Borin, 1941

VP sitzt an der Kreuzung zweier Gänge und blickt in dem einen Gang auf einen
Testkreis, im anderen auf einen Vergleichskreis. Der Testkreis variiert in Größe und
Entfernung; die VP soll den Vergleichskreis der Testkreisgröße anpassen.

Ergebnis: Wenn Tiefenreize verfügbar waren, war die Performanz der VPs sehr gut.
Waren jedoch keine Tiefenreize (Bsp.: durch ein Guckloch schauen) verfügbar, so
war die Perfromanz sehr schlecht. Ohne Tiefenkriterien (monokular, binokular,
okulomotorisch) ist die Größe des retinalen Abbilds der einzige Hinweis auf die
Größe des Objekts.
Warum ist die Querdisparation bei größeren Entfernungen nicht mehr so
nützlich?

Bei größeren Entfernungen sind die retinalen Abbilder des linken und des rechten
Auges fast identisch, die Informationen der Querdisparation können nicht mehr
effektiv genutzt werden.

Bei kleinen Entfernungen (bis zu 30m) gibt es eine lineare Beziehung zwischen
wahrer Entfernung und Disparität. Bei großen Entfernungen wird der Zusammenhang
nicht-linear, die wahre Entfernung steigt deutlich stärker an als die Disparität.

Wie können Sie die Verzerrungen der Größenwahrnehmung im Amschen Raum


erklären?

Die Größenschätzung eines Objekts hängt von seiner wahrgenommenen Entfernung


ab. Wenn die wahrgenommene und die tatsächliche Entfernung stark voneinander
abweichen, so gilt das Prinzip der Größenkonstanz nicht mehr.

Aufbau des Amschen Raums (wird durch ein Guckloch betrachtet → keine
Tiefenreize verfügbar):

Objektwahrnehmung

Fundamentales Gestaltprinzip: „Prinzip der Prägnanz“: Aus verschiedenen


möglichen geometrischen Organisationen wird sich diejenige bilden (im Sinne der
Wahrnehmung), die die beste, einfachste und stabilste Form aufweist (z.B.
regelmäßig und symmetrisch).

Perceptual Segregation: Die Fähigkeit genau zu bestimmen, welche Teile der


präsentierten visuellen Information zusammen gehören und damit getrennte Objekte
bilden.

Gestaltprinzipien

Gestaltprinzipien sind Regeln, die festlegen, wie wir kleine Teile zu einem Ganzen
organisieren.

Sie wurden früher als Gesetze bezeichnet, sind aber eher Heuristiken, also
naheliegende Schlussfolgerungen, die nicht zwangsläufig zu einer richtigen Lösung
führen.
 Prinzip der Ähnlichkeit: Ähnliche Objekte / Dinge scheinen
zusammengehörend.

Kriterien: Helligkeit, Orientierung, Größe

 Prinzip der Fortsetzung: Punkte, die als gerade oder sanft geschwungene
Linie gesehen werden, werden als zusammengehörig wahrgenommen.
 Prinzip der Nähe: Dinge, die sich nahe beieinander befinden, wirken
zusammengehörig.
 Prinzip des gemeinsamen Schicksals: Dinge, die sich in die gleiche Richtung
bewegen, wirken zusammengehörig.
 Prinzip der Geschlossenheit: Tendenz zur Vervollständigung einer Figur (Bsp.:
Kreis mit „Lücke“ statt Bogen)
 Prinzip der Verbundenheit der Elemente: Elemente, die miteinander
verbunden sind, werden als Einheit gesehen.

Kritik: Gestaltprinzipien werden aus künstlichen und nichtrealen, zweidimensionalen


Stimuli abgeleitet. Zu große Betonung von Bottom-up-Prozessen, Top-down-
Prozesse sind auch von Bedeutung.

Palmer and Rock (1994): Principle of uniform connectedness (Prinzip der


Verbundenheit)

Areale, die miteinander verbunden sind und ähnliche visuelle Eigenschaften (Farbe,
Textur, Helligkeit) haben, werden tendenziell als eine einzelne visuelle Einheit
wahrgenommen. Kann andere Gestaltprinzipien außer Kraft setzen. Scheint vor
allem bei komplexen Stimuli mit multiplen Objekten zu wirken.

Figur-Grund-Segregation

Ein Teil des visuellen Sichtfelds wird als Figur, der Rest als (Hinter-)Grund
wahrgenommen. Die Figur definiert das wahrgenommene Objekt und ist Gegenstand
der visuellen Analyse. Nur der Figur wird eine Form zugeschrieben, dem Gund nicht.
Die Figur wird im Normalfall als vor dem Grund stehend empfunden und die Kontur
als der Figur zugehörig.

Eigenschaften, die die Figur-Grund-Segregation erleichtern, sind Geschlossenheit,


Größe, Symmetrie und Parallelität.

Bottom-Up vs. Top-Down-Prozesse

Bottom-Up Ansatz: Unser Wahrnehmungssystem ist modular aufgebaut. Verarbeitete


Eigenschaften werden zunehmend komplexer. Die zunehmende Spezifität der
Neuronen im visuellen Kortex ermöglicht eine perzeptuelle Repräsentation des
distalen Objekts. Diese wird mit gespeicherten Repräsentationen (z.B. Prototypen)
aus dem Langzeitgedächtnis verglichen.

Top-Down-Einflüsse: Wissen über Objekte und ihre Form beeinflusst die


Objektwahrnehmung. Flächen mit „hoher“ Bedeutung werden häufiger erkannt, wenn
sie aufrecht stehen → auch Top-Down-Informationen beeinflussen die Figur-Grund-
Trennung.

Objekterkennung und Objektkategorisierung

Objekterkennung ist auf die Figur-Grund-Trennung zurückzuführen (man sieht ein


Objekt).

Bei der Objektkategorisierung wird bestimmt, um welche Art von Objekt es sich
handelt.

Entdecken eines Objekts (Form des Gegenstands) → Kategorisierung eines Objekts


(Auto) → Identifizierung eines Objekts (mein Auto)

Jedoch zeigen Studien, dass Objekterkennung, also Figur-Grund-Trennung und


Objektkategoisierung eng miteinander verknüpft sind und möglicherweise nicht seriell
ablaufen, sondern auf den gleichen Mechanismen beruhen.

Biedermans Recognition-by-Components-Theorie

Grundannahmen: Ein Objekt besteht aus sehr basalen Formen, sogenannten


Geonen (Bsp.: Zylinder). Geone (insg. 36) können aus verschiedenen Blickwinkeln
identifiziert werden. Deshalb: perspektivenunabhängige Objekt-Identifikation
(Ausnahme: einige Geone sind verdeckt)

Stufen:

1. Erkennung der Konturen / Form


2. Segmentation des Objekts → konkave Strukturen: nach innen gewölbt,
werden eher als der Figur zugehörig wahrgenommen als konvexe; non-
accidental principle: Wahrgenommen Regelmäßigkeiten eines Bildes sind auf
reale Regelmäßigkeiten in der Umgebung zurückzuführen und nicht auf eine
Täuschung durch die Perspektive.
3. Bestimmung der Komponenten aufgrund der perspektivischen Invarianz-
Eigenschaften von Strukturen
4. Abgleich der Komponenten-Struktur mit individuellen Objekt-Repräsentationen

Schwächen des Modells:

 Objekterkennung sei rein Bottom-Up bzw. Stimulusorientiert.


 Kann nur grobe Unterscheidung zwischen Objekten erklären (Keine Erklärung
dafür, wie wir innerhalb einer Kategorie zwischen Objekten unterscheiden
Beispiel: Gesichter).
 Annahme der perspektivischen Unabhängigkeit der Objekterkennung ist
fehlerhaft.
 Annahme, dass Objektwahrnehmung rein auf unveränderbaren Geonen
aufbaut → Menschliche Wahrnehmung ist jedoch deutlich flexibler (Beispiel:
Wolken - so variabel, dass keine Geone definierbar sind)
• Perspektivenabhängigkeit (was spricht dafür, was dagegen)

Modelle der Kanonischen Ansichten (z.B. Tarr, 1995, Ullmann, 1989)

 Objekte werden im Gedächtnis anhand von „Schnappschüssen“ repräsentiert

 „Schnappschüsse“ sind aus bestimmten Blickwinkeln aufgenommen (gelernte


blinkwinkelabhängige Ansichten)

 gelernten Ansichten werden am besten wiedererkannt

 für andere Ansichten müssen die vorhandenen „Schnappschüsse“ erst interpoliert


werden

 Erkennung ist deswegen blickwinkelabhängig (perspektivenabhängig)

Objekterkennung ist manchmal perspektivabhängig und manchmal nicht!

 bei einfachen Kategorisierungen auf Basislevel (Auto oder Fahrrad?):


Perspektivenunabhängigkeit

 bei Identifizierung, sprich Unterscheidungen innerhalb von Objektklasse (Audi vs.


Mercedes): Perspektivenabhängigkeit

 für eine erfolgreiche Objektwahrnehmung werden alle vorhandenen Informationen


genutzt (perspektivenabhängige und -unabhängige)

Was spricht dafür, was dagegen:

 Tarr, Williams, Hayward und Gauthier (1998) untersuchten das Wiedererkennen


dreidimensionaler Objekte unter verschiedenen Bedingungen, bei einfachen Aufgaben
war die Performance nahezu blickwinkelunabhängig, bei komplizierteren Aufgaben
blickwinkelabhängig

 Vanrié et al (2002) fanden ebenfalls einen Zusammenhang zwischen der


Perspektivabhängigkeit und der Komplexität der Aufgabe

 Biedermann & Gerhardtstein (1993): je stärker ein Objekt rotiert wird, desto mehr Zeit
braucht eine VP um es zu identifizieren
• Wahrnehmung von Gesichtern: Holistische Verarbeitung, Rolle von Expertise

• das Erkennen von Gesichtern scheint ein spezieller Fall der Objektwahrnehmung zu sein

 Spielt eine große Rolle in unserem Leben

 stärkere Orientierungsabhängigkeit als bei Objekten: Wiedererkennen von


Gesichtern durch Invertierung stärker erschwert als bei anderen Objekten (McKone,
Kanwisher & Duchaine,2007)

o „Thatcher-Illusion“: Verzerrungen in Gesichtern, die auf den Kopf gestellt


sind, sind nur schwer erkennbar  Vermutung, dass invertierte Gesichter
nicht mehr ganzheitlich, sondern aus den Einzelteilen zusammengesetzt
wahrgenommen werden

o Part-Whole effect: Teile von Gesichtern können besser erinnert werden, wenn
sie innerhalb von Gesichtern präsentiert werden

 Objekterkennung nach Marr und Biederman: beruht auf Analyse der Komponenten,
gibt aber auch Möglichkeit einer holistischen Analyse (Verarbeitung der
Konfiguration des Objektes); Gesichtserkennung basiert eher auf holistischer Analyse

 Spezielles Modul für die Erkennung von Gesichtern: isolierte Beeinträchtigung für
Gesichtererkennung (Prosopagnosie) nach Hirnverletzungen möglich

 fuci-form face area: Gehirnregion die auf Verarbeitung von Gesichtern spezialisiert
zu sein scheint

• Unterschiede zwischen Objekterkennung und Gesichtererkennung könnten durch Grad der


Expertise erklärt werden

 Objekterkennung in der Regel auf Ebene des Basislevels (Kategorisierung)

 Gesichtererkennung immer auf Expertenlevel (Identifizierung)

 Gyrus fusiformis könnte auch als „Expertise“-Areal interpretiert werden

Zusammenfassung:

 Gesichtserkennung ist konfigural-holistisch

 Gesichtererkennung scheint speziell zu sein: kann durch Expertise erklärt werden


(Tarr & Cheng 2003) oder kann durch Spezialisierung erklärt werden:

 Es gibt spezifische Module/Netzwerke für die Verarbeitung von Gesichtern


Aufmerksamkeit

● 1) Theorien später und früher Nachrichtenselektion

→ bezieht sich auf Versuch, in dem Personen über Kopfhörer Zahlen gesagt bekommt, die sie
wiedergeben sollen →simultane Darbietung unterschiedlicher Info auf dem linkem & rechtem Ohr
→VP soll einen Kanal „beschatten“ und dessen Info wiedergeben →einem Kanal wird also
Aufmerksamkeit gewidmet, anderer bleibt unbeachtet →Merkmale der unbeachteten Nachricht
werden variiert →VP registriert nur wenige Merkmale der unbeachteten Info wie menschliche
Stimme vs. Geräusch, männl. vs. weibl. Stimme, Stimmwechsel während des Tests →VP bemerkte
NICHT ob unbeachtete Info in fremder oder rückwärtsabgespielter Sprache war

→ Nur physikalische Merkmale können wiedergegeben werden, keine semantische Analyse der
unbeachteten Info

- Broadbents Filtertheorie:

Info aus beiden Kanälen kommt für einen kurzen Moment in einen Zwischenspeicher = sensoric
buffer (das läuft parallel!)

Auf Basis der parallelen Verarbeitung wird Filter angesetzt und das Signal eines Kanals/Quelle
ausgefiltert (z B. Info über physikalische Merkmale darf durch den Filter, Rest des Inputs bleibt im
Zwischenspeicher für spätere Verarbeitung) →schützt nachfolgende Mechanismen (weitere,
tiefergehende Verarbeitung) vor Überlastung, da diese eine Kapazitätsbegrenzung in ihrer seriellen
Arbeitsweise haben

Ort der Nachrichtenselektion ist früh

Selektion erfolgt auf Basis physikalischer Reizmerkmale (Reizort, Frequenz, Ohr)

Weiterleitung der Nachrichten folgt dem Alles-oder-nichts-Prinzip →von unbeachteten


Nachrichten werden nur die physikalischen Merkmale verarbeitet → sonst keine
Bedeutung

Es gibt nur einen seriellen, kapazitätslimitierten zentralen Prozessor(Einkanalhypothese)


→Teilung der Aufmerksamkeit zwischen 2 oder mehr Kanälen nur durch rasches Umschalten des
Filters zwischen den Kanälen möglich → laut Broadbent dauert dieses Umschalten 500ms,
heutige Erkenntnisse sagen 50ms

→ hier ist Aufmerksamkeit nötig, damit der Filter umschaltet und unbeachtete Info verarbeitet wird

(Broadbent integrierte hat in seine Theorie den Befund des dichotischen Hörens integriert, darunter
versteht man das Phänomen, einem gespräch zu folgen und dabei andere ignorieren zu können)
Zusammenfassung zum besseren Verständnis:

- 2 gleichzeitig dargebotene Eingangsreize(Nachrichten) erlangen parallel und gleichzeitig


Zugang zu einem sensorischen Speicher
- Nur einer der Reize darf auf der Basis seiner physikalischen Merkmale (z. B. Ohr) einen
selektiven Filter passieren.
- Der andere Reiz wird abgeblockt, verbleibt aber vorübergehend im Speicher für eventuellen
späteren Zugriff.
- Filter ist notwendig, um ein kapazitätslimitiertes, strikt serielles Verarbeitungssystem
(»limited-capacity channel«)jenseits des Filters vor Überlastung zu schützen.
- Der Reiz, der es durch den Filter schafft, wird dann von diesem Verarbeitungssystem
gründlich, d. h. bis zu einer semantischen Repräsentation, verarbeitet.
- Nur Information, die dieses System durchläuft, kann bewusst und ins Langzeitgedächtnis
eingespeichert werden.

Die Filtertheorie nimmt an, dass Information nach dem Alles-oder nichts-
Prinzip durch einen Prozessor(Verarbeitungskanal) verarbeitet wird. Geteilte Aufmerksamkeit
erfordert schnelles Umschalten zwischen Kanälen.

- Treismanns Dämpfungstheorie/Attenuationstheorie:

(weitere emprische Studien zeigen: in gewissem Maß findet Bedeutungsanalyse der unbeachteten
Info statt -> Überarbeitung der vorherigen Theorie von B.)

Signale des unbeachteten Kanals werden nicht vollständig eliminiert

Semantische Verarbeitung der unbeachteten Info ist schwierig aber prinzipiell möglich

Relevanz der unbeachteten Info scheint deren Verarbeitung zu beeinflussen →


große physikalische Stärke (lautes Geräusch) →
momentane semantische Passung →
persönliche Relevanz (eigener Name auf Party)

Filter ist nicht starr: kann auf verschiedenen Stufen angesiedelt werden

Filter kommt immer dann zum Einsatz, wenn vorhandene Kapazität nicht ausreicht, um alles zu
verarbeiten

Schwellenwert für Info (d.h. wann kann unbeachtete Info Filter passieren) kann durch
Erwartung &/oder Relevanz der Info verändert werden

(Wenn der Abschwächungsfilter eine Reduktion des perzeptiven Inputs bewirkt, wie beim nicht
beachteten Kanal, so kann eine Einheit nur dann aktiviert werden, wenn ihre Aktivationsschwelle
niedrig ist. Repräsentationen mit einer niedrigen Aktivationsschwelle (wie die des eigenen Namens)
können auch bei attenuierter Verarbeitung aktiviert werden.)

Filter DÄMPFT Verarbeitung im nichtbeachteten Kanal


→ hier ist also keine Aufmerksamkeit nötig, um auch unbeachtete Infos zu verarbeiten

→Ort der Verarbeitung: eher früh

→ angemessenste Theorie der 3

Zusammenfassung zum besseren Verständnis:

Die Attenuationstheorie geht davon aus, dass nicht beachtete Information in abgeschwächter
(attenuierter) Weise weiterverarbeitet wird. Je mehr Kapazität vorhanden ist, umso höher ist die
erreichte Verarbeitungsebene.

- Deutsch & Deutsch Alternativhypothese (späte Filterung):

Alle Infos werden verarbeitet

Auswahl erfolgt erst direkt bei der Reaktionsverarbeitung

Der relevanteste Stimulus „setzt sich durch“ (Weiterverarbeitung erfolgt nur für die Reize, die
für momentane Verarbeitung am relevantesten sind)

→ Theorie von allen 3 am ungeeignetsten

- Zusammenfassung der 3 Theorien:


→ Aufmerksamkeitsausrichtung primär aufgrund von physikalischen Infos
→ Verarbeitung der unbeachteten Info
a) gar keine Verarbeitung der uInfo, da sie nach Broadbent vollständig eliminiert wird (außer die
unbeachtete Info wird als relevant erkannt und der Filter schaltet zwischen den Kanälen
um)/frühe Selektion
b) minimierte Verarbeitung der uInfo nachTreismann, da der Filter die Verarbeitung
dämpft/frühe Selektion
c) Eingangsverarbeitung von allen Reizen, da erst späte Selektion (D&D)

● 2) Einordnung von Leakage und Slippage in die Theorien der frühen und späten Seletkion

- Leakage: durch den Filter gelangen auch Infos aus dem nichtbeachteten Kanal (Dämpfung
nach Treismann) (keine Aufmerksamkeit nötig)

- Slippage: Filter wechselt, so dass der nichtbeachtete Kanal doch beachtet wird (Broadbent)
( Aufmerskamkeit nötig)

- dazu Versuch Stroop:

VP müssen visuelle lexikalische Entscheidungsaufgabe lösen, wobei es vorher ein Priming gibt
→ Erleichterung bei der lex. Entscheidung (=Priming-Effekt), wenn vor dem Targetwort ein
identischer Prime erscheint → PrimeWort wird unterschiedlich lang präsentiert
→ Hypothese: Wenn für semantische Verarbeitung Aufmerksamkeit notwendig ist, dann sollte
bei sehr kurzen Präsentationszeiten des Primes (55ms) kein Priming-Effekt auftreten, bei 65ms
oder 110 ms sollte es einen Priming-Effekt geben, weil genug Zeit besteht, um
Aufmerksamkeit auf Prime zu richten →Ergebnis: Bei sehr kurz
präsentierten Primes gibt es keinen Priming-Effekt, bei länger dargebotenen Primes schon →
Höhere Verarbeitung ist also nur möglich, wenn Aufmerksamkeit auf Prime gerichtet werden
konnte; spricht für die Richtigkeit von Slippage und damit für
Broadbents Filtertheorie

● 3) Perceptual Load: Lavies Theorie mit 2 Hauptannahmen

→ aus 1) und 2) ergeben sich nun widersprüchliche empirische Befunde:

In 1) gilt Dämpfungstheorie von T. als richtig und in 2) die Filtertheorie von B.

→ diese sich scheinbar wiedersprechenden Befunde zu früher und später Selektion können in der
Perceptual Load Theory von Lavie integriert werden:

- die situativen Bedingungen bestimmen, ob frühe oder späte Selektion stattfindet


→ hoher perceptual load: frühe Selektion -> Silppage
→ niedriger perceptual load: späte Selektion ->Leakage
- wurde mit Flanker-Aufgabe getestet
→ Aufgabe: G & T = rechte Taste drücken, K & R = linke Taste drücken, neben Target werden
Distraktoren auf Bildschirm eingeblendet, kompatible Distraktoren (rufen gleiche Reaktion wie
Target hervor; wenn Target z B. G dann wären G und T kompatible Distraktoren) oder
inkompatible Distraktoren (ungleiche Reaktion wie Target; wenn Target z B. G, dann sind
inkompatible Distraktoren K und R)
- inkompatible Distraktoren sollten im Vergleich zu kompatiblen Distraktoren die Reaktion auf
das Target verlangsamen (ähnliche Idee wie bei Versuch Stroop)
- Ergebnis:
→ unter hoher perceptueller Belastung (passive Belastung) keine Behinderung durch Distraktoren
→ Aufmerksamkeit kann nicht zu Distraktoren abgleiten
→ bei hoher aktiver Belastung (work load) starker Einfluss von Distraktoren
→ bei niedriger aktiver Belastung (work load) niedriger Einfluss von Distraktoren
- Für Unterscheidung von Distraktoren und Targets ist exekutive Kontrolle nötig
visuelle Aufmerksamkeit wird durch bottom-up und top-down-Faktoren bestimmt*
- Unter High Load werden Distraktoren stärker verarbeitet (wobei High Load eine Aufgabe
wäre, bei der Fotos von Persönlichkeiten mit falschen Namen präsentiert werden und bei einer
Low Load Aufgabe würden Foto und Name übereinstimmen! Man misst die Reaktionszeiten, wie
schnell man z B. erkennt, ob Person Popstar oder Politiker ist)

*bottom-up processing:
Verarbeitung, die direkt von Stimuli aus der Umwelt beeinflusst wird

* top-down processing:

Stimulusverarbeitung, die von Faktoren wie der individuellen Vergangenheit, Erfahrung &
Erwartung beeinflusst wird

● 4)Form visueller Aufmerksamkeit

4.1) Mechanismen der Aufmerksamkeitsorientierung:

(- endo- und exogene Aufmerksamkeitssteuerung nach Posner)

Die Ausrichtung der Aufmerksamkeit auf einen Ort kann durch zwei komplementäre Mechanismen
vermittelt werden:

- Exogenes System (ventral): sorgt für automatischen Aufmerksamkeitswechsel hin zu


exogenen Reizen; reizgetriggert, reflexiv -> Cuing-Paradigma mit peripheren Cues *
(z B. Feld blinkt auf, bevor in genau diesem Feld Target erscheint)
→ventrales frontoparientales Netzwerk
- Endogenes zielgerichtetes System (dorsal): Aufmerksamkeitswechsel wird durch kontrollierte
Funktionsweise wie Erwartungen/ Absichten des Individuums initiiert; intentional, willentlich ->
Cuing-Paradigma mit zentralen Cues*
(z B. man sieht zwischen 2 Kästchen einen Punkt, dann statt diesem einen Pfeil, der nach rechts
zeigt und richtet dann Aufmerksamkeit auf rechtes Feld, in dem dann das Sternchen auch
auftaucht)
→ dorsales frontoparientales Netzwerk
- *periphere Cues: in der Regel eine kurzzeitige Luminanzänderung direkt am indizierten Ort
(Aufleuchten des rechten Kästchens)
- * zentrale Cues: in der Regel ein symbolischer Stimulus am Fixationsort (ein nach rechts
zeigender Pfeil)

→ Die Orientierung der Aufmerksamkeit kann sowohl durch externe Stimuli als auch durch interne
Intentionen kontrolliert werden.

4.2) 3 Theorien zur Form visueller Aufmerksamkeit

Spotlight
Visuelle Aufmerksamkeit funktioniert wie ein Lichtkegel, der bestimmten Ort beleuchtet
→Stimuli, die an einem attentional illuminierten Ort erscheinen, werden rascher und gründlicher
verarbeitet als Stimuli an anderen Orten (Annahmen der Filtertheorie)
Visuelle Aufmerksamkeit erhellt Raum um einen, außerhalb des Kegels nimmt man wenig war, aber
Lichtkegel kann flexibel auf interessiertes Objekt gerichtet werden
→ 2 kontroverse Annahmen:
 Durchmesser des attentionalen Lichkegels hat konstante Größe
 Durchmesser bewegt sich in kontinuierlicher-analoger Weise, ähnlich einer glatten
Augefolgebewegeung

Zoomlens
Der Kegel des Scheinwerfers/der Aufmerksamkeit kann wie bei einem zoom unterschiedlich breit
sein (Buchstaben vs. ganzes Wort Versuch). Wir können Zoom verbreitern oder verschmälern.

Multispotlight
Aufmerksamkeit wird aufgesplittet
(Versuch belegt dass die mittlere Position zwischen 2 Cues ausgesparrt wird, und hier keine
Aufmerksamkeit liegt -> Beleg für die Splittung der Aufmerksamkeit)

4.3) Ortsgebundene und objektgebundene Aufmerksamkeit

Ortsgebundene Aufmerksamkeit
- Aufmerksamkeit ist an einen Ort gebunden
- Aufmerksamkeit durch Hinweisreiz an einen Ort gelenkt
- Ortsbezogene Aufmerksamkeit kann als Lichtkegel (nach Posner), als Gummilinse (nach
Erikson; Aufmerksamkeit kann entweder auf einen kleinen Bereich fokusiert werden und eine
hohe Auflösung haben oder auf breiteren Bereich fokusieren und niedrigere Auflösung haben ->
zoom) oder im Sinne eines Gradientenmodels begriffen werden (nach Downing; attentionale
Aufmerksamkeitskraft fällt vom Maximum im Zentrum kontinuierlich hin zur Peripherie hin ab)

Objektgebundene Aufmerksamkeit
- Aufmerksamkeit ist an ein Objekt gebunden
- z B. Verfolgen eines Balls
- macht Attribute des Objekts der entsprechenden Verarbeitung möglich
- Müssen Beobachter zwei Urteile über die Eigenschaften von zwei einander überlagert
dargebotenen Objekten abgeben, so ist die Urteilsgenauigkeit höher, wenn sich beide Urteile
auf dasselbe Objekt beziehen. Die höhere Genauigkeit dualer Urteile bezüglich der Merkmale,
die ein Objekt beschreiben spricht dafür, dass Aufmerksamkeit objektbezogen ist.

→ Aufmerksamkeit kann sowohl orts- als auch objektgebunden sein


→ damit (Nachrichten)Selektion effektiv ist, ist sie mit Hemmprozessen assoziiert, die verhindern,
dass wir hintereinander immer wieder dasselbe auswählen

→ Inhibition of return (Hemmprozess)


- Reduzierte perceptuelle Priorität für Regionen, die mit erhöhter Aufmerksamkeit belegt
waren
- Wikipedia: Inhibition of return (IOR), zu Deutsch etwa „Hemmung der Rückkehr“,
beschreibt ein Phänomen der Blickbewegung: Beobachtet ein Proband ein Objekt an einem
bestimmten Ort genauer (zwischen 100 und 300 Millisekunden), dann ist es sehr
unwahrscheinlich, dass er nach einem Fokuswechsel (sogenannte Sakkade) erneut dort wieder
hinschaut, sondern stattdessen weitere nicht betrachtete Bereiche anschaut. Man geht also
davon aus, dass die Funktion des IOR darin besteht, möglichst viel Information zu gewinnen und
neue Dinge zu entdecken
- Inhibition of return tritt sowohl bei orts- als auch bei objektgebundener Aufmerksamkeit auf,
ist aber im ersten Falle stärker
- Versuch: Probanden sehen Fixationskreuz □ *□ (Augenfixation und Aufmerksamkeit auf
Bildmitte) und einen Hinweisreiz=cue=blinkendes Kästchen (zeigt an, wo target mit hoher
Wahrscheinlichkeit präsentiert wird). Gibt invaliden Durchgang (target wird nicht in dem selben
Kästchen präsentiert wie der Hinweisreiz) und validen Durchgang (target erscheint in selbem
Kästchen wie Hinweisreiz)
Wenn der Abstand zwischen Cue und Target größer als 300 ms war, dann war Reaktion auf
Target an der validen Stelle langsamer als auf Target an invalider (→ Inhibition of return)

● Geteilte Aufmerksamkeit

→ Situation, in der mind. 2 Aufgaben gleichzeitig ausgeführt werden= Multitasking

- Gegenteil: fokusierte Aufmerksamkeit =selective attention

→ Situation, in der man nur einen Stimulus (von vielen) beachtet

- 3 Haupteinflussfaktoren bei Multitasking (also bei geteilter Aufmerksamkeit):


- Ähnlichkeit der Aufgaben: je ähnlicher Stimulus-Modalität (visuell, auditiv) in beiden Aufgaben,
desto besser funktioniert Multitasking
- Übung: je mehr Übung man in der Bewältigung von 2 Aufgaben hat, desto besser funktioniert
Multitasking
- Schwierigkeitsgrad der Aufgaben: je schwieriger die beiden Aufgaben sind, desto schlechter
funktioniert Multitasking
- Ähnlichkeit der Aufgaben determiniert Multitasking stärker als Schwierigkeitsgrad der
Aufgaben
- Annahme : Central capacity (zB. Aufmerksamkeit als ein Hauptverarbeitungsprozess) kann für
eine Bandbreite von Aktivitäten flexibel gebraucht werden → wenn 2 Aufgaben die gleiche
central capacity beanspruchen, dann funktioniert Multitasking schlechter z B. Beim Autofahren
telefonieren (aus gutem Grund verboten)
- Theorie der zentralen Kapazität:
- es gibt eine zentrale Kapazität, die flexibel unterschiedlichen Tätigkeiten zugeordnet werden
kann
- zentrale Aufmerksamkeitskapazität kann in Abhängigkeit von Anstrengung und
Motivation(leicht) variieren
- Annahme einer begrenzten Ressource kann durch Doppelaufgabeninterferenz nachgewiesen
werden:
- →2 gleichzeitig ausgeführte Aufgaben sollten sich umso stärker behindern, je
ressourcenabhängiger sie sind
- Diese gegenseitige Interferenz wird in sog. Performance Operation Curves (POC) dargestellt
(basiert auf Ansatz, dass die Leistung bis zu einer bestimmten Grenze von den eingesetzten
ressourcen abhängt)
- Probelme der zentralen Kapazitätstheorie:
- Gefahr der Zirkularität: nach Kahnemann lässt sich Aufgabenschwierigkeit durch
Doppelaufgabeninterferenz bestimmen, aber Interferenz ist auch Indikator für Schwierigkeit → es
gibt kein unabhängiges Maß für Kapazität und Schwierigkeit
- Es fehlt Erklärung, was genau zentrale Kapazität ist
- Erklärt nicht die Ähnlichekitseffekte → diese werden mit multiplen Ressourcen erklärt

- Gegenannahme: Multiple recources=unabhängige Verarbeitungsmechanismen


→ ähnliche Aufgaben beanspruchen dieselbe spezifische Ressource, so dass es zu einer
Behinderung/Störung/ Interferenz kommt (Gegenteil bei unähnlichen Aufgaben)

- Theorie der Multiplen Ressourcen:


- Die gleichzeitige Ausführung zweier sich ähnlicher Aufgaben führt in dem Maße zu Interferenz
in dem sie
 Die gleiche Stimulusmodalität involvieren (visuelle vs. Auditive Enkodierung)
 Die gleichen Verarbeitungsstadien beanspruchen (frühe vs. Späte Prozesse)
 Auf gleiche Gedächtniscodes zugreifen (räumlich vs. Verbal)
 Gleiche Responsemodalität bedingen (verbal vs. manuel)
- Vorstellung von multiple spezialisierten Ressourcen oder multiplen spezialisierten
(modularen) Subsystemen
→ kritische Determinante der 2fachAufgabenperformanz ist Aufgabenähnlichkeit (Interferenz
bedeutet, dass 2 Aufgaben dieselben Ressourcen bzw. Subsysteme beanspruchen →
Zirkularitätsproblem
- Problem der Falsifizierbarkeit: Anzahl der Subsysteme ist unbekannt -> durch Annahme
beliebig vieler Subsysteme können beliebig viel Muster erklärt werden
- Koordinationsproblem: Welche Instanz verwaltet Menge unterschiedlicher Ressourcen?

6.Visuelle Suche

- Versuch: Probanden werden gebeten zu entscheiden, ob ein Zielreiz (Target) in einer Menge von
DIstraktoren dargeboten wird oder nicht

→ variiert wird: - Target vorhanden vs. nicht vorhanden

- Displaygröße (Anzahl der Reize)

→ zusätzlich wurde geschaut, welchen Einfluss der Unterschied zwischen Target und Distraktoren hat

Feature Integration Theorie (Treismann &Gelade)


- Jeder visuelle Stimulus lässt sich als eine Kombination von basalen Merkmalen beschreiben
- Ähnliche Merkmale (rot,grün,blau) bilden eine Dimension
- Die Dimensionen sind: Farbe, Orientierung, Größe, Tiefe, Bewegung etc. (vgl. Modularisierung
in frühen visuellen Arealen
→Merkmale werden automatisch (ohne Aufmerksamkeit) verarbeitet (präattentiv)
→durch Modularisierung entsteht Bindungsproblem: wie werden die separat kodierten
Merkmale zu einer kohärenten Objektpräsentation verbunden?
- Bindungsproblem durch Aufmerksamkeit gelöst:
- → wird ein Ort mit Aufmerksamkeit belegt, können die Merkmale der korrespondierenden
Orte zu einer einheitlichen Objektrepräsentation zusammengefasst werden
- → Bindung von Merkmalen kann immer nur für ein Objekt zu einer gegebenen Zeit erfolgen
- → der bottleneck ist die Merkmalsintegration
- Single feature search:
→ Merkmalsintegration nicht notwendig
→präattentive parallele Verarbeitung
- Conjunction search:
→ Merkmalsintegration notwendig
→serielle Abtastung der einzelnen Items für Integration notwendig
→RT abhängig von Displaygröße

Probleme der Merkmalsintegrationstheorie:


- Emprische Studien haben verschiedene Steigungen Suchfunktionen ergeben
→ spricht gegen Zweiteilung und eher für Kontninuum
- vorhergesagte flache Kurve für parallele Suche zeigen immer noch deutliche Steigungen
- vorhergesagte Schätzungen für serielle Suche sind zu flach

Guided Search Theorie (Wolfe):


- ähnliche Annahmen wie Feature-Integration-Theorie
- aber 2 wesentliche Prozesse:
- Aktivierung von Merkmalskarten durch salienzgesteuerte bottom-up-Prozesse
- top-down-Gewichtung
- dadurch lassen sich bottom-up basierte Salienzunterschiede nutzen um die top-down
gesteuerte serielle Suche zu unterstützen
- hohe Aktivierungsunterschiede (single feature search) führen dazu, dass Target zuerst mit
Aufmerksamkeit belegt wird, weshalb es nur einen geringen Einfluss der Displaygröße gibt;
das dieser dennoch da ist kann durch Zufallseinflüsse der beteiligten Prozesse erklärt werden
(Wahrscheinlichkeit dafür steigt mit Displaygröße an)
- bei niedrigen Aktivierungsunterschieden (conjunction search) gibt es insgesamt eine höhere
Wahrscheinlichkeit, dass mit einem anderen Item als dem Target begonnen wird

Grundannahmen aus Schlussfolgerungen:


- Trennung in serielle und parallele Verarbeitung
- Visuelle Suche basiert überwiegend auf parallelen Prozessen, nur in schwierigen Aufgaben
wird seriell vorgegangen
- Offene Fragen können nicht allein durch Analyse von Reaktionszeiten beantwortet werden ->
Unterschiede in der Stärke des Zusammenhangs zwischen Set-Sizw und RT lassen sich zB. durch
Unterschiede in Bezug auf Diskriminierung und auf Entscheidungskriterien zurückführen
- Visuelle Suche wird auch durch andere Faktoren beeinflusst, zB. der Ähnlichkeit zwischen
Target und Distraktor und den Distraktoren selbst
- →Ähnlichkeit bestimmt, wie gut man zwischen Distraktor und Target unterscheiden kann
- →bestimmt aber auch das subjektive Entscheidungskriterium
- Ansatz der Signalentdeckungstheorie
- Bei seltenen Ereignissen treten sehr viele Verpasser auf
- Visuelle Suche bei seltenen Ereignissen:
 Anzahl der Verpasser nehmen erst im Verlaufe des Experiments zu ( nach ersten ¼)
 Aufsplittung in Sensitivitätsmaß und Entscheidungskriterium zeigt, dass sich über die Zeit nur
das Entscheidungskriterium verändert (geringere Bereitschaft zum JA-Sagen)

7)Automatische Verarbeitung/Prozesse

Unterscheidung nach Shiffrin&Schneider:


- Dichtotome Einteilung in automatische und kontrollierte Prozesse
- Automatische Prozesse:
 Unterliegen nicht Kapazitätsbeschränkungen
 Benötigen keine Aufmerksamkeit
 Sind aber unflexibel, d.h. schwer zu modifizieren
 Laufen rasch ab
 Da sie keine Ressourcen benötigen interferieren sie nicht mit kontrollierten Prozessen
 Sind unvermeidbar sobald ein passender Stimulus vorliegt (siehe Stroop Effekt)
 Sind dem Bewusstsein nicht zugänglich

Unterscheidung nach Moors & De Houver

4 Eigenschaften von Automatisierung:

- Ziel-realierte Eigenschaften
- ( (un)intenional, goal directed, goal (in)dependent, (un)controlled/(un)controllable,
autonomous, stimulus-driven)
- (un)conscious: laufen Prozesse ohne Bewusstsein ab?
- (non)eficient: benötigen sie Ressourcen?
- Fast(slow): wie lange dauert ein Prozess?
Stichwortliste Bewusstsein

 Verschiedene Aspekte des Bewusstseins nach Pinker (1977)


1. Sentience (Empfindungsvermögen, Gefühl):
Individuelles, subjektives Erleben von Sinnesempfindungen, das nur dem
Individuum selbst zugänglich ist.
2. Access to Information:
Die Fähigkeit, die Inhalte der eigenen subjektiven Erfahrung zu berichten. Jedoch
fehlt die Fähigkeit, die Prozesse, die der subjektiven Erfahrung zugrunde liegen,
benennen oder beschreiben zu können.
3. Self-Knowledge (Selbsterkenntnis):
Bewusste Wahrnehmung eines ganzheitlichen Selbst. Umfasst Wissen um eigene
Wahrnehmungen und Gedanken  Subjekt ist selbst Gegenstand des
Bewusstseins.
 „I cannot only feel pain and see red, but think to myself, ‚Hey, here I am, Steve
Pinker, feeling pain and seeing red!’ “

 Mind. 4 verschiedene Funktionen von Bewusstsein


 Bewusstsein als ganzheitliche „Meta-Ebene“ (Baars & Kollegen)
Das Bewusstsein integriert wichtige Informationen in einem bewusst-
wahrnehmbaren „Gesamtbild“. Diese integrierte Wahrnehmung erleichtert uns:
- die Ausführung und Organisation mentaler und physischer Handlungen
- Selbstbeobachtung, Aufbau und Erhalt eines Selbstbilds
- einfache und komplexe Entscheidungen zu treffen
- Lernprozesse (und damit Adaptation)
- Informationsverarbeitung und globale Kontrolle
 Soziale Funktion (Humphrey)
- ermöglicht erst die Vorhersage und das Verstehen von Handlungen anderer.
Mit diesem Verständnis fällt ist es leichter sich in eine andere Personen
hineinzuversetzen und Schlüsse über deren Verhalten und Emotionen zu
ziehen. (wichtige Voraussetzung für das Zusammenleben in Gruppen)
- ermöglicht eine ganzheitliche Wahrnehmung der eigenen Personen und des
eigenen Selbst. Dies ist nützlich um ein Verständnis für das eigene Verhalten
und die eigene Wahrnehmung zu entwickeln

 ein Experiment zur Erzeugung der Illusion intentionaler Handlungen (Illusion des freien
Willens) kennen
 Experiment von Libet et al:
- widmen sich der Frage nach dem freien Willen und der Kontrolle über unsere
Handlungen
- Aufgabe: Finger oder Hand zu einem selbstbestimmten Zeitpunkt bewegen
 VPs sollen rückwirkend angeben, zu welchem Zeitpunkt sie die Intention zur
Bewegung der Hand bewusst wahrgenommen haben (=decision time)
- Messung von: EMG (Muskelaktivität bei Handbewegung) und EEG
(Bereitschaftspotential)
- Ergebnis: das Bereitschaftspotential geht der Entscheidung zur Bewegung der Hand
um 350 ms voraus. Nach weiteren 200ms folgt die Handbewegung.
 Libets Interpretation der Ergebnisse:
- Initiierung der Handlung geschieht unbewusst und zeitlich vor der bewussten
Entscheidung
 also kein freier Wille?
 es stellt sich die Frage inwieweit unser Bewusstsein als Initiator für diese
Handlung gesehen werden kann.
 Libet geht davon aus, dass die Funktion unseres Bewusstseins in der
Kontrolle von Handlungen liegt  kann Entscheidungsprozess bewusst
abbrechen
 Kritik:
1. gemessenes EKP könnte eher als „Readiness-Potential“ interpretiert werden,
welches einen generellen antizipatorischen Effekt reflektiert, z.B. gesteigerte
Erregung
dazu Gegenbeweis durch Experiment von Trevena et al: Lateralized Readiness
Potential zeigt sich vor der Einleitung einer motorischen Handlung.
2. Der Zeitpunkt, den Testpersonen einer bewussten Entscheidung zuschreiben, ist
stark abhängig von den Ereignissen, die nach der Entscheidung eintreten. Diese
können die Angabe des Zeitpunktes verzerren.
3. Ergebnisse von Libet basieren rein auf Korrelationen  keine kausalen
Zusammenhänge.
Weiterführendes Experiment von Brasil-Neto: TMS erzeugt signifikante Tendenz,
Finger auf der kontralateralen Seite der Stimulation zu bewegen.
4. geringe zeitliche Differenz zwischen neuronalen Korrelaten (Potential im EEG) und
dem bewussten Entscheidungsakt.
 Wenn wir eine Entscheidung bewusst wahrnehmen, hat unser Gehirn sie bereits
vorher vorbereitet. oder getroffen?

 Messung von Bewusstsein und Probleme dabei


1. Subjektiver Grenzwert: misst subjektives Bewusstsein über Empfindung von Reizen
a. Selbstbericht
b. Sicherheitsrating
2. Objektiver Grenzwert: von außen erkennbare Reaktion auf Reiz; auch ohne
vollständig bewusste Stimulus-Wahrnehmung möglich (z.B. Blind-Sight)
a. Forced-Choice-Decision
b. Reaktionszeit
Probleme:

- zur Überprüfung von bewussten Erfahrungen werden kognitive Funktionen


gebraucht; Aufmerksamkeit, Gedächtnis, „Inner-Speech“
- die Unfähigkeit von bewusster Erfahrung zu berichten muss nicht zwangsläufig an
mangelndem Bewusstsein liegen, sondern kann auch Ursache in defizitären
kognitiven Funktionen haben. (Bsp.: Split-Brain Patienten können rechtsseitig-
verarbeitete Stimuli schlecht sprachlich artikulieren, was aber nicht heißt, dass sie
sie nicht wahrnehmen.
- verschiedene Methoden zur Bewusstseinserfassung stimmen oft nicht überein
(z.B. Selbstbericht vs. Forced-Choice Decision)

 Methoden, um bewusste Wahrnehmung von visuell präsentierten Reizen zu eliminieren


(Maskierung, Erzeugung binokularer Rivalität, Aufmerksamkeitsablenkung)
 Subliminale Darbietung von Reizen: Präsentation von Reizen so, dass sie in ihrer
Verarbeitung nicht die „Schwelle“ zum Bewusstsein überschreiten
- schwach & undeutlich
- sehr kurze Einblendung
- es folgt maskierender Stimulus
 Binokuläre Rivalität:
- Präsentation verschiedener Stimuli links und rechts  werden nicht gleichzeitig,
sondern abwechselnd wahrgenommen. Je nach Stimuli sogar von verschiedenen
Gehirnarealen (z.B. Gesicht in FFA und Haus in PPA)
 Bewusstsein wechselt, nicht die Stimuli
 Visuelle Maskierung: Unterdrückung der Wahrnehmung eines Stimulus durch die
Präsentation eines zweiten Stimulus (Rückwärtsmaskierung)
- zunächst Präsentation des „Ziel-Reizes“, im Anschluss Maskierungs-Stimulus
 der Zielreiz wird dabei nicht bewusst verarbeitet

 Unterschiede und Gemeinsamkeiten zw. bewusster und unbewusster visueller


Verarbeitung.
 Gemeinsamkeiten:
- neuronale Aktivierung in den basalen Arealen der visuellen Verarbeitung, wie V1
(primärer visueller Kortex)
- Feed-Forward-Sweep: schnelle und auomatische Prozessierung von Informationen
(unbewusst)
 Bewusste visuelle Verarbeitung:
- komplexe Muster neuronaler Aktivierung (z.B. parietaler und präfrontaler Kortex)
- genauer durch komplexe Interaktionen
- zusätzlich zu Feed-Forward-Sweep gibt es Recurrent Processing (mit Feedback)
- wichtig für Lernprozesse

 Annahmen der „Global Workspace“-Theorie und Erweiterung durch Dehaene &


Naccache (ohne genaue neuronale Zentren)
 „Global Workspace“-Theory by Baars and Franklin
- Gehirn besteht aus einer Vielzahl (funktional) spezialisierter Netzwerke
- enge Verbindung zwischen Bewusstsein und Aufmerksamkeit: Der Fokus der
Aufmerksamkeit muss dort liegen, wo etwas bewusst aufgenommen werden soll.
 nur ein kleiner Teil der aktuellen Informationsverarbeitung ist bewusst
- zu jedem Zeitpunkt findet auch unbewusste Informationsverarbeitung in unserem
Gehirn statt  spezialisierte Prozessoren in verschiedenen Hirnarealen (unbewusst)
- Bewusstsein integriert Informationen von verschiedenen Prozessoren und sorgt für
weit verteilte Hirnaktivität
 Weiterentwicklung durch Dehaene und Naccache
- identifizierten Areale, die mit Bewusstsein in Verbindung gebracht werden (jedoch
nicht theoretisch fundiert):
 FFM zur Gesichtererkennung:
- Vorraussetzungen, um visuelle Stimuli bewusst wahrnehmen zu können:
 bottom-up Prozesse: ausreichend Verarbeitung in spezialisierten Arealen
 Top-down Prozesse  Aufmerksamkeit
- mögliche Zustände der Stimulus-Präsentation:
1. Bewusst: hohe Aktivierung in Arealen, die basale visuelle Eigenschaften
verarbeiten (Parietalkortex, PFC und ACC  Aufmerksamkeit)
2. Vorbewusst: genügend Verarbeitung basaler visueller Eigenschaften, um
Bewusstwerden theoretisch zu ermöglichen; jedoch ungenügend top-down
Aufmerksamkeitsprozesse
3. Subliminal: ungenügend Verarbeitung basaler visueller Eigenschaften, um
Bewusstwerden theoretisch zu ermöglichen unabhängig vom Einfluss von
Aufmerksamkeit

Denken, Problemlösen
Problemlösen

Problemlösen

Was ist ein Problem? (drei Aspekte)

Ein Problem liegt vor, wenn ein lebender Organismus ein Ziel hat, aber nicht weiß, wie er es
erreichen kann (Dunker, 1945)
-> nicht jede Aufgabe ist notwendiger Weise ein Problem
-> es muss eine Diskrepanz zwischen dem Ziel und der Ausgangsposition bestehen, die nicht
durch Routinehandlungen überwunden werden kann

Drei Aspekte des Problemlösens:


- ist zielgerichtet
- beinhaltet kontrollierte Prozesse (kann nicht nur auf automatischen Prozessen
beruhen)
- Mangel an relevantem Wissen; Mittel/Weg zur Diskrepanzreduktion vorher nicht
bekannt => mit ausreichendem relevanten Wissen existieren keine Probleme

(Phasen des Problemlösens {Betsch et al. 2011}: Problemidentifikation - Ziel-und


Situationsanalyse - Planerstellung - Planausführung - Ergebnisbewertung)

Problemtypen: gut vs. schlecht definiert, semantisch reiche vs. arme Probleme

gut-definierte Probleme vs. schlecht-definierte Probleme


- gut-definierte: Ausgangszustand, Zielzustand und mögl. Problemlösungsmethoden sind klar
definiert (z.B. Brettspiele, einfache Probleme)

- schlecht-definierte: das Problem und mind. eine der Komponenten ist unspezifiziert
(z.B. Alltagsprobleme/ komplexe Probleme)

semantisch reiche Probleme vs. semantisch arme Probleme


- semantisch reiche: es besteht beim Problemlöser Vorwissen, das nicht aus der aktuellen
(knowledge rich) Problemsituation selbst stammt, dieses Vorwissen wird zum
Problemlösen benötigt

- semantisch arme: Problem kann ohne Vorwissen gelöst werden, notwendiges Wissen ist
(knwoledge lean) im Problem selbst enthalten (z.B. Knobelaufgaben)

General Problem Solver: Problemraum, Verhalten im Problemraum (Heuristik vs.


Algorithmus)

Problemlösen als Suche im Problemraum

Problemraum
beinhaltet alle Elemente/ Zustände aus denen ein Problem besteht:
vom Anfangszustand bis Zielzustand und die Menge aller möglichen Prozesse (mentale
Operatoren) zwischen Anfang und Ziel:
- ist ein Möglichkeitsraum: stellt alle möglichen Zustände dar, die bei Bearbeitung des
Problems auftreten können
- kann durch Ziel- und Situationsanalyse festgestellt werden
- Problemlösen kann folglich als Pfad im Problemraum dargestellt werden

Verhalten im Problemraum

nach Newell and Simon (1972) bauen wir aufgrund der Komplexität der meisten Probleme
auf Heuristik und Faustregeln

Heuristik: sind kognitiv anspruchslose Faustregeln, die die Anzahl der möglichen
Lösungspfade einschränken und zu ungefähr richtigen Lösungen führen (Führen nicht
zwangsläufig zum Ziel)
allgemeine Heuristiken, die inhaltunabhängig den Suchraum einschränken:
Mittel-Ziel-Analyse
- es werden Teilziele bestimmt, die Differenz zwischen. Ausgangspunkt und Ziel
verringern
Schleifenvermeidungsheuristik
- Vermeidung von bereits durchlaufenen Zuständen
Methode der Unterschiedsreduktion (hill climbing)
- die Zustände werden hinsichtlich ihrer Ähnlichkeit zum Zielzustand bewertet
- es wird immer nur in Zustände wechselt, die dem Zielzustand ähnlicher sind als der
vorherige Zustand

Algorithmus: Methoden oder Prozeduren, die auf jeden Fall zu einer Lösung führen (z.B.
schrittweises Ausprobieren)
-> kann aber bei großem Problemraum schnell problematisch werden
Beispiel: Labyrinth mit 10 Kreuzungen, wobei es an jeder Kreuzung 4 mögliche Wege
gibt = 4^10 mögliche Zustände = 1048576

Bewertung der Problemraumtheorie

Vorteile
• gestattet objektive Beschreibung des Problems
• erlaubt, die optimale Lösung zu bestimmen
• optimale Lösung kann mit beobachtbarem Problemlöseverhalten eines menschlichen
Problemlösers verglichen werden -> objektiv bewerten möglich

Probleme
• Unterschiedliche Funktionsweise von Mensch und Computer
• eingeschränkter Geltungsbereich:
-> spezifische Merkmale von Aufgaben und Problemlösern schwer zu integrieren
(nur über prototypische Lösungswege)
-> eigentlich nicht auf komplexe Probleme zu übertragen

Vorgehen beim Problemlösen: Reproduktion, produktives Denken , Einsicht(Insight),


funktionale Fixiertheit

Reproduktion

Problemlösen ist:
- Bekräftigung zielführender Verhaltensweisen nach Versuch und Irrtum
oder
- Reproduktion von vormals in der Problemsituation bekräftigten Reaktionen
--> hedonistisches Prinzip des Erfolges als fundamentales Lernprinzip (z.B. Lerngesetze nach
Thorndike)

Produktives Denken

Problemlösen vollzieht sich nicht allmählich (durch Versuch, Irrtum und Bekräftigung),
sondern durch gedankliche Umstrukturierung der Problemsituation.
- Überführung einer gestörten in eine gute Gestalt
- Umstrukturierung führt zu plötzlicher Einsicht, verbunden mit einem „Aha“-Erleben

Einsicht (Insight)

Phänomenologische Definition:
plötzlich überraschend erscheinende Lösungsidee verbunden mit Aha-Erlebnis.

- oft bei Problemen, die schwer zu lösen sind obwohl nur eine kleine Anzahl von alternativen
Operationen möglich ist

Funktionale Fixiertheit

Der gewohnte Gebrauch von Objekten verhindert ihre Verwendung in einer anderen Funktion
(Duncker {1935}).
Bsp.: Kerzenproblem
- Betonung der Behälterfunktion erschwert erkennen der Plattformfunktion

Schlussfolgern

Deduktives Schließen

- Vom Allgemeinen aufs Konkrete schlussfolgern, von allgemeinen Prinzipien aufs


Vorliegen spezifischer Ereignisse geschlossen
- Aus Prämissen eine Konklusion ziehen
- 2 Prämissen + Konklusion = Syllogismus (entweder valide nicht invalide)
o Valider Syllogismus: Konklusion folgt logisch (nicht inhaltlich) aus den
Prämissen
o Invalider Syllogismus: logisch unzulässige Konklusion aus den Prämissen

- Konditionales Schließen: „Wenn…, dann…“ – Aussagen


o Majorprämisse – Verbindung zweier Aussagen p und q
o Minorprämisse – Aussage zu p oder q
 Modus ponens
 (1) Wenn A, dann B (2) A gilt  B gilt
 Modus tollens
 (1) Wenn A, dann B (2) B ist falsch  A ist falsch
 Bestätigung des Hintergliedes (affirmation of consequence)
 (1) Wenn A, dann B (2) B gilt  A gilt [invalide!]
 Verneinung des Vordergliedes (denial of antecedent)]
 (1) Wenn A, dann B (2) B gilt nicht  A gilt nicht [invalide!]
- Belief bias
o Tendenz einer Person, Schlussfolgerungen zu akzeptieren, wenn sie
glaubwürdig erscheinen und Schlussfolgerungen abzulehnen, wenn sie
unglaubwürdig erscheinen.
- Wason selection task
o Was muss getan werden, um eine vorgegebene Regel zu bestätigen? (Im
Wason selection task mit 4 Karten)
o Mehrzahl der VP dreht falsche Karten um
- Matching Bias
o Tendenz, diejenigen Karten auszuwählen, die in der Aufgabenstellung
genannt werden. Unabhängig davon, ob diese Wahl auch die richtige ist.

- Erhöhte Richtigkeit, wenn task so formuliert ist, dass Falsifikation der Regel an das
Aufdecken von Betrügern gekoppelt ist
- Testleitereffekt

Induktives Schließen

- Vom Konkreten aufs Allgemeine schlussfolgern


- Beispiel: Stichprobenziehung und daraus Schätzung eines Populationsparameters;
emischer Ansatz im Kulturvergleich
- Bestätigungsfehler (confirmation bias)
o Die Tendenz eher nach Beweisen zu suchen, die die eigene Hypothese
bestätigen, als nach Beweisen, die sie widerlegen.

Urteilen und Entscheiden

Definition von Urteilen und Entscheiden


Urteilen ist ein Bewertungsprozess, bei dem Etwas in Bezug auf dessen Richtigkeit
bewertet wird. Dabei werden Informationen über den Bewertungsgegenstand
genutzt, um daraus Schlussfolgerungen zu ziehen.

Entscheiden ist ähnlich dem Problemlösen. Die Lösungen des Problems sind beim
Entscheiden allerdings bekannt bzw. vorgegeben und es muss nur noch zwischen
ihnen ausgewählt werden.

Die Informationen, auf deren Grundlage geurteilt oder entschieden wird, können
auch ungesichert sein.

1. Bayes Theorem erklären (ohne Formel)

um die bedingte Wahrscheinlichkeit abschätzen zu können,

muss die Grundrate (unbedingte Wahrscheinlichkeit) mit beachtet werden.

->die Vernachlässigung der Grundrate ist einer der

häufigsten Fehler beim Umgang mit Wahrscheinlichkeiten

->Zusammenhang zwischen bedingter (z.B.: hochbegabt gegeben Syndrom)und


unbedingter Wahrscheinlichkeit (hochbegabt)
kann durch das Bayes Theorem ausgedrückt werden

1.1. Frage-Tutorium: Überlegen sie sich ein Beispiel, in dem die

Vernachlässigung der Basis-Rate zu

Fehleinschätzungen führt.

->Unsicherheit wird mathematisch durch Wahrscheinlichkeiten

ausgedrückt

->korrekter Umgang mit Wahrscheinlichkeiten nicht

selbstverständlich

Bsp: Eltern beobachten bei ihrem Kind folgendes Syndrom:

überdurchschnittliche geistige Leistungen, Eigensinnigkeit und

Unangepasstheit, motivationale Defizite in der Schule. In einer

Zeitschrift lesen sie, dass 96% aller Eltern von Hochbegabten (H)
bei ihren Kindern dieses Syndrom (S) beobachten.

Mit welcher Wahrscheinlichkeit ist das Kind hochbegabt?

- Die Eltern kenn nur die bedingte Wahrscheinlichkeit, dass das Syndrom auftritt
wenn man hochbegabt ist: p(S|H) = .96%

-gefragt ist aber die bedingte Wahrscheinlichkeit, hochbegabt zu sein

gegeben das Syndrom ist da: p(H|S) = ?

(Studie von Gigerenzer & Hoffrage (1995):

Die Wahrscheinlichkeit von Brustkrebs beträgt für vierzigjährige Frauen,

die sich einer Routineuntersuchung unterziehen, ein Prozent. Wenn eine

Frau an Brustkrebs leidet, wird die Mammographie zu 80 Prozent einen


positiven Befund liefern. Bei einer gesunden Frau beträgt die

Wahrscheinlichkeit 9,6 Prozent, ebenfalls eine positive Diagnose zu

erhalten. Bei der Routineuntersuchung einer Frau dieser Altersgruppe

war das Ergebnis der Mammographie positiv.

Wie hoch ist die Wahrscheinlichkeit, dass sie tatsächlich an

Brustkrebs erkrankt ist? )

Auch das Beispiel zur AIDS-Diagnose (Gigerenzer) aus dem Eid-Buch

2. heuristik and-bias Ansatz von Kahneman und Tversky

Kahneman und Tversky

zeigten, das wir beim Urteilen vielen Heuristiken folgen

(Repräsentativitätsheuristik, Verfügbarkeitsheuristik)

->diese führen zu systematischen Fehlern

K+T konnten zeigen, dass dies auch bei Experten auftreten

kann

• Problem:
der Ansatz beschreibt Verzerrungen, geht aber nicht auf

die Ursachen ein (passieren Fehler, weil nicht genug

Informationen da sind oder weil diese fehlerhaft verarbeitet werden?)

oftmals sind auch die Aufgaben für die Versuchspersonen

nicht eindeutig

->Warum liegen wir oft richtig mit unseren Urteilen?

2.1 Frage-Tutorium: Welches sind nach dem „Heuristic and Bias“

Ansatz von Kahnemann und Tversky mögliche


Faktoren, die Urteile beeinflussen können?

->Repräsentativitätsheuristik: (representativeness heuristic) Ist ein Objekt (Ereignis


etc.) ein besonders repräsentativer Vertreter einer Kategorie, tendieren wir dazu, die
Grundrate, mit der die Kategorie auftritt, zu
vernachlässigen( Grundratenproblem:Vernachlässigung der Basisrate und
Fokussierung auf die relative Wahrscheinlichkeit). Ereignissen, die repräsentativ /
typisch für eine bestimmte Klasse sind, wird eine höhere Wahrscheinlichkeit des
„Zutreffens“ bzw. der Wahrheit zugeschrieben.

Dazu zählt auch der Konjunktionsfehler(„Conjunction Fallacy“ beschreibt die


Annahme, dass das
gemeinsame Auftreten zweier Ereignisse wahrscheinlicher ist, als das einzelne
Auftreten der beiden Ereignisse) ->die Linda-Geschichte

-> Verfügbarkeitsheuristik: (availability heuristic) Die Leichtigkeit, mit der Ereignisse


abrufbar sind,

bestimmen die Wahrscheinlichkeitseinschätzung.

Im Tutorium noch erwähnt aber NICHT auf Fr. Lüdkes Folien:

->Support Theory:

Die geschätzte Wahrscheinlichkeit für das Eintreten eines Ereignis wird dadurch
beeinflusst, wie es beschrieben wird. Es zeigt sich, dass Ereignisse, die expliziter
beschrieben werden (und dadurch eine höhere Salienz aufweisen) auch als
wahrscheinlicher empfunden werden.

3. fast and frugal heuristics von Gigerenzer und Kollegen

Heuristik wird als etwas verstanden, das die mit einer Aufgabe verbundenen
Anstrengung reduzieren soll

->Heuristiken sind oft sehr nützlich

->erlauben oft schnelle Verarbeitung bei hoher Richtigkeit

Gigerenzer und Kollegen beschrieben, wie Heuristiken/

Strategien erfolgreich beim Urteilen eingesetzt werden

->take the best heuristic -recognition heuristic:

„Wenn eines von zwei Objekten beachtet (verarbeitet) wird,

dann kann man daraus schlussfolgern, dass dieses Objekt

in Bezug auf das gegeben Kriterium den höheren Wert hat“

->empirische Evidenzen vor allem, wenn wenig Wissen

und wenig Zeit vorhanden ist

TAKE-THE-BEST HEURISTIC / STRATEGY

„take the best, ignore the rest!“

Beispiel:

Aufgabe: Entscheiden welche Stadt die größere ist:

Köln / Herne

Prozess der Take-The-Best Strategie:

1. Search rule: Mögliche Hinweisreize werden im

Gedächtnis verglichen (Beispiel: Kenne ich den Namen

der Stadt?) und dabei nach ihrer „Validität“ gewichtet


2. Stopping rule: Wenn ein „unterscheidender

Hinweisreiz“ (trifft nur auf eine der Optionen zu) gefunden

wird, wird der Vergleich beendet.

3. Decision rule: Auswahl des Outcome.

Recognition Heuristic:

Mögliche Stopping Rule

„Wird nur eines der Objekte erkannt und die anderen nicht,

dann wird dem bekannten Objekt ein höherer Wert

bezüglich des Kriteriums der Aufgabenstellung

zugewiesen.

Teil der Take-The-Best Strategy

3.1 Frage-Tutorium:UNTERSCHIED:

Heuristics & Biases / Fast & Frugal

HEURISTICS & BIASES

Kritische Betrachtung der menschlichen Heuristik:

•Scheitern / Fehlentscheidungen aufgrund von Heuristiken.

•Betonung der negativen Konsequenzen.

FAST & FRUGAL

Positive Betrachtung der menschlichen Heuristik:

•Welchen Nutzen bringen uns Heuristiken im Alltag?

•Betonung des positiven Nutzens.

Genauere Beschreibung der angewendeten Heuristiken: Einfache Prozess-

Modelle