Beruflich Dokumente
Kultur Dokumente
Inhalte Seiten
Auffrischung Neuroanatomie 3 — 11
Elektrophysiologie 16 — 23
Bildgebung 24 — 42
Läsionsstudien 43 — 47
2
1. Auffrischung Neuroanatomie
Kognitive Neurowissenschaften sind ein Verbindungsglied zwischen der Kognitiven Psychologie und
der Neurowissenschaft, deren Ziel es ist, kognitive Vorgänge nicht nur auf Basis von Verhalten zu un-
tersuchen, sondern die neurowissenschaftlichen Grundlagen (z.B. Hirnaktivität) zu beleuchten. Dafür
ist eine Grundkenntnis der Neuroanatomie erforderlich.
Das kann auf mehreren Ebenen erfolgen, von der Gesamthirnanalyse über neuronale und synaptische
Netzwerke bis hin zu einzelnen Proteinen. Dabei ist der Nutzen breit gefächert: Befunde aus Tierstu-
dien können beispielsweise am Menschen repliziert werden und dann klinisch relevante Erkenntnisse
liefern.
Neurophysiologie
Informationsübetragung am Axon
in der Synapse bzw. dem synaptischen Spalt (Lücke zwischen 2 Neuronen) werden Chemikalien
(Neurotransmitter, oder auch nur elektrische Signale) freigegeben
binden an die Rezeptoren der Dendriten bzw. des Zellkörpers und erzeugen ein synaptisches Potential,
das passiv durch Dendriten und Soma ans nächste Axon übertragen wird
ausreichend starkes Potential löst ein Aktionspotential am Axon aus
3
Das Aktionspotential und die elektrischen Signale
Ein Neuron feuert immer dann (gibt also Informationen weiter), wenn ein ausreichend großes Aktionspotential am
Axonhügel entsteht. Doch wie funktioniert das?
Erreicht ein ausreichend großes Signal die Membran des Axons, öffnen sich Natrium-Kanäle
Depolarisation (da Natrium positiv geladen ist, erhöht sich die Spannung)
Nach einem kurzen Zeitraum schließen sich die Natrium-Kanäle wieder, und zusätzliche Kalium-
Kanäle (manche sind dauerhaft offen) öffnen sich, um Kalium aus der Zelle zu pumpen (negative Ausgangsspannung wird wie-
derhergestellt)
Hyperpolarisation: Es wird ein wenig zu viel Kalium aus der Zelle gepumpt (negativere Spannung als vor dem
Aktionspotential), mit dem Ziel, dass nicht sofort ein neues Aktionspotential ausgelöst werden kann
In Folge läuft das Potential entlang dem Axon (oder springt entlang des Axons, wenn es Myellinsche
Schnürringe gibt) und löst dann wieder eine chemische oder elektrische Reaktion im synaptischen
Spalt aus, der die Dendriten der nächsten Zelle erreichen kann.
Frequenzkodierung
jedes Aktionspotential hat die gleiche Amplitude Reizintensität wird nicht über „Signalstärke“
kodiert
starke Signale können während relativer Refraktärzeit wieder ein Potential auslösen stärkere
(überschwellige) Reize führen zu einer höheren Aktionspotentialfrequenz
Anstieg des Aktionspotentials bei stärkeren Reizen schneller da sich mehr Natrium-Kanäle schnel-
ler öffnen
Feuerrate (als Maßzahl): Anzahl der Aktionspotentiale pro Zeiteinheit
Neurone haben verschiedene Antworteigenschaften (z.B. auf welche Art Reiz sie am ehesten rea-
gieren oft räumliche Nähe im Hirnareal zwischen Neuronen mit Ähnlichen Antwortmustern
4
Informationsweitergabe bei der Synapse
Für das Verständnis sind einige grundlegende Begriffe nötig. Dazu gehören, am Beispiel Dopamin:
5
Die Substanzklasse der Katecholamine
Vorläufer: Tyrosin => Baustein für verschiedene Neurotransmitter aus der Substanzgruppe
Tyrosin/Phenylalanin-Depletion
Methode zur Reduzierung der Katecholaminproduktion
z.B. durch tyrosinarme Ernährung (Teilnehmende erhalten in der Zeit nur einen bestimmten Drink, von dem sie sich ernähren)
McTavish et al. (1999) zeigen, dass Dopaminproduktion davon wesentlich stärker betroffen ist
Methode erlaubt, Einfluss von Dopamin auf das Gehirn und Verhalten zu bestimmen
Tryptophan-Depletion
Methode zur Reduzierung der Serotonin-Produktion (Tryptophan als Aminosäure für die Serotoninsynthese notwendig)
tryptophanarme Ernährung reduziert die Synthese von Serotonin
Einfluss von Serotonin auf Gehirn und Verhalten kann gemessen werden
6
Das noradrenerge System
Quelle: Locus Coerulus im Hirnstamm
Neuronen projezieren verzweigt in fast alle Bereiche des Neokor-
tex
Noradrenalin arbeitet als Neuromodulator: reguliert die Erregbar-
keit kortikaler Regionen
assoziert mit Depressionen und Manie
Neuroanatomie
Zerebrospinalflüssigkeit
auch Liquor genannt
befindet sich in den Ventrikeln und umschließt das Gehirn (Schutzfunktion)
enthält zudem Abbauprodukte, Hormone, usw.
7
Ventrikelsystem aus insgesamt 4
Ventrikeln
eines im Hirnstamm
eines je Hemisphäre
eines, dass die subkortikalen
Regionen umschließt
Lagebezeichnungen
Zum Verständnis von Studien und Studienbefunden ist es unabdinglich, einen Überblick über die ver-
schiedenen Lagen/Schnittrichtungen des Gehirns zu haben, aus denen z.B. funktionelle Bilder entstehen.
8
Im Saggitalschnitt kann man die einzelnen Abschnitte hier auch nochmal direkt an der Anatomie abtragen.
Im Deutschen hat sich zusätzlich noch der Begriff Hirnstamm geprägt, der das Mittelhirn, die Brücke, die
Medulla Oblongata (und je nach Autor noch das Cerebellum) umfasst
Endhirnkerne entsprechen den Basalganglien.
A.d.A: Aus Gründen der Einfachheit werden in Folge nur noch teilweise Bilder mit beigefügt. Hirnareale können sich genauer durch diverse Bildquellen im Netz angesehen werden.
Subkortikale Areale
Der Begriff der subkortikalen Areale umfasst eine breite Reihe von Hirnstrukturen, z.B. die Basalganglien.
Basalganglien
umfasst Putamen, Nucleus Caudatus, Nucleus Accumbens, Globus Pallidus und die interne Kapsel
wichtig für Handlungssteuerung und Kognition
Interaktion mit Frontallappen über fronto-striatale Streifen
bei Chorea-Huntington (im Bezug auf Hyperkinesie, also stärkere Bewegung) und Parkinson (Hypokinesie, also schwächere Bewegungen) geschädigt
Das Zwischenhirn
der Thalamus fungiert als Schnittstelle zwischen den sensorischen Organen (außer Geruch) und dem
Kortex
der Hypothalamus reguliert basale Funktionen wie Hunger, Durst, Temperatur, sexuelle Aktivität, endo-
krine Funktionen, ...
9
Mittelhirn
Das Mittelhirn umfasst zwei große Bereiche
Tegtum, bestehend aus:
Colliculi superior: subkortikale visuelle Kerne (hier
existiert auch eine „Karte der Umgebung“)
Colliculi inferior: subkortikale auditorische Kerne
Tegmentum, bestehend aus:
Substantia Nigra (auch ventrales Tegmentum
genannt): dopaminerge Kerne
Nucleus Ruber als Teil des motorischen Systems
5. Das Nervensystem arbeitet über die Koexistenz von Hemmung und Erregung
Verhalten erfordert Aktivierung bestimmter Handlungen (Erregung / Exzitation) und Hemmung
(Inhibition) anderer Handlungen
Balance wichtig auf verschiedenen Ebenen:
Regulation von Parasympathikus und Sympathikus
Aktionspotential (bei einzelnen Neuronen)
10
Verbindungen zwischen verschiedenen Hirnarealen
11
2. Einführung in die Neurowissenschaft
Kognitive Neurowissenschaften sind ein Unterbereich der biologischen Psychologie. Biopsychologie um-
fasst dabei jedoch noch Bereiche wie Psychophysik oder Genetik — sie haben jedoch auch schon kogniti-
ve Neurowissenschaft betrieben, als der Begriff noch gar nicht etabliert war.
Die kognitive Neurowissenschaft baut auf der kognitiven Psychologie auf und untersucht die biologischen
Grundlagen höherer kognitiver Funktionen (z.B. Lernen, Gedächtnis, Aufmerksamkeit). Dabei werden un-
ter anderem funktionelle Bildgebung, Neuropsychologie und EEG und TMS verwendet.
Historische Meilensteine
Phrenologie
geprägt von Gall & Spurzheim
Annahme, dass Hirnareale unterschiedliche Funktionen ausüben
je größer das Areal, desto stärker ist die Funktion/Persönlichkeitseigenschaft ausgeprägt
Größenunterschiede sollen sich in der Wölbung der Schädeldecke widerspiegeln (Persönlichkeit kann
so „gemessen“ werden)
Probleme:
Annahmen sind nicht theoriebasiert und teilweise sehr willkürlich (Hirnareale z.B. für „Freundschaft“,
„Zerstörung“, „Spiritualität)
falsche Grundannahme: es gibt keinen Zusammenhang zwischen Neuroanatomie und der Wölbung der
Schädeldecke
Idee der funktionellen Spezialisierung konnte sich jedoch halten (allerdings auf anderen, gröberen Dimensionen)
12
Wernickes (1848 — 1905) Beobachtungen
Wernicke als deutscher Arzt & Anatom untersuchte Patienten mit intakter Sprachproduktion, aber ein-
geschränktem Sprachverständnis Schädigung als Wernicke-Aphasie bezeichnet (Patienten neigen zu Verbal-
diarrhöe: sie können fließend sprechen, sprechen aber nur “Kauderwelsch”)
Sprachproduktion und Verständnis können als zwei getrennte Prozesse betrachtet werden (das war vorher eher
nicht so, Phrenologie hätte Sprache als ein Konstrukt betrachtet)
Lokalisation ist für diese allgemeine Schlussfolgerung noch nicht relevant prägt die Bedeutung von
Fallbeispielen für den Fortschritt in der Neurowissenschaft, obwohl das Gehirn nicht direkt untersucht
Kognitive Neurowissenschaften
13
Methoden der kognitiven Neurowissenschaften
Methode Typ Invasiv? Verwendete Eigenschaft
2. Funktionelle Bildgebung (oder Läsionsstudien) sagen uns, wo Prozesse stattfinden, aber nicht
wie.
Kritik auch übertragbar auf andere Formen von Studien, z.B. Reaktionszeitexperimente liefern
ein Wann, kein Wie
Befunde sind immer Daten, die durch eine Theorie erst ein Verständnis ermöglichen (Daten haben
sowieso nie Aussagekraft, weil man sie „so oder so“ interpretieren kann)
Alle Daten können Theorien informieren / einen Forschungsgegenstand aus verschiedenen
Facetten beleuchten
14
3. Die kognitiven Neurowissenschaften sind nichts als eine neue Form der Phrenologie.
sehr vereinfacht, Eindruck oft durch die Medien noch verstärkt
eigentliches Ziel: keine spezifischen „Hirnareale“ finden, sondern präzise Annahme über Inter-
aktionen auf mehren Ebenen machen (Genexpression über Neurone hin zum Gehirn)
z.B. Fortschritte in klinischer Relevanz, die erst durch Tierstudien ermöglicht wurden, wie bei
der Entdeckung der Rasterzellen, deren Nachweis zunächst an Tieren gelang und bei denen
ein schwächeres Signal mit genetischem Risiko für die Alzheimer-Erkrankung verbunden ist
15
3. Elektrophysiologie
Der folgende Themenblock umfasst die Bereiche EEG und MEG. Er setzt jedoch ein grundlegendes Ver-
ständnis über sogenannte „Repräsentationen“ voraus.
Mentale Repräsentation: Art, in der Eigenschaften der Umwelt (z.B. Form, Farbe, Bewegung) durch
ein kognitives System kopiert / simuliert werden (Ich höre z.B. eine Beschreibung einer Person & erkenne eine enge Freundin wieder)
Neuronale Repräsentation: Art, in der sich Eigenschaften der Umwelt in neuronalen Signalen (z.B. un-
terschiedlichen Feuerraten) manifestieren (z.B. das beim Hören eine bestimmte Art Signal über eine spezielle Art Neuron weitergeleitet wird)
zwischen beiden besteht oft kein 1:1 Zusammenhang, aber zumindest eine Korrelation
Einzelzellableitungen
16
Neuronales Coding und die Frage nach den Grandmother-Cells
Das Konzept der „Grandmother Cells“ stammt ursprünglich aus den Erkenntnissen in der Erforschung
des visuellen Systems, in der eine Verarbeitungshierarchie besteht.
Welche Zellen stellen die oberste Hierarchieebene dar? Was kodieren sie?
Gibt es Zellen, die nur das Aussehen meiner Großmutter codieren? (also nur feuern, wenn ich meine Großmutter sehe / an sie
denke?)
Großmutterzelle als hypothetisches Konstrukt
Lokale Informationen:
alle Informationen über einen Reiz befinden sich in einem Neuron Konzept der
Grandmother Cells
Quiroga et al. (2005) zeigen mithilfe von Tiefenelektroden am Menschen mit Epilepsie sehr selektive
Muster der Feuerraten für Zellen im Hippocampus, z.B. reagierte ein Neuron sehr spezifisch auf diverse
Bilder von Jennifer Anniston
Interessanter Befund, der aber mit Vorsicht betrachtet werden muss, da die Stimulusreize in solchen
Experimenten oft eingeschränkt sind
17
Raster-Plot: Zeilen entsprechen den Trials. Striche entsprechen Spikes (dem Aktionspotenti-
al)
Histogramm: Spike-Rate über die Zeit, der Stimulusbereich wird klar abgegrenzt (hier
durch eine gestrichelte Linie)
basiert auf Rate-Coding: Feuerrate des Neurons kodiert Information (siehe S. 4)
aber auch Temporal-Coding: Die Synchronizität mehrerer Neuronen / Neuronenver-
bände kodiert Information
Befunde aus Einzelzellableitungen sprechen generell eher für „sparse distributed
coding)
EEG — Elektroenzephalogramm
Man sieht hier auch recht gut, das diese Blinks die normale Alpha-Aktivität unterbrechen, und dass nicht nur an den Elektroden, die sehr sehr nah zum Gesicht sind, sondern auch an Elektroden,
die sich etwas weiter hinten befinden
18
Das 10-20-System nach Jasper (1958)
Das EEG-Signal
es werden keine Aktionspotentiale gemessen (auch wenn es im ersten Moment so ähnlich aussieht, wie die Messung einer Einzelzellableitung)
inhibitorische und exzitatorische postsynaptische Signale führen zu Ladungsverschiebungen (Bilden al-
so Dipole) Ladungsverschiebungen können an der Kopfoberfläche gemessen werden
EEG-Rhythmen spiegeln synchrone Aktivität großer Neuronenverbände wieder
Die Polarität des an der Schädeloberfläche gemessenen elektrischen Potentials hängt davon ab, ob:
IPSPs oder EPSPs ausgelöst worden
ob der synaptische Kontakt in höheren oder tieferen Schichten des Kortex liegt
von der Polarität des gemessenen Signals kann also nicht abgeleitet werden, welche Prozesse ablaufen
(um das zu Wissen, müsste ich wissen, welche Neuronenpopulation dort aktiv ist, und wo deren Synapse liegt—wenn ich eins davon wüsste, könnte ich das andere erschließen, so jedoch
nicht)
19
Dipole können nur gemessen werden, viele parallel zur Elektrode angeordnete Zellen synchron aktiv
sind
Schwierigkeit: entgegengesetzte Effekte im gleichen Kortexbereich, da sie sich beim Summenpotential
„gegeneinander“ aufrechnen
tieferliegende Hirnstrukturen sind nur schlecht messbar, da die Stärke eines Dipols mit dem Quadrat
der Entfernung abnimmt (außerdem gibt es bei Furchen bspw. generell das Problem, dass diese dann nicht mehr gut senkrecht zur Elektrode stehen)
je geringer die Fläche, auf der die aktiven Dipole liegen, desto mehr Signal geht verloren (desto
mehr Kortexaktivität habe ich im Vergleich zur Scalpaktivität)
bei sehr großer synchroner Aktivität können dann aber auch tieferliegende Potentiale gemessen
werden
20
Komponenten entsprechen eventuell verschiedenen (kognitiven) Verarbeitungs-
stufen
Problem: 1:1 Zuordnung nicht möglich, da es sich um ein Summenpotential
handelt (Korrelate der Prozesse überlagern sich, d.h. ich kann zwar beispielsweise 3 Prozesse beschreiben (hier C1— C3) aber deren Dauer
und Amplitude ist unbekannt, da bei zeitgleich ablaufenden Prozessen diese sich gegeneinander aufrechnen würden)
manchmal zusätzlich Unterscheidung von exogenen vs. endogenen Komponen-
ten
exogen: durch externen Stimulus ausgelöste Komponente
endogen: durch die Aufgabe ausgelöste Komponente
Unterscheidung aber nicht immer eindeutig, besonders bei kontextabhän-
giger Reizverarbeitung
Veränderungen in den Dipolen spiegeln direkt neuronale Aktivität wieder (keine Vorannahmen nötig)
Änderungen in den Dipolen sofort an Schädeloberfläche messbar gute zeitliche Auflösung
räumliche Quelle des gemessenen Signals kann nicht gut bestimmt werden schlechte räumliche Auf-
lösung
weniger sensitiv für tiefere / subkortikale Regionen
„Forward-Problem“: Rückschluss von Dipol-Verteilung auf Potentialveränderungen an der Schädelober-
fläche kein Problem (wenn wir wissen, wie die Dipole liegen, können wir das Potential einfach bestimmen)
„Inverse-Problem“: Rückschluss von Potentialveränderungen auf Dipol-Verteilung problematisch (das ist
ja das, was beim EKP vorliegt, ich will ja letztlich rausfinden, wo sich die Dipole befinden, kann das aber nicht genau festlegen)
Beispiel: Gesichtserkennung
theoretische Annahme: Prozess des Wiederkennens schlüsselt
sich in 3 Teilbereiche: Wahrnehmung, Gesichtserkennung, Perso-
nenerkennung
diese finden sich auch in entsprechenden EKP-Komponenten
P1 schlägt bei allen Stimuli hoch aus => Hinweis auf ein Wahrnehmungsphänomen,
21
N400 — entsteht bei semantisch abweichenden Reizen, besonders an zentralen Elektroden (z.B. wenn mein Satz
„Ich schmiere mein Brot mit Socken“ lautet, das ist unerwartet und löst diesen Peak aus) entdeckt von Kutas & Hillyard (1980)
ERN (error related negativity) — response-locked Komponente (kurze Zeit nach Antwort der Teilneh-
menden im Vergleich leichte Negativierung, wenn sich die Antwort als falsch herausstellt)
Nutzung der Fourier-Transformation, die das EEG-Signal in eine Summe von Sinus– und Cosinus-
schwingungen zerlegt
damit kann man sich Power / Häufigkeit der jeweiligen Frequenzen genauer ansehen
kann sowohl beim EEG als auch beim MEG über farbige Karten dargstellt werden (Blautöne = Unterdrü-
ckung des Frequenzeinflusses im Signal, Rottöne = Verstärkter Einfluss)
kann auf zeitlicher oder räumlicher Ebene dargestellt werden (Stimulus-Onset vs. Brain-Map)
MEG — Magnetencephalographie
deutlich weniger verzerrt / abgeschirmt durch verschiedene Gewebeschichten zwischen Generator und
Sensorenposition
erfasst werden magnetische Signale, die durch die elektrische Aktivität des Gehirns hervorgerufen wer-
den
Grundlage gleicht der beim EEG: Neuronen werden durch EPSP oder IPSP zu Dipolen
Unterschied: beim MEG sind eher die intrazellulären Prozesse entscheidend
basiert auf der Entdeckung des Elektromagnetismus: ein magnetisches Feld umgibt jeden stromdurch-
fließenden Leiter, wobei die Feldlinien senkrecht zur Stromrichtung liegen
MEG basiert eher auf signalen von tangential zur Schädeloberfläche liegenden, synchron aktiven Pyra-
midenzellen (da das Magnetfeld dann senkrecht steht)
„Magnetometer“ messen die Magnetfelder, die durch Neuronen erzeugt werden, es sind Spulen, in de-
nen durch die Magnetfelder Ströme induziert werden
Ströme sind sehr gering Spulen dürfen nur wenig Widerstand aufweisen müssen durch Supra-
Leitung und Helium Kühlung auf ca. -269 gekühlt werden
> 300 Sensoren in den modernen Geräten
Signalstärke abhängig von
Distanz zur Quelle (größer bei näheren Quellen)
Orientierung des Magnetfelds (größer bei senkrechten Magnetfeldern)
Abschirmmaßnahmen gegen externe Störungsquellen nötig
22
Analyse von MEG-Daten
Ausbreitung des EEG-Signals hängt von elektrischen Eigenschaften des Gewebes ab (graue Substanz,
weiße Substanz & CSF haben unterschiedlich gute Leitungseigenschaften)
MEG Signal ist von diesen Störfaktoren unabhängig
Räumliche Auflösung: MEG > EEG
23
4. Bildgebung
Strukturelle Bildgebung Funktionelle Bildgebung
statisches Bild, Messen von Aspekten der Anatomie „dynamische“ Zeitreihe von Bildern, Messung be-
stimmter Aspekte der Gehirnfunktion
Computertomografie
Magnetresonanztomografie
ein Proton rotiert wie ein Kreisel um die eigene Achse (Spin)
rotierende Maße: Drehimpuls (es entsteht eine Spinachse senkrecht zum Impuls)
rotierende elektrische Ladung (hier positiv): magnetisches Moment
Vorstellung: das Proton mit Spin fungiert wie ein rotierender Stabmagnet
wenn sich der Magnet bewegt, wird in der Empfangsspule eine Spannung induziert
24
(links: zufällige Ausrichtung, rechts: Ausrichtungen, wenn ein Magnetfeld angelegt wird)
diese Ausrichtung ist Grundlage für alle späteren Schritte,
und wird deshalb dauerhaft benötigt statisches Magnet-
feld (in der unteren Abbildung im lilanen Bereich)
als b0 - Magnetfeld bezeichnet
entsteht durch eine supraleitende Spule, die
Heliumgekühlt ist
ist der Grund dafür, warum auch beim nicht
benutzten MRT Gerät keine magnetischen
Gegenstände in die Nähe des Scanners ge-
bracht werden dürfen (dieses Feld ist IMMER aktiv)
Feldstärke von ca. 1.5 - 7 Tesla (typischerweise 3 /
3.5) stärker als das Erdmagnetfeld (25-65
μT)
Präzessionsbewegung
wirkt auf eine rotierende Masse (z.B. einen Kreisel) eine äußere Kraft (z.B. Gravitation), macht die Dreh-
achse eine rotierende Ausgleichsbewegung, die stärker wird, je langsamer sich die rotierende Maße
dreht (sonst würde der Kreisel einfach sofort umkippen, wenn man ihn loslässt. Man kann es hier: https://www.youtube.com/watch?v=VYgMZ6ftlOI in den ersten paar Sekunden gut
sehen: je langsamer das Ei wird, desto drastischer sind diese zuckende Bewegung, die es macht)
das ist die Präzessionsbewegung
das gleiche gilt für ein Proton mit Spin in einem Magnetfeld
Präzession: im Magnetfeld rotiert die Spinachse relativ zur Ausrichtung des Magnetfelds b0
Die Lamorfrequenz ω0
≜ Präzessionsfrequenz
in Mhz / Tesla angegeben (Mikrohertz pro Tesla)
ω 0 = γ x b0
γ = gyromagnetische Konstante (unterscheidet sich für jedes Element)
b0 = Stärke des äußeren Magnetfelds
Erinnert man sich also zurück an die Idee, das sich entweder parallel oder antiparallel zum Magnetfeld ausgerichtet wird bedeutet das nicht, dass
unsere Spinachse da jetzt plötzlich „perfekt“ gerade nach oben zeigt, sondern sie dreht sich praktisch in einer kreisförmigen Bewegung um diese
Ausrichtung drumherum.
25
perfekt in der Mitte stehen und zeigt nach oben, balanciert sich also aus. Dieser Zustand ist aber sehr
schwierig aufrecht zu erhalten und verbraucht viel Energie — er kann durch viele Kleinigkeiten ins Stau-
cheln gebracht werden. Es ist also einfacher, wenn das Holzstück einfach nach unten hängt, das entspricht
einem stabilem Zustand. Füge ich dem Prozess jetzt Energie hinzu (z.B., in dem ich das Holzstück festhal-
te) kann ich es allerdings auch entgegen der Gravitationskraft ausrichten lassen.
2. Wenn ich mich zum Gehen entscheide, habe ich theoretisch 2 Möglichkeiten. Ich kann es auf Händen,
oder auf Füßen tun. Dabei bin ich das gehen auf den Füßen am meisten gewöhnt, mein Körperschwer-
punkt ist darauf angepasst. Auf den Füßen gehen ist also ein stabiler Zustand. Fügt man beispielsweise
aber Energie zu (z.B. in Form einer Herausforderung), kann ich mich für kurze Zeit auch dazu durchringen,
auf meinen Händen zu gehen. Da mir das aber tendenziell schwerer fällt, ist es ein eher instabiler Zustand.
für Protonen gilt: der stabile Zustand ist die Ausrichtung parallel zum Magnetfeld. Führt man jedoch
Energie zu, können diese Protonen auch in den instabilen Zustand (antiparallel) wechseln
wechseln Protonen vom antiparallelen Zustand zurück in den stabileren Zustand, wird Energie freige-
setzt (nämlich genau die, die ich sonst gebraucht hätte, um den Prozess aufrecht zu erhalten)
Nettomagnetisierung
≜ der Differenz zwischen parallel und antiparallel ausgerichteten Spins (parallel - antiparallel) 0, wenn
gleich viele Spins parallel wie antiparallel ausgerichtet sind, umso größer, je mehr parallel ausgerichtete
Spins es gibt
je stärker das Magnetfeld, desto höher die Nettomagnetisierung Zeeman-Effekt
Zurück auf S. 25 sieht man im blauen Bereich die Radiofrequenz-Systeme, und im lilanen Bereich sind sie als Rf-Head coils eingetragen. Es handelt sich dabei also um die kleine Kopfspule, die
noch aufgesetzt wird.
T1-Relaxation (Teil des Relexationsprozesses)
26
(Zum Verstehen bietet es sich an, zuerst das rechte Bild zu betrachten): Der rote Pfeil verdeutlicht unsere Nettomagnetisierung. Diese
zeigt parallel zum b0 Magnetfeld (also in Richtung der z– Achse — der Proband wird ja mit dem Kopf nach oben in die Röhre geschoben, die Öffnung ist
also auf Ebene der z-Achse des Kopfes (oben vs. unten)). Erzeugt wird die Nettomagnetisierung durch die verschieden ausge-
richteten Spins in ihrer Präzessionsbewegung.
Zum Bild ganz links: Wird der 90° RF-Puls eingestrahlt, ist dies so lang, bis die Longitudinalmagnetisierung
(Netto-Magnetisierung entlang des Magnetfeldes) 0 ist gleichviele Spins sind jetzt parallel und anti-
parallel
Nach dem Puls „klappen“ die Spins wieder zurück (da der parallele Zustand ein stabilerer Zustand ist, siehe S. 26) (auch als Longin-
tudinale Relaxation bezeichnet) Longitudinalmagnetisierung von vorher wird wieder hergestellt
eingestrahlte Energie wird wieder freigegeben induziert Spannung in der Messspule
T1-Relaxationszeits-Aufzeichnung
Prozess, der direkt nach dem Einstrahlen des RF-Pulses stattfindet (praktisch also sogar noch vor dem T1-Prozess)
rechts: Ausgangssituation von der T1-Relaxation: ab dann findet die Herstellung der Longitudinalmagne-
tisierung wieder statt
links: direkt nach dem Puls ist die Nettomagnetisierung der Probe in der Ebene (die Spins wurden um-
geklappt, Magnetiserung in z-Richtung ist 0. Durch diese Einschränkung synchronisieren sich aber alle
Präzessionsbewegungen der Spins Phasenkohärenz
Phasenkohärenz nimmt mit der Zeit ab, die rotierende Nettomagnetisierung der Ebene wird etwas klei-
ner (da die Spins nicht mehr synchron sind)
am Ende sind die Präzessionsbewegungen der Spins vollständig dephasiert transversale Relaxation
Ursache: Spin-Spin-Interaktionen
27
T2-Relaxationszeits-Aufzeichnung (T2-Decay):
Zwischenfazit
in der Messspule wird durch die Relaxation eine Spannung induziert gemessenes MR-Signal
Relaxationszeiten sind unterschiedlich für verschiedene Gewebetypen Identifikation verschiedener
Gewebetypen (graue Substanz, weiße Substanz, CSF, Knochen)
ggf. werden unterschiedliche Messtechniken (MR-Sequenzen) für die Messung verschiedener Aspekte
der Gehirnstruktur verwendet (T1, T2, T2*)
Bisher: Signal an einer Position — wie wird das Signal lokalisiert?
MRT-Puls-Sequenzen
durch Veränderungen in den RF-Pulsen (zur Anregung der Spins) und dem Zeitpunkt der Messung kön-
nen verschiedene Puls-Sequenzen erstellt werden, die für die verschiedenen Kontraste empfindlich sind
TR (repetition time): das Zeitintervall zwischen aufeinanderfolgenden RF-Pulsen (typischerweise in Se-
kunden)
TE (echo time): das Zeitintervall zwischen dem RF-Puls und dem Auslesen der Daten (typischerweise in
ms)
T1 — Kontrast
T1-Kontrast wird maximiert bei relativ kurzer TR
T2-Kontrast wird minimiert bei relativ kurzer TE
28
Auch hier an der Abbildung nochmal gut erkennbar (blau und rot sind
verschiedene Gewebetypen). Auf Basis des T1-Scans (links) kann ich maxi-
mal gut zwischen beiden differenzieren, wenn die TR etwas bei 0.4 Sekun-
den liegt.
Dahingegen wird der T2-Kontrast (rechts) mit zunehmender Zeit immer
größer. Um ihn zu minimieren, sollte die ET also relativ niedrig sein
T2 — Kontrast
T2-Kontrast wird maximiert bei rela-
tiv langer TE
T1-Kontrast wird minimiert bei rela-
tiv langer TR
Auch wieder gut ersichtlich an der Abbildung. Die Differenz aus den
jeweiligen Kurven für T1 (links) ist am kleinsten, je mehr Zeit vergeht.
Ebenso ist der Kontrast bei T2 (rechts) etwa bei 20ms am größten (die
Differenz zwischen blau und rot lässt sich immer an der grünen Linie
ablesen
Sicherheit im MRT
das statische Magnetfeld ist immer eingeschaltet
Vorsicht mit (ferro)magnetischen Gegenständen im Scannerraum
Kontraindikationen: Metall im Körper, Herzschrittmacher, Klaustrophobie, ...
Läsionslokation
durch visuelle Inspektion aus Vergleichen von T1– und T2-Bildern im Vergleich zum (erwarteten) Hirn-
gewebe
üblich in der klinischen Praxis und bei Einzelfällen
29
Der anatomische Standardraum
Für den anatomischen Standardraum gab es verschiedene Ansätze. Dazu gehören:
Ablauf:
für jedes Voxel bilden einer neuen Patientengruppe (Gruppe, die in dem Voxel auch eine Schädigung hat, vs gesunde Gruppe, die im Voxel keine
Schädigung hat)
Untersuchung des Zusammenhangs mit dem interessierenden Verhaltensmaß und dem jeweiligen Voxel
(Vergleich geschädigt vs. gesund) mithilfe parametrischer Verfahren oder t-Tests
Korrektur für multiple Vergleiche (evtl. sehr rechenintensiv) Es gibt immens viele Voxel. Unser Alphafehler würde zulassen, das 5 von 100
Voxel ein falsches Ergebnis produzieren. Bei mehreren Tausend Voxeln würde ohne Korrektur eine massive Ansammlung an Fehlbefunden entstehen
30
Kortikale Dicke
Funktionelle Bildgebung
schon frühe Ansätze in den 1880er Jahren, z.B. Angelo Mosso: Human-Circulation-Balance (Waage mit
der Idee, das kognitive Anforderungen zu Akkumulation von Blut im Gehirn resultiert, die ich messen
kann)
Problem: durch kognitive Anforderung müsste das Gesamtblutvolumen steigen (ist nicht der Fall, primär
ändert sich der Sauerstoffgehalt)
PET— Scans
Nuklearmedizinische Methode: Injektion radioaktiver Tracer
Akkumulation der Tracer in bestimmten Hirnregionen wird gemessen
dadurch Messung von z.B. Glukoseverbrauch
ca. 30 Sekunden, bis Akkumulation den Peak erreicht
Ablauf:
1. Isotop mit kurzer Halbwertszeit (Radionuklid) wird als Tracer an ein Molekül gehängt (z.B. Glucose,
kann aber auch ein Ligand für einen bestimmten Rezeptor sein
2. Tracer wird injeziert
3. Radionuklid gibt konstant Positronen ab
4. Positronen kollideren spätestens nach 2-3mm mit einem Elektron
31
5. Gammastrahlen werden im Winkel von
180° freigesetzt
6. Strahlung kann gemessen werden ma-
thematischer Rückschluss auf die Vertei-
lung des Tracers
wo der Tracer sich anreichert, ist ein ver-
stärkter radioaktiver Zerfall messbar
Verschiedene Tracer:
18F-Flourdesoxyglucose (FDG-PET): Glukosemetabolismus
15O-Wasser: Perfusion (Blutfluss), regional cerebral blood flow (rCBF)
11C-Racloprid: Dopamin-D2-Rezeptor-Verfügbarkeit
18F-DOPA: präsynaptische Dopamin-Verfügbarkeit (aus L-DOPA wird Dopamin synthetisiert)
Moderne Anwendung:
in der psychologischen Forschung weitesgehend durch fMRT ersetzt (da es eine invasive Methode ist,
die nur einmal im Jahr je Proband*in durchgeführt werden kann)
Hauptnutzung heutzutage nicht mehr kognitive „Aktivierung“ sondern Messung bestimmter Transmitter
& Rezeptoren
Tracer binden z.B. an bestimmte Rezeptoren Messung der Rezeptorverfügbarkeit (z.B. Bindung an
Dopaminrezeptoren Konkurrenz zu endogenem Dopamin Gruppenunterschiede in der Akkumula-
tion des Tracers erlauben Rückschlüsse auf Anzahl der Rezeptoren oder Dopaminkonzentration
32
Funktionelle Magnetresonanztomografie (fMRT)
Paulig und Coryell (1936) zeigen, dass Oxyhämoglobin (Blutkörperchen, das Sauerstoff transportiert) und Desoxyhämoglobin
(Blutkörperchen, dass seinen Sauerstoff bereits abgegeben hat) unterschiedliche magnetische Eigenschaften haben
Sauerstoffsättigung im Blut kann als „körpereigenes Kontrastmittel“ verwendet werden
Ogawa et al. (1990) stellen den BOLD (Blood-Oxygenation-Level-Dependent-)Effekt vor—gemessenes
fMRT Signal ist abhängig von der Verfügbarkeit von Hämoglobin
neuronale Aktivität steigt an Sauerstoffverbrauch steigt (Sauerstoff des Oxyhämoglobins im Blut wird
abgegeben)
(zunächst) Anstieg Desoxyhämoglobin (Signalintensität sinkt)
mehr Sauerstoffreiches Blut fließt in das Hirnareal Überkompensation des Bedarfs
Abbildung rechts: oben bekommt die Ratte puren Sauerstoff (Oxyhämoglobin dominiert) unten atmen die Ratten „normale“ Luft, es
gibt besonders starke Signaleinbrüche bei den Blutgefäßen
Neurovaskuläre Kopplung
≜ Kopplung neuronaler Aktivität an die Blutgefäße
funktioniert, weil die Astrozyten sich direkt an Prä– und Postsynapsen anschmiegen (dreiteilige Synap-
se) metabotrope & AMPA-Glutamatrezeptoren
33
Blutversorgung des Gehirns
3 Hauptarterien (anteriore zerebrale Arterie, mittlere zerebrale Arterie, posteriore zerebrale Arterie)
immer feiner-werdende Verästelungen feiner als die Gefäße ausgedröselt sind, kein fMRT Signal
Wege: Herz Arterie Gehirn (sauerstoffreiches Blut)
Gehirn Venen Herz (sauerstoffarmes Blut) Deswegen gibt’s oft fMRT Signalverzerrungen hin zu den Venen, da die ja potentiell
mehr Desoxyhämoglobin beinhalten
über die Form der generellen HRF können Erwartungen über das gemessene Bold-Signal in Abhäng-
igkeit des experimentellen Designs formuliert werden
alte HRF ist noch nicht vollständig abgeklungen, wenn der nächste Reiz präsentiert wird
Kurvenverlauf abhängig vom inter-stimulus-intervall
34
Dekorrelation verschiedener Bedingungen von größter Wichtigkeit (ich muss meine Stimuli also so randomisieren, dass ich
trotzdem gut maximal zwischen den Stimuli in der Antwortfunktion differenzieren kann. Generell muss man aber bedenken, dass man nicht nach jedem Stimuli bis zum Abklingen
der HRF Pause machen kann, da man sonst nur wenige Stimuli nutzen kann (oder aber der/die Teilnehmende viel zu lange im Scanner liegen muss Konfundierung mit poten-
tiellen Fatigue-Effekten)
Block-Design:
Stimuli aus einer Kategorie werden in kurzem Ab-
stand hintereinander präsentiert
Vorteil: oft stärkere Effekte
Nachteile: Gruppierung muss vorab festlegen, kei-
ne verhaltenabhängigen Untersuchungen möglich
Event-Related-Design:
Reihenfolge (und oft inter-stimulus-Intervalle) wer-
den randomisiert
Vorteil: ich kann nachträglich gruppieren (z.B. vom
Probanden negativ bewertete / wiedererkannte
Stimuli) und diese Aktivität entsprechend gezielt
untersuchen
Insgesamt ist fMRT geläufiger, da es starke Vorteile gegenüber dem PET-Scans hat und diese weitestgehend ablöst. Allerdings sind aufgrund der Lautstärke und den Bewegungsverzerrungseffek-
ten, z.B. durch Sprechen, Studien zu auditorischer Wahrnehmung oder zur Sprachproduktion nur schlecht via fMRT möglich. Hier eignet sich daher wiederum der PET-Scan.
35
Auswertung und Nutzung funktioneller Bildgebungsdaten
Problem bei der statistischen Auswertung von fMRT-Daten: Was genau ist Aktivierung? Ab wann ist eine
Aktivierung explizit an einem Prozess beteiligt?
Subtraktionsansatz
Beispiel: Untersuchung der Wortverarbeitung
Vorannahme über verschiedene Zwischenstufen des Prozesses
Versuch der Konstruktion einer Kontrollbedingung, die nur exakt
diesen Prozess nicht aufweist
andere Prozesse mitteln sich aus
übrig bleibende Hirnaktivität soll dem neuronalen Korrelat des
Prozesses entsprechen
bei komplexen Fragestellungen stößt der Ansatz schnell auf seine Grenzen
Grundannahme der „pure Insertion“ (Prozesse addieren sich lediglich auf und haben keinerlei Interaktio-
nen) ist unplausibel
Idee des faktoriellen Ansatzes
36
Faktorielle Ansätze
Zerlegen eines Gesamtprozesses in ver-
schiedene Teilprozesse und finden von
Manipulationen, die diese Teilprozesse
beinhalten / nicht beinhalten
Am Beispiel rechts: 2x2 Design zur Fra-
gestellung, warum man sich nicht selbst
Kitzeln kann, zerlegt in die Manipulationen
Touch (vorhanden vs. nicht vorhanden)
und eigene Bewegung (vorhanden vs.
nicht vorhanden)
anhand dieser Beschreibung können nun Haupteffekte & Interaktionseffekte wie bekannt berechnet wer-
den:
Parametrische Designs
Grundannahme: interessierende Variable ist kontinuierlich (statt kategorial, wie beim faktoriellen Design)
Beispiel: Anzahl gesprochener Worte pro Minute
erlaubt, unterschiedliche Verläufe der Aktivierung in Abhängigkeit der jeweiligen kontinuierlichen Variab-
le zu betrachten (hier z.B. umgekehrt u-förmiger Zusammenhang im dlPFC, lineares Muster im auditorischen Kortex)
werden auch verwendet, wenn sich die interessierende Variable von Trial zu Trial ändert
subjektive Ratings (Emotionen, Arousal, Schmerz, …)
Reaktionszeiten
Physiologische Parameter (Pupillendilatation, Hautleitfähigkeit, …)
Parameter von computationalen Modellen (z.B. die Lernrate im Lernmodell)
37
zeitliche Veränderung ind der Amplitude des BOLD-Signals (time modulation)
Hypothesen über die Form der Stimulus-Antwort-Funktion können getestet werden
insgesamt: kognitive Prozesse werden im parametrischen Designs als kontinuierlich und potentiell un-
terschiedlich verlaufend betrachtet (im kategorialen Design geht man entweder von Stufen oder von
rein linearen Verläufen aus)
Zusammenfassung: Designs
38
Vorverarbeitung (Preprocessing)
Die Vorverarbeitung umfasst drei unterschiedliche Prozesse.
Realignment:
die verschiedenen Bilder werden durch Drehen und Schieben auf ein Referenzbild angepasst (z.B. einen
bestimmten Scan oder den Mittelwert aller Scans)
Bewegungskorrektur
Normalisierung:
Transformation der Bilder in einen Standardraum (z.B. MNI-Space, siehe S. 30) erlaubt Vergleiche
über Proband*innen hinweg (allerdings immer noch keine perfekte Übereinstimmung)
entfällt, wenn nur die Daten eines / einer Proband*in von Interesse sind
Koordinaten haben ihren Nullpunkt in der anterioren Kommissur
Glättung (Smoothing):
Erhöhen der räumlichen Homogenität, Signal wird verschmiert
Signal wird mit einem gewichteten Mittel der Aktivierung aller umlie-
genden Voxel verrechnet Verringerung der räumlichen Auflösung
ABER Verbesserung des Signal Rauschen-Verhältnisses (kann somit
ein wenig die Schwächen der Normalisierung austangieren)
39
Exkurs: Modell-basierte fMRT
über die Design-Matrix können beispielsweise auch trialweise unterschiedliche Amplituden vorherge-
sagt werden, die z.B. unterschiedliche Modellparameter darstellen.
Beispiel: W sei der erwartete Wert meiner Belohnung. Er ist abhängig von der Belohnung, die ich zuvor
erhalten habe (V) und meiner Lernrate
(individueller Parameter) und meinem
Vorhersagefehler (P)
in meinem experimentalverlauf kenne
ich die entsprechenden Werte und kann
diese über die Zeit hinweg modellieren,
um dann Areale zu finden, die mit die-
sem Zeitverlauf korrelieren
40
Szenario 2: Bildgebung zeigt keine Aktivierung bei Aufgabe, Läsionspatienten sind jedoch in der Aufga-
be jedoch eingeschränkt.
Mögliche Erklärungen:
experimentelle und Kontrollbedingung beanspruchen die Region in der Bildgebungsstudie
(Bedingungsvergleich führt zu 0-Ergebnis, da keine Unterschiede vorhanden sind)
Detektion von Aktivierung in der Region evtl. schwierig / unmöglich (zu klein, zu große anatomi-
sche Variabilität zwischen Proband*innen, geringes Signal)
Patienten sind beeinträchtigt aufgrund von Schädigungen von Faserbahnen, die durch das Areal
laufen (Diskonnektion)
Classifier-basierte Ansätze:
Man stelle sich vor, wir betrachten lediglich 2 Voxel und ihr Aktivierungsmuster. Die Proband*innen sehen
sich Bilder aus 2 Kategorien (z.B. Häuser vs. Personen) an. Die Daten werden einem Machine-Learning
Programm vorgespielt.
Algorithmus findet einen Schnitt durch die Datenpunkte aus den Voxeln, um bestmöglich zwischen den
einzelnen Kategorien zu differenzieren
dieser Schnitt kann dann an neuen Stimuli getestet werden (teilweise auch mehrfach) und es kann die
Exaktheit des Classifiers bestimmt werden (d.h. es kann bestimmt werden, wie exakt der Classifier die-
se neuen Stimuli zuordnen kann
Man kann natürlich auch viel mehr Stimuli bzw. Voxel betrachten. Was entsteht sind dann eben entsprechend mehr Punktewolken und eine mehrdimensionale Darstellung, durch die der Classifier
dann eine mehrdimensionale Ebene legt, die zwischen den Punktewolken bestmöglich teilt— das ist eine sehr abstrakte Vorstellung, wenn man das Grundkonzept im 2D versteht, reicht das aber
fürs Verständnis von Studien absolut aus.
Ähnlichkeitsbasierte Ansätze
Classifier bestimmt, wie ähnlich sich einzelne Voxel-Patterns aus bestimmten Kategorien sind (höhere
representational similarity) Aufschlüsse über mentale Repräsentation von Informationen
Proband*in betrachtet 5 bis 10 Minuten ein Fixaktionskreuz und ein kontinuierliches fMRT wird aufge-
zeichnet
finden von korrelierten und antikorrelierten Netzwerken resting state-connectivity zum Teil auf
anatomische Konnektivität zurückführbar
Task-Netzwerke überlappen oft mit diesen resting-state Netzwerken
Nachteil: keine Kontrolle über Gedanken (plant vielleicht einen Einkauf) oder ablaufende Prozesse außer
über Post-Scan Fragebögen
Kontrolle potentieller Störvariablen (Atmung, Herzschlag, minimale Bewegung) sehr wichtig
41
Vorteil: relativ schnell messbar, Hirnaktivität kann zwischen Gruppen unterschieden werden, ohne das
Patient*innen eine schwierige Aufgabe bewältigen müssen (bzw. diese noch designed werden muss
Daten können auch mit der Methode der Netzwerktheorie ausgewertet werden
42
5. Läsionsstudien
AdA: Peters hat die Vorlesung mit Thema Läsionsstudien begonnen anhand jeweils eines Beispiels zu Event–und Blockrelated Designs. Diese sind hier aus Zeit– und Platzgründen nicht aufgeführt.
Bei Interesse, einfach die ersten 10 Minuten des Videos ansehen. Das betrifft auch spätere Beispielbilder zu Läsionen (Folie 11—13)
bisher: Bildgebung und Elektrophysiologie Ergebnis sind immer korrelative Befunde (keine Kausal-
aussagen möglich)
Beispiel: Aktivierung des präfrontalen Cortex höher bei Worten, die aus einer Liste erinnert wor-
den, im Vergleich zu denen, die vergessen wurden
potentielle Annahme: PFC ist notwendig für erfolgreiche Encodierung
Problem: andere Alternativen sind möglich, z.B. Lösungsstrategie, unspezifische kognitive Res-
source, Inhibition des PFC (dann wäre der PFC ja tatsächlich eigentlich NICHT notwendig)
Läsionsstudien als „Reverse Engineering“ Prozess
Region ist gestört (im Menschen) bzw. wird gestört (z.B. durch gezielt herbeigeführte Läsion im Tier-
modell)
Hypothetisches Beispiel: Schädigung einer Region beeinträchtigt Lesen, aber nicht sprechen oder sehen
Annahme 1: Region ist zumindest teilweise auf die Verarbeitung von Text spezialisiert
Annahme 2: Region ist unter Umständen (evtl. auch einfach nur Verletzung von Faserbahnen in
der Region, hin zu anderen Arealen) notwendig für das Lesen
im fMRT — höchsten Schlussfolgerung 1 zulässig, niemals Schlussfolgerung 2
43
Traditionen der Neuropsychologie
Frage nach funktioneller Spezialisierung (klassischer neuropsychologischer Ansatz): Welche Funktionen
werden durch Schädigungen in der Region X gestört? häufig nutzen von Gruppenstudien mit Bezug
zu Bildgebung
aber auch: Kann eine bestimmte Funktion im Vergleich zu anderen Funktionen erhalten bzw. beeinträch-
tigt sein? (kognitiv neuropsychologischer Ansatz) Einzelfallstudie, Frage nach den building blocks der
Kognition (d.h. Frage danach, welche Prozesse getrennt voneinander existieren. Z.B. hätte man früher argumentieren können, ein Block sei „Sprache“ - wir wissen mittlerweile dank
Broca und Wernicke aber, dass dieser zumindest zwei Teile umfasst, die getrennt voneinander existieren, nämlich Sprachverständnis und Sprachproduktion.)
Dissoziation
grundsätzlich: Unterscheidung zwischen einfacher und doppelter Dissoziation
Einfache Dissoziation
Patient sei in Funktion A (rot) gestört, Funktion B (schwarz) ist aber intakt.
Es bestehen grundsätzlich zwei Möglichkeiten:
Funktionen sind vollständig unabhängig oder
Funktionen sind teilweise unabhängig, z.B. weil die Schädigung in
Funktion A recht gering ist, und die Funktion B dies teilweise ausglei-
chen kann
Problem: im ersten Instinkt würde man nun darauf schließen, dass A und B
auf keinen Fall identisch sein können bzw. auf identische Ressourcen zu-
greifen können. Das ist aber nicht der Fall, denn es besteht ein sogenann-
tes Aufgaben-Ressourcen-Artefakt:
Es sei lila eine Darstellung für Aufgabe / Funktion B, und grün eine Darstellung für Aufgabe / Funktion A. Dabei ist
lila die einfachere Aufgabe.
Bei der lila Funktion würde man den Unterschied zwischen einer
moderaten Schädigung und einem gesunden Patienten über-
haupt nicht bemerken, bei der grünen hingegen sehr deutlich.
In beiden Fällen nutzt man aber die gleiche „Grundressource“,
d.h. die gleichen kognitiven Substrate. Dabei wird allerdings in
einer Aufgabe diese mehr beansprucht, als in einer anderen.
Bei schweren Aufgaben sind unterschiede leichter detektierbar.
D.h. Die Schlussfolgerung, das Funktion A und B nicht identisch
sein können, ist bei einfacher Dissoziation nicht gerechtfertigt.
Innerhalb der einfachen Dissoziationen unterscheidet man zwischen „klassisch“ (eine Task ist nicht beein-
trächtigt, eine andere schon) und starker Dissoziation: (Beide Tasks
sind beeinträchtigt, eine davon aber signifikant stärker)
Doppelte Dissoziation
Patient 1 ist in Funktion A gestört, Funktion B ist aber intakt. Patient
2 wiederum ist in Funktion B gestört, Funktion A ist jedoch intakt.
es kann ausgeschlossen werden, dass die Funktionen Teilprozesse
voneinander oder exakt identisch sind (Ansonsten wäre es ja nicht möglich, dass man sie
unabhängig voneinander stören kann)
Diese Erkenntnis ist auch komplett unabhängig von der Lage der jeweiligen Läsionen!
44
Beispiel 1: Hippokampale Läsionspatienten (Hassabis et al., 2005)
N = 15 (5 Patienten mit hippokampaler Läsion, 10
Kontrollpatienten)
Frage: ist der Hippocampus wichtig für die Imagi-
nation?
Aufgabe: Beschreibung von imaginierten Szenari-
en, die später nach räumlicher Kohärenz und De-
tailreichtum bewertet wurden.
Hier ist ein Beispiel für: KEINE Dissoziation. Es gibt nur eine Patienten– und eine Kontroll-
gruppe. Es gibt keine Aufgabe, in der die Läsionsgruppe selbst beeinträchtigt vs. unbeein-
trächtigt ist!
Einzelfall-Ansätze
Vor– und Nachteile werden teils kontrovers diskutiert
Problem: Einzelfälle erlauben nicht wirklich Aussagen über allgemeine Phänomene
Wenn aber Phänomene wie z.B. Läsionen eine wirklich gute Grundlage für kausale Aussagen ist, muss
man deren Nachteile in Kauf nehmen
Argumentation: Einzelfallstudien sind zwangsläufig notwendig, weil ich nicht über Personen mit ähnli-
cher Schädigung mitteln sollte (in der Humanwissenschaft ist jede einzelne Läsion einzigartig, es gibt
keine Patient*innen mit exakt der gleichen Läsion)
dennoch: Einzelfall-Ansätze eher gut um kognitive Profile darzustellen, weniger gut um kognitive Prozes-
se mit Hirnstrukturen zu verbinden (z.B. weil nur Faserbahnen in einem Bereich zu der beobachteten
Beeinträchtigung führen, nicht aber z.B. das Areal an sich)
Hinweis: Einzelfallstudien widersprechen nicht dem Konzept das man mehrere Personen testet, sie sagen nur, das „Gruppen“ nicht gemittelt werden dürfen, sondern das eine Gruppenstudie
letztlich eine Reihe von Einzelfallstudien darstellen muss
Gruppenstudien
Entscheidet man sich für eine Gruppenbildung, kommen mehrere Gruppierungsvariablen in Frage:
nach Syndrom (Erkrankung): hilfreich um Korrelate einer bestimmten Krankheit zu untersuchen, nicht
hilfreich beim Testen kognitiver Theorien (Läsion / Schädigung zu variabel)
nach Symptom (Verhaltensdefizit): Möglichkeit, verschiedene Regionen zu identifizieren, die einem Ver-
halten zugrunde liegen
45
nach Läsionsort: oft gemacht zum Testen von Hypothesen in Mensch– oder Tierstudien — Fokus auf
ein Areal, und dessen potentiellen Einfluss auf das Verhalten (es bleibt wieder das Problem, das eventu-
ell das Areal ja aber nur ein Verbindungsglied für das für den Prozess eigentlich relevante Areal ist)
manche Formen der Hirnschädigung erschweren die Läsionslokalisation (z.B. Tumore, Schwellungen)
Gefahr, einem Areal eine spezifische Funktion zuzuordnen (Quatsch, und sorgt nur für eine neue Art der
Phrenologie, nämlich der Neophrenologie)
Regionen können auch mehrere Funktionen erfüllen (Netzwerkdenken eher sinnvoll als seperate
Module)
Problem der Diskonnektion / Diaschisis: Läsionen beeinflussen eventuell auch weiter entfernte Areale
durch Schädigung von Faserverbindungen
Nur wenn alle diese Bedingungen gegeben sind ist es möglich, von den Beeinträchtigungen nach Hirn-
schädigungen tatsächlich auch auf die nichtbeeinträchtigten Prozesse zu schließen, die in anderen Perso-
nen ablaufen.
46
Läsionsüberlappung
Frage: Wo hat eine Patientengruppe eine
überlappende Hirnschädigung
Durchführung von Normalisierung und
Transformation
beobachtet man bei allen diesen Patient/
innen das gleiche Verhaltensdefizit in Referenz zu einer gesunden Kontrollgruppe, ist das am ehesten
auf das Areal zurückzuführen, das am stärksten Überlappung zeigt (also oben grün-rot eingefärbt wäre)
Subtraktionsanalysen
Vergleich der Läsionsdaten verschiedener Patient/innengruppen z.B. mit Defizit oder ohne (alle haben Läsionen
etwa im gleichen Bereich, dabei hat jedoch nur ein Teil auch ein interessierendes Verhaltensdefizit)
Vergleich der Läsionsmasken zwischen den jeweiligen Gruppen und bestimmen des Kontrasts zwischen
Gruppen mit und ohne dem Verhaltensdefizit (Wo liegt die Läsion bei Patient/innen mit Defizit)
47