Sie sind auf Seite 1von 47

Neurowissenschaft

Prüfungs-Lernskript (SS 23)

Inhalte Seiten
Auffrischung Neuroanatomie 3 — 11

Einführung in die Neurowissenschaft 12 — 15

Elektrophysiologie 16 — 23

Bildgebung 24 — 42

Läsionsstudien 43 — 47
2
1. Auffrischung Neuroanatomie
Kognitive Neurowissenschaften sind ein Verbindungsglied zwischen der Kognitiven Psychologie und
der Neurowissenschaft, deren Ziel es ist, kognitive Vorgänge nicht nur auf Basis von Verhalten zu un-
tersuchen, sondern die neurowissenschaftlichen Grundlagen (z.B. Hirnaktivität) zu beleuchten. Dafür
ist eine Grundkenntnis der Neuroanatomie erforderlich.

Das kann auf mehreren Ebenen erfolgen, von der Gesamthirnanalyse über neuronale und synaptische
Netzwerke bis hin zu einzelnen Proteinen. Dabei ist der Nutzen breit gefächert: Befunde aus Tierstu-
dien können beispielsweise am Menschen repliziert werden und dann klinisch relevante Erkenntnisse
liefern.

Beispiel: Die Grid-Cells


Beim Untersuchen eines Neurons im enthorinalen Kortex bei einer freilaufen-
den Ratte stellten Hafting et al. (2005) fest, dass das Neuron während der
Bewegung in einem festen „Grid-Muster“ feuert.
Doeller et al. (2010) konnten zeigen, dass die Hirnaktivität beim Menschen
im enthorinalen Kortex stärker ist, wenn sich Teilnehmende entlang der Grid-
Ausrichtung bewegen.
Kunz et al. (2015) konnten zeigen, dass bei Patienten mit genetischen Risi-
komarkern für Alzheimer das Grid-Cell Signal abgeschwächt ist.

Neurophysiologie

Aufbau eines Neurons (Grundaufbau immer ähnlich,


manchmal nur räumlich anders sortiert)
 Zellkörper/Soma: enthält Zellkern mit
relevanten genetischen Informationen
(z.B. zur Neurotransmittersynthese)
 Dendriten: ermöglichen Kommunikation
mit anderen Zellen (erhalten Informati-
on)
 Axon: überträgt Information an andere
Neuronen jede Nervenzelle hat mehrere Dendriten, aber nur ein
Axon, wobei das manchmal aufgesplittet ist in Kollaterale)

Informationsübetragung am Axon

 in der Synapse bzw. dem synaptischen Spalt (Lücke zwischen 2 Neuronen) werden Chemikalien
(Neurotransmitter, oder auch nur elektrische Signale) freigegeben
 binden an die Rezeptoren der Dendriten bzw. des Zellkörpers und erzeugen ein synaptisches Potential,
das passiv durch Dendriten und Soma ans nächste Axon übertragen wird
 ausreichend starkes Potential löst ein Aktionspotential am Axon aus

3
Das Aktionspotential und die elektrischen Signale

Ein Neuron feuert immer dann (gibt also Informationen weiter), wenn ein ausreichend großes Aktionspotential am
Axonhügel entsteht. Doch wie funktioniert das?

Die Zellmembran sorgt dafür, dass das


Neuron von anderen Zellen „abgetrennt“
ist. Im Inneren des Neurons herrscht
eine negative Spannung, hergestellt
durch eine Kombination von bestimmt
geladenen Ionen.

 Erreicht ein ausreichend großes Signal die Membran des Axons, öffnen sich Natrium-Kanäle 
Depolarisation (da Natrium positiv geladen ist, erhöht sich die Spannung)
 Nach einem kurzen Zeitraum schließen sich die Natrium-Kanäle wieder, und zusätzliche Kalium-
Kanäle (manche sind dauerhaft offen) öffnen sich, um Kalium aus der Zelle zu pumpen (negative Ausgangsspannung wird wie-
derhergestellt)
 Hyperpolarisation: Es wird ein wenig zu viel Kalium aus der Zelle gepumpt (negativere Spannung als vor dem
Aktionspotential), mit dem Ziel, dass nicht sofort ein neues Aktionspotential ausgelöst werden kann

In Folge läuft das Potential entlang dem Axon (oder springt entlang des Axons, wenn es Myellinsche
Schnürringe gibt) und löst dann wieder eine chemische oder elektrische Reaktion im synaptischen
Spalt aus, der die Dendriten der nächsten Zelle erreichen kann.

Informationskodierung und Refraktärzeit


Als Refraktärphase bezeichnet man die Zeit nach einem Aktionspotential, in der ein Neuron nicht, bzw.
nur reduziert wieder erregt werden kann.
 absolute Refraktärzeit: Natrium-Kanäle sind inaktiviert (blockiert) und geschlossen  weiteres Ak-
tionspotentiel kann nicht ausgelöst werden
 relative Refraktärzeit: während der Hyperpolarisation ist ein stärkerer Impuls notwendig, um ein
Aktionspotential auszulösen

Frequenzkodierung

 jedes Aktionspotential hat die gleiche Amplitude  Reizintensität wird nicht über „Signalstärke“
kodiert
 starke Signale können während relativer Refraktärzeit wieder ein Potential auslösen  stärkere
(überschwellige) Reize führen zu einer höheren Aktionspotentialfrequenz
 Anstieg des Aktionspotentials bei stärkeren Reizen schneller da sich mehr Natrium-Kanäle schnel-
ler öffnen
 Feuerrate (als Maßzahl): Anzahl der Aktionspotentiale pro Zeiteinheit
 Neurone haben verschiedene Antworteigenschaften (z.B. auf welche Art Reiz sie am ehesten rea-
gieren  oft räumliche Nähe im Hirnareal zwischen Neuronen mit Ähnlichen Antwortmustern
4
Informationsweitergabe bei der Synapse

Die chemische Synapse kann auf zwei Arten und


Weisen klassifiziert werden, die sich lediglich in
Richtung der Informationsübertragung unterschei-
den:
1. Präsynapse: Synapse, die zur Zelle gehört, die
die Information sendet
2. Postsynapse: Synapse, die zur Zelle gehört, die
die Information empfängt

Ablauf der Informationsübertragung

1) Aktionspotential erreicht das Ende der Präsynap-


se
2) Spannungsgesteuerte Calcium-Kanäle öffnen
sich
3) Vesikel (enthalten Neurotransmitter) bewegen
sich und verschmelzen mit der Zellmembran
4) Transmittermoleküle diffundieren in den synapti-
schen Spalt (Exozytose)
5) Transmitter binden an Rezeptoren in postsynaptischer Membran
6) Je nach Transmitter und Rezeptor wird ein inhibitorisches bzw. ein exzitatorisches Signal ausgelöst

Neurotransmitter und Transmittersysteme

Für das Verständnis sind einige grundlegende Begriffe nötig. Dazu gehören, am Beispiel Dopamin:

 dopaminerges Neuron: Neuron, das Dopamin als Neurotransmitter ausschüttet


 dopaminerge Synapse: Synapse, an der Dopamin ausgeschüttet wird
 dopaminerges System: Gesamtheit aller Strukturen des Nervensystems, in denen Dopamin syn-
thetisiert und ausgeschüttet wird

Das dopaminerge System


 Quelle: dopaminerge Neurone im Substanzia Nigra und dem
ventralen Tegmentum
 Projektionen (Axonbahnen in Richtung):
 mesolimbischer Pfad (besonders nucleus accumbens)
 mesokortikaler Pfad (eher orbitofrontaler Kortex)
 nigrostratialer Pfad (ins dorsale Striatum, z.B. nucleus
caudatus)
 Funktionen: Motorik, Belohnung, kognitive Kontrolle, Lernen
 Beeinträchtigt bei: Parkinson, Suchterkrankungen, Schizophre-
nie

5
Die Substanzklasse der Katecholamine
 Vorläufer: Tyrosin => Baustein für verschiedene Neurotransmitter aus der Substanzgruppe

Tyrosin/Phenylalanin-Depletion
 Methode zur Reduzierung der Katecholaminproduktion
 z.B. durch tyrosinarme Ernährung (Teilnehmende erhalten in der Zeit nur einen bestimmten Drink, von dem sie sich ernähren)
 McTavish et al. (1999) zeigen, dass Dopaminproduktion davon wesentlich stärker betroffen ist 
Methode erlaubt, Einfluss von Dopamin auf das Gehirn und Verhalten zu bestimmen

Das cholinerge System


 Quelle: cholinerge Interneurone (zwischengeschaltete Nervenzellen im ZNS) in Cortex
und Basalganglien
 zwei wichtige cholinerge (Acetylcholin) Produktionssysteme:
 Nucleus Basalis Meynert
 Pontomesenzephalotegmentaler Komplex (lange Begriffe beschreiben Pro-
jektionssystem: von Pons übers Mesenzephalon bis ins Tegmentum
 wichtig für Lernen, Gedächtnis, Aufmerksamkeit
 cholinerge Hypothese: Absterben cholinerger Neurone als (Teil-
Ursache für die kognitive Symptome bei der Alzheimerkrankheit
vermutet

Das serotonerge System


 Quelle: Raphe-Kerne im Hirnstamm
 serotogenere Projektionssysteme:
 rostrale Raphe-Kerne projezieren ins Gehirn
 caudale Raphe-Kerne projezieren ins Rückenmark
 wichtig für Stimmung, Emotion und zirkadiane Rhythmik
 assoziert mit Depressionen und Angsterkrankungen

Tryptophan-Depletion

 Methode zur Reduzierung der Serotonin-Produktion (Tryptophan als Aminosäure für die Serotoninsynthese notwendig)
 tryptophanarme Ernährung reduziert die Synthese von Serotonin
 Einfluss von Serotonin auf Gehirn und Verhalten kann gemessen werden

6
Das noradrenerge System
 Quelle: Locus Coerulus im Hirnstamm
 Neuronen projezieren verzweigt in fast alle Bereiche des Neokor-
tex
 Noradrenalin arbeitet als Neuromodulator: reguliert die Erregbar-
keit kortikaler Regionen
 assoziert mit Depressionen und Manie

Messung der Pupillendilatation


 Weiterung der Pupille (Dilatation) geht mit Aktivierung des sympathischen Nervensystems einher
 kann mithilfe von Kameras und Eye-Tracking gemessen werden
 erhöhte kognitive Anforderungen führen zu einer Weitung der Pupillen
 Studien zeigen einen engen Zusammenhang zwischen Locus Coerulus-Aktivität und Pupillendilata-
tion (Joshida et al., 2005)
 linearer Zusammenhang zwischen z-skaliertem Pupillendurchmesser und Feuerrate von LC-
Neuronen
 Stimulation des LC führt zu Pupillendilatation

Neuroanatomie

Einige wichtige anatomische Grundstrukturen lassen sich bereits am Querschnitt erkennen:

 graue Substanz sind die (hier dunkleren) Hirnberei-


che, in denen vorwiegend die Zellkörper von
Nervenzellen liegen
 weiße Substanz umfasst hingegen eher Axo-
ne (besonders myelinisierte), und Gliazellen
 Corpus Callosum ist der „Fasertrackt“, der
die rechte und linke Hirnhemisphäre verbin-
det
 Ventrikel enthalten die Zerebrospinalflüssig-
keit
 Gyrus (Gyri) sind die Ausstülpungen des Ge-
hirns
 Sulcus (Sulci) hingegen die Furchen

Zerebrospinalflüssigkeit
 auch Liquor genannt
 befindet sich in den Ventrikeln und umschließt das Gehirn (Schutzfunktion)
 enthält zudem Abbauprodukte, Hormone, usw.

7
 Ventrikelsystem aus insgesamt 4
Ventrikeln
 eines im Hirnstamm
 eines je Hemisphäre
 eines, dass die subkortikalen
Regionen umschließt

Lagebezeichnungen
Zum Verständnis von Studien und Studienbefunden ist es unabdinglich, einen Überblick über die ver-
schiedenen Lagen/Schnittrichtungen des Gehirns zu haben, aus denen z.B. funktionelle Bilder entstehen.

Hierarchie des Zentralen Nervensystems

Während der evolutionären Entwicklung


des Gehirns entwickelten sich zunehmen
hierarchisch höhere Areale / Hirnab-
schnitte, die zunehmend komplexere
Funktionen übernahmen.

8
Im Saggitalschnitt kann man die einzelnen Abschnitte hier auch nochmal direkt an der Anatomie abtragen.
Im Deutschen hat sich zusätzlich noch der Begriff Hirnstamm geprägt, der das Mittelhirn, die Brücke, die
Medulla Oblongata (und je nach Autor noch das Cerebellum) umfasst
Endhirnkerne entsprechen den Basalganglien.

A.d.A: Aus Gründen der Einfachheit werden in Folge nur noch teilweise Bilder mit beigefügt. Hirnareale können sich genauer durch diverse Bildquellen im Netz angesehen werden.

Der zerebrale Kortex

 besteht aus zwei Hemisphären


 laterale Oberfläche wird in 4 Lappen unterteilt: Parietal-, Okkzipital-, Temporal– und Frontallappen
 die Lappen sind gekennzeichnet durch charakteristische Muster aus Gyri und Sulci
 generell unterscheiden sich bestimmte Hirnbereiche durch ihre Zytoarchitektur (Form, Größe und Anordnung der Zellen)
 bekannteste Einteilung ist die in Brodmann-Areale

Subkortikale Areale
Der Begriff der subkortikalen Areale umfasst eine breite Reihe von Hirnstrukturen, z.B. die Basalganglien.

Basalganglien
 umfasst Putamen, Nucleus Caudatus, Nucleus Accumbens, Globus Pallidus und die interne Kapsel
 wichtig für Handlungssteuerung und Kognition
 Interaktion mit Frontallappen über fronto-striatale Streifen
 bei Chorea-Huntington (im Bezug auf Hyperkinesie, also stärkere Bewegung) und Parkinson (Hypokinesie, also schwächere Bewegungen) geschädigt

Das limbische System


 teils etwas veraltetes, aber verbreitetes Konzept
 umfasst Amygdala, Hypocampus (insbesondere der Papez-Schleifen, die die Verbindung mit dem Kor-
tex herstellen), Fornix, Mamillarkörper und zingulärer Gyrus
 zentrale Rolle bei Emotionsverarbeitung, Lern– und Gedächtnisprozessen

Das Zwischenhirn
 der Thalamus fungiert als Schnittstelle zwischen den sensorischen Organen (außer Geruch) und dem
Kortex
 der Hypothalamus reguliert basale Funktionen wie Hunger, Durst, Temperatur, sexuelle Aktivität, endo-
krine Funktionen, ...

9
Mittelhirn
Das Mittelhirn umfasst zwei große Bereiche
 Tegtum, bestehend aus:
 Colliculi superior: subkortikale visuelle Kerne (hier
existiert auch eine „Karte der Umgebung“)
Colliculi inferior: subkortikale auditorische Kerne

 Tegmentum, bestehend aus:
 Substantia Nigra (auch ventrales Tegmentum
genannt): dopaminerge Kerne
 Nucleus Ruber als Teil des motorischen Systems

Hinterhirn und Kleinhirn


 Hinterhirn steuert wichtige Vitalfunktionen wie Atmung und Herzrate
 Kleinhirn: spielt eine wichtige Rolle bei der Motorik, insbesondere bei der Integration von motorischen
Kommandos mit sensorischem Feedback  „smooth movement“

Prinzipien der Funktionsweise des Nervensystems

1. Information wird in Reihe verarbeitet: Input  Integration  Output


 auf Hirnebene (Außenwelt wird vom Nervensystem verarbeitet, es entsteht Verhalten)
 auf Ebene von Arealen (Areal sendet Projektion in ein anderes Areal, verrechnet diese, gibt sie an ein anderes Areal weiter)
 auf Ebene von Zellen (Neuron bekommt Input durch synaptische Verschaltung, weitergeschaltetes Neuron verarbeitet Information und gibt diese weiter)
 jede Integration erzeugt eine neue Information
 im Gehirn finden sich auf jeder Ebene Feedbackschleifen in jedem Schritt (kein vollkommen sequentieller Ablauf)

2. Sensorische und motorische Funktionen sind im Nervensystem getrennt


 zumindest häufig / bis zu einem gewissen Grad
 findet sich auch beim Bell-Magendie-Gesetz (beschrieb erstmalig die Unterscheidung von ventralem
und dorsalen Rückenmark mit entsprechend motorischen vs. sensorischen Funktionen)
 wird in höheren Regionen (Vorderhirn) wird diese Trennung allerdings zunehmend subtiler

3. Inputs und Outputs sind im Gehirn gekreuzt


 gekreuzte Sensorik und Motorik (visueller Input vom rechten Auge wird in der linken Hemisphäre verarbeitet usw.)

4. Gehirnanatomie und –funktionen zeigen sowohl Symmetrie als auch Asymmetrie


 Hirnareale scheinen symmetrisch (z.B. linke und rechte Hemisphäre), aber
 integrative Areale erfordern ggf. Asymmetrie (z.B. motorische Kontrolle von Sprachproduktion oder
Kontrolle der Navigation im Raum)

5. Das Nervensystem arbeitet über die Koexistenz von Hemmung und Erregung
 Verhalten erfordert Aktivierung bestimmter Handlungen (Erregung / Exzitation) und Hemmung
(Inhibition) anderer Handlungen
 Balance wichtig auf verschiedenen Ebenen:
 Regulation von Parasympathikus und Sympathikus
 Aktionspotential (bei einzelnen Neuronen)

10
 Verbindungen zwischen verschiedenen Hirnarealen

6. Informationsverarbeitung findet auf verschiedenen Ebenen statt


 verschiedene Gehirnregionen sind mit ähnlichen sensorischen und motorischen Aufgaben befasst
 im Zuge der Evolution sind zusätzlich höhere Areale hinzugekommen, ohne, dass die älteren Areale
ersetzt wurden
 Hierarchie

7. Das Nervensystem greift auf serielle und parallele Verarbeitung zurück


 so agieren zum Beispiel Neuronen in einem Areal parallel, die Verschaltung zwischen einzelnen Hirn-
arealen verläuft aber hierarchisch

8. Funktionen sind im Nervensystem lokalisiert und verteilt verortet


 primär aufgrund der Ungenauigkeit der Definition von „Funktion“. „Sprache“ kann eine Funktion sein,
die sich an verschiedenen Gehirnarealen abspielt, Subfunktionen von Sprache, z.B. Sprachproduktion,
wird aber moderiert durch Neurone in einem eher engeren Areal
 auch zu sehen an Läsionen: kleine, fokussierte Läsionen betreffen kleine, fokussierte Anteile eines
Funktionsbereiche (bei der Broca-Aphasie ist beispielsweise nur Sprachproduktion gestört, nicht aber das Verständnis)

11
2. Einführung in die Neurowissenschaft
Kognitive Neurowissenschaften sind ein Unterbereich der biologischen Psychologie. Biopsychologie um-
fasst dabei jedoch noch Bereiche wie Psychophysik oder Genetik — sie haben jedoch auch schon kogniti-
ve Neurowissenschaft betrieben, als der Begriff noch gar nicht etabliert war.

Die kognitive Neurowissenschaft baut auf der kognitiven Psychologie auf und untersucht die biologischen
Grundlagen höherer kognitiver Funktionen (z.B. Lernen, Gedächtnis, Aufmerksamkeit). Dabei werden un-
ter anderem funktionelle Bildgebung, Neuropsychologie und EEG und TMS verwendet.

Historische Meilensteine

Über die letzten Jahrhunderte hinweg gab es


verschiedene Entwicklungen in der neurowis-
senschaftlichen Forschung

Phrenologie
 geprägt von Gall & Spurzheim
 Annahme, dass Hirnareale unterschiedliche Funktionen ausüben
 je größer das Areal, desto stärker ist die Funktion/Persönlichkeitseigenschaft ausgeprägt
 Größenunterschiede sollen sich in der Wölbung der Schädeldecke widerspiegeln (Persönlichkeit kann
so „gemessen“ werden)

Probleme:
 Annahmen sind nicht theoriebasiert und teilweise sehr willkürlich (Hirnareale z.B. für „Freundschaft“,
„Zerstörung“, „Spiritualität)
 falsche Grundannahme: es gibt keinen Zusammenhang zwischen Neuroanatomie und der Wölbung der
Schädeldecke

 Idee der funktionellen Spezialisierung konnte sich jedoch halten (allerdings auf anderen, gröberen Dimensionen)

Paul Broca und „Monsier Tan“


 „Monsier Tan“ wird 1861 beim französischen Arzt & Anatom Broca vorstellig
 kann nicht mehr sprechen (nur die Silbe „tan“ wiederholen)
 keine kognitiven Beeinträchtigungen oder Schwierigkeiten im Sprachverständnis
 betroffenes Hirnareal wird nach Broca benannt und befindet sich in den Brodmann-Arealen 44 und 45
 Schädigung führt zur sogenannten „Broca-Aphasie“ (Patienten haben verlangsamten Wortfluss, suchen häufig lang nach Worten oder wiederholen
die gleichen Worte, haben jedoch keine Einschränkungen im Sprachverständnis)

12
Wernickes (1848 — 1905) Beobachtungen
 Wernicke als deutscher Arzt & Anatom untersuchte Patienten mit intakter Sprachproduktion, aber ein-
geschränktem Sprachverständnis  Schädigung als Wernicke-Aphasie bezeichnet (Patienten neigen zu Verbal-
diarrhöe: sie können fließend sprechen, sprechen aber nur “Kauderwelsch”)
 Sprachproduktion und Verständnis können als zwei getrennte Prozesse betrachtet werden (das war vorher eher
nicht so, Phrenologie hätte Sprache als ein Konstrukt betrachtet)
 Lokalisation ist für diese allgemeine Schlussfolgerung noch nicht relevant  prägt die Bedeutung von
Fallbeispielen für den Fortschritt in der Neurowissenschaft, obwohl das Gehirn nicht direkt untersucht

Blicke auf die funktionelle Spezialisierung ohne Phrenologie


 wichtige Grundlage in den Neurowissenschaften (Herkunft der Funktionsbereiche in der Phrenologie
war nicht wissenschaftlich)
 wird unterstützt durch Läsionsbefunde (z.B. von Broca oder Wernicke)
 Kenntnisstand heute: funktionelle Spezialisierung ist graduell — Regionen sind bis zu einem gewissen
Grad auf bestimmte (Klassen) kognitivier Funktionen spezialisiert)
 keine 1:1 Zuordnung (u.a. durch neuronale Plastizität)
 funktionelle Bildgebung als Grundlage unterliegt dem Reverse Inference Problem (Poldrack,
2006): wir können aus der Aktivität X in einem Areal nicht den Ablauf einer Funktion Y vorhersa-
gen, da
a. Regionen verschiedene Funktionen erfüllen
b. Das Gehirn Probleme mit Hilfe verschiedener Strategien lösen kann

Die Arbeit von Wilder Penfield (1891 — 1976)


 kanadischer Neurochirurg
 stimulierte während der Eingriffe, die er durchführte, verschiedene Stimulationen des Kortex  prägte

Kognitive Neurowissenschaften

 stellt die „Brücke“ zwischen kognitiver Psy-


chologie und Neurowissenschaften / Biologie
dar
 ermöglicht durch technologische Entwicklun-
gen, die es erlauben, wenig invasiv kognitive
Prozesse zu untersuchen
 Ziel: gehirnorientierte Erklärungsansätze für
kognitive Prozesse (Lernen, Gedächtnis, Auf-
merksamkeit)
 Nutzen verschiedener Analyseebenen
(Gehirn, neuronale Verbände, synaptische
Netze, Genetik & Proteinsynthese)

13
Methoden der kognitiven Neurowissenschaften
Methode Typ Invasiv? Verwendete Eigenschaft

EEG/ERP Aufnahme nein Elektrische Signale

Einzel- und Multizellaufnahmen Aufnahme ja Elektrische Signale

TMS Stimulation nein Elektromagnetik

MEG Aufnahme nein Magnetismus

PET Aufnahme ja Hämodynamische Verläufe

fMRT Aufnahme nein Hämodynamische Verläufe

 Methoden teils auch kombiniert mit pharma-


kologischen Verfahren, Genetik & Läsionsstu-
dien (letztere bilden oft auch die Grundlage für Untersuchungen mit TMS)
 Einteilung / Nützlichkeit abhängig von der Fra-
gestellung in Verbindung mit den Eigenschaf-
ten der jeweiligen Messmethode:
 Stimulation vs. Messung (Messung oft einfacher &
weniger invasiv, dafür erlaubt eine Stimulation eher eine Kausalaussage)
 zeitliche Auflösung
 räumliche Auflösung
 Invasivität
(oft wähle 1 Dilemma — zeitliche Auflösung geht zu Kosten der räumlichen
Auflösung oder zu Kosten der Invasivität und vice versa)

Herausforderungen & Lösungsansätze


1. Es ist möglich, kognitive Prozesse und Funktionen zu untersuchen, ohne dabei das Hirn zu be-
trachten.
 ja, wird weiterhin auch häufig getan
 Gehirn liefert aber Rahmenbedingungen für die ablaufenden Prozesse (Ablauf wird nicht wie
beim Computer durch einen Programmierer bestimmt, sondern durch biologische Grenzen
 bietet eine zusätzliche Informationsquelle

2. Funktionelle Bildgebung (oder Läsionsstudien) sagen uns, wo Prozesse stattfinden, aber nicht
wie.
 Kritik auch übertragbar auf andere Formen von Studien, z.B. Reaktionszeitexperimente liefern
ein Wann, kein Wie
 Befunde sind immer Daten, die durch eine Theorie erst ein Verständnis ermöglichen (Daten haben
sowieso nie Aussagekraft, weil man sie „so oder so“ interpretieren kann)
 Alle Daten können Theorien informieren / einen Forschungsgegenstand aus verschiedenen
Facetten beleuchten

14
3. Die kognitiven Neurowissenschaften sind nichts als eine neue Form der Phrenologie.
 sehr vereinfacht, Eindruck oft durch die Medien noch verstärkt
 eigentliches Ziel: keine spezifischen „Hirnareale“ finden, sondern präzise Annahme über Inter-
aktionen auf mehren Ebenen machen (Genexpression über Neurone hin zum Gehirn)
 z.B. Fortschritte in klinischer Relevanz, die erst durch Tierstudien ermöglicht wurden, wie bei
der Entdeckung der Rasterzellen, deren Nachweis zunächst an Tieren gelang und bei denen
ein schwächeres Signal mit genetischem Risiko für die Alzheimer-Erkrankung verbunden ist

15
3. Elektrophysiologie
Der folgende Themenblock umfasst die Bereiche EEG und MEG. Er setzt jedoch ein grundlegendes Ver-
ständnis über sogenannte „Repräsentationen“ voraus.

 Mentale Repräsentation: Art, in der Eigenschaften der Umwelt (z.B. Form, Farbe, Bewegung) durch
ein kognitives System kopiert / simuliert werden (Ich höre z.B. eine Beschreibung einer Person & erkenne eine enge Freundin wieder)
 Neuronale Repräsentation: Art, in der sich Eigenschaften der Umwelt in neuronalen Signalen (z.B. un-
terschiedlichen Feuerraten) manifestieren (z.B. das beim Hören eine bestimmte Art Signal über eine spezielle Art Neuron weitergeleitet wird)
 zwischen beiden besteht oft kein 1:1 Zusammenhang, aber zumindest eine Korrelation

Einzelzellableitungen

 Neuron integriert den Input einer großen


Anzahl anderer Neurone (siehe S. 3f)
 erreichen eingehende Signale eine Schwelle
überschreiten (Aktionspotentialschwelle: -
40mV, erreicht entweder durch räumliche
oder zeitliche Summation) wird ein Aktions-
potential ausgelöst
 Grundlage für die Einzelzellableitungen

 Elektrode wird in Axon (intrazellulär) oder


außerhalb der Axonmembran (extrazellulär)
implantiert
 Aktivität einer einzelnen Zelle (single cell)
oder mehrerer Zellen (multi-unit) wird ge-
messen (keine Stimulation)
(Problem: Multi-Unit Messungen sind gut für feste Verbände von Neu-
ronen, aber man hat das sog. Spike-Sorting Problem: Ausschläge können
nicht mehr oder nur noch schwer einzelnen Neuronen zugeordnet wer-
den)

 Methode ist invasiv  Durchführung (fast) nur an Tieren


 Elektroden werden unter Vollnarkose implantiert und verursachen im Nachhinein keine Schmerzen (da
keine Schmerzrezeptoren am Gehirn vorhanden sind)
 Anwendung im Menschen nur unter besonderen medizinischen Umständen, dient der Entdeckung von
Herden bei schwerer Epilepsie
 Depth Elektrodes für subkortikale Areale
 Multi-Elektrode-Grids für Kortikale Regionen
 präzise Bestimmung der perfekten Lokation über MRT Daten, Überprüfung der Signalstärke

16
Neuronales Coding und die Frage nach den Grandmother-Cells

Das Konzept der „Grandmother Cells“ stammt ursprünglich aus den Erkenntnissen in der Erforschung
des visuellen Systems, in der eine Verarbeitungshierarchie besteht.
 Welche Zellen stellen die oberste Hierarchieebene dar? Was kodieren sie?
 Gibt es Zellen, die nur das Aussehen meiner Großmutter codieren? (also nur feuern, wenn ich meine Großmutter sehe / an sie
denke?)
 Großmutterzelle als hypothetisches Konstrukt

Wie werden Informationen neuronal gespeichert?


Rolls & Deco (2002) unterscheiden drei Möglichkeiten:

 Lokale Informationen:
alle Informationen über einen Reiz befinden sich in einem Neuron  Konzept der
Grandmother Cells

 Vollständig verteilte Repräsentationen:


Information über Reiz befindet sich verteilt in allen Neuronen einer Population

 Teilweise verteilte Repräsentationen:


Information über Reiz befindet sich verteilt in einem Teil der Neuronenpopulation

Bisherige Befunde zu neuronalen Codes


 Bayliss et al. (1995) zeigen an vier Neuronen in
einem Affen:
 Zellantworten auf verschiedene Reize der
gleichen Kategorie (z.B. auf Gesichter,
hier A-E), allerdings unterschiedlich stark
 keine Antwort auf Reize anderer Katego-
rien (z.B. Objekte, hier F-J)
 steht eher im Widerspruch zu den Grand-
mother Cells (die würden erwarten das eine Zelle klar ausschlägt
für Gesicht A, und alle anderen das Gesicht mehr oder minder wie ein
„Objekt“ behandeln, also gar nicht reagieren)

 Quiroga et al. (2005) zeigen mithilfe von Tiefenelektroden am Menschen mit Epilepsie sehr selektive
Muster der Feuerraten für Zellen im Hippocampus, z.B. reagierte ein Neuron sehr spezifisch auf diverse
Bilder von Jennifer Anniston
 Interessanter Befund, der aber mit Vorsicht betrachtet werden muss, da die Stimulusreize in solchen
Experimenten oft eingeschränkt sind

Peri-Stimulus time histographs


 übliche Darstellungsform von Daten aus Einzelzellableitungen
 Kombination aus Raster-Plots und Histogrammen

17
 Raster-Plot: Zeilen entsprechen den Trials. Striche entsprechen Spikes (dem Aktionspotenti-
al)
 Histogramm: Spike-Rate über die Zeit, der Stimulusbereich wird klar abgegrenzt (hier
durch eine gestrichelte Linie)
 basiert auf Rate-Coding: Feuerrate des Neurons kodiert Information (siehe S. 4)
 aber auch Temporal-Coding: Die Synchronizität mehrerer Neuronen / Neuronenver-
bände kodiert Information
 Befunde aus Einzelzellableitungen sprechen generell eher für „sparse distributed
coding)

EEG — Elektroenzephalogramm

 entwickelt vom deutschen Neurologen Hans Berger


 1902: erste Experimente an Hunden & Katzen
 1924: Entwicklung einer Methode zur Ableitung der Hirnaktivität im Menschen
 1929: Veröffentlichung im Archiv für Psychiatrie und Nervenkrankheiten
 in den ‘30er Jahren: Beobachtung veränderter EEG-Aktivierungsmuster bei Tumor– und Epilepsiepatien-
ten
 1958: Entwicklung eines Standardverfahrens zur Lokalisierung von Elektroden auf dem Kopf (10-20-
System, nach Jasper)
 1989: erstes digitales EEG — Aufzeichnungen mussten vorher per Hand auf Millimeterpapier ausgewer-
tet werden

Grundlage der EEG-Messung


 Elektroden werden in Hauben / Kappen am Kopf platziert
 bis zu maximal 256-Elektroden
 zusätzlich: Elektronen an den Augen  Elektrookkulogramm (erleichtert später die Korrektur von Artefakten im EEG, die durch Augenbe-
wegungen und Blinks entstehen)

Man sieht hier auch recht gut, das diese Blinks die normale Alpha-Aktivität unterbrechen, und dass nicht nur an den Elektroden, die sehr sehr nah zum Gesicht sind, sondern auch an Elektroden,
die sich etwas weiter hinten befinden

18
Das 10-20-System nach Jasper (1958)

 hat seinen Namen, weil kritische Elektro-


den in jeweils 10– und 20er Prozentab-
ständen relativ zum Abstand von Nase
(Nasion) und Hinterhaupt (Inion) platziert werden
 F-Frontal
 P-Parietal
 O-Occipital
 Z-Zentral
 Cz Elektrode genau in der Mitte zwischen
Nasion und Innion
 Nummerierung beschreibt Hemisphäre
(ungerade = links, gerade = rechts)
 Zusätzlich: Referenzelektroden an Mastoiden (Mittelohrbereich) und Ohrläppchen, manchmal auch di-
rekt an der Nase

Das EEG-Signal
 es werden keine Aktionspotentiale gemessen (auch wenn es im ersten Moment so ähnlich aussieht, wie die Messung einer Einzelzellableitung)
 inhibitorische und exzitatorische postsynaptische Signale führen zu Ladungsverschiebungen (Bilden al-
so Dipole)  Ladungsverschiebungen können an der Kopfoberfläche gemessen werden
 EEG-Rhythmen spiegeln synchrone Aktivität großer Neuronenverbände wieder

 rechts: ein Axon von der kontralateralen


Kortexseite bildet eine Synapse an einem
Apikaldendrit in der 2. / 3. Kortexschicht
 durch exzitatorischen Input wird die Zelle
in dem Bereich depolarisiert, und die
Ladung im äußeren Bereich der Schicht
wird zunehmend negativer
 Bereich um den Zellkörper in tieferen
Schichten wird positiver (Bildung eines
Dipols)
 von links: Muster wiederholt sich, ist
aber umgekehrt, da die Synapse in tiefe-
ren Schichten liegt (umgekehrter Dipol)
 bei einem inhibitorischen Signal würden sich links und rechts an
beiden Polen die Signale umdrehen (weil ja dann das innere der postsynaptischen Zelle negativer geladen ist, und damit der Bereich um die Synapse positiver geladen ist)

 Die Polarität des an der Schädeloberfläche gemessenen elektrischen Potentials hängt davon ab, ob:
 IPSPs oder EPSPs ausgelöst worden
 ob der synaptische Kontakt in höheren oder tieferen Schichten des Kortex liegt
 von der Polarität des gemessenen Signals kann also nicht abgeleitet werden, welche Prozesse ablaufen
(um das zu Wissen, müsste ich wissen, welche Neuronenpopulation dort aktiv ist, und wo deren Synapse liegt—wenn ich eins davon wüsste, könnte ich das andere erschließen, so jedoch
nicht)

19
 Dipole können nur gemessen werden, viele parallel zur Elektrode angeordnete Zellen synchron aktiv
sind
 Schwierigkeit: entgegengesetzte Effekte im gleichen Kortexbereich, da sie sich beim Summenpotential
„gegeneinander“ aufrechnen
 tieferliegende Hirnstrukturen sind nur schlecht messbar, da die Stärke eines Dipols mit dem Quadrat
der Entfernung abnimmt (außerdem gibt es bei Furchen bspw. generell das Problem, dass diese dann nicht mehr gut senkrecht zur Elektrode stehen)
 je geringer die Fläche, auf der die aktiven Dipole liegen, desto mehr Signal geht verloren (desto
mehr Kortexaktivität habe ich im Vergleich zur Scalpaktivität)
 bei sehr großer synchroner Aktivität können dann aber auch tieferliegende Potentiale gemessen
werden

Ereigniskorrelierte Potentiale (EKP / ERP)


 EEG-Signal wird im Hinblick auf ein bestimmtes Ereignis
zeitlich synchronisiert (time-locked, z.B. auf die Präsenta-
tion eines Reizes und über viele Trials gemittelt (um den
Effekt von Rauschen auf das Signal zu reduzieren
 das Ergebnis ist für jede Elektrode eine Zeitreihe, mit
charakteristischen positiven & negativen Ausschlägen
 Zeitverlauf und Amplitude dieser Ausschläge stehen ggf.
mit verschiedenen Aspekten der Aufgabe (z.B. Reizverar-
beitung, Aufmerksamkeit) in Beziehung
An der Abbildung ist auch schön zu sehen, dass das Signal immer sehr verrauscht ist, und man ein Muster
erst dann findet, wenn man über mehrere Trials mittelt

 zunächst wird über alle Trials des / der Teilnehmenden gemittelt


 dann Berechnung eines Grand-Average über alle Teilnehmenden
 teilweise noch Glättung bei vereinfachender Ansicht

 Peaks werden mit N (negative Ladung) und P (Positive Ladung)


gekennzeichnet (immer etwas kontraintuitiv, da negativ oben)
 Nummerierung entweder durchgehend (N1, P1, N2, usw.) oder
nach der Zeit, die seit Stimulus-Onset vergangen ist)

Komponenten bei der Messung von EKPs

 EKPs lassen sich in Komponenten einteilen, charakterisiert durch:


 Amplitude
 Latenz
 Verteilung am Scalp

 müssen reproduzierbar und manipulierbar sein


 reproduzierbar: muss in verschiedenen Personen und verschiedenen Kontexten auftreten (also
nicht nur spezifisch für mein eines experimentelles Set-Up)
 manipulierbar: konsistent veränderbar durch experimentelle Manipulationen  Veränderungen in
Amplitude / Latenz / Verteilung im Scalp müssen bei gleichen Manipulierungen konsistent sein

20
 Komponenten entsprechen eventuell verschiedenen (kognitiven) Verarbeitungs-
stufen
 Problem: 1:1 Zuordnung nicht möglich, da es sich um ein Summenpotential
handelt (Korrelate der Prozesse überlagern sich, d.h. ich kann zwar beispielsweise 3 Prozesse beschreiben (hier C1— C3) aber deren Dauer
und Amplitude ist unbekannt, da bei zeitgleich ablaufenden Prozessen diese sich gegeneinander aufrechnen würden)
 manchmal zusätzlich Unterscheidung von exogenen vs. endogenen Komponen-
ten
 exogen: durch externen Stimulus ausgelöste Komponente
 endogen: durch die Aufgabe ausgelöste Komponente
 Unterscheidung aber nicht immer eindeutig, besonders bei kontextabhän-
giger Reizverarbeitung

Vor– und Nachteile von EKPs

 Veränderungen in den Dipolen spiegeln direkt neuronale Aktivität wieder (keine Vorannahmen nötig)
 Änderungen in den Dipolen sofort an Schädeloberfläche messbar  gute zeitliche Auflösung
 räumliche Quelle des gemessenen Signals kann nicht gut bestimmt werden  schlechte räumliche Auf-
lösung
 weniger sensitiv für tiefere / subkortikale Regionen
 „Forward-Problem“: Rückschluss von Dipol-Verteilung auf Potentialveränderungen an der Schädelober-
fläche  kein Problem (wenn wir wissen, wie die Dipole liegen, können wir das Potential einfach bestimmen)
 „Inverse-Problem“: Rückschluss von Potentialveränderungen auf Dipol-Verteilung  problematisch (das ist
ja das, was beim EKP vorliegt, ich will ja letztlich rausfinden, wo sich die Dipole befinden, kann das aber nicht genau festlegen)

Beispiel: Gesichtserkennung
 theoretische Annahme: Prozess des Wiederkennens schlüsselt
sich in 3 Teilbereiche: Wahrnehmung, Gesichtserkennung, Perso-
nenerkennung
 diese finden sich auch in entsprechenden EKP-Komponenten

P1 schlägt bei allen Stimuli hoch aus => Hinweis auf ein Wahrnehmungsphänomen,

Weitere wichtige EKP-Komponenten


 N1/P1 — frühe Aufmerksamkeitssensitive Komponenten, stärkere Ausschläge auf kontra– und ipsilate-
raler Seite des Präsentationsfeldes, wenn Aufmerksamkeit auf den Ort gerichtet ist
 P300 — Reaktion auf verhaltensrelevanten, überraschenden Reiz  stark positiver Ausschlag, im Kon-
trast zu nicht verhaltensrelevanten Reizen (spiegelt eventuell context-updating wieder, also die Anpas-
sung meines Modells von der Umwelt

21
 N400 — entsteht bei semantisch abweichenden Reizen, besonders an zentralen Elektroden (z.B. wenn mein Satz
„Ich schmiere mein Brot mit Socken“ lautet, das ist unerwartet und löst diesen Peak aus) entdeckt von Kutas & Hillyard (1980)
 ERN (error related negativity) — response-locked Komponente (kurze Zeit nach Antwort der Teilneh-
menden im Vergleich leichte Negativierung, wenn sich die Antwort als falsch herausstellt)

Analyse von EEG-Oszillationen


 Neuronenverbände feuern oft synchron — da-
bei sind unterschiedliche Frequenzen mit un-
terschiedlichen Funktionen assoziert
 grobe Faustregel: je höher der Frequenzbereich, desto höher die mentale Aktiviertheit
(Alpha = wach, beta = aktiv)
 viel genutzt z.B. in der Schlafforschung

Untersuchung der Frequenzanteile

 Nutzung der Fourier-Transformation, die das EEG-Signal in eine Summe von Sinus– und Cosinus-
schwingungen zerlegt
 damit kann man sich Power / Häufigkeit der jeweiligen Frequenzen genauer ansehen
 kann sowohl beim EEG als auch beim MEG über farbige Karten dargstellt werden (Blautöne = Unterdrü-
ckung des Frequenzeinflusses im Signal, Rottöne = Verstärkter Einfluss)
 kann auf zeitlicher oder räumlicher Ebene dargestellt werden (Stimulus-Onset vs. Brain-Map)

MEG — Magnetencephalographie

 deutlich weniger verzerrt / abgeschirmt durch verschiedene Gewebeschichten zwischen Generator und
Sensorenposition
 erfasst werden magnetische Signale, die durch die elektrische Aktivität des Gehirns hervorgerufen wer-
den
 Grundlage gleicht der beim EEG: Neuronen werden durch EPSP oder IPSP zu Dipolen
 Unterschied: beim MEG sind eher die intrazellulären Prozesse entscheidend
 basiert auf der Entdeckung des Elektromagnetismus: ein magnetisches Feld umgibt jeden stromdurch-
fließenden Leiter, wobei die Feldlinien senkrecht zur Stromrichtung liegen
 MEG basiert eher auf signalen von tangential zur Schädeloberfläche liegenden, synchron aktiven Pyra-
midenzellen (da das Magnetfeld dann senkrecht steht)
 „Magnetometer“ messen die Magnetfelder, die durch Neuronen erzeugt werden, es sind Spulen, in de-
nen durch die Magnetfelder Ströme induziert werden
 Ströme sind sehr gering  Spulen dürfen nur wenig Widerstand aufweisen  müssen durch Supra-
Leitung und Helium Kühlung auf ca. -269 gekühlt werden
 > 300 Sensoren in den modernen Geräten
 Signalstärke abhängig von
 Distanz zur Quelle (größer bei näheren Quellen)
 Orientierung des Magnetfelds (größer bei senkrechten Magnetfeldern)
 Abschirmmaßnahmen gegen externe Störungsquellen nötig

22
Analyse von MEG-Daten

 Event-Related-Magnetic-Fields (analog zu EKPs) = magnetische „Gegenstücke“ zu EKP-Komponenten,


erhalten meist einfach nur M als Zusatz ( z.B. N100m statt N100)
 Oszillatorische Aktivität im Sinne von Zeitfrequenzanalysen ähnlich wie beim EEG
 ebenso wie beim EEG: Dipol-Modellierung, um verschiedene Dipol-Lösungen, die zum Signal geführt
haben könnten, zu vergleichen

Zusammenfassend: Unterschiede zwischen EEG und MEG

 Ausbreitung des EEG-Signals hängt von elektrischen Eigenschaften des Gewebes ab (graue Substanz,
weiße Substanz & CSF haben unterschiedlich gute Leitungseigenschaften)
 MEG Signal ist von diesen Störfaktoren unabhängig
 Räumliche Auflösung: MEG > EEG

23
4. Bildgebung
Strukturelle Bildgebung Funktionelle Bildgebung
statisches Bild, Messen von Aspekten der Anatomie „dynamische“ Zeitreihe von Bildern, Messung be-
stimmter Aspekte der Gehirnfunktion

Computertomografie

 strukturelles Bildgebungsverfahren (aber keine Unterscheidung von grau-


er vs. weißer Substanz! Insgesamt eher gut, um Läsionen oder Blutungen zu erkennen)
 basierend auf Röntgenstrahlen (differentielle Absorption von Röntgenstrahlung von verschiedenen
Gewebetypen, Cormack & Hounsfield gewinnen 1979 dafür den Nobelpreis)
 Patient*in liegt in der Röntgenröhre, in der jeweils immer eine Schicht in
360° Winkel gemessen wird (Spule wandert einmal komplett um den Kopf
des/der Patient*in)
 Sensorfeld außen misst, welche Strahlung in jeder Schicht jeweils nicht
absorbiert wird (Abschattung)
 ggf. Gabe von Kontrastmitteln, um bestimmte Bereiche sichtbar zu ma-
chen

Magnetresonanztomografie

 hat einige Vorteile im Kontrast zur Computertomografie


 keine ionisierende Strahlung nötig
 Unterscheidung von grauer– und weißer Substanz
 Grundprinzip kann für funktionelle Bildgebung ver-
wendet werden
 bessere räumliche Auflösung (z.B. klar erkennbare
Faltungen)
 Grundlage: Kernspin des Wasserstoffatoms
 Wasserstoff besteht aus einem Proton (positiv geladen, im Atomkern) und einem Elektron (negativ gela-
den, in der Atomhülle)  Wasserstoff ist elektrisch neutral

 ein Proton rotiert wie ein Kreisel um die eigene Achse (Spin)
 rotierende Maße: Drehimpuls (es entsteht eine Spinachse senkrecht zum Impuls)
 rotierende elektrische Ladung (hier positiv): magnetisches Moment
 Vorstellung: das Proton mit Spin fungiert wie ein rotierender Stabmagnet
 wenn sich der Magnet bewegt, wird in der Empfangsspule eine Spannung induziert

Funktionsweise des MRT-Scans (Ablauf im Scanner)


 im Normalzustand sind die Spinachsen zufällig wild verteilt und zeigen in verschiedene Richtungen
 durch ein starkes äußeres Magnetfeld richten sie sich aber aus, nämlich entweder parallel (die meisten
Spinachsen) oder antiparallel (ein paar wenige Spinachsen)
 der Magnetresonanztomograf erzeugt ein starkes äußeres Magnetfeld

24
(links: zufällige Ausrichtung, rechts: Ausrichtungen, wenn ein Magnetfeld angelegt wird)
 diese Ausrichtung ist Grundlage für alle späteren Schritte,
und wird deshalb dauerhaft benötigt  statisches Magnet-
feld (in der unteren Abbildung im lilanen Bereich)
 als b0 - Magnetfeld bezeichnet
 entsteht durch eine supraleitende Spule, die
Heliumgekühlt ist
 ist der Grund dafür, warum auch beim nicht
benutzten MRT Gerät keine magnetischen
Gegenstände in die Nähe des Scanners ge-
bracht werden dürfen (dieses Feld ist IMMER aktiv)
 Feldstärke von ca. 1.5 - 7 Tesla (typischerweise 3 /
3.5)  stärker als das Erdmagnetfeld (25-65
μT)

Präzessionsbewegung
 wirkt auf eine rotierende Masse (z.B. einen Kreisel) eine äußere Kraft (z.B. Gravitation), macht die Dreh-
achse eine rotierende Ausgleichsbewegung, die stärker wird, je langsamer sich die rotierende Maße
dreht (sonst würde der Kreisel einfach sofort umkippen, wenn man ihn loslässt. Man kann es hier: https://www.youtube.com/watch?v=VYgMZ6ftlOI in den ersten paar Sekunden gut
sehen: je langsamer das Ei wird, desto drastischer sind diese zuckende Bewegung, die es macht)
 das ist die Präzessionsbewegung
 das gleiche gilt für ein Proton mit Spin in einem Magnetfeld
 Präzession: im Magnetfeld rotiert die Spinachse relativ zur Ausrichtung des Magnetfelds b0

Die Lamorfrequenz ω0
≜ Präzessionsfrequenz
 in Mhz / Tesla angegeben (Mikrohertz pro Tesla)
 ω 0 = γ x b0
 γ = gyromagnetische Konstante (unterscheidet sich für jedes Element)
 b0 = Stärke des äußeren Magnetfelds

Erinnert man sich also zurück an die Idee, das sich entweder parallel oder antiparallel zum Magnetfeld ausgerichtet wird bedeutet das nicht, dass
unsere Spinachse da jetzt plötzlich „perfekt“ gerade nach oben zeigt, sondern sie dreht sich praktisch in einer kreisförmigen Bewegung um diese
Ausrichtung drumherum.

Stabile Zustände und der Energiebedarf


Zwei Gedankenexperimente:
1. Wenn wir eine Schraube in die Wand drehen und ein Holzplättchen dort anbringen und es anstupsen,
gibt es zwei Möglichkeiten: es zeigt irgendwann nach unten und bewegt sich nicht mehr (das ist sehr ein-
fach, denn es entspricht der Richtung der Gravitationswirkung). Manchmal bleibt es aber auch zufällig

25
perfekt in der Mitte stehen und zeigt nach oben, balanciert sich also aus. Dieser Zustand ist aber sehr
schwierig aufrecht zu erhalten und verbraucht viel Energie — er kann durch viele Kleinigkeiten ins Stau-
cheln gebracht werden. Es ist also einfacher, wenn das Holzstück einfach nach unten hängt, das entspricht
einem stabilem Zustand. Füge ich dem Prozess jetzt Energie hinzu (z.B., in dem ich das Holzstück festhal-
te) kann ich es allerdings auch entgegen der Gravitationskraft ausrichten lassen.

2. Wenn ich mich zum Gehen entscheide, habe ich theoretisch 2 Möglichkeiten. Ich kann es auf Händen,
oder auf Füßen tun. Dabei bin ich das gehen auf den Füßen am meisten gewöhnt, mein Körperschwer-
punkt ist darauf angepasst. Auf den Füßen gehen ist also ein stabiler Zustand. Fügt man beispielsweise
aber Energie zu (z.B. in Form einer Herausforderung), kann ich mich für kurze Zeit auch dazu durchringen,
auf meinen Händen zu gehen. Da mir das aber tendenziell schwerer fällt, ist es ein eher instabiler Zustand.

 für Protonen gilt: der stabile Zustand ist die Ausrichtung parallel zum Magnetfeld. Führt man jedoch
Energie zu, können diese Protonen auch in den instabilen Zustand (antiparallel) wechseln
 wechseln Protonen vom antiparallelen Zustand zurück in den stabileren Zustand, wird Energie freige-
setzt (nämlich genau die, die ich sonst gebraucht hätte, um den Prozess aufrecht zu erhalten)

Nettomagnetisierung
≜ der Differenz zwischen parallel und antiparallel ausgerichteten Spins (parallel - antiparallel)  0, wenn
gleich viele Spins parallel wie antiparallel ausgerichtet sind, umso größer, je mehr parallel ausgerichtete
Spins es gibt
 je stärker das Magnetfeld, desto höher die Nettomagnetisierung  Zeeman-Effekt

RF–Exzitation und Relaxation


(A) Ausgangszustand: tendenziell sind mehr Spins parallel (orange)
als antiparallel (blau) ausgerichtet
(B) Ein Radiofrequenz-Puls (RF-Puls) wird eingespielt. Sofern die-
ser die gleiche Lamorfrequenz hat, wie das entsprechende Ele-
ment, werden die Spins angeregt (sie erhalten Energie)  die
Spins kippen in den antiparallelen
(C) Relaxation: Das System geht in den Zustand vor dem RF-Puls
zurück, Energie wird also freigesetzt.
Wieder abhängig vom Zeeman-Effekt (bezogen auf b0). Je grö-
ßer das Magnetfeld, desto mehr parallel ausgerichtete Spins im
vergleich zu antiparallelen  mehr Spins können umklappen 
mehr Energie wird freigesetzt

Zurück auf S. 25 sieht man im blauen Bereich die Radiofrequenz-Systeme, und im lilanen Bereich sind sie als Rf-Head coils eingetragen. Es handelt sich dabei also um die kleine Kopfspule, die
noch aufgesetzt wird.
T1-Relaxation (Teil des Relexationsprozesses)

26
 (Zum Verstehen bietet es sich an, zuerst das rechte Bild zu betrachten): Der rote Pfeil verdeutlicht unsere Nettomagnetisierung. Diese
zeigt parallel zum b0 Magnetfeld (also in Richtung der z– Achse — der Proband wird ja mit dem Kopf nach oben in die Röhre geschoben, die Öffnung ist
also auf Ebene der z-Achse des Kopfes (oben vs. unten)). Erzeugt wird die Nettomagnetisierung durch die verschieden ausge-
richteten Spins in ihrer Präzessionsbewegung.
 Zum Bild ganz links: Wird der 90° RF-Puls eingestrahlt, ist dies so lang, bis die Longitudinalmagnetisierung
(Netto-Magnetisierung entlang des Magnetfeldes) 0 ist  gleichviele Spins sind jetzt parallel und anti-
parallel
 Nach dem Puls „klappen“ die Spins wieder zurück (da der parallele Zustand ein stabilerer Zustand ist, siehe S. 26) (auch als Longin-
tudinale Relaxation bezeichnet)  Longitudinalmagnetisierung von vorher wird wieder hergestellt 
eingestrahlte Energie wird wieder freigegeben  induziert Spannung in der Messspule

T1-Relaxationszeits-Aufzeichnung

 beschreibt die Zeit, bis wieder 63% der Ausgangsmagnetisierung


wiederhergestellt sind (arbiträr festgelegter Wert, der sich so gut eingebürgert hat)
 abhängig von Feldstärke und Molekularbewegung
(Gewebeabhängig)
 T1-gewichtete Scans nutzen diese Daten  Voxel (3 dimensionale Pixel mit 1-
3mm Dicke in allen Dimensionen) werden entsprechend dieser Werte eingefärbt
(fast food vs. long Drink: feste Materie hat kürzere T1-Werte als Flüssigkeiten)
 hohe Signalintensität ≜ kurze T1-Werte ≜ Knochen, weiße
Substanz
 mittlere Signalintensität ≜ graue Substanz
 niedrige Signalintensität ≜ Zerebrospinalflüssigkeit

T2-Relaxation (Teil des Relexationsprozesses)

 Prozess, der direkt nach dem Einstrahlen des RF-Pulses stattfindet (praktisch also sogar noch vor dem T1-Prozess)
 rechts: Ausgangssituation von der T1-Relaxation: ab dann findet die Herstellung der Longitudinalmagne-
tisierung wieder statt
 links: direkt nach dem Puls ist die Nettomagnetisierung der Probe in der Ebene (die Spins wurden um-
geklappt, Magnetiserung in z-Richtung ist 0. Durch diese Einschränkung synchronisieren sich aber alle
Präzessionsbewegungen der Spins  Phasenkohärenz
 Phasenkohärenz nimmt mit der Zeit ab, die rotierende Nettomagnetisierung der Ebene wird etwas klei-
ner (da die Spins nicht mehr synchron sind)
 am Ende sind die Präzessionsbewegungen der Spins vollständig dephasiert  transversale Relaxation
 Ursache: Spin-Spin-Interaktionen

27
T2-Relaxationszeits-Aufzeichnung (T2-Decay):

 Zeit, bis die Transversalmagnetisierung nach Einstrahlen des RF-


Pulses 37% des Ausgangswertes des Ausgangswertes erreicht  ab-
hängig vom Wassergehalt
 lange T2-Werte ≜ hohe Signalintensität ≜ Zerebrospinalflüs-
sigkeit
 niedrige Signalintensität ≜ weiße Substanz
 T2*: basiert auf der T2-Relaxation, wird aber durch lokale Magnet-
feldinhomogenitäten beeinflusst (später genauer, fürs erste reicht die Information, das z.B. der
Blutfluss zu solchen Verzerrungen führen kann)

Zwischenfazit
 in der Messspule wird durch die Relaxation eine Spannung induziert  gemessenes MR-Signal
 Relaxationszeiten sind unterschiedlich für verschiedene Gewebetypen  Identifikation verschiedener
Gewebetypen (graue Substanz, weiße Substanz, CSF, Knochen)
 ggf. werden unterschiedliche Messtechniken (MR-Sequenzen) für die Messung verschiedener Aspekte
der Gehirnstruktur verwendet (T1, T2, T2*)
 Bisher: Signal an einer Position — wie wird das Signal lokalisiert?

Vom Signal zum Bild — Ortskodierung


 es können sogenannte Gradientenfelder in alle Raum-Achsen
schrittweise zugeschaltet werden — diese agieren zusätzlich zum
statischen Magnetfeld
 Lamorfrequenz ω0 ist abhängig von der Magnetfeldintensität 
eigene Frequenz für jede Schicht erlaubt eine selektive Anregung
eben dieser Schicht
In der Abbildung S. 25 sind diese im Blauen Bereich als jeweilige Gradientenfelder zu finden

MRT-Puls-Sequenzen
 durch Veränderungen in den RF-Pulsen (zur Anregung der Spins) und dem Zeitpunkt der Messung kön-
nen verschiedene Puls-Sequenzen erstellt werden, die für die verschiedenen Kontraste empfindlich sind
 TR (repetition time): das Zeitintervall zwischen aufeinanderfolgenden RF-Pulsen (typischerweise in Se-
kunden)
 TE (echo time): das Zeitintervall zwischen dem RF-Puls und dem Auslesen der Daten (typischerweise in
ms)
T1 — Kontrast
 T1-Kontrast wird maximiert bei relativ kurzer TR
 T2-Kontrast wird minimiert bei relativ kurzer TE

28
Auch hier an der Abbildung nochmal gut erkennbar (blau und rot sind
verschiedene Gewebetypen). Auf Basis des T1-Scans (links) kann ich maxi-
mal gut zwischen beiden differenzieren, wenn die TR etwas bei 0.4 Sekun-
den liegt.
Dahingegen wird der T2-Kontrast (rechts) mit zunehmender Zeit immer
größer. Um ihn zu minimieren, sollte die ET also relativ niedrig sein

T2 — Kontrast
 T2-Kontrast wird maximiert bei rela-
tiv langer TE
 T1-Kontrast wird minimiert bei rela-
tiv langer TR

Auch wieder gut ersichtlich an der Abbildung. Die Differenz aus den
jeweiligen Kurven für T1 (links) ist am kleinsten, je mehr Zeit vergeht.
Ebenso ist der Kontrast bei T2 (rechts) etwa bei 20ms am größten (die
Differenz zwischen blau und rot lässt sich immer an der grünen Linie
ablesen

Sicherheit im MRT
 das statische Magnetfeld ist immer eingeschaltet
 Vorsicht mit (ferro)magnetischen Gegenständen im Scannerraum
 Kontraindikationen: Metall im Körper, Herzschrittmacher, Klaustrophobie, ...

Verwendung struktureller Bildgebungsverfahren in der kognitiven Neurowissenschaft

 Läsionen in Patientengruppen mit Hirnschädigungen zu lokalisieren


 Assoziation von Läsionslokation und funktionellen Defiziten
 Variabilität in der Hirnsstruktur mit Verhaltensmaßen korrelieren (auch bei gesunden Teilnehmenden)

Läsionslokation
 durch visuelle Inspektion aus Vergleichen von T1– und T2-Bildern im Vergleich zum (erwarteten) Hirn-
gewebe
 üblich in der klinischen Praxis und bei Einzelfällen

Läsionsüberlappung bei Patientengruppen


 Frage: Wo hat eine Patientengruppe eine überlappende Hirnschädigung?
 Gehirne müssen in den gleichen Raum gebracht werden
 Transformation der Bilder  Passung auf ein Standardgehirn
 zusätzliche nicht-lineare Transformationen
 Suche nach einem Bereich mit maximaler Überlappung

29
Der anatomische Standardraum
Für den anatomischen Standardraum gab es verschiedene Ansätze. Dazu gehören:

Talairach-Space (Talairach & Tournoux, 1988):


 Atlas basierend auf der post-mortem Analyse des Gehirns einer 60jährigen Frau (Problem: Repräsentativität, Alterungspro-
zesse, …)
 Brodman-Areale identifiziert, aber keine histologische Überprüfung (keine Überprüfung potentieller krankhafter Veränderungen)

Montreal-Neurological-Institute Space (MNI-Space):


 „mittleres“ Gehirn einer Kohorte von 152 bzw. 305 Probanden (letzteres aus der neuesten Version)
 wird in SPM, der populärsten Bildgebungssoftware, verwendet
 Colin27 „Scan eines Probanden“ - aus dem Datensatz derjenige Scan, der die größte Ähnlichkeit zum Mittel hatte

Voxel-Based Lesion-Symptom Mapping


Voraussetzungen:
 relativ große Patientenstichprobe
 ausreichend Varianz in Läsionslokalisation

Ablauf:
 für jedes Voxel bilden einer neuen Patientengruppe (Gruppe, die in dem Voxel auch eine Schädigung hat, vs gesunde Gruppe, die im Voxel keine
Schädigung hat)
 Untersuchung des Zusammenhangs mit dem interessierenden Verhaltensmaß und dem jeweiligen Voxel
(Vergleich geschädigt vs. gesund) mithilfe parametrischer Verfahren oder t-Tests
 Korrektur für multiple Vergleiche (evtl. sehr rechenintensiv) Es gibt immens viele Voxel. Unser Alphafehler würde zulassen, das 5 von 100
Voxel ein falsches Ergebnis produzieren. Bei mehreren Tausend Voxeln würde ohne Korrektur eine massive Ansammlung an Fehlbefunden entstehen

Voxel-basierte Morphometrie (VBM)


 Grundlage: Segmentierung (T1-Bild (am häufigsten)
wird aufgeteilt in ein Bild weißer vs. grauer Sub-
stanz durch Auswahl der Voxel, in denen eben das
eine vs. das andere vorliegt)
 „Dichte“ der grauen und weißen Substanz in jedem
Voxel anhand des strukturellen MRT-Scans abge-
schätzt
 Gruppenvergleich der Dichtekarten oder Korrelation
mit Verhaltensmaßen

Wie entstehen Segmentierungskarten?


 basierend auf dem Histogramm der Intensitätswerte
(jeder Gewebetyp hat eine normalverteilte Kurve der Häu-
figkeit bestimmter Bildintensitäten)
 Problem: teilweise Überschneidungen (ich würde so davon ausgehen
müssen, das es im Gehirn und in den Randbereichen (Schädel) gleich wahrscheinlich ist, auf graue Substanz
zu stoßen, weil sich diese Bereiche eben in der Intensitätskurve schneiden)
 Einbeziehung von anatomischen Vorannahmen
 Kombinieren von (Häufigkeits-)Daten mit diesen Priors

30
Kortikale Dicke

 basierend auf den T1-gewichteten, segmentierten Bildern


 Messung des Abstands zwischen der Grenze CSF/graue Substanz und graueSubstanz/weiße Substanz
 kann ebenfalls mit Verhaltensmaßen korreliert werden

Weitere Maße der kortikalen Struktur


 Krümmung der Oberfläche (Curvature)
 Dicke des Kortex (Thickness)
 Tiefe kortikaler Faltungen (Depth)

Exkurs: Diffusions-Tensor-Bildgebung (DTI) als zusätzliches Verfahren


 ermöglicht nicht invasive Darstellung (inklusive der Orientierung) von Fasertrakten
 basierend auf der Einschränkung der Diffusion von Wassermolekülen durch Axone mit bestimmter
Orientierung (Diffusion geht immer nur gut entlang der Faserrichtung)
 Gruppenvergleiche, Tract-Tracing

Funktionelle Bildgebung

 schon frühe Ansätze in den 1880er Jahren, z.B. Angelo Mosso: Human-Circulation-Balance (Waage mit
der Idee, das kognitive Anforderungen zu Akkumulation von Blut im Gehirn resultiert, die ich messen
kann)
 Problem: durch kognitive Anforderung müsste das Gesamtblutvolumen steigen (ist nicht der Fall, primär
ändert sich der Sauerstoffgehalt)

Grundidee moderner funktioneller Verfahren:

 neuronale Aktivität  erhöhter Sauerstoff– und Glukoseverbrauch


 PET misst die Anreicherung bestimmter radioaktiv markierter Tracer in einer Region, z.B. Glukose, Sau-
erstoff
 fMRT misst die Sauerstoffsättigung des Blutes
 Latenz dieser Reaktionen ist langsam (mehrere Sekunden!)
 schlechte zeitliche, aber gute räumliche Auflösung (Gegensatz zum EEG)

PET— Scans
 Nuklearmedizinische Methode: Injektion radioaktiver Tracer
 Akkumulation der Tracer in bestimmten Hirnregionen wird gemessen
 dadurch Messung von z.B. Glukoseverbrauch
 ca. 30 Sekunden, bis Akkumulation den Peak erreicht

Ablauf:
1. Isotop mit kurzer Halbwertszeit (Radionuklid) wird als Tracer an ein Molekül gehängt (z.B. Glucose,
kann aber auch ein Ligand für einen bestimmten Rezeptor sein
2. Tracer wird injeziert
3. Radionuklid gibt konstant Positronen ab
4. Positronen kollideren spätestens nach 2-3mm mit einem Elektron

31
5. Gammastrahlen werden im Winkel von
180° freigesetzt
6. Strahlung kann gemessen werden  ma-
thematischer Rückschluss auf die Vertei-
lung des Tracers
 wo der Tracer sich anreichert, ist ein ver-
stärkter radioaktiver Zerfall messbar

Verschiedene Tracer:
 18F-Flourdesoxyglucose (FDG-PET): Glukosemetabolismus
 15O-Wasser: Perfusion (Blutfluss), regional cerebral blood flow (rCBF)
 11C-Racloprid: Dopamin-D2-Rezeptor-Verfügbarkeit
 18F-DOPA: präsynaptische Dopamin-Verfügbarkeit (aus L-DOPA wird Dopamin synthetisiert)

Moderne Anwendung:

 in der psychologischen Forschung weitesgehend durch fMRT ersetzt (da es eine invasive Methode ist,
die nur einmal im Jahr je Proband*in durchgeführt werden kann)
 Hauptnutzung heutzutage nicht mehr kognitive „Aktivierung“ sondern Messung bestimmter Transmitter
& Rezeptoren
 Tracer binden z.B. an bestimmte Rezeptoren  Messung der Rezeptorverfügbarkeit (z.B. Bindung an
Dopaminrezeptoren  Konkurrenz zu endogenem Dopamin  Gruppenunterschiede in der Akkumula-
tion des Tracers erlauben Rückschlüsse auf Anzahl der Rezeptoren oder Dopaminkonzentration

Beispiel: Dopamin und Kokainabhängigkeit


 Grundannahme: aufgrund der konstanten Überstimulation des
Dopaminsystems findet eine Anpassung statt, z.B. durch Rück-
bau Dopaminrezeptoren
 Volker et al., (2007): Raclopid in Kontrollgruppen oder Kokain-
Süchtigen
 Ergebnisse deuten entweder auf weniger Rezeptorenver-
fügbarkeit oder größere Ausschüttung von Dopamin
(würde das binden des Tracers ebenfalls unterbinden)
 Frage nach Konsequenz des Konsums oder Risikofaktor
(ich kann ja nicht vorher messen, weil ich nicht weiß, wer mal abhängig wird)
 Nader et al. (2006) zeigen an 12 Affen, das Kokain-Selbstadministration mit Rezeptorverfügbarkeit kor-
reliert
 Baseline-Rezeptorverfügbarkeit korreliert mit Selbstadministration (Risikofaktor, je weniger Rezeptoren,
desto mehr Selbstadministration)
 Rezeptorverfügbarkeit sinkt bei längerer Selbstadministration

32
Funktionelle Magnetresonanztomografie (fMRT)
 Paulig und Coryell (1936) zeigen, dass Oxyhämoglobin (Blutkörperchen, das Sauerstoff transportiert) und Desoxyhämoglobin
(Blutkörperchen, dass seinen Sauerstoff bereits abgegeben hat) unterschiedliche magnetische Eigenschaften haben
 Sauerstoffsättigung im Blut kann als „körpereigenes Kontrastmittel“ verwendet werden
 Ogawa et al. (1990) stellen den BOLD (Blood-Oxygenation-Level-Dependent-)Effekt vor—gemessenes
fMRT Signal ist abhängig von der Verfügbarkeit von Hämoglobin

Ablauf des Bold-Effekts:

 neuronale Aktivität steigt an  Sauerstoffverbrauch steigt (Sauerstoff des Oxyhämoglobins im Blut wird
abgegeben)
 (zunächst) Anstieg Desoxyhämoglobin (Signalintensität sinkt)
 mehr Sauerstoffreiches Blut fließt in das Hirnareal  Überkompensation des Bedarfs

Zusammenhang von fMRT und T2-Relaxation


 T2-Relaxation: direkt nach Einstrahlung des RF-Pulses
 zusätzlich zu den Spin-Spin Interaktionen wird die T2*-Relaxationszeit
beeinflusst von Magnetfeldinhomogenitäten  Transversalmagneti-
sierung nimmt schneller ab, als man es nur auf Basis von Spin-Spin
Interaktionen erwarten würde (T2* < T2)

 Oxyhämoglobin ist diamagnetisch (hat damit keinen direkten Einfluss)


 Desoxyhämoglobin ist paramagnetisch  verzerrt das umliegende
Magnetfeld
 je größer der Anteil an Oxyhämoglobin, desto größer die T2*-
Relaxationszeit  Quotient aus 1/Relaxationszeit wird kleiner
 je größer der Anteil an Desoxyhämoglobin, desto kleiner die T2*-
Relaxationszeit  Quotient aus 1/Relaxationszeit wird größer

Abbildung rechts: oben bekommt die Ratte puren Sauerstoff (Oxyhämoglobin dominiert) unten atmen die Ratten „normale“ Luft, es
gibt besonders starke Signaleinbrüche bei den Blutgefäßen

Neurovaskuläre Kopplung
≜ Kopplung neuronaler Aktivität an die Blutgefäße
 funktioniert, weil die Astrozyten sich direkt an Prä– und Postsynapsen anschmiegen (dreiteilige Synap-
se)  metabotrope & AMPA-Glutamatrezeptoren

(stark) vereinfachter Ablauf:


 neuronale Aktivität proximaler Neurone führt zu einer Ca2+ Welle in den Astrozyten (bestimmter Typ von Gliazellen)
 über Gap-Junktions breitet sich diese Welle im Astrozytennetzwerk aus
 Stickstoff (NO) wird in den Astrozyten freigesetzt  Erweiterung der Blutgefäße (Vasodilatation)

33
Blutversorgung des Gehirns

 3 Hauptarterien (anteriore zerebrale Arterie, mittlere zerebrale Arterie, posteriore zerebrale Arterie) 
immer feiner-werdende Verästelungen  feiner als die Gefäße ausgedröselt sind, kein fMRT Signal
 Wege: Herz  Arterie  Gehirn (sauerstoffreiches Blut)
Gehirn  Venen  Herz (sauerstoffarmes Blut) Deswegen gibt’s oft fMRT Signalverzerrungen hin zu den Venen, da die ja potentiell
mehr Desoxyhämoglobin beinhalten

Hämodynamische Antwortfunktion (HRF)

≜ Veränderung der Bold-Antwort über die Zeit (Hemodynamic response function)


 Peak der Bold-Antwort 6 — 8 Sekunden nach Onset  Begrenzung der zeitlichen Auflösung
 kann dennoch für den Aufbau und die Auswertung guter Experimente als Grundlage dienen:

 über die Form der generellen HRF können Erwartungen über das gemessene Bold-Signal in Abhäng-
igkeit des experimentellen Designs formuliert werden
 alte HRF ist noch nicht vollständig abgeklungen, wenn der nächste Reiz präsentiert wird
 Kurvenverlauf abhängig vom inter-stimulus-intervall

34
 Dekorrelation verschiedener Bedingungen von größter Wichtigkeit (ich muss meine Stimuli also so randomisieren, dass ich
trotzdem gut maximal zwischen den Stimuli in der Antwortfunktion differenzieren kann. Generell muss man aber bedenken, dass man nicht nach jedem Stimuli bis zum Abklingen
der HRF Pause machen kann, da man sonst nur wenige Stimuli nutzen kann (oder aber der/die Teilnehmende viel zu lange im Scanner liegen muss  Konfundierung mit poten-
tiellen Fatigue-Effekten)

Nutzen verschiedener experimenteller Designs

 Block-Design:
 Stimuli aus einer Kategorie werden in kurzem Ab-
stand hintereinander präsentiert
 Vorteil: oft stärkere Effekte
 Nachteile: Gruppierung muss vorab festlegen, kei-
ne verhaltenabhängigen Untersuchungen möglich
 Event-Related-Design:
 Reihenfolge (und oft inter-stimulus-Intervalle) wer-
den randomisiert
 Vorteil: ich kann nachträglich gruppieren (z.B. vom
Probanden negativ bewertete / wiedererkannte
Stimuli) und diese Aktivität entsprechend gezielt
untersuchen

 insgesamt: Übergang von einem ins andere Design recht


fließend (z.B. beim schauen von kurzen Videos kann ich
deren Dauer / Dauer der einzelnen Stimuli nicht beein-
flussen, ich kann aber die Zeitintervalle zwischen den
Videos und die Reihenfolge der Videos verändern)

Zusammenfassend: Unterschiede zwischen PET und fMRT

Insgesamt ist fMRT geläufiger, da es starke Vorteile gegenüber dem PET-Scans hat und diese weitestgehend ablöst. Allerdings sind aufgrund der Lautstärke und den Bewegungsverzerrungseffek-
ten, z.B. durch Sprechen, Studien zu auditorischer Wahrnehmung oder zur Sprachproduktion nur schlecht via fMRT möglich. Hier eignet sich daher wiederum der PET-Scan.

35
Auswertung und Nutzung funktioneller Bildgebungsdaten

Problem bei der statistischen Auswertung von fMRT-Daten: Was genau ist Aktivierung? Ab wann ist eine
Aktivierung explizit an einem Prozess beteiligt?

 Blutfluss (i.S.v. Zufluss von Oxyhämoglobin) findet dauerhaft statt


 Idee: Subtraktionslogik - betrachten von relativen Unterschieden in der Aktivierung
 Suche nach adäquater Vergleichsbedingung schwierig (auch bei einer Ruhebedingung sind z.B. Vorstel-
lung, visuelle Wahrnehmung usw. weiterhin aktiv)
 zentrale Bedeutung des experimentellen Designs: Junk in-Junk Out  ohne gute Vergleiche sind die
Befunde nichtssagend

Experimentelle Design der funktionellen Bildgebung


 kategoriale Designs / kognitive Subtraktion
 faktorielle Designs
 parametrische Designs

Subtraktionsansatz
Beispiel: Untersuchung der Wortverarbeitung
 Vorannahme über verschiedene Zwischenstufen des Prozesses
 Versuch der Konstruktion einer Kontrollbedingung, die nur exakt
diesen Prozess nicht aufweist
 andere Prozesse mitteln sich aus
 übrig bleibende Hirnaktivität soll dem neuronalen Korrelat des
Prozesses entsprechen

Probleme des Subtraktionsansatzes

 bei komplexen Fragestellungen stößt der Ansatz schnell auf seine Grenzen
 Grundannahme der „pure Insertion“ (Prozesse addieren sich lediglich auf und haben keinerlei Interaktio-
nen) ist unplausibel
 Idee des faktoriellen Ansatzes

36
Faktorielle Ansätze
 Zerlegen eines Gesamtprozesses in ver-
schiedene Teilprozesse und finden von
Manipulationen, die diese Teilprozesse
beinhalten / nicht beinhalten
 Am Beispiel rechts: 2x2 Design zur Fra-
gestellung, warum man sich nicht selbst
Kitzeln kann, zerlegt in die Manipulationen
Touch (vorhanden vs. nicht vorhanden)
und eigene Bewegung (vorhanden vs.
nicht vorhanden)
 anhand dieser Beschreibung können nun Haupteffekte & Interaktionseffekte wie bekannt berechnet wer-
den:

 Haupteffekt zur Bewegung (Bewegungsplanung und –Produktion) = (A — C) + (B—D)


 Haupteffekt zur Taktilen Stimulation = (A—B) + (C—D)
Erinnerung: Haupteffekte werden immer bestimmt in dem man die Gruppe, die einen Prozess *nicht* beinhaltet, von der Gruppe abzieht, die den Prozess beinhaltet, und beide dieser Effekte
zusammenaddiert
 Interaktionskontraste: z.B. ist der Effekt der taktilen Stimulation stärker, wenn man sich bewegt (A—B)
als wenn man sich nicht bewegt (C—D)  (A—B) > (C—D)

Parametrische Designs
 Grundannahme: interessierende Variable ist kontinuierlich (statt kategorial, wie beim faktoriellen Design)
 Beispiel: Anzahl gesprochener Worte pro Minute

 erlaubt, unterschiedliche Verläufe der Aktivierung in Abhängigkeit der jeweiligen kontinuierlichen Variab-
le zu betrachten (hier z.B. umgekehrt u-förmiger Zusammenhang im dlPFC, lineares Muster im auditorischen Kortex)
 werden auch verwendet, wenn sich die interessierende Variable von Trial zu Trial ändert
 subjektive Ratings (Emotionen, Arousal, Schmerz, …)
 Reaktionszeiten
 Physiologische Parameter (Pupillendilatation, Hautleitfähigkeit, …)
 Parameter von computationalen Modellen (z.B. die Lernrate im Lernmodell)

37
 zeitliche Veränderung ind der Amplitude des BOLD-Signals (time modulation)
 Hypothesen über die Form der Stimulus-Antwort-Funktion können getestet werden
 insgesamt: kognitive Prozesse werden im parametrischen Designs als kontinuierlich und potentiell un-
terschiedlich verlaufend betrachtet (im kategorialen Design geht man entweder von Stufen oder von
rein linearen Verläufen aus)

Zusammenfassung: Designs

Analyse von fMRT Daten

38
Vorverarbeitung (Preprocessing)
Die Vorverarbeitung umfasst drei unterschiedliche Prozesse.

Realignment:
 die verschiedenen Bilder werden durch Drehen und Schieben auf ein Referenzbild angepasst (z.B. einen
bestimmten Scan oder den Mittelwert aller Scans)
 Bewegungskorrektur

Normalisierung:
 Transformation der Bilder in einen Standardraum (z.B. MNI-Space, siehe S. 30)  erlaubt Vergleiche
über Proband*innen hinweg (allerdings immer noch keine perfekte Übereinstimmung)
 entfällt, wenn nur die Daten eines / einer Proband*in von Interesse sind
 Koordinaten haben ihren Nullpunkt in der anterioren Kommissur

Glättung (Smoothing):
 Erhöhen der räumlichen Homogenität, Signal wird verschmiert
 Signal wird mit einem gewichteten Mittel der Aktivierung aller umlie-
genden Voxel verrechnet  Verringerung der räumlichen Auflösung
ABER Verbesserung des Signal Rauschen-Verhältnisses (kann somit
ein wenig die Schwächen der Normalisierung austangieren)

Analyse von fMRT—Daten

 Grundlage: Designmatrix. Hier wird über ver-


schiedene Graustufen festgehalten, wie stark oder
schwach die Aktivierung in einem Voxel entspre-
chend unserer Bedingungen (z.B. A vs. B) sein
muss
 für jeden Voxel können für jede Bedingung Pa-
rameterschätzungen gemacht werden, auf Basis
derer die Aktivierung entsprechend vorausgesagt
wird
 Testen statistischer Signifikanz (in welchen Vo-
xeln sind die Parameterschätzer für Bedingung A
signifikant größer als für Bedingung B)

39
Exkurs: Modell-basierte fMRT
 über die Design-Matrix können beispielsweise auch trialweise unterschiedliche Amplituden vorherge-
sagt werden, die z.B. unterschiedliche Modellparameter darstellen.
 Beispiel: W sei der erwartete Wert meiner Belohnung. Er ist abhängig von der Belohnung, die ich zuvor
erhalten habe (V) und meiner Lernrate
(individueller Parameter) und meinem
Vorhersagefehler (P)
 in meinem experimentalverlauf kenne
ich die entsprechenden Werte und kann
diese über die Zeit hinweg modellieren,
um dann Areale zu finden, die mit die-
sem Zeitverlauf korrelieren

Welchen Aspekt neuronaler Aktivität misst fMRT?


 Logothetis et al. (2001): fMRT spiegelt vor allem postsynaptische Potentiale wieder. Das kann (muss
aber nicht) mit Aktionspotentialen zusammenhängen (IPSP würden ja die Wahrscheinlichkeit des Auftre-
tens von Aktionspotentialen verringern
 sowohl inhibitorische als auch exzitatorische postsynaptische Aktivität ist mit erhöhtem Sauerstoffver-
brauch assoziiert
 es kann vom fMRT-Signal nicht auf die Art des postsynaptischen Potentials geschlossen werden!

Exkurs: Widersprüche zwischen Läsions– und Bildgebungsstudien


Szenario 1: Bildgebung zeigt Aktivierung bei Aufgabe, Läsionspatienten sind jedoch in der Aufgabe
nicht eingeschränkt.
Mögliche Erklärungen:
 Aktivierung repräsentiert nur eine mögliche Strategie, die Aufgabe zu lösen
 aktivierte Region reflektiert allgemeine / unspezifische kognitive Ressource  nicht spezifisch für
die Aufgabe
 aktivierte Region wird inhibiert, nicht erregt
 Läsionsstudien können die Wichtigkeit der Region nicht detektieren (Power, methodische Unter-
schiede, …)

40
Szenario 2: Bildgebung zeigt keine Aktivierung bei Aufgabe, Läsionspatienten sind jedoch in der Aufga-
be jedoch eingeschränkt.
Mögliche Erklärungen:
 experimentelle und Kontrollbedingung beanspruchen die Region in der Bildgebungsstudie
(Bedingungsvergleich führt zu 0-Ergebnis, da keine Unterschiede vorhanden sind)
 Detektion von Aktivierung in der Region evtl. schwierig / unmöglich (zu klein, zu große anatomi-
sche Variabilität zwischen Proband*innen, geringes Signal)
 Patienten sind beeinträchtigt aufgrund von Schädigungen von Faserbahnen, die durch das Areal
laufen (Diskonnektion)

Brainreading und fMRT

 normalerweise: kognitiver Prozess  Hirndaten


 Frage: funktioniert der Prozess auch umgekehrt: Hirndaten  kognitiver Prozess
 kann man vorhersagen, was eine Person tut/denkt?

Classifier-basierte Ansätze:
Man stelle sich vor, wir betrachten lediglich 2 Voxel und ihr Aktivierungsmuster. Die Proband*innen sehen
sich Bilder aus 2 Kategorien (z.B. Häuser vs. Personen) an. Die Daten werden einem Machine-Learning
Programm vorgespielt.
 Algorithmus findet einen Schnitt durch die Datenpunkte aus den Voxeln, um bestmöglich zwischen den
einzelnen Kategorien zu differenzieren
 dieser Schnitt kann dann an neuen Stimuli getestet werden (teilweise auch mehrfach) und es kann die
Exaktheit des Classifiers bestimmt werden (d.h. es kann bestimmt werden, wie exakt der Classifier die-
se neuen Stimuli zuordnen kann
Man kann natürlich auch viel mehr Stimuli bzw. Voxel betrachten. Was entsteht sind dann eben entsprechend mehr Punktewolken und eine mehrdimensionale Darstellung, durch die der Classifier
dann eine mehrdimensionale Ebene legt, die zwischen den Punktewolken bestmöglich teilt— das ist eine sehr abstrakte Vorstellung, wenn man das Grundkonzept im 2D versteht, reicht das aber
fürs Verständnis von Studien absolut aus.

Ähnlichkeitsbasierte Ansätze
 Classifier bestimmt, wie ähnlich sich einzelne Voxel-Patterns aus bestimmten Kategorien sind (höhere
representational similarity)  Aufschlüsse über mentale Repräsentation von Informationen

Resting state fMRT (rsf MRI)

 Proband*in betrachtet 5 bis 10 Minuten ein Fixaktionskreuz und ein kontinuierliches fMRT wird aufge-
zeichnet
 finden von korrelierten und antikorrelierten Netzwerken  resting state-connectivity  zum Teil auf
anatomische Konnektivität zurückführbar
 Task-Netzwerke überlappen oft mit diesen resting-state Netzwerken
 Nachteil: keine Kontrolle über Gedanken (plant vielleicht einen Einkauf) oder ablaufende Prozesse außer
über Post-Scan Fragebögen
 Kontrolle potentieller Störvariablen (Atmung, Herzschlag, minimale Bewegung) sehr wichtig

41
 Vorteil: relativ schnell messbar, Hirnaktivität kann zwischen Gruppen unterschieden werden, ohne das
Patient*innen eine schwierige Aufgabe bewältigen müssen (bzw. diese noch designed werden muss
 Daten können auch mit der Methode der Netzwerktheorie ausgewertet werden

42
5. Läsionsstudien
AdA: Peters hat die Vorlesung mit Thema Läsionsstudien begonnen anhand jeweils eines Beispiels zu Event–und Blockrelated Designs. Diese sind hier aus Zeit– und Platzgründen nicht aufgeführt.
Bei Interesse, einfach die ersten 10 Minuten des Videos ansehen. Das betrifft auch spätere Beispielbilder zu Läsionen (Folie 11—13)

 bisher: Bildgebung und Elektrophysiologie  Ergebnis sind immer korrelative Befunde (keine Kausal-
aussagen möglich)
 Beispiel: Aktivierung des präfrontalen Cortex höher bei Worten, die aus einer Liste erinnert wor-
den, im Vergleich zu denen, die vergessen wurden
 potentielle Annahme: PFC ist notwendig für erfolgreiche Encodierung
 Problem: andere Alternativen sind möglich, z.B. Lösungsstrategie, unspezifische kognitive Res-
source, Inhibition des PFC (dann wäre der PFC ja tatsächlich eigentlich NICHT notwendig)
 Läsionsstudien als „Reverse Engineering“ Prozess

Ablauf und Logik von Läsionsstudien

 Region ist gestört (im Menschen) bzw. wird gestört (z.B. durch gezielt herbeigeführte Läsion im Tier-
modell)
 Hypothetisches Beispiel: Schädigung einer Region beeinträchtigt Lesen, aber nicht sprechen oder sehen
 Annahme 1: Region ist zumindest teilweise auf die Verarbeitung von Text spezialisiert
 Annahme 2: Region ist unter Umständen (evtl. auch einfach nur Verletzung von Faserbahnen in
der Region, hin zu anderen Arealen) notwendig für das Lesen
 im fMRT — höchsten Schlussfolgerung 1 zulässig, niemals Schlussfolgerung 2

Ursachen für Störungen / Beeinträchtigungen von Hirnfunktionen

 natürlich auftretende Läsionen (Tumor, Schädel-Hirn-Trauma, Schlaganfall, neurodegenerative Erkran-


kungen, …)
 willentlich herbeigeführte Läsionen (im Tiermodell)
 temporäre Verarbeitungsstörung, z.B. durch TMS, TDCs (nichtinvasive Hirnstimulation)

Kausale Methoden in der neurowissenschaftlichen Forschung

 in grün — nicht invasive Hirnstimulation:


 rTMS (transcranal magnetic stimulation)
 tDCS (transcranial direct current stimulation)
 tACS (transcranial alternating current stimulation)

43
Traditionen der Neuropsychologie
 Frage nach funktioneller Spezialisierung (klassischer neuropsychologischer Ansatz): Welche Funktionen
werden durch Schädigungen in der Region X gestört?  häufig nutzen von Gruppenstudien mit Bezug
zu Bildgebung
 aber auch: Kann eine bestimmte Funktion im Vergleich zu anderen Funktionen erhalten bzw. beeinträch-
tigt sein? (kognitiv neuropsychologischer Ansatz)  Einzelfallstudie, Frage nach den building blocks der
Kognition (d.h. Frage danach, welche Prozesse getrennt voneinander existieren. Z.B. hätte man früher argumentieren können, ein Block sei „Sprache“ - wir wissen mittlerweile dank
Broca und Wernicke aber, dass dieser zumindest zwei Teile umfasst, die getrennt voneinander existieren, nämlich Sprachverständnis und Sprachproduktion.)

Dissoziation
 grundsätzlich: Unterscheidung zwischen einfacher und doppelter Dissoziation

Einfache Dissoziation
 Patient sei in Funktion A (rot) gestört, Funktion B (schwarz) ist aber intakt.
Es bestehen grundsätzlich zwei Möglichkeiten:
 Funktionen sind vollständig unabhängig oder
 Funktionen sind teilweise unabhängig, z.B. weil die Schädigung in
Funktion A recht gering ist, und die Funktion B dies teilweise ausglei-
chen kann
 Problem: im ersten Instinkt würde man nun darauf schließen, dass A und B
auf keinen Fall identisch sein können bzw. auf identische Ressourcen zu-
greifen können. Das ist aber nicht der Fall, denn es besteht ein sogenann-
tes Aufgaben-Ressourcen-Artefakt:

Es sei lila eine Darstellung für Aufgabe / Funktion B, und grün eine Darstellung für Aufgabe / Funktion A. Dabei ist
lila die einfachere Aufgabe.
Bei der lila Funktion würde man den Unterschied zwischen einer
moderaten Schädigung und einem gesunden Patienten über-
haupt nicht bemerken, bei der grünen hingegen sehr deutlich.
In beiden Fällen nutzt man aber die gleiche „Grundressource“,
d.h. die gleichen kognitiven Substrate. Dabei wird allerdings in
einer Aufgabe diese mehr beansprucht, als in einer anderen.
Bei schweren Aufgaben sind unterschiede leichter detektierbar.
D.h. Die Schlussfolgerung, das Funktion A und B nicht identisch
sein können, ist bei einfacher Dissoziation nicht gerechtfertigt.

Innerhalb der einfachen Dissoziationen unterscheidet man zwischen „klassisch“ (eine Task ist nicht beein-
trächtigt, eine andere schon) und starker Dissoziation: (Beide Tasks
sind beeinträchtigt, eine davon aber signifikant stärker)

Doppelte Dissoziation
 Patient 1 ist in Funktion A gestört, Funktion B ist aber intakt. Patient
2 wiederum ist in Funktion B gestört, Funktion A ist jedoch intakt.
 es kann ausgeschlossen werden, dass die Funktionen Teilprozesse
voneinander oder exakt identisch sind (Ansonsten wäre es ja nicht möglich, dass man sie
unabhängig voneinander stören kann)
Diese Erkenntnis ist auch komplett unabhängig von der Lage der jeweiligen Läsionen!

44
Beispiel 1: Hippokampale Läsionspatienten (Hassabis et al., 2005)
 N = 15 (5 Patienten mit hippokampaler Läsion, 10
Kontrollpatienten)
 Frage: ist der Hippocampus wichtig für die Imagi-
nation?
 Aufgabe: Beschreibung von imaginierten Szenari-
en, die später nach räumlicher Kohärenz und De-
tailreichtum bewertet wurden.
 Hier ist ein Beispiel für: KEINE Dissoziation. Es gibt nur eine Patienten– und eine Kontroll-
gruppe. Es gibt keine Aufgabe, in der die Läsionsgruppe selbst beeinträchtigt vs. unbeein-
trächtigt ist!

Beispiel 2: Verarbeitung von Buchstaben im Schriftbild


 Cubelli (1991) zeigt an 2 Patienten ein Unvermö-
gen / Schwierigkeiten beim Schreiben von Vokalen
 Kay & Hanley (1994) zeigen einen Patienten mit
Schreibfehlern nur bei Konsonanten
 Doppelte Dissoziation: es finden sich Patienten die
in jeweils einer der Aufgaben beeinträchtigt sind,
und in der anderen nicht

Einzelfall-Ansätze
 Vor– und Nachteile werden teils kontrovers diskutiert
 Problem: Einzelfälle erlauben nicht wirklich Aussagen über allgemeine Phänomene
 Wenn aber Phänomene wie z.B. Läsionen eine wirklich gute Grundlage für kausale Aussagen ist, muss
man deren Nachteile in Kauf nehmen
 Argumentation: Einzelfallstudien sind zwangsläufig notwendig, weil ich nicht über Personen mit ähnli-
cher Schädigung mitteln sollte (in der Humanwissenschaft ist jede einzelne Läsion einzigartig, es gibt
keine Patient*innen mit exakt der gleichen Läsion)
 dennoch: Einzelfall-Ansätze eher gut um kognitive Profile darzustellen, weniger gut um kognitive Prozes-
se mit Hirnstrukturen zu verbinden (z.B. weil nur Faserbahnen in einem Bereich zu der beobachteten
Beeinträchtigung führen, nicht aber z.B. das Areal an sich)
Hinweis: Einzelfallstudien widersprechen nicht dem Konzept das man mehrere Personen testet, sie sagen nur, das „Gruppen“ nicht gemittelt werden dürfen, sondern das eine Gruppenstudie
letztlich eine Reihe von Einzelfallstudien darstellen muss

Gruppenstudien
Entscheidet man sich für eine Gruppenbildung, kommen mehrere Gruppierungsvariablen in Frage:
 nach Syndrom (Erkrankung): hilfreich um Korrelate einer bestimmten Krankheit zu untersuchen, nicht
hilfreich beim Testen kognitiver Theorien (Läsion / Schädigung zu variabel)
 nach Symptom (Verhaltensdefizit): Möglichkeit, verschiedene Regionen zu identifizieren, die einem Ver-
halten zugrunde liegen

45
 nach Läsionsort: oft gemacht zum Testen von Hypothesen in Mensch– oder Tierstudien — Fokus auf
ein Areal, und dessen potentiellen Einfluss auf das Verhalten (es bleibt wieder das Problem, das eventu-
ell das Areal ja aber nur ein Verbindungsglied für das für den Prozess eigentlich relevante Areal ist)

 manche Formen der Hirnschädigung erschweren die Läsionslokalisation (z.B. Tumore, Schwellungen)
 Gefahr, einem Areal eine spezifische Funktion zuzuordnen (Quatsch, und sorgt nur für eine neue Art der
Phrenologie, nämlich der Neophrenologie)
 Regionen können auch mehrere Funktionen erfüllen (Netzwerkdenken eher sinnvoll als seperate
Module)
 Problem der Diskonnektion / Diaschisis: Läsionen beeinflussen eventuell auch weiter entfernte Areale
durch Schädigung von Faserverbindungen

Voraussetzungen / Grundannahmen von Läsionsstudien


 Fraktionierungsannahme: eine Hirnschädigung führt zu selektiven Einschränkungen in kognitiven Pro-
zessen (hätte man diese Annahme nicht, wäre all unsere Forschung hinfällig, dann wäre eine Hirnschädigung immer eine Globalschädigung, aus der man nichts lernen kann.)
 Modularitätsannahme: Kognition besteht aus einer Reihe voneinander (recht) unabhängigen Funkti-
onseinheiten
 Transparenzannahme: Das kognitive System eines Läsionspatienten ist bis auf die lokalen Einschrän-
kungen ähnlich zu dem eines nicht-läsionierten Patienten (d.h. wieder keine globalen Änderungen in
der Gehirnstruktur durch die Läsion)
 Universalitätsannahme: das von uns postulierte Model ist ein normaler, gängiger Prozess, der auf die
gleiche Weise in allen Gehirnen stattfindet

Nur wenn alle diese Bedingungen gegeben sind ist es möglich, von den Beeinträchtigungen nach Hirn-
schädigungen tatsächlich auch auf die nichtbeeinträchtigten Prozesse zu schließen, die in anderen Perso-
nen ablaufen.

Vorgehen bei Läsionsstudien


 strukturelle Bildgebung (CT/MRT), um manuell die Läsionslokalisation jedes/r Patient/in zu bestimmen
 Normalisierung der Daten in den anatomischen Standardraum
 Analyse der Daten, z.B. Läsionsüberlappungsanalyse, Voxel-based Lesion-Symptom-Mapping

Strukturelle Bildgebung bei Läsionsstudien


 in Einzelfallstudien wird rein durch visuelle Inspektion und strukturelle Bildgebung Läsionslokalisation
bestimmen
 Strukturelle Bildgebung als Grundlage von Einzelfall– und Gruppenstudien
 Läsion wird manuell markiert (lesion-tracing) (entweder direkt im Gehirn des/der Proband/in oder gleich
im anatomischen Standardraum (ungenauer)
 Speichern des Resultats als binäres Bild — (Läsion 1, Rest 0)

46
Läsionsüberlappung
 Frage: Wo hat eine Patientengruppe eine
überlappende Hirnschädigung
 Durchführung von Normalisierung und
Transformation
 beobachtet man bei allen diesen Patient/
innen das gleiche Verhaltensdefizit in Referenz zu einer gesunden Kontrollgruppe, ist das am ehesten
auf das Areal zurückzuführen, das am stärksten Überlappung zeigt (also oben grün-rot eingefärbt wäre)

Subtraktionsanalysen
 Vergleich der Läsionsdaten verschiedener Patient/innengruppen z.B. mit Defizit oder ohne (alle haben Läsionen
etwa im gleichen Bereich, dabei hat jedoch nur ein Teil auch ein interessierendes Verhaltensdefizit)
 Vergleich der Läsionsmasken zwischen den jeweiligen Gruppen und bestimmen des Kontrasts zwischen
Gruppen mit und ohne dem Verhaltensdefizit (Wo liegt die Läsion bei Patient/innen mit Defizit)

Schwächen traditioneller Läsionsstudien

 sehr heterogene / verteilte Schädigungen (erschwert genaue Aussagen)


 Möglichkeit der Diskonnektion (geschädigtes Areal ist eigentlich nur Verbindungsglied zweier Areale, die für einen Prozess relevant sind)
 funktionelle Reorganisation (Stichwort neuronale Plastizität, besonders z.B. auch bei Schlaganfällen
möglich, mit der Zeit trotz Schädigung alte Funktionen / Fähigkeiten wieder zu erlernen)
 sehr kleine Gruppen bzw. einzelne Patient/innen (Generalisierbarkeit? Repräsentativität?)
 aber Vorteil: Möglichkeit der Untersuchung von Kausalzusammenhängen

Zusätzlich: Schwächen traditioneller Läsionsstudien nach Bates et al. (2003)


 funktionelle Subregionen in einer Region of Interest können nicht detektiert werden
 Subtraktionsanalysen benötigen Cut-Off Wert (der ist aber sehr arbiträr, z.B. ab welcher Punktzahl in
einem Test sage ich „Schädigung ja vs. nein?“
 Hier liegt der Vorteil im Voxel-Based lesion-symptom-mapping (siehe S. 30)

47

Das könnte Ihnen auch gefallen