Beruflich Dokumente
Kultur Dokumente
Buzug
Biomedizinische Technik – Medizinische Bildgebung
Studium
Biomedizinische Technik
|
Herausgegeben von
Ute Morgenstern und Marc Kraft
Olaf Dössel, Thorsten M. Buzug
Biomedizinische
Technik – Medizinische
Bildgebung
|
Band 7
Herausgeber
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT)
Institut für Biomedizinische Technik
Fritz-Haber-Weg 1
76131 Karlsruhe
E-Mail: olaf.doessel@kit.edu
www.ibt.kit.edu
Der Verlag hat für die Wiedergabe aller in diesem Buch enthaltenen Informationen (Programme,
Verfahren, Mengen, Dosierungen, Applikationen etc.) mit Autoren bzw. Herausgebern große Mühe
darauf verwandt, diese Angaben genau entsprechend dem Wissensstand bei Fertigstellung des
Werkes abzudrucken. Trotz sorgfältiger Manuskriptherstellung und Korrektur des Satzes können
Fehler nicht ganz ausgeschlossen werden. Autoren bzw. Herausgeber und Verlag übernehmen
infolgedessen keine Verantwortung und keine daraus folgende oder sonstige Haftung, die auf
irgendeine Art aus der Benutzung der in dem Werk enthaltenen Informationen oder Teilen davon
entsteht.
www.degruyter.com
Vorwort zur Lehrbuchreihe Biomedizinische Technik
Die Biomedizinische Technik umfasst die Bereitstellung und Anwendung ingenieur-
und naturwissenschaftlicher Mittel und Methoden auf lebende Systeme in Biologie
und Medizin. Es ist ein faszinierendes, breit angelegtes und interdisziplinäres Fach-
gebiet, das in der Lehrbuchreihe „Biomedizinische Technik“ aus unterschiedlichen
Blickwinkeln betrachtet wird. Mit diesem Band halten Sie einen der Fachbände der
Reihe Biomedizinische Technik in den Händen, der sich mit den Grundlagen der Me-
dizinischen Bildgebung befasst – einem wesentlichen Teilgebiet, um Informationen
vom Patienten oder lebenden Systemen zu erfassen, aufzubereiten und dem Arzt und
Forscher zu präsentieren.
Die medizinische Bildgebung ist neben der Aufnahme, Verarbeitung und Prä-
sentation von Biosignalen als wichtiges diagnostisches Verfahren etabliert. Technik
zur Bildgebung unterstützt den Arzt dabei, die therapievorbereitende Diagnose für
einen Erkrankten zu erstellen, und den Forscher, neue Erkenntnisse über Struktur
und Funktion des menschlichen Organismus zu gewinnen. Verfahren der Bildge-
bung stellen zur Unterstützung und Ergänzung des menschlichen Sehvermögens
eine ganz wesentliche technische Assistenz im Rahmen der Biomedizinischen Tech-
nik dar. Zuerst gab es Zeichnungen und Modelle als Abbildungen der Realität in
Lehrbüchern und wissenschaftlichen Abhandlungen. Dann folgten technische Mittel
zur Unterstützung unzulänglicher Sehfunktion des Betrachters (Linse, Mikroskop
zur Strukturvergrößerung), später hielten Fotografie und Videografie in die Medi-
zin Einzug. Der Wunsch, auch Dinge zu sehen, die von außen nicht sichtbar sind,
führte zur Entwicklung endoskopischer Technik, die Informationen aus dem In-
nern des Körpers über Körperöffnungen zugänglich macht. 1895 gelang es Wilhelm
Conrad Röntgen eher zufällig, mit der Röntgentechnik eine völlig neue Ära der
Bildgebung zu eröffnen. Multimodale tomographische Verfahren haben sich inzwi-
schen daraus entwickelt. Standardisierte Systeme und Datenformate und effektive
Verarbeitungs-, Rekonstruktions-, Navigations- und Kompressionsverfahren ermög-
lichen einen großen Informationsgewinn über das Untersuchungsobjekt. Vielfältige
technische Präsentationsmöglichkeiten für die gewonnenen Bilddaten unterstützen
den Arzt bei der Entscheidungsfindung. Im Rahmen der Biomedizinischen Technik
findet man heute eine breite Palette der Bildgebung von miniaturisierten Kameras
zur Darminspektion bis hin zu den bildgebenden Großgeräten für hochaufgelöste
Ganzkörperuntersuchungen. Im Band „Medizinische Bildgebung“ werden die physi-
kalischen Grundlagen der Verfahren dargelegt, Verarbeitungsalgorithmen erläutert,
die (medizinisch motivierten) Zielstellungen und Gütekriterien erläutert und die
technischen Randbedingungen definiert.
Weitere Aspekte der Biomedizinischen Technik finden Sie in den anderen Bänden der
Lehrbuchreihe.
VI | Vorwort zur Lehrbuchreihe Biomedizinische Technik
Wenn Sie an Antworten auf diese und weitere Fragen interessiert sind, dann lesen Sie
weiter!
Experten aus allen Bereichen haben in den zwölf Banden der Reihe eine in sich
stimmige systematische Darstellung der Biomedizinischen Technik komponiert: Aus-
gehend vom einführenden strukturierten Überblick werden über die medizinischen,
physikalischen, terminologischen und methodischen Grundlagen in den Fachbän-
den der Reihe die wesentlichen Teilgebiete dargestellt. Den Abschluss bildet ein Band
zur Entwicklung und Bewirtschaftung von Medizinprodukten, mit dem die Brücke
vom theoretischen Hintergrund der biomedizintechnischen Verfahren und Geräte zur
praktischen klinischen Nutzung geschlagen wird.
Biomedizinische Technik
Band 1: Faszination, Einführung, Überblick
Herausgegeben von Ute Morgenstern und Marc Kraft
ISBN: 978-3-11-025198-2
e-ISBN: 978-3-11-025218-7
Biomedizinische Technik
Band 2: Physikalische, medizinische und terminologische Grundlagen
Herausgegeben von Ewald Konecny und Clemens Bulitta
ISBN: 978-3-11-025200-2
e-ISBN: 978-3-11-025219-4
Biomedizinische Technik
Band 3: Biomaterialien, Implantate und Tissue Engineering
Herausgegeben von Birgit Glasmacher und Gerald H. Urban
ISBN: 978-3-11-025201-3
e-ISBN: 978-3-11-025216-3
Biomedizinische Technik
Band 4: Modellierung und Simulation
Herausgegeben von Ute Morgenstern, Falk Uhlemann und Tilo Winkler
ISBN: 978-3-11-025202-6
e-ISBN: 978-3-11-025224-8
Biomedizinische Technik
Band 5: Biosignale und Monitoring
Herausgegeben von Gerald H. Urban und Harald Malberg
ISBN: 978-3-11-025203
e-ISBN: 978-3-11-025217-0
Biomedizinische Technik
Band 6: Medizinische Informatik
Herausgegeben von Hartmut Dickhaus und Petra Knaup-Gregori
ISBN: 978-3-11-025204-0
e-ISBN: 978-3-11-025222-4
Vorwort zur Lehrbuchreihe Biomedizinische Technik | IX
Biomedizinische Technik
Band 7: Medizinische Bildgebung
Herausgegeben von Olaf Dössel und Thorsten M. Buzug
ISBN: 978-3-11-025205-7
e-ISBN: 978-3-11-025214-9
Biomedizinische Technik
Band 8: Bild- und computergestützte Interventionen
Herausgegeben von Tim Lüth
ISBN: 978-3-11-025206-4
e-ISBN: 978-3-11-025215-6
Biomedizinische Technik
Band 9: Automatisierte Therapiesysteme
Herausgegeben von Jürgen Werner
ISBN: 978-3-11-025207-1
e-ISBN: 978-3-11-025213-2
Biomedizinische Technik
Band 10: Rehabilitationstechnik
Herausgegeben von Marc Kraft und Catherine Disselhorst-Klug
ISBN: 978-3-11-025208-8
e-ISBN: 978-3-11-025226-2
Biomedizinische Technik
Band 11: Neurotechnik
Herausgegeben von Steffen Rosahl, Thomas Stieglitz und Ulrich G. Hofmann
ISBN: 978-3-11-025209-5
e-ISBN: 978-3-11-025225-5
Biomedizinische Technik
Band 12: Entwicklung und Bewirtschaftung von Medizinprodukten
Herausgegeben von Stephan Klein, Felix Capanni, Uvo M. Hölscher, Frank Rothe
ISBN: 978-3-11-025210-1
e-ISBN: 978-3-11-025223-1
X | Vorwort zur Lehrbuchreihe Biomedizinische Technik
Die Herausgeber danken allen Beteiligten für das große Engagement, mit dem die Rei-
he auf den Weg gebracht wurde: den Hochschullehrern und Autoren, den Verlagsmit-
arbeitern und Lektoren, den Grafikern und Administratoren und allen anderen flei-
ßigen Helfern, die zum Gelingen beigetragen haben! Alle Autoren freuen sich über
Anregungen zur Verbesserung unserer Lehrbuchreihe!
Wir wünschen allen Lesern viel Erfolg und tiefgründige Erkenntnisse, aber auch
großes Vergnügen beim Lesen und Lernen, beim Einarbeiten in die Thematiken der
Biomedizinischen Technik und beim Vertiefen interessanter Teilgebiete!
1 Damals noch im Unternehmen Reiniger, Gebbert & Schall, welches später von Siemens übernom-
men wurde.
XII | Vorwort zu Band 7 der Lehrbuchreihe Biomedizinische Technik – Medizinische Bildgebung
Mittlerweile hat sich jedoch die Erkenntnis durchgesetzt, dass die Methoden sich
nicht verdrängen, sondern ergänzen: beim Molecular Imaging gelingt es, molekular-
biologische Prozesse durch Weiterentwicklungen der bisherigen Bildgebungsmetho-
den sichtbar zu machen. Gleichzeitig werden molekularbiologische lokale Therapien
unter Führung durch die Bildgebung möglich. So wird der Bereich der Bildgebung sei-
ne große Bedeutung in der Medizintechnik in Zukunft eher noch weiter ausdehnen.
Am Horizont erscheinen ganz neue bildgebende Modalitäten – sie alle werden in
diesem Buch kurz beschrieben. Dabei ist es fast unmöglich vorherzusagen, welche
Methode den Weg in den klinischen Alltag schaffen wird. Erst muss die Technik in
hoher Qualität entwickelt werden. Auch müssen hohe Sicherheitsanforderungen er-
füllt werden, bevor die klinische Erprobung beginnen kann. Erst danach weiß man,
welchen Beitrag die neue Methode für die Diagnostik leisten wird.
Mit der Entwicklung neuer Modalitäten wird den aktuellen Standardverfahren
häufig eine sinkende Bedeutung voraus gesagt. Dabei darf aber nicht übersehen wer-
den, dass die konventionellen Modalitäten ebenfalls eine rasante Weiterentwicklung
erfahren. Man denke dabei zum Beispiel an die CT, der mit der Entwicklung der MRT
das Aussterben prognostiziert wurde. Tatsächlich hat CT heute, vor allem durch die
Weiterentwicklung der Multislice-Detektortechnologie, durch die enorme Leistungsfä-
higkeit moderner Röntgenröhren und nicht zuletzt wegen der geringeren Kosten eine
viel größere Verbreitung als die MRT gefunden.
Dieses Buch wendet sich an Leser, die verstehen möchten, wie die bildgeben-
den Verfahren der Medizin funktionieren, und welche neuen Entwicklungen gerade
erarbeitet werden. International anerkannte Experten auf ihrem Gebiet erklären die
neuesten Methoden. Den klassischen bildgebenden Modalitäten wird dabei der größ-
te Raum gegeben, aber auch neue heute noch exotische Techniken werden kurz be-
schrieben. Die Technik der Bildgebung steht immer im Vordergrund, aber auch die
bevorzugten Einsatzgebiete in der Medizin werden erwähnt.
Wir wünschen unseren Lesern, dass sie sich von unserer Begeisterung für all das, was
heute im Bereich der medizinischen Bildgebung möglich ist, anstecken lassen.
Olaf Dössel
1 Die bildgebenden Verfahren in der Medizin | 1
1.1 Historie und Motivation | 2
1.2 Übersicht über die Verfahren der medizinischen Bildgebung | 4
1.3 Von der medizinischen Fragestellung über die Bildgebung zum
Befund | 6
Thomas Mertelmeier
4 Tomosynthese | 113
4.1 Grundprinzip, diagnostische Zielsetzung und historische
Entwicklung | 114
4.2 Rekonstruktionsalgorithmen | 116
4.3 Systemoptimierung und Gerätetechnik | 124
4.4 Klinische Anwendungen | 126
Olaf Dössel
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 203
7.1 Motivation und Einleitung | 204
7.2 Stochastische und deterministische Wirkungen | 204
7.3 Dosimetrische Größen und deren Einheiten | 205
Inhalt | XV
Tobias Schaeffter
9 Magnetische Resonanztomographie | 327
9.1 Einleitung | 328
9.2 Kernmagnetische Resonanz | 329
9.3 Ortsauflösung | 351
9.4 Sequenzen und Bildkontrast | 362
9.5 Artefakte | 381
9.6 Aufbau eines MR-Tomographen | 385
9.7 Signal-Rausch-Verhältnis | 390
9.8 Sicherheitsaspekte | 391
9.9 Klinische Anwendungen | 395
Olaf Dössel
10 Abbildung bioelektrischer Quellen | 407
10.1 Elektrophysiologische Grundlagen | 408
10.2 Messung bioelektrischer und biomagnetischer Signale | 410
10.3 Konventionelle Diagnostik mit bioelektrischen Signalen und neue
Fragestellungen für die Bildgebung bioelektrischer Quellen | 412
10.4 Mathematische Modelle von bioelektrischen Quellen | 413
10.5 „Lead fields“, das „Vorwärtsproblem“ und die
Abbildungsgleichung | 416
10.6 Das inverse Problem und Regularisierungsmethoden | 419
10.7 Applikationen in der Medizin | 421
XVI | Inhalt
Olaf Dössel
12 Impedanztomographie | 441
12.1 Die Impedanz von Körpergewebe | 442
12.2 Messsysteme mit Elektroden | 444
12.3 Bildrekonstruktion | 446
12.4 Alternative Messsysteme | 450
12.5 Anwendungen der Impedanztomographie in der Medizin | 451
Thomas Wittenberg
13 Endoskopie | 455
13.1 Einführung | 456
13.2 Eine kurze Geschichte der Endoskopie | 457
13.3 Starre Endoskope | 459
13.4 Flexible Faserendoskope | 462
13.5 Videoendoskope | 465
13.6 Schluckkapselendoskope | 466
13.7 Farbkontrast und Marker | 468
13.8 Anwendungen der Endoskopie | 468
Marko Helbig
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 533
17.1 Einführung | 534
17.2 Aktive Mikrowellen-Bildgebung | 538
17.3 Aktueller Stand in Forschung und Entwicklung | 541
Fabian Kiessling
18 Molekulare Bildgebung | 545
18.1 Einführung | 546
18.2 Molekulare Marker | 547
18.3 Die Sonden | 548
18.4 Die Bildgebungsmodalitäten | 553
18.5 Molekulare Bildgebung mit SPECT und PET | 554
18.6 Molekulare Bildgebung mit optischer Bildgebung | 555
18.7 Molekulare Bildgebung mit Ultraschall | 555
18.8 Molekulare Bildgebung mit Magnetresonanztomographie | 556
18.9 Molekulare Bildgebung mit Computertomographie | 558
Olaf Dössel
21 Systemtheorie abbildender Systeme | 589
21.1 Motivation | 590
21.2 Lineare Transformationen von Bildern | 590
21.3 Räumliche Auflösung und die Modulationsübertragungsfunktion
MTF | 596
21.4 Das Abtasttheorem | 601
21.5 Das Rauschen und die detektierte Quantenausbeute DQE | 601
21.6 Der Kontrast | 605
21.7 Die zeitliche Auflösung | 606
21.8 Erkennen von Details in Bildern und die Perzeption | 606
21.9 Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung und
Rauschen | 608
Autorenverzeichnis | 611
Sachwortverzeichnis | 641
Hinweise zur Benutzung
Methodischer Hinweis
Ob elektronisch oder auf Papier: Es empfiehlt sich immer, ein Lehrbuch als Arbeits-
buch zu benutzen, es mit persönlichen Notizen, Hervorhebungen und Markierungen
zu versehen. Über www.degruyter.de lassen sich auf elektronischem Wege beim Ver-
lag Kapitel aus Bänden zu einem eigenen Sammelwerk zusammenstellen. Ergänzende
interaktive Lernsoftware findet man z. B. unter www.theragnosos.de.
Gender-Hinweis
Im Gegensatz zu rein technischen Fächern ist im Bereich der Biomedizinischen Tech-
nik das Geschlechterverhältnis ausgewogener. In den Banden der Lehrbuchreihe
„Biomedizinische Technik“ liegt der Schwerpunkt auf fachlichen Darstellungen der
Grundlagen unseres Berufsbildes, bei dem das Geschlecht des Akteurs selbst keine
Rolle spielt. Aus diesem Grund wird generell für alle Personen- und Funktionsbe-
zeichnungen das generische (geschlechtsneutrale) Maskulinum verwendet, das die
weibliche Form einschließt.
Quellen
Die Quellenangaben bei Normen und Standards sind grundsätzlich ohne Jahreszahl
vermerkt, da die jeweils aktuelle Ausgabe zu beachten ist. Soweit in den Abbildungen
Quellen genannt werden, finden sich Erstautor und Jahreszahl in eckigen Klammern,
die im Quellenverzeichnis am Ende des Kapitels aufgelöst werden.
Bandspezifisches Glossar
Alle Definitionen des Bandes sind im Glossar am Ende des Bandes zusammengeführt
(s. S. 615).
XX | Hinweise zur Benutzung
Sachwortverzeichnis
Wichtige Begriffe, auf deren Erläuterung man beim Suchen im Sachwortverzeichnis
am Ende des Bandes verwiesen wird, sind im Text gefettet dargestellt.
CW Continuous Wave
CZT Cadmium-Zink-Tellurid
DAS Detector Angular Subtense
DEGUM Deutsche Gesellschaft für Ultraschall in der Medizin
DIN Deutsches Institut für Normung
DNA Deoxyribunucleic Acid, Desoxyribonukleinsäure
DOCT Doppler-OCT
DOI Depth of Interaction
DOPU Degree of Polarization Uniformity
DOTA Tetraazacyclododecan-Tetraessigsäure
DQE Detective Quantum Efficiency, detektive Quantenausbeute
DSA digitale Subtraktionsangiographie
DTPA Diethylentriaminpentaessigsäure
DUX Duplexer
EBCT Electron-Beam Computed Tomography,
Elektronenstrahl-Computertomographie
EEG Elektroenzephalogramm, Elektroenzephalographie
EKG Elektrokardiogramm, Elektrokardiographie
EM Expectation Maximization
EPI Echo Planar Imaging, Echo-Planar-Bildgebung
EPID Electronic Portal Imaging Device
EIT Electrical Impedance Tomography
FAF Fundus-Augenfluoreszenz
FAG Fluorescein-Angiographie
FASC Full Angle Spatial Compounding
FBP Filtered Back Projection, gefilterte Rückprojektion
FD OCT Fourier Domain OCT
FDA Food and Drug Administration
FDG Fluordesoxyglukose
FDTD Finite-Difference Time-Domain, Finite-Differenzen-Methode
FEM Finite-Elemente-Methode
FFA Fokus-Film-Abstand
FFP feldfreier Punkt
FFT Fast Fourier Transform
FID Free Induction Decay
FIR Fern-Infrarot
FN false negative (Feld in der Wahrheitsmatrix)
FNF False Negative Fraction = FN/(TP + FN) (auch False Negative Rate)
FOA Fokus-Objekt-Abstand
FOV Field of View
FP false positive (Feld in der Wahrheitsmatrix)
FPF False Positive Fraction = FP/(FP + FN) (auch False Positive Rate)
Verzeichnis der Abkürzungen | XXIII
PRF Pulswiederholfrequenz
PS OCT Polarisationssensitive OCT
PSA prostataspezifisches Antigen
PSF Pointspread Function, Punktbildfunktion
PTCA perkutane transluminale koronare Angioplastie
PVDF Poly-Vinyliden-Di-Fluorid
PW Pulse Wave
PZT Blei-Zirkonat-Titanat
QWIP Quantum Well Infrared Photon Detektor, Quantendetektor
R rückwärts (bezüglich Flussrichtung)
RADAR Radio Detection and Ranging
RARE Rapid Acquisition with Relaxation Enhancement
RF Radiofrequenz, Radio Frequency
RFP Red Fluorescent Protein
ROC Receiver Operating Characteristic
ROI Region of Interest
RöV Röntgenverordnung
RPE retinales Pigmentepithel
RR relatives Risiko
RSNA Radiological Society of North America
RSOD Rapid Scanning Optical Delay Lines
SARS Severe Acute Respiratory Syndrome
SART Simultaneous Algebraic Reconstrucion Theory
SC Spatial Compounding
SD OCT Spektral-Domänen-OCT
SECAM Séquentiel couleur à mémoire
SENSE Sensitivity Encoding
SEV Sekundärelektronenvervielfacher
SiPM Silicon-Photomultiplier
SIRT Simultaneous Iterative Reconstruction Technique
SLD Superlumineszenzdiode
SLO Scanning-Laser-Ophthalmoskopie
SMASH Simultaneous Acquisition of Spatial Harmonics
SNR Signal-to-Noise Ratio, Signal-Rausch-Verhältnis
SOR Spill Over Ratio
SPECT Single Photon Emission Computed Tomography,
Einzelphotonen-Emissions-Computertomographie
SPIO Superparamagnetic Iron Oxide (Nanopartikel)
SPIR Spectral Presaturation Inversion Recovery
SPTA Spatial Peak Temporal Average
SQUID supraleitender Quanten-Interferenz-Detektor
SRB Sulforhodamin B
XXVI | Verzeichnis der Abkürzungen
Im {. . .} Imaginärteil von {. . . }
j imaginäre Einheit j2 = −1
j Index für aufeinanderfolgende A-Scans
J 1. in der Bildebene ankommende Leistung der Röntgenstrahlung
pro Fläche in W/m2 , 2. Ionendosis in As/kg, 3. Schallintensität in
W/m2 , 4. Stromdichte in A/m2
J⃗ Eigendrehimpuls, auch Kernspin in kg m2 /s
J̇ Ionendosisleistung in A/kg
JB gesamte von einer Röntgenröhre abgestrahlte flächenbezogene
Leistung in W/m2
Ji eingeprägte Stromdichte in A/m2
JID Ionendosis in As/kg
Jn Stromdichte in Normalenrichtung in A/m2
J𝜈 (𝜈) abgestrahlte Leistung pro Fläche und Frequenzintervall in
W/(Hzm2 )
k Boltzmann-Konstante (k = 1,38 ⋅ 10−23 J/K)
k 1. Wellenzahl, Variable im Fourierraum in 1/m,
2. piezoelektrischer Koppelfaktor in %, 3. thermische Leitfähigkeit
von Gewebe in W/(mK)
K 1. K bzw. Kerma, Kinetic Energy Released in Matter in J/kg oder Gy
(Gray), 2. Rampenfilter, K = F −1 |k|F, 3. Reflexionskoeffizient
(dimensionslos)
𝛾
kx,y,z (t) = 2𝜋 ∫ Gx,y,z (t)dt Komponenten des k-Vektors in 1/m
l Akkommodationslänge des Auges in m
L Induktivität in Henry H
lc Kohärenzlänge des Lichtes in m
ld deutliche Sehweite in m
L(A|P) likelihood von A, L(A|P) = Wahrscheinlichkeit von P gegeben A
M Magnetisierung in A/m
M⃗ = ∑Nn=1 ⟨𝜇n⃗ ⟩ makroskopische Magnetisierung in A/m
me Masse des Elektrons in kg
mI Magnetquantenzahl
mp Masse des Positrons in kg
MTF(u, v) Modulation Transfer Function, Modulations-Übertragungs-
funktion
n 1. Brechungsindex eines Mediums, 2. Ordnungszahl: 1, 2, 3, . . .
(dimensionslos), 3. Zahl der auftreffenden (Röntgen-)Photonen
pro Fläche und Zeit in 1/(m2 s)
N 1. Zahl der Projektionen, 2. Zählrate allgemein in counts per
second cps oder 1/s
N↑ , N↓ Anzahl der magnetischen Momente (oder Spins), die entlang und
entgegengesetzt zum externen Magnetfeld ausgerichtet sind
XXX | Verzeichnis der Formelzeichen, Symbole und Indizes
Δ Laplace-Operator
𝛿 1. räumliche Auflösung in m, 2. chemische Verschiebung in ppm,
3. Diracsche Deltafunktion
𝜀0 elektrische Feldkonstante (= 8,854 ⋅ 10−12 As/Vm)
𝜀r Permittivität, komplexe relative Dielektrizitätszahl
𝜀(𝜆, T) Emissionsvermögen eines Materials
𝜀 Nachweiswahrscheinlichkeit in %
𝜂 1. Kristallwirkungsgrad, 2. Wirkungsgrad einer Röntgenröhre
𝜗 stereoskopische Tiefenwahrnehmung in m
𝜃 Brechungswinkel
Verzeichnis der Formelzeichen, Symbole und Indizes | XXXIII
𝜔 Kreisfrequenz in 1/s
Δ𝜔 Bandbreite (Kreisfrequenz) in 1/s
𝜔0 Larmor-Frequenz in 1/s
𝜕 𝜕
∇ = e⃗x 𝜕x + e⃗y 𝜕y + e⃗z 𝜕z𝜕 Nabla-Operator (hier: Beispiel für kartesische Koordinaten)
Olaf Dössel
1 Die bildgebenden Verfahren in der Medizin
Zusammenfassung: Bilder vom Inneren des Körpers sind oft die wichtigste Grundlage
für eine genaue und zuverlässige Diagnostik. Welches sind die wichtigsten Methoden
der medizinischen Bildgebung, wie funktionieren sie und welche Rolle spielen sie bei
der Diagnostik? Die bildgebenden Verfahren werden hier tabellarisch vorgestellt und
eingeordnet. Es wird deutlich, dass die Bildgebung immer in einen medizinischen Ab-
lauf eingebettet ist.
Abstract: Images depicting the inside of the body are often the most essential basis for
precise and reliable diagnostics. This chapter addresses questions such as: which are
the most important methods of medical imaging, how do they function, and what is
their specific role for diagnostics? The various modalities of medical imaging are listed
and ordered here, and it becomes apparent that medical imaging is always embedded
into a clinical workflow.
2 | Olaf Dössel
worfen werden, bei denen die jeweilige Modalität heute die „Methode der ersten Wahl“
ist.
Die medizinische Bildgebung begann mit der Abbildung und Erkennung von Tu-
moren und Knochenbrüchen („morphologische Bildgebung“). Frühzeitig kam die
Abbildung von Blutgefäßen (Angiographie) hinzu, mit der beispielsweise Stenosen
(Gefäßverengungen) oder Aneurysmen (Gefäßaussackungen) entdeckt werden kön-
nen. Es folgte die Erweiterung auf die Abbildung von krankhaften Gewebeverände-
rungen und Malformationen (Fehlbildungen) jeglicher Art zu einem möglichst frühen
Zeitpunkt der Erkrankung.
Ein neues Kapitel der Bildgebung wurde mit der „funktionellen Bildgebung“ er-
öffnet. Beispielsweise wird hierbei die zeitliche Dynamik bestimmt, mit der ein Kon-
trastmittel in ein Organ oder ein Gewebe einfließt und wieder herausgespült wird, um
so funktionelle Prozesse in diesem Organ zu studieren. Auch Bewegungsabläufe von
Gelenken oder vom kontrahierenden Herzen können dargestellt werden. Die funktio-
nelle Magnetresonanztomographie kann u. a. zeigen, welcher Teil des Gehirns nach
einem sensorischen Stimulus zu arbeiten beginnt.
Die „quantitative Bildgebung“ liefert dem Arzt nicht nur Grauwertbilder, son-
dern Zahlen auf einer metrischen Skala, die physikalischen Messgrößen entsprechen.
So kann die Computertomographie den Röntgen-Schwächungskoeffizienten genau
bestimmen und damit beispielsweise einen wichtigen Beitrag zur Osteoporose-Di-
agnostik liefern. Andere Größen wie die Perfusion von Gewebe oder der Blutfluss in
den Gefäßen sind ebenfalls quantitative Messgrößen, die mit bildgebenden Systemen
erfasst werden können.
Mit der „molekularen Bildgebung“ wird gerade wieder ein neues Kapitel der
medizinischen Bildgebung aufgeschlagen. Lange bevor sich in den konventionellen
Bildern Gewebeveränderungen in einem erkrankten Organ zeigen, laufen dort bio-
chemische Vorgänge in veränderter Form ab. Diese sichtbar zu machen, hat sich die
molekulare Bildgebung zum Ziel gesetzt. Beispielsweise möchte man Biomarker, die
auf eine Erkrankung hinweisen, ortsaufgelöst darstellen.
Die „interventionelle Bildgebung“ ist eine weitere besondere Form der Bildge-
bung: Während eines ärztlichen Eingriffs in den Körper des Patienten sollen quasi in
Echtzeit Bilder aufgenommen werden, die dem Arzt die Navigation erleichtern und
ihm zeigen, ob das Ziel der Intervention (die Resektion eines Tumors, die Aufweitung
eines Blutgefäßes etc.) vollständig erreicht wurde.
Oft erkennt man, dass eine bildgebende Modalität alleine noch nicht alle of-
fenen Fragen des Arztes beantworten kann. Zur Lösung sind hier die Systeme der
„multimodalen Bildgebung“ entstanden, z. B. die Kombination aus PET und CT.
Alle diese Aspekte der medizinischen Bildgebung sollen in diesem Buch zusam-
men mit den Grundprinzipien der wichtigsten Modalitäten vorgestellt werden.
4 | Olaf Dössel
Tab. 1.1: Die heute in der Diagnostik routinemäßig eingesetzten bildgebenden Verfahren.
halten. Durch den Nachweis der aus dem Körper emittierten Gamma-Quanten mit ei-
ner Gammakamera kann ein Bild der Gamma-Aktivität rekonstruiert werden und da-
mit der Weg des Gammastrahlers („Tracer“) im Körper des Patienten verfolgt werden.
Im Gegensatz zur SPECT werden bei der Positronen-Emissions-Tomographie
(kurz: PET) Positronenstrahler in den Körper gebracht. Da die emittierten Positronen
aber schon nach ca. 1 mm im Körper mit einem Elektron kollidieren und dabei zwei
Gamma-Quanten entstehen, werden außerhalb des Körpers wieder Gamma-Quanten
nachgewiesen. Die Tatsache, dass die beiden Gamma-Quanten genau in entgegenge-
setzte Richtungen von ihrem Entstehungsort wegfliegen, führt dazu, dass mit einem
Koinzidenz-Detektor und einem geeigneten Algorithmus ein sehr genaues Bild der Ak-
tivitätsverteilung im Körper rekonstruiert werden kann.
Bei der Ultraschall-Bildgebung wird eine Schallwelle im Frequenzbereich 1 MHz
bis typisch 20 MHz in den Körper des Patienten gesendet und das zurückkommende
Echo aufgezeichnet. An Grenzflächen zwischen zwei Gewebearten mit unterschiedli-
cher Schallimpedanz kommt es zu starken Reflexen. Wird eine schmale „Schallkeule“
durch den Körper geschwenkt, kann so ein Bild dieser Grenzflächen ähnlich wie beim
Radar dargestellt werden. Auch aus dem zwischen den Grenzflächen liegenden Ge-
webe werden Signale zurückgestreut – ihr räumlich-zeitlicher Verlauf lässt Schlüsse
auf krankhafte Gewebeveränderungen zu. Die Echos und Streusignale von bewegten
Objekten zeigen wegen des Doppler-Effektes eine charakteristische Frequenzverschie-
bung, die zur quantitativen Bestimmung von Blutfluss und Gewebebewegung genutzt
werden kann.
Die Magnetresonanztomographie – kurz MRT – ist das jüngste unter den ab-
bildenden Verfahren der Medizin mit einer weltweit herausragenden Bedeutung. Der
Patient wird in ein sehr starkes und sehr homogenes statisches Magnetfeld gelegt
(z. B. 1 T oder 3 T). Dadurch werden die Protonen-Spins, die sich in allen gebunde-
nen H-Atomen in großer Zahl im Körper des Menschen befinden, ausgerichtet und
zur Präzession gebracht. Ein hochfrequentes (HF), mit genau dieser Präzessionsfre-
quenz rotierendes elektromagnetisches Feld (z. B. 42,6 MHz bei 1 T oder 127,8 MHz bei
3 T) kann diese Spins umklappen. Nach Abstellen des HF-Feldes klappen die Spins zu-
rück in den Grundzustand und senden dabei selber HF-Signale aus, die mit Antennen
aufgenommen werden. Durch geschickt überlagerte Magnetfeld-Gradienten kann der
Ort der sendenden Protonen verschlüsselt werden. So entstehen am Ende mithilfe ei-
nes Rekonstruktionsalgorithmus Bilder der Protonendichte (genauer: der Dichte von
gebundenen H-Atomen), die zusätzlich mit Funktionen der zwei charakteristischen
Abklingkonstanten (T1 und T2) gewichtet sind. Während Knochen wegen ihres nied-
rigen Gehalts an gebundenen H-Atomen weitgehend unsichtbar bleiben, können die
Weichteile des Körpers hervorragend sichtbar gemacht werden.
Auch die Endoskopie hat das Ziel, Bilder vom Inneren des Körpers darzustellen.
In der traditionellen Endoskopie werden Bilder der inneren Organe und Gewebe er-
zeugt, so wie sie sich darstellen würden, wenn der Körper aufgeschnitten und direkt
betrachtet würde. Mithilfe von Linsensystemen oder miniaturisierten Bildsensoren
werden die starren oder flexiblen Endoskope vom Arzt durch natürliche oder mittels
6 | Olaf Dössel
Tab. 1.2: Bildgebende Verfahren der Medizin, die sich noch im Stadium der Forschung und Entwick-
lung befinden.
„Modalität“) zur Beantwortung der Frage am besten geeignet ist. Einige bildgeben-
de Systeme sind so preiswert und leicht zu bedienen, dass der behandelnde Arzt sie
selber einsetzt, andere sind komplexer und kostspieliger, so dass der Patient an einen
Facharzt, z. B. einen diagnostischen Radiologen oder Nuklearmediziner, überwiesen
wird.
Vor der eigentlichen Aufnahme beginnt dann eine sorgfältige Vorbereitung des
Patienten. Der Patient sollte – soweit dies möglich und erforderlich ist – in einem „ge-
normten Zustand“ in die Bildgebung gehen. Dann erfolgt die optimale Lagerung des
Patienten für die Bildaufnahme. Es muss entschieden werden, ob ein Kontrastmit-
tel eingesetzt werden sollte. Falls ja, muss das richtige Kontrastmittel an der richtigen
Stelle und zum richtigen Zeitpunkt appliziert werden.
Erst an dieser Stelle beginnt das technische System der Bildgebung: Die Parame-
ter des bildgebenden Systems müssen so eingestellt werden, dass die Fragestellung
bestmöglich beantwortet werden kann und dabei dem Patienten so wenig Schaden
wie möglich zugefügt wird. Es erfolgt nun die Datenakquisition.
Nur im Falle eines klassischen Röntgenbildes ist an dieser Stelle das Bild quasi
fertig. In fast allen anderen Fällen wird aus den Messdaten des bildgebenden Systems
erst ein Bild erzeugt. Hierbei kommen häufig mathematische Gleichungen und Algo-
rithmen zum Einsatz. Die Wahl des richtigen Algorithmus ist für die Qualität des Be-
8 | Olaf Dössel
Abb. 1.2: Schematische Darstellung der Kette von der medizinischen Fragestellung bis zum Befund.
fundes ebenso entscheidend wie die richtigen Parameter bei der Bildaufnahme; beide
müssen optimal zusammenpassen.
Klassische Röntgenbilder werden zur Befundung in den sogenannten Lichtkas-
ten gehängt. Digital vorliegende Bilder werden auf einem Befundungsmonitor be-
trachtet. An diesen Monitor werden besondere Anforderungen bezüglich Auflösung,
Kontrast und Grundhelligkeit gestellt.
Außerdem gibt es die Option, die Bilder am Befundungsmonitor mithilfe der
digitalen Bildverarbeitung so zu verändern, dass die medizinische Fragestellung
am besten beantwortet werden kann. Dies geschieht oft auch interaktiv. Der Kontrast
kann nachträglich verändert werden, das Signal-Rausch-Verhältnis kann zulasten
der räumlichen Auflösung verbessert werden, es können Falschfarben eingesetzt wer-
den, man kann eine „Zoom-Funktion“ verwenden oder es können Bilder mit anderen
Bildern überlagert werden, um nur einige Optionen zu nennen.
Am Ende der Kette ist es Aufgabe des Arztes, mithilfe der Bilder einen Befund zu
erstellen. Was war auf den Bildern zu sehen? Wie wird die Frage, mit der die Bildge-
bung initiiert wurde, beantwortet? War auf den Bildern noch etwas anderes zu erken-
nen, was nicht erwartet wurde?
Wie kann das Bild dazu beitragen, den Gesundheitszustand des Patienten zu ver-
bessern? An diesem Ziel muss sich die gesamte Bildgebungskette orientieren. Tech-
nische Spielereien sind unnütz und unnötig. Am Ende zählt nur, was dem Patienten
einen messbaren Vorteil bringt (evidence based medicine).
Abb. 1.2 zeigt schematisch die Kette von der Fragestellung bis zum Befund.
Weiterführende Literatur
Beutel J., Kundel H. L., van Metter R. L.: Handbook of Medical Imaging Volume 1. Bellingham: SPIE
Press 2000.
Dössel O.: Bildgebende Verfahren in der Medizin. Berlin: Springer 2000.
Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis 1995.
Oppelt A.: Imaging Systems for Medical Diagnostics. Erlangen: Publicis 2005.
Smith N. B., Webb A.: Introduction to Medical Imaging, Cambridge: Cambridge University Press 2011.
Suetens P.: Fundamentals of Medical Imaging. Cambridge: Cambridge University Press 2009.
Webb A.: Introduction to Biomedical Imaging. Hoboken: John Wiley 2003.
Til Aach, Olaf Dössel
2 Bildgebung durch Projektionsröntgen
Zusammenfassung: Projektionsröntgen ist nach wie vor das „Flaggschiff“ der medizi-
nischen Bildgebung: schnell, zuverlässig, von hoher diagnostischer Aussagekraft und
vergleichsweise preiswert. Das Kapitel beginnt mit den physikalischen Grundlagen
der Erzeugung und Abschwächung von Röntgenstrahlen. Die Technik der Röntgen-
röhre und der Bildaufnahmesysteme wird beschrieben. Die quantitativen Messgrößen
der Bildqualität sind die Modulationsübertragungsfunktion MTF und die detektierte
Quanteneffizienz DQE. Auch auf die gesetzlichen Vorschriften zur Qualitätssicherung,
auf medizinische Applikationen und auf neuere Entwicklungen wird eingegangen.
Til Aach ist, nachdem er den größten Teil dieses Kapitels geschrieben hat, leider
verstorben. Wir haben mit ihm einen guten Freund und einen exzellenten Hoch-
schullehrer und Wissenschaftler verloren. Wir werden ihn nicht vergessen.
10 | Til Aach, Olaf Dössel
Projektionsröntgen: strukturabbildendes projektives Verfahren in der Medizin auf Basis von Rönt-
genstrahlen.
Projektion: (lat. proicere – hinauswerfen, hinwerfen): in der BMT das Integral der abgebildeten
Gewebseigenschaften auf dem Strahlweg bei der Bildgebung, speziell des Röntgenschwächungs-
koeffizienten durch den Körper des Patienten hindurch, entweder als einzelner Nadelstrahl oder
als eine Linie aus vielen Nadelstrahlen.
Zur Reduktion des Streustrahlanteils kann unmittelbar vor dem Detektor ein Streu-
strahlenraster in den Strahlengang eingebracht werden. Die aufgezeichneten Pro-
jektionen hängen somit von der Schwächung ab, welche die Röntgenstrahlen beim
Durchgang durch den Patienten erfahren haben. Da die Strahlen hierbei meist meh-
Röntgenröhre
Kollimator
Patient
Streu-
strahlen-
raster Abb. 2.1: Schematische Darstellung der Bildge-
Detektor bung durch Projektionsröntgen.
2 Bildgebung durch Projektionsröntgen | 11
Fokus O
Z
Fokus-Objekt- Fokus-Film-
Abstand Z0 Abstand b
Patient
P
o P
x
Film y
b b
p = [x, y] = [ X, Y] (2.1)
Z Z
Da der FFA b größer ist als der FOA Z0 , vergrößert diese Abbildungsgeometrie, so dass
je nach diagnostischer Fragestellung Detektoren bis zu einer Größe von ca. 50 × 50 cm
zum Einsatz kommen.
12 | Til Aach, Olaf Dössel
Durch Aufheizen der Kathode treten aus dieser Elektronen aus, die durch Anlegen ei-
ner positiven Beschleunigungsspannung UA zwischen Anode und Kathode zur Anode
hin beschleunigt werden. Die eingestellte Beschleunigungsspannung hängt dabei von
der diagnostischen Fragestellung ab und liegt zwischen 20 und 150 kV. Hierbei erge-
ben sich – je nach dem durch die Kathode fließenden Heizstrom IH – Anodenstrom-
stärken im Bereich einiger Milliampere bis ca. 1,5 Ampere. Die Elektronen dringen
beim Auftreffen auf die Anode in das Anodenmaterial ein und werden dabei abge-
bremst. Der weitaus größte Anteil der auftreffenden Elektronen kollidiert hierbei mit
Elektronen in der Hülle von Atomen des Anodenmaterials und schlägt diese Elektro-
nen aus den Atomhüllen heraus, wodurch die Atome ionisiert werden. Die hierbei von
den beschleunigten Elektronen an das Anodenmaterial abgegebene Energie wird in
Gitterschwingungen, also Wärme, umgesetzt [Oppelt 2005, Hsieh 2003, Buzug 2004].
Bremsstrahlung
Ein sehr kleiner Anteil von ca. 1 % der Elektronen gelangt jedoch in die Nähe eines
Atomkerns des Anodenmaterials und wird in dessen elektrischem Feld abgebremst.
Die kinetische Energie, die das Elektron hierbei verliert, wird in Form von Brems-
strahlung in Röntgenstrahlung umgesetzt. Trifft das ankommende Elektron auf einen
Atomkern, wird es bis zum Stillstand abgebremst und gibt seine gesamte kinetische
Energie Ekin = e⋅UA in Form von Röntgenstrahlung ab. Diese beiden Wechselwirkungs-
prozesse sind in Abb. 2.4 dargestellt. Bremsstrahlung ist also nicht monoenergetisch,
Anode
Kathode
Abb. 2.3: Schematische Darstellung der Erzeu-
Röntgen- gung diagnostischer Röntgenstrahlung in einer
strahlen hochevakuierten Röhre.
2 Bildgebung durch Projektionsröntgen | 13
Abb. 2.4: Entstehung von Bremsstrahlung durch Abbremsung eines auftreffenden Elektrons im
elektrischen Feld eines Atomkerns (links) und durch direkte Kollision mit einem Atomkern (Mit-
te). Rechts: Entstehung charakteristischer Strahlung durch Kollision mit einem Elektronen in der
inneren Elektronenhülle.
Bremsstrahlung: bei Röntgenstrahlung diejenige Strahlung, die durch das Abbremsen schneller
Elektronen entsteht. Bremsstrahlung hat ein breites Spektrum.
Die überwiegende Mehrheit der abgebremsten Elektronen gibt die Energie in einer
Folge von Abbremsprozessen wie in Abb. 2.4 links gezeigt ab, wobei sich bei jeder
Wechselwirkung die Flugrichtung des Elektrons ändert. In der Summe ist die Inten-
sität ungefilterter Bremsstrahlung deshalb nahezu unabhängig von der Abstrahlrich-
tung (Abb. 2.5). Lediglich bei großen Abstrahlwinkeln, d. h. bei Abstrahlrichtungen
nahezu parallel zur Anodenoberfläche, kommt es zur Absorption von Strahlung durch
die Anodenoberfläche selbst. Der damit einhergehende Abfall der Intensität wird als
Heel-Effekt bezeichnet.
14 | Til Aach, Olaf Dössel
e–
e–
Abb. 2.5: Verteilung der abgestrahlten Intensi-
tät von Bremsstrahlung über dem Abstrahlwin-
kel.
Charakteristische Strahlung
Schlägt das ankommende Elektron ein gebundenes Elektron aus der K-, L-, M- oder
N-Schale eines Atomkerns des Anodenmaterials heraus, wird der freigewordene Platz
unmittelbar durch ein Elektron aus einer weiter außen liegenden Schale eingenom-
men. Die Differenz der Bindungsenergien wird als elektromagnetische Welle abge-
strahlt. Bei Übergängen auf die kernnahen K- und L-Schalen mit hohen Bindungsener-
gien entsteht Röntgenstrahlung. Da die zu den Elektronenschalen gehörenden Ener-
gieniveaus gequantelt sind, gilt dies auch für die abgestrahlten Energiedifferenzen.
Die erlaubten Energiedifferenzen sind für das jeweilige Anodenmaterial charakteris-
tisch. Sie erscheinen als Linienspektrum in der erzeugten Röntgenstrahlung, welches
als charakteristische Strahlung bezeichnet wird.
Abb. 2.6 zeigt das Energieniveauschema für das Element Wolfram, welches oft für
Anoden genutzt wird. Die kinetische Energie der auftretenden Elektronen muss grö-
ßer sein als die Bindungsenergie, z. B. der K-Schale, um ein gebundenes Elektron aus
dieser Schale herauszuschlagen (das sind bei Wolfram 69,5 keV). Durch Auffüllen des
Lochs durch ein Elektron aus der L-, M- oder N-Schale entstehen die K𝛼 bzw. K𝛾 -Linien
mit den Energien
Je nach Drehimpulsquantenzahl der Elektronen spalten sich diese Linien noch gering-
fügig in die K𝛼1 und K𝛼2 -Linien auf und entsprechend auch für die Übergänge aus der
M- und N-Schale.
Bindungsenergie
in keV
0
0,5 N-Schale
1
2
2,3 M-Schale
3 Mα
4
5
6
7
8
9
10
11
11,3 L-Schale
12 Lα Lβ
13
Im Folgenden bezeichnen wir mit J𝜈 (𝜈) die abgestrahlte Leistung pro Frequenzinter-
vall und Fläche für Bremsstrahlung; diese spektrale Energieflussdichte hat dann die
Einheit W/(Hz ⋅ m2 ) = J/m2 . Experimentell zeigt sich, dass die spektrale Energiefluss-
dichte für ungefilterte Bremsstrahlung im Vakuum linear mit der Frequenz 𝜈 abfällt
gemäß [Haxel 1968]
wobei Z für die Ordnungszahl des Anodenmaterials steht und k𝜈 eine Proportionali-
tätskonstante ist, die ihrerseits proportional zum Anodenstrom IA ist. Dieser Verlauf
der spektralen Energieflussdichte ist in Abb. 2.7 für verschiedene Anodenspannun-
gen gezeigt. Steigt die kinetische Energie der Elektronen über die Bindungsenergie
von Elektronen auf einer der kernnäheren Schalen des Anodenmaterials, kommt cha-
rakteristische Strahlung zur Bremsstrahlung hinzu. Die Lage der Beiträge der charak-
teristischen Strahlung zur spektralen Energieflussdichte wird durch das Moseleysche
Gesetz beschrieben [Haxel 1968]. Für die K𝛼 -Strahlung liegen diese Beiträge bei der
Frequenz
3
𝜈K𝛼 ≈ ⋅ 𝜈R ⋅ (Z − 1)2 (2.5)
4
mit der Rydberg-Frequenz 𝜈R = 3.29 ⋅ 1015 s−1 . Die durch Überlagerung von Brems-
strahlung und charakteristischer Strahlung entstehende gesamte spektrale Energie-
16 | Til Aach, Olaf Dössel
7 50 kV
45 kV Grenzfrequenz
6
Energieflussdichte in J/m2s
5 40 kV
4 35 kV
3 30 kV
2 25 kV
1 20 kV
0
3 4 5 6 7 8 9 10 11 12
(a) Frequenz ν × 1018 in s−1
Kα
7
6 Kβ
Kγ
Energieflussdichte in J/m2s
5
Dämpfung durch
Aluminiumfilter
4
0
0 2 4 6 8 10 12 14 16 18 20 22 24
(b) Frequenz ν × 1018 in s−1
Abb. 2.7: (a) Spektrale Energieflussdichte ungefilterter Bremsstrahlung im Vakuum für verschie-
dene Beschleunigungsspannungen. (b) Spektrale Energieflussdichte als Überlagerung gefilterter
Bremsstrahlung und charakteristischer Strahlung.
2 Bildgebung durch Projektionsröntgen | 17
Pt = kt ⋅ IA ⋅ Z ⋅ UA2 . (2.7)
Den Wirkungsgrad 𝜂 erhält man durch Normieren von Pt auf die aufgewendete Leis-
tung zu
Pt
𝜂= = kt ⋅ Z ⋅ UA (2.8)
UA ⋅ IA
Wirkungsgrad: bei Röntgenröhren der Quotient aus der aufgenommenen elektrischen Leistung
und der herauskommenden Röntgenleistung.
Das Schwächungsgesetz
Röntgenstrahlung erfährt beim Durchgang durch Materie eine Schwächung, die für
diagnostische Röntgenstrahlung (bis zu einigen 100 keV) im Wesentlichen durch Ab-
sorption und durch Streuung der Röntgenquanten verursacht wird. Wir betrachten
18 | Til Aach, Olaf Dössel
dx d
n n + dn n₀ n (d)
zunächst ein paralleles Strahlenbündel, welches orthogonal auf eine dünne Material-
schicht der Dicke dx auftrifft, wie links in Abb. 2.8 gezeigt.
Die Zahl der pro Fläche und Zeit auftreffenden Photonen sei n. Ferner sei die Strah-
lung monoenergetisch, d. h., sie bestehe aus Photonen mit derselben Energie h𝜈. Die
aus dem Material austretende Anzahl von Photonen werde mit n + dn bezeichnet.
Durch Schwächung gehen dem auftreffenden Strahlenbündel Quanten verloren, dn
ist damit negativ. Außerdem wird dn proportional zur Schichtdicke dx und zu n sein
[Haxel 1968], woraus
dn = −𝜇 ⋅ n ⋅ dx (2.9)
dn
= −𝜇 ⋅ n , mit n(x = 0) = n0 , n(x = ∞) = 0 (2.10)
dx
die durch das exponentielle Gesetz
für die austretende Photonenzahl n(d) gelöst wird. Besteht die Materialschicht aus
mehr als einem Material, so ist der Schwächungskoeffizient selbst ortsabhängig und
Gl. (2.11) wird zu
d
n(d) = n0 ⋅ e− ∫0 𝜇(x)dx (2.12)
Multipliziert man die flächen- und zeitbezogene Photonenzahl n mit der Photonen-
energie h𝜈, so erhält man die Intensität J der Strahlung in der Einheit W/m2 und
Gl. (2.12) wird zu
d
J(d) = J0 ⋅ e− ∫0 𝜇(x)dx (2.13)
mit der einfallenden Intensität J0 und der austretenden Intensität J(d). Dieser Zusam-
menhang wird als Lambert–Beersches Gesetz bezeichnet.
Lambert–Beersches Gesetz: Gesetz, das die Schwächung von Röntgenstrahlung beim Durchgang
durch einen Körper mittels Schwächungskoeffizienten 𝜇(x) beschreibt.
2 Bildgebung durch Projektionsröntgen | 19
Der Schwächungskoeffizient μ ist für ein gegebenes Material abhängig von der Ener-
gie bzw. der Frequenz der Röntgenphotonen. Für polychromatische Röntgenstrahlung
mit der spektralen Energieflussdichte J𝜈 (𝜈) auf der Einfallsseite muss das monoener-
getische Schwächungsgesetz 2.13 deshalb für jeden infinitesimalen Intensitätsbeitrag
J𝜈 (𝜈)d𝜈 separat angesetzt und anschließend über alle Frequenzen integriert werden,
woraus sich
𝜈max
d
J(d) = ∫ J𝜈 (𝜈) ⋅ e− ∫0 𝜇(x,𝜈)dx d𝜈 (2.14)
0
Photoeffekt
Kollidiert ein Photon mit der Energie h𝜈 mit einem Elektron in der Hülle eines Atoms
und ist die Photonenergie größer als die Bindungsenergie Eb des Elektrons, so wird
das Elektron aus der Hülle herausgeschlagen und fliegt als freies Photoelektron mit
der kinetischen Energie Ee = h𝜈 − Eb weiter (Abb. 2.10 (a)). Das Photon wird dabei
20 | Til Aach, Olaf Dössel
ohne Patient
hinter 10 cm Gewebe
Intensität hinter 20 cm Gewebe
0 5 10 15 20 25
(a) Frequenz ν × 1018 in s−1
Knochen
10¹ Muskelgewebe
Fett
μᵨ in cm² g¯¹
10⁰
10¯¹
0 5 10 15 20 25
(b) Frequenz ν × 1012 in s−1
Abb. 2.9: (a) Strahlaufhärtung beim Durchgang polychromatischer Strahlung durch Material.
(b) Qualitativer Verlauf des Schwächungskoeffizienten verschiedener Gewebe über der Frequenz 𝜈.
Für hohe Frequenzen nähern sich die Kurven immer mehr an.
vollständig absorbiert. Das entstandene Loch in der Schale wird wieder aufgefüllt, wo-
bei niedrigenergetische Strahlung entsteht (4. . . 35 keV), die schnell absorbiert wird.
Für den Verlauf des Massenschwächungskoeffizienten gilt
𝜇p Z3
∝ (2.15)
𝜌 (h𝜈)3
er wird jedoch durch Sprünge unterbrochen (Abb. 2.10 (b)). Liegt die Photonenener-
gie beispielsweise unterhalb der Bindungsenergie von Elektronen in der K-Schale,
2 Bildgebung durch Projektionsröntgen | 21
Photoelektrischer Effekt
10³
10²
Massenschwächungskoeffizient in m²/kg
(a)
10¹
10⁰
10¯¹
10¯²
10¯³
1 10 100 1000
(b) Energie in keV
Abb. 2.10: (a) Schematische Darstellung des Photoeffekts. (b) Abhängigkeit des Massenschwä-
chungskoeffizienten von der Energie für den Photoeffekt in Xenon.
ist der Photoeffekt beschränkt auf Elektronen in weiter außen liegenden Schalen,
wie die L- und M-Schale. Überschreitet h𝜈 die Bindungsenergie der K-Schale, kommt
es zu einem bedeutenden Anstieg der Wahrscheinlichkeit der Wechselwirkung mit
K-Elektronen, wodurch der Schwächungskoeffizient sprungartig in Form der soge-
nannten K-Absorptionskante ansteigt.
Photoeffekt: lichtelektrischer Effekt, der auf der Wechselwirkung von Photonen mit Materie be-
ruht. Dabei überträgt ein Photon seine Energie auf ein gebundenes Elektron und löst es aus dem
Atomverbund heraus.
22 | Til Aach, Olaf Dössel
Compton-Streuung
Hierbei trifft ein Röntgenphoton auf ein schwach gebundenes Elektron in einer äu-
ßeren Schale eines Materieatoms. Das einfallende Photon schlägt dabei das Elektron
aus der Schale heraus, überträgt aber aufgrund dessen geringer Bindungsenergie nur
einen kleinen Teil seiner Energie an das Elektron (Abb. 2.11 (a)). Das Photon wird da-
bei aus seiner Bahn abgelenkt und fliegt mit geringfügig reduzierter Energie weiter.
Da sich die Frequenzen des Photons vor und nach dem Streuvorgang unterscheiden,
wird die Compton-Streuung auch als inkohärente Streuung bezeichnet. Die Energie
Ec des Photons nach dem Streuvorgang hängt dabei von dem Winkel 𝜗 ab, um den das
Photon aus seiner Bahn gelenkt wird. Sie wird durch die Klein-Nishina-Gleichung
beschrieben [Beutel 2000]:
h𝜈 h𝜈
Ec = , mit 𝛼 = (2.16)
1 + 𝛼(1 − cos 𝜗) 511 keV
Die kinetische Energie des gestreuten Photons fällt also mit steigendem Streuwinkel.
Ein Photon mit der Energie 100 keV, welches beispielsweise um 𝜗 = 60° gestreut wird,
fliegt nach der Streuung mit der Energie Ec = 91 keV weiter. Die geringste Energie
ergibt sich für Rückwärtsstreuung, d. h. für 𝜗 = 180°.
Rayleigh-Streuung
Bei der Rayleigh-Streuung trifft ein Röntgenphoton elastisch auf ein Materieatom und
wird dabei abgelenkt, das Photon gibt dabei aber keine Energie an das Atom ab und
ionisiert dies nicht (Abb. 2.11 (b)). Das gestreute Photon fliegt damit in eine andere
(a) (b)
Abb. 2.11: Schematische Darstellung der Compton-Streuung (a) und der Rayleigh-Streuung (b).
2 Bildgebung durch Projektionsröntgen | 23
Richtung, aber mit unveränderter Energie bzw. Wellenlänge weiter, man spricht des-
halb auch von kohärenter Streuung.
Abb. 2.12 zeigt die Anteile von Schwächung durch Compton- und Rayleigh-
Streuung sowie durch Photoabsorption am gesamten Massenschwächungskoeffizien-
ten für Blei und Wasser [Haxel 1968] für Energien bis 1 MeV. Während bei 100 keV für
Blei die Photoabsorption überwiegt, wird in Wasser der Hauptteil der Schwächung
durch Compton-Streuung verursacht, gleiches gilt für Weichgewebe im menschlichen
Körper. Diese Streustrahlung erreicht auch nicht im ursprünglichen Röntgenstrahl lie-
gende Organe des Patienten und gegebenenfalls anwesendes Klinikpersonal, welches
sich durch Bleiwesten und Bleifenster vor dieser Strahlung schützen muss. Außerdem
verschlechtert Streustrahlung den Kontrast in den aufgenommenen Bildern.
Kennt man die im Mittel nötige Energie zur Bildung eines Ladungsträgerpaares in Luft,
so kann die Kerma aus der Ionendosis berechnet werden. Die Ionendosis JID ist die
24 | Til Aach, Olaf Dössel
10¹ K−Kante
Ph
ot
Ra
yle
oa
igh
bs
str
or
eu
pt
un
io
g
n
10⁰
cm²/g Blei
Schwächungskoeffizient
Comptonstreuung gesamte Absorption
10¯¹
Ph
ot
oa
bs
or
pt
io
n
10¯²
10¯³
10 100 1000
(a) Quantenenergie in keV
10⁰
cm²/g Wasser
Schw
ächun
gskoe
Pho
ffizien
10¯¹ t
t
Com
oab
Ra
pto
yl
nstr
sor
e
euu
ig
n ng
h
pti
bsorptio
st
A
gesamte
re
on
u un
g
10¯²
Qualitätskriterien für eine diagnostische Röntgenquelle sind eine hohe und genau ein-
stellbare Röntgenleistung, ein kleiner Fokus, eine einstellbare mittlere Quantenener-
gie (typisch 60 bis 120 keV), eine kostengünstige Herstellung und eine lange Lebens-
dauer. Mit einer hohen Röntgenleistung kann die Belichtungszeit so kurz wie möglich
26 | Til Aach, Olaf Dössel
0,6 × 10¹²
0,2 × 10¹²
gewählt werden, wodurch ein Verwackeln der Aufnahme verhindert wird. Der klei-
ne Fokus ist für eine gute räumliche Auflösung nötig, da sonst an scharfen Kanten
Halbschatten auftreten. Die Quantenenergie muss der medizinischen Fragestellung
angepasst werden können, um so einen möglichst großen Kontrast zu erreichen. Ra-
dioaktive Isotope und Synchrotronstrahlung sind neben der Röntgenröhre mögliche
Quellen, sie erfüllen aber eine oder mehrere der oben genannten Bedingungen nicht.
Das größte technische Problem beim Bau einer Röntgenröhre ist wegen des klei-
nen Wirkungsgrades (s. Kap. 2.2.1) die extrem große Verlustleistung. So muss die
unvermeidlich entstehende Wärme so gut wie möglich abgeführt werden. Zwei Tricks
helfen dabei: die Schrägstellung und die sehr schnelle Rotation der Anode. Mit ei-
ner schräg gestellten Anode gelingt es, die Wärme auf einer größeren Fläche in die
Anode zu führen und gleichzeitig einen kleinen Fokus zu behalten (Abb. 2.14). Mit
der Drehanode kann die Wärme auf einen Ring verteilt werden. Dies führt allerdings
dazu, dass im Vergleich zu einer feststehenden Anode nun die Wärme über Wärme-
strahlung und über das Drehlager abgeführt werden muss.
Drehanode
Kathoden- Anoden-
anschluss anschluss
Kugellager Rotor
Graphit
Abb. 2.15 zeigt schematisch eine Röntgenröhre mit Drehanode. Gegenüber dem
rotierenden Anodenteller ist die Kathode mit der Glühwendel angeordnet. An den En-
den sind die Hochspannungsanschlüsse. Um das Lager herum ist der Motor angeord-
net, der die Drehung antreibt. Anode, Kathode, Vakuumkammer, Lager und Motor
sollen im Folgenden kurz besprochen werden. Ausführlichere Beschreibungen finden
sich in [Oppelt 2005].
Drehanode: Konstruktionsprinzip einer Röntgenröhre, bei dem die Anode als ein sich sehr schnell
drehender Anodenteller realisiert ist. Dies dient dazu, die Wärme besser zu verteilen.
eine Pause erfolgen, in der diese Wärmeenergie wieder abgegeben wird. Der Anoden-
teller erwärmt sich während des Betriebes auf Temperaturen bis zu 2000°C.
Die Kathode soll eine möglichst punktförmige Elektronenquelle (< 1 mm) mit
möglichst großem Strom sein (bis zu 1 A). In den meisten Röntgenröhren werden Glüh-
wendeln aus Wolframdraht verwendet, es werden aber auch flächenhafte Elektronen-
quellen und Quellen aus vielen senkrecht stehenden Nanoröhrchen vorgeschlagen
(Feldemission). Die Wolframwendel wird auf Temperaturen um die 2600°C erhitzt,
so dass viele Elektronen die Austrittsarbeit überwinden können und in die Vakuum-
kammer gelangen (thermische Emission). Dort werden sie mit einem sogenannten
Wehnelt-Zylinder abgesaugt. Durch eine optimierte Form dieses Metallringes ge-
lingt es, den Brennfleck zu fokussieren und ihm ein Gauss-förmiges Profil zu geben
(Halbwertsbreite 0,6 bis 0,8 mm), da dieses Profil die Modulationsübertragungsfunk-
tion MFT des Systems natürlich beeinflusst (s. Kap. 21, Systemtheorie). Im „Stand-
by“-Betrieb wird die Temperatur der Glühwendel etwas heruntergefahren, um die Le-
bensdauer der Röhre zu verlängern. Wenn die Röntgenröhre Strahlung emittieren soll,
wird der Heizstrom der Glühwendel hochgefahren. Der eigentliche Anodenstrom wird
durch eine unabhängige Regelung am Wehnelt-Zylinder eingestellt.
Die Vakuumkammer wurde früher aus Glas gefertigt, mit Pumpen auf ein Vakuum
von ungefähr 10−6 mbar abgepumpt und der Pumpstutzen dann „abgeschmolzen“.
Später ging man dazu über, dass nur der mittlere Bereich zur Isolation der Hochspan-
nung aus Glas und die Enden aus Metall gefertigt wurden. Heute werden oft auch ke-
ramische Materialien für die Isolation verwendet.
Das Drehlager befindet sich bei den üblichen Röntgenröhren im Vakuum. Das
grenzt die Wahl der Schmierstoffe ein: Es können nur flüssige Metalle verwendet wer-
den. Blei wird nach dem Hochlaufen der Röhre flüssig, es gibt auch Metalllegierungen
(eutektische Gemische), die schon bei Zimmertemperatur flüssig sind (z. B. eine Indi-
um-Gallium-Zinn-Legierung). Üblich sind Kugellager, es gibt aber auch Gleitrillenla-
ger, bei denen sich vergleichbar mit dem Aquaplaning ein „Wulst“ aus dem flüssigen
Metall ausbildet, auf dem das drehende Teil quasi schwimmt.
Der Motor ist meistens ein Asynchron-Motor, der den Anodenteller auf Drehzah-
len von 100 bis 150 /s bringt (das sind 6000 bis 9000 Umdrehungen pro Minute).
Es gibt Röntgenröhren mit zwei Elektronenquellen (z. B. zwei Wolfram-Wendeln)
– damit ist es möglich, von einem Modus mit kleinem Fokus und kleinem Strom
auf einen Modus mit größerem Fokus und größerem Strom umzuschalten. In eini-
2 Bildgebung durch Projektionsröntgen | 29
Öl zur Kühlung
Ablenkungs- Anode
spulen
Elektronen-
strahl Röntgenstrahlen
Röntgen-Strahler: System zur Erzeugung von Röntgenstrahlen inklusive Gehäuse, Kühlung und
Abschirmung.
Der sogenannte Generator erzeugt die Hochspannung für die Röntgenröhre und steu-
ert die bildgebende Dosis. Es geht also darum, eine Hochspannung im Bereich 60 bis
120 kV und einen Strom von einigen mA bis 1 A für eine genau definierte Zeit sehr ge-
nau einzustellen. Es gibt Röntgengeneratoren, die kurzzeitig eine elektrische Leistung
von 100 kW bereitstellen.
Früher wurde hierfür direkt der Netz-Drehstrom (in Europa: 50 Hz) verwen-
det, der in Dreiecksschaltung an eine Primärwicklung eines Hochspannungstrafos
angeschlossen wurde. Der Trafo enthielt zwei Sekundärkreise, einen in Dreiecks-
schaltung und einen in Sternschaltung. Die abgehenden sechs Leitungen wurden
mit einer Vollweggleichrichtung über zwölf Dioden auf die Röntgenröhre gegeben.
So ergaben sich zwölf Spannungspulse in einer Periode des 50-Hz-Signals. Ein Glät-
tungskondensator sorgte für eine ausreichend konstante Hochspannung. Leider sind
50-Hz-Hochspannungstransformatoren groß und schwer.
Heute verwendet man überwiegend Hochfrequenz-Hochspannungsgenera-
toren (Abb. 2.18). Die Netzspannung wird zunächst gleichgerichtet und dann mit
Hochleistungs-Halbleiter-Bauelementen zerhackt. In der Anfangsphase dieser Tech-
nologie wurden Frequenzen von 10 kHz realisiert, heute sind Frequenzen bis 100 kHz
üblich. Das ermöglicht eine noch kompaktere Bauweise und führt nicht mehr zu
hörbaren Schwingungen. Dieses hochfrequente Signal wird nun mit einem Transfor-
mator auf die gewünschte Hochspannung transformiert und wieder gleichgerichtet.
Wegen der hohen Frequenz genügt ein sehr kleiner Glättungskondensator.
Röntgenröhre
DC AC
Netz
AC DC
Drehanoden-
Motor-
steuerung
AC
DC
Spannungs- IH
U
regelung Heizkreis
I
D = k ⋅ IA ⋅ Z ⋅ UA2 ⋅ TE (2.23)
Dies lässt sich näherungsweise berücksichtigen, indem man einen etwas größeren Ex-
ponenten für die Anodenspannung verwendet:
D = k ⋅ IA ⋅ Z ⋅ UAn ⋅ TE (2.24)
mit ungefähr n = 3. So nimmt die bildgebende Dosis stärker als nach Gl. (2.23) vor-
hergesagt mit der Anodenspannung zu. Will man also für einen ausgewählten Detek-
tortyp (s. Kap. 2.5) eine bestimmte bildgebende Dosis vorgeben, um eine optimal be-
lichtete Aufnahme zu erhalten, so muss man das richtige Produkt aus Anodenstrom,
Belichtungszeit und (Anodenspannung)n wählen. Offensichtlich hängt die bildgeben-
de Dosis auch stark von der Größe des untersuchten Körperteils (z. B. Arm oder Tho-
rax) und von der Größe bzw. Dicke des Patienten ab.
Bei der sogenannten „Dreiknopf-Steuerung“ gibt der Bediener der Anlage alle
drei Größen selbst vor – dies ist riskant und führt nur bei großer Erfahrung zu brauch-
baren Bildern. Die „Zweikopf-Steuerung“ bedeutet, dass die Anodenspannung und
das „Milliampere-Sekunden-Produkt“ (mAs-Produkt) vorgegeben werden. Die Anla-
ge wählt dann selbst den größtmöglichen Anodenstrom, so dass die Belichtungszeit
minimiert wird.
Bei der „Einknopf-Steuerung“ wird schließlich nur noch die Anodenspannung
vorgegeben. Das System enthält eine Belichtungsautomatik, die selbst das richtige
mAs-Produkt wählt (Automatic Exposure Control, AEC). Bilddetektoren mit Halblei-
ter-Flachdetektoren (s. Kap. 2.5.4) können in Realzeit das Signal in der Bildebene
bestimmen und die Belichtung so lange einschalten, bis die gewünschte bildgeben-
de Dosis erreicht ist. Film-Folien-Systeme (s. Kap. 2.5.1) und Speicherfoliensysteme
(s. Kap. 2.5.2) benötigen einen oder mehrere Sensoren hinter dem Bilddetektor, wel-
che die bildgebende Dosis messen und so die richtige Belichtungszeit wählen. Das ist
nicht unproblematisch. Zum einen muss eine Region of Interest (ROI) definiert werden,
in der die Detektoren liegen. Diese ROI muss dem vom Benutzer eingestellten Strah-
lungsfeld folgen, damit kein Sensor in einem Bereich liegt, der gar nicht von Rönt-
genstrahlen getroffen wird. Dann dürfen nicht einer oder mehrere Detektoren in stark
abgeschatteten Gebieten liegen, z. B. hinter Knochen. Schließlich ist das Spektrum der
Röntgenstrahlung hinter dem Bilddetektor härter als das Spektrum vor dem Detektor.
Trotz dieser Schwierigkeiten können Systeme mit Belichtungsautomatik in der Regel
die Zahl der falsch belichteten Bilder deutlich reduzieren.
Abb. 2.19: Lichtkasten mit verstellbaren Blenden ohne Röntgenfilm (Foto: T. Oesterlein, IBT am KIT).
gen zwischen positiv geladenen Silberionen und negativ geladenen Bromidionen ge-
bildet werden. Die einfallenden Quanten lösen eine Redox-Reaktion aus, bei der Silber
entsteht, wodurch der Film geschwärzt wird. Zunächst oxidiert ein Röntgenphoton der
Energie h𝜈, welches auf ein Silberbromidkorn fällt, Bromidionen zu Brom gemäß
Br− + h𝜈 = Br + e− (2.25)
wobei freie Elektronen entstehen. Die Elektronen reduzieren Silberionen zu Silber
durch
Ag+ + e− = Ag . (2.26)
In den Emulsionsschichten entstehen damit Silberkeime. Die Entwicklung des Films
reduziert an den Keimen Millionen weiterer Silberionen zu Silberatomen, die den
Film entsprechend der Belichtung schwärzen. Es entsteht ein „negatives“ Bild, auf
dem stärker schwächende Strukturen, wie Knochen, hell dargestellt werden. Die
Empfindlichkeit des Filmes wird durch die Größe der Silberbromidkristalle bestimmt.
Höhere Empfindlichkeit erfordert dabei größere Kristallkörner, wodurch die Auflö-
sung sinkt. Zur Befundung werden die entwickelten und fixierten Röntgenfilme vor
einen Lichtkasten gehängt, der die Filme von hinten möglichst homogen durchleuch-
tet (Abb. 2.19).
Quantitativ wird die Schwärzung des Films durch die optische Dichte So beschrie-
ben. Die optische Dichte gibt die logarithmierte Schwächung an, die Licht beim Durch-
gang durch den Film erfährt. Bezeichnet man die vom Lichtkasten einfallende Lichtin-
tensität mit IL0 und die transmittierte Intensität mit IL , so ist die optische Dichte
IL0
So = log10 (2.27)
IL
34 | Til Aach, Olaf Dössel
Durch die Logarithmierung ist die optische Dichte der Helligkeitsempfindung des
menschlichen Auges angepasst, die logarithmisch von der Lichtintensität abhängt.
Der Film wird nun wesentlich durch seine Schwärzungskurve charakterisiert, wel-
che die Abhängigkeit der optischen Dichte von der (ebenfalls logarithmierten) De-
tektordosis angibt. Die Detektordosis ist das Produkt aus der auf den Film fallenden
Röntgenintensität Idet und der Belichtungszeit TE :
Mit der auf den Patienten einfallenden Intensität I0 ergibt sich dann aus dem
Lambert–Beerschen Gesetz das Schwächungsintegral
d
I
ln det = − ∫ 𝜇(x)dx (2.29)
I0
0
Bezieht man die Detektordosis auf eine Referenzdosis Dref , so erhält man als Belich-
tungsmaß
d
D I ⋅T
B = ln det = ln det E = − ∫ 𝜇(x)dx + const. , (2.30)
Dref Iref ⋅ TE
0
3,5
2,5
2
S₀
1,5
0,5
0
0 0,5 1 1,5 2 2,5 3
B
Film-Folien-System: System zur Aufnahme von Röntgenbildern. Hierbei wird die Röntgenstrahlung
mittels Lumineszenz-Folie in sichtbares Licht umgewandelt, das dann mit einem Film aufgenom-
men wird.
2.5.2 Speicherfoliensysteme
Ähnlich wie bei Verstärkerfolien erfolgt auch bei Speicherfoliensystemen die Bildge-
bung durch mehrfach verwendbare röntgenempfindliche Folien, die in Kassetten un-
tergebracht sind. Im Unterschied zu Verstärkerfolien können die in Speicherfolien-
systemen eingesetzten Speicherphosphore die aufgezeichneten Bilder allerdings bis
zu mehreren Tagen oder Wochen speichern. Das Auslesen der Bildinformation erfolgt
durch Anregung mit einem Laser. Abb. 2.21 verdeutlicht die Bildgebung durch ein
Speicherfoliensystem [Oppelt 2005]: Zunächst hebt die einfallende Röntgenstrahlung
Elektronen aus dem Valenzband des Speicherphosphors in das Leitungsband. Zum
Teil fallen diese freien Elektronen unter spontaner Lichtaussendung wieder in das Va-
lenzband zurück. Ein Teil der Elektronen wird jedoch von Haftstellen eingefangen, die
durch Dotierung in das Folienmaterial eingebracht werden und deren Energieniveau
etwas unterhalb des Leitungsbandes liegt.
Speicherfolie: System zur Aufnahme von Röntgenbildern, bei dem zunächst die Speicherfolie be-
lichtet und danach in einer separaten Einrichtung das Bild erzeugt wird.
In einem Auslesegerät wird die belichtete Speicherfolie mit einem Laser im roten Wel-
lenlängenbereich abgetastet, wodurch die von den Haftstellen eingefangenen Elektro-
nen in das Leitungsband gehoben werden und von dort unter Aussendung von kurz-
welligerem, blauen Licht in das Valenzband zurückfallen. Das Licht wird von einem
Photomultiplier aufgezeichnet, anschließend wird das Signal digitalisiert. Ein Farb-
filter mit einer Durchlasskurve im blauen Bereich verhindert dabei, dass Licht von
dem Ausleselaser auf den Photomultiplier fällt. Die Speicherfolie wird zuletzt durch
Ablenk-
Leitungsband spiegel
Laser Photomultiplier
Valenzband
Farbfilter
Leuchtzentren
Speicherfolie
(a) (b)
Abb. 2.21: Belichtung (a), metastabile Speicherung und Auslesen (b) bei einer Speicherfolie.
2 Bildgebung durch Projektionsröntgen | 37
intensives Ausleuchten in den Grundzustand zurückversetzt und kann für die nächste
Aufnahme verwendet werden.
Mittels Speicherfoliensystemen aufgezeichnete Bilder liegen nach dem Aus-
leseprozess somit als digitale Radiographien vor. Zudem weisen sie einen deutlich
höheren Empfindlichkeitsbereich als Film-Folien-Systeme auf und sind damit unemp-
findlicher gegenüber Fehlbelichtungen. Aufgrund ihrer Bauform können Speicher-
folienkassetten meist in denselben Röntgensystemen verwendet werden, in denen
klassisch analoge Film-Folien-Kassetten benutzt wurden.
2.5.3 Röntgenbildverstärker
Röntgenbildverstärker: System zur Aufnahme von Röntgenbildern, bestehend aus einer Lumines-
zenzschicht, einer Photokathode, einer Elektronenoptik und einem Fluoreszenzschirm.
Ausgangs-
leuchtschirm
Anodenspannung
+25 bis +35 kV
Eingangs-
leuchtschirm Photokathode (0 V) Vakuumgefäß
25 CsI
15
10
0
20 25 30 35 40 45 50 55 60 65 70
Energie in keV
Röntgenstrahlung
Röntgenquant
CsI-Schichtdicke
CsI (ca. 0,4 mm)
Photokathode
Abb. 2.24: Säulenstruktur des aufgedampften Cäsiumjodids und deren Wirkung als Lichtleiter.
40 | Til Aach, Olaf Dössel
(a) (b)
Abb. 2.25: Schematische Darstellung der direkten (a) und indirekten (b) Konversion.
2.5.4 Halbleiter-Flachdetektoren
Flachdetektoren auf Basis von amorphem Silizium werden seit Beginn dieses Jahr-
hunderts in immer stärkerem Maße sowohl für diagnostische als auch interventionel-
le Röntgenbildgebung eingesetzt. Die verwendete Technologie deckt dabei Anforde-
rungen der dynamischen Bildgebung wie Fluoroskopie oder Angiographie bis hin zur
statischen Röntgenbildgebung ab.
Halbleiter-Flachdetektoren: System zur Aufnahme von Röntgenbildern, basierend auf einer Um-
wandlung von Röntgenquanten in elektrische Ladung, die dann mithilfe einer Elektronik bestimmt
(„ausgelesen“) wird.
Flachdetektoren werden heute bis zu einer Größe von ca. 50 × 50 cm hergestellt und
weisen je nach Anwendung bis zu ca. 10 Megapixel auf (für die Mammographie sogar
deutlich mehr). Kern des Detektionsprozesses ist die Umwandlung von Röntgenstrah-
lung in elektrische Ladung. Unterschieden wird hierbei zwischen direkter Konversion
und indirekter Konversion. Bei direkter Konversion wird die einfallende Röntgenstrah-
lung durch Photoabsorption (meist in amorphem Selen) unmittelbar in elektrische La-
dung umgewandelt. Bei indirekter Konversion hingegen wird die Röntgenstrahlung
durch Szintillation zunächst in sichtbares Licht umgesetzt, welches von Photodioden
detektiert und in Ladung konvertiert wird [Aach 1999, Overdick 2006, Oppelt 2005].
Abb. 2.25 zeigt die beiden Prinzipien schematisch. In beiden Fällen folgt auf die
Konversion eine Pixel-Elektronik, die Photodioden, Dünnfilmtransistoren als Schalt-
elemente und Pixel-Kapazitäten enthält, sowie die allen Pixeln gemeinsame Auslese-
elektronik [Overdick 2006]. Da die mit indirekter Konversion arbeitenden Detektoren
mit Abstand am weitesten verbreitet sind, werden nur diese hier behandelt.
2 Bildgebung durch Projektionsröntgen | 41
CsI-Szintillator
a-Si Sensormatrix
Verstärker/Multiplexer
A/D-Wandler
Adressierung
Glassubstrat
Vorspannungs-
leitungen
Zeilen-
treiber
Gateleitungen
Auslese-
leitungen Analog-
Digital-
analoger Multiplexer Umsetzer
Abb. 2.26 zeigt schematisch die Ansicht eines Flachdetektors mit indirekter Kon-
version. Die zu detektierende Röntgenstrahlung trifft zuerst auf die Szintillatorschicht
und wird dort in sichtbares Licht umgewandelt. Wie bei Röntgenbildverstärkern wird
hier überwiegend Cäsiumjodid eingesetzt, welches in einer säulenartigen Struktur mit
einer Schichtdicke zwischen 0,3 und 2,5 mm auf den Detektor aufgebracht wird. Durch
Dotierung mit Thallium wird das Maximum der emittierten Lichtintensität in den grü-
nen Wellenlängenbereich (ca. 550. . . 600 nm) gelegt, wo die Empfindlichkeit der Pho-
todioden hoch ist [Aach 1999]. Das erzeugte Licht trifft auf die Photodioden der in ei-
ner Matrixstruktur angeordneten Pixel. Das Prinzipschaltbild der aktiven Matrix zeigt
Abb. 2.27.
Die in Sperrrichtung betriebenen Photodioden werden über die Vorspannungs-
leitung auf die Vorspannung aufgeladen. Das von der Szintillatorschicht einfallende
Licht erzeugt innerhalb der Photodioden freie Elektron-Lochpaare, durch welche die
Photodioden entsprechend dem Lichteinfall entladen werden. Der Ausleseprozess er-
folgt zeilenweise, indem die Dünnfilmtransistoren einer Zeile durch die Zeilentreiber
über die Gateleitungen durchgeschaltet werden. Die Photodioden werden dann über
die in Spaltenrichtung angeordneten Ausleseleitungen nachgeladen, wobei die in jede
Photodiode fließende Ladung durch einen ladungssensitiven Verstärker erfasst wird.
42 | Til Aach, Olaf Dössel
Das so in jedem Pixel erzeugte Signal wird anschließend digitalisiert. Die Pixelgrö-
ßen liegen zwischen 100 und 200 μm, wobei die Photodioden ca. 70 % der Pixelfläche
ausfüllen. Abb. 2.28 zeigt ein Beispiel für ein mit einem Flachdetektor ausgerüstetes
C-Bogen-System.
Durch ihre flache Form treten bei Flachdetektoren im Gegensatz zu Röntgen-
bildverstärkern keine geometrischen Verzerrungen und kein Vignetting (Abfall der
Lichtintensität zu den Bildrändern hin) auf, außerdem sind ihre mechanischen Ab-
messungen und ihr Gewicht geringer. Die erzielbare Bildqualität wird wesentlich
durch das Übertragungsverhalten des Detektorsystems für Bildsignal und Quan-
tenrauschen sowie von dem systemintern generierten Rauschen bestimmt. Die we-
sentlichen systeminternen Rauschquellen sind das Rauschen der ladungssensitiven
Verstärker und das Reset-Rauschen der Photodioden [Aach 1999, Overdick 2006].
Letzteres wird auch als kTC-Rauschen bezeichnet, da sich seine Varianz aus dem
Produkt der Boltzmann-Konstanten k, der Temperatur T und der Pixelkapazität C
(ca. 2 pF) berechnet. Aus diesen Größen wird als Qualitätsmaß für ein Detektorsystem
die detektierte Quanteneffizienz (DQE) berechnet und als ortsfrequenzabhängige
Funktion aufgetragen. Das Kap. 2.6 führt zunächst in die DQE ein und zeigt dann
beispielhaft Ergebnisse für einige Flachdetektorsysteme.
2.5.5 Streustrahlenraster
Wie Abb. 2.12 zeigt, wird der Hauptanteil der Schwächung von diagnostischer Rönt-
genstrahlung im menschlichen Körper durch Compton-Streuung verursacht. Durch
die Streuung werden die Röntgenquanten aus ihrer direkten Bahn abgelenkt. Diejeni-
gen Quanten, die nach Streuvorgängen noch auf den Detektor treffen, erreichen ihn
deshalb nicht mehr entlang einer vom Anodenbrennfleck ausgehenden geraden Linie,
sondern auf indirektem Weg (Abb. 2.29).
2 Bildgebung durch Projektionsröntgen | 43
Brennfleck
Patient
Raster
Bleilamellen
Detektor
Abb. 2.29: Streuung in einem durchstrahlten Objekt und Wirkung eines Streustrahlenrasters.
Streustrahlenraster: System bei der Aufnahme von Röntgenbildern, mit dem die störende Streu-
strahlung im Bild unterdrückt werden kann.
Bezeichnet man die den Detektor direkt erreichende Intensität als Primärintensität
Ip und die ihn nach Streuung erreichende Intensität als Streuintensität Is , so ist der
Streustrahlanteil P definiert als
I
P= s (2.31)
Ip
Der Streustrahlanteil hängt unter anderem von der Größe und der Dicke des
durchstrahlten Bereiches des Patienten ab und kann zwischen 50 und 90 % liegen.
Die Streuintensität ist nahezu homogen über den Detektor verteilt und überlagert sich
als kontrastreduzierender Schleier der Primärintensität. Die damit einhergehende Zu-
nahme der Gesamtintensität der auf den Detektor treffenden Strahlung erhöht zudem
das Rauschen in dem detektierten Bild, wodurch geringe Intensitätsunterschiede
nicht mehr wahrnehmbar werden. Der Kontrast C zwischen zwei benachbarten Bild-
regionen mit geringfügig unterschiedlichen Röntgenintensitäten I1 und I2 ist dabei
gegeben durch
I −I 𝛥I
C= 1 2 = (2.32)
I1 + I2 2 ⋅ I
wobei I für die mittlere Intensität steht (vgl. Kap. 21.6, Systemtheorie). Der Kontrast
Cp ohne Streustrahlung ergibt sich damit zu
𝛥Ip
Cp = (2.33)
2 ⋅ Ip
44 | Til Aach, Olaf Dössel
Bei einem Streustrahlanteil von 80 % reduziert sich der Kontrast somit auf 20 % des
Kontrastes der Primärintensität.
Zur Reduktion der Streuintensität werden nach Gustav Bucky (1913) sogenannte
Streustrahlenraster auf den Detektor aufgebracht [Morneburg 1995]. Sie bestehen aus
vielen dünnen Bleilamellen, zwischen denen sich ein für Röntgenstrahlung durchläs-
siges Schachtmedium befindet (Abb. 2.30). Ein Großteil der Primärintensität kann
die Schächte zwischen den Bleilamellen wegen des geradlinigen Weges von der Quel-
le zum Raster ungehindert passieren, während ein wesentlicher Anteil der Streuinten-
sität wegen des schrägen Einfalls auf die Bleilamellen trifft und dort absorbiert wird.
Physikalisch ist ein Streustrahlenraster durch seine Primärstrahltransparenz
Tp , seine Streustrahltransparenz Ts und seine Selektivität 𝛴 gekennzeichnet. Bezeich-
net man die den Detektor mit aufgebrachtem Raster erreichende Primärintensität mit
Ipr und die ihn erreichende Streuintensität mit Isr , so gilt:
Ipr Isr Tp
Tp = , Ts = , 𝛴= (2.35)
Ip Is Ts
Ziel bei der Dimensionierung eines Streustrahlenrasters sind eine möglichst hohe Pri-
märstrahltransparenz, eine möglichst niedrige Streustrahltransparenz und damit eine
möglichst hohe Selektivität. Diese physikalischen Kenngrößen hängen dabei von den
geometrischen Größen des Rasters in Abb. 2.30 ab. Typische Werte für ein Streustrah-
lenraster sind h = 1,4 mm für die Lamellenhöhe, d = 0,07 mm für die Lamellenbreite
und D = 0,18 mm für die Schachtbreite. Die Selektivität hängt allerdings auch von der
Anodenspannung ab und liegt typisch zwischen 3 und 12.
2 Bildgebung durch Projektionsröntgen | 45
𝛥Ipr Tp ⋅ 𝛥Ip
Cr = =
2(Ipr + Isr ) 2(Tp Ip + Ts Is )
𝛴
= Cp ⋅ (1 − P) ⋅
𝛴 − P(𝛴 − 1)
𝛴
= Cs ⋅ (2.36)
𝛴 − P(𝛴 − 1)
Liegt der Streustrahlanteil ohne Einsatz eines Streustrahlenrasters wie in obigem
Beispiel bei P = 80 % und wird nun ein Streustrahlenraster mit der Selektivität 𝛴 = 12
eingesetzt, so ergibt sich für den Kontrast
Cr = Cp ⋅ 0, 75 = Cs ⋅ 3, 75 (2.37)
Durch den Einsatz des Streustrahlenrasters wird der Kontrast also um das 3,75-
Fache erhöht, und zwar auf das 0,75-Fache des Kontrastes, der sich ganz ohne Streuin-
tensität ergeben würde.
nk0 −n0
Pr(n = k) = e (2.38)
k!
wobei k eine nichtnegative ganze Zahl und n0 ein Parameter der Poisson-Verteilung
ist (vgl. Kap. 21.5, Systemtheorie). Mittelwert und Varianz 𝜎2 der Poisson-Verteilung
sind beide gleich dem Parameter n0 . Fasst man den Mittelwert als Signal S auf und die
Varianz 𝜎2 als sogenanntes Quantenrauschen, so ist das „intrinsische“ Signal-Rausch-
Verhältnis (SNR) der Strahlung gegeben durch
Sin = n0 ⋅ Ap ⋅ TE = q0 (2.40)
46 | Til Aach, Olaf Dössel
AP
I
Abb. 2.31: Vereinfachtes Diagramm eines Rönt-
gendetektors als Absorptionsstufe (Quantenab-
sorption 𝛼, Pixelfläche Ap ).
Quanten, was als Eingangssignal des Detektors aufgefasst werden kann. Die Varianz
der einfallenden Quanten beträgt aufgrund der Poisson-Natur ebenfalls 𝜎2 = q0 , wo-
durch sich das SNR am Eingang ergibt zu. SNRin = S2in /𝜎in
2
= q0
Quantenrauschen: durch den statistischen Charakter beim Nachweis von Röntgenquanten her-
vorgerufenes Rauschen im Bild. Die Häufigkeit, mit der in einem Pixel eine bestimmte Zahl von
Röntgenquanten gezählt wird, schwankt und kann mit der POISSON-Statistik beschrieben wer-
den.
Bezeichnet man die Quanteneffizienz, d. h. den Anteil der vom Detektor tatsächlich
nachgewiesenen Quanten, mit 𝛼, so erhält man am Detektorausgang:
2
Sout = 𝛼 ⋅ q0 = 𝜎out
SNRout = S2out /𝜎out
2
= 𝛼 ⋅ q0
DQE0 = SNRout /SNRin = 𝛼 (2.41)
Das SNR am Detektorausgang entspricht also dem Mittelwert der nachgewiesenen
Quanten und wird deshalb auch als Anzahl der rauschäquivalenten Quanten (Noi-
se Equivalent Quanta, NEQ) bezeichnet. Ein realer Detektor, der nur einen Anteil 𝛼
der einfallenden Quanten nachweist, kann deshalb wie ein idealer Detektor aufge-
fasst werden, der alle Quanten detektiert, aber mit geringerer Quantendosis betrie-
ben wird. Durch Normierung des SNR am Detektorausgang auf das SNR am Detektor-
eingang erhält man eine von der Quantendosis unabhängige Größe, die sogenannte
detektierte Quanteneffizienz DQE .
Als Beispiel betrachten wir einen Flachdetektor mit einer Pixelgröße von Ap =
200 μm × 200 μm und einer Quanteneffizienz 𝛼 = 70 %, der im Fluoroskopiemodus mit
25 Bildern pro Sekunde, einer Dosisrate von 0,25 μGy/s und einem Spektrum mit einer
mittleren Quantenenergie von 60 keV betrieben wird. Die Belichtungszeit ergibt sich
somit zu TE = 1/25 s und die Dosis pro Bild zu D = 10 nGy. Aus Abb. 2.13 liest man
2 Bildgebung durch Projektionsröntgen | 47
für diese Strahlqualität und Dosis eine Quantendosis von qDA = 35 ⋅ 103 Quanten pro
mm2 und μGy ab. Die mittlere auf einen Pixel einfallende Zahl von Röntgenquanten
pro Bild, die Rauschleistung und das SNR am Eingang betragen damit
Sin = q0 = D ⋅ qDA ⋅ Ap = 14
2
𝜎in = q0 = 14
S2in
SNRin = = 14 (2.42)
𝜎in
2
Die bisherige vereinfachte Behandlung von NEQ und DQE ging von örtlich homo-
genen Aufnahmen aus, bei der jedes Pixel mit demselben Signal belichtet wird und
vernachlässigte das vom Detektorsystem selbst erzeugte Rauschen. Im Folgenden lei-
ten wir deshalb eine erweiterte Definition für NEQ und DQE elektronischer Detektor-
systeme ab, die die Ortsfrequenzabhängigkeit der Modulationsübertragungsfunk-
tion (Modulation Transfer Function, MTF) des Detektors sowie Systemrauschen
berücksichtigen. Wir folgen hier den Ableitungen in [Aach 1999, Rabbani 1987].
Abb. 2.32 zeigt das zugrunde liegende Detektormodell: Der Absorptionsstufe
folgt eine Verstärkung um den Faktor G, welche die Konversion von Röntgenquan-
ten in andere Informationsträger wie Elektronen beschreibt. Auf die Verstärkerstufe
folgt eine auflösungsbegrenzende lineare verschiebungsinvariante Filterung, die
beispielsweise Streueffekte im Szintillator und die Integration über die Pixelgröße
erfasst und im Ortsfrequenzbereich durch die MTF beschrieben wird. Zum Schluss
wird unabhängiges, vom Detektorsystem erzeugtes Rauschen mit dem Rauschleis-
tungsdichtespektrum Nsys (u) addiert, wobei u für die Ortsfrequenz steht.
Die in Abb. 2.32 dargestellte Verarbeitungskette filtert somit sowohl das Signal
wie auch das Quantenrauschen am Detektoreingang. Bei der Ortsfrequenz Null ergibt
sich für das Ausgangssignal bei einer mittleren Anzahl von q0 einfallenden Röntgen-
quanten pro Pixel
Sout = q0 ⋅ 𝛼 ⋅ G (2.44)
wobei die MTF bei der Ortsfrequenz Null auf eins normiert wurde. Das einfallende
Quantenrauschen ist weiß [Rabbani 1987, Aach 1999], d. h., sein Rauschleistungsdich-
48 | Til Aach, Olaf Dössel
tespektrum Nq (u) ist frequenzunabhängig und hat für jede Ortsfrequenz denselben
Wert
Nq (u) = q0 (2.45)
Bei Übertragung des Quantenrauschens über die Verarbeitungskette in Abb. 2.32
wird das Quantenrauschen verstärkt und mit der MTF gefiltert, so dass das ursprüng-
lich weiße Rauschen zu farbigem Rauschen wird. Unter Berücksichtigung des additi-
ven unabhängigen Systemrauschens mit dem Rauschleistungsdichtespektrum Nsys (u)
erhalten wir für das Rauschleistungsdichtespektrum am Detektorausgang
wobei x für die Ortskoordinate und u für die Ortsfrequenz steht. Da die über alle Pixel,
d. h. über x, gemittelte einfallende Anzahl von Röntgenquanten unverändert bei q0
liegt, ändert sich die Gesamtdosis für diese nahezu homogene Aufnahme gegenüber
der homogenen Aufnahme nicht, wodurch auch das in Gl. (2.39) berechnete Rausch-
leistungsdichtespektrum am Detektorausgang praktisch unverändert bleibt. Die Si-
nusschwingung mit der Ortsfrequenz u erscheint auch am Ausgang des Detektors, da
sie eine Eigenfunktion bezüglich linearer verschiebungsinvarianter Filter darstellt, sie
wird allerdings skaliert. An Eingang bzw. Ausgang hat sie die Amplituden
Mit Gl. (2.41) ergibt sich somit für das ortsfrequenzaufgelöste SNR an Detektor-
eingang und Detektorausgang:
S2in (u)
SNRin (u) = = 𝜀2 ⋅ q0
Nq (u)
S2out (u) q20 𝜀2 𝛼2 G2 ⋅ MTF2 (u)
SNRout (u) = = (2.49)
Nout (u) q0 𝛼G2 ⋅ MTF2 (u) + Nsys (u)
Die DQE berechnet sich nun wie in Gl. (2.41) aus dem Quotienten von SNR am
Eingang und Ausgang des Detektors zu
Wert 𝛼 an. Wie das Signal erscheint auch das Quantenrauschen am Ausgang als
mit der Detektor-MTF gefilterte Version, ohne dass weitere spektrale Rauschanteile
hinzugefügt werden. Unter der hypothetischen Annahme einer für keine Ortsfre-
quenz verschwindenden MTF kann das Eingangssignal deshalb durch Filterung des
Ausgangssignals mit der inversen MTF wiederhergestellt werden, ohne dass das
Rauschen unverhältnismäßig verstärkt wird. Das durch die tiefpassartige MTF gefil-
terte Quantenrauschen wird durch diese Operation wieder zu weißem Rauschen. Ein
Ziel bei dem Entwurf von Detektorsystemen ist es, das Systemrauschen möglichst
für alle Ortsfrequenzen viel kleiner als das Quantenrauschen zu halten. Ist das Sys-
temrauschen gegenüber dem Quantenrauschen vernachlässigbar, spricht man von
quantenlimitierter Bildgebung.
Zusammenfassend hängt die Qualität von Röntgenbildern von der Röntgendosis
und den Eigenschaften des Detektorsystems ab, bei Letzteren vor allem von der MTF
und der DQE. Das SNR wird dabei durch die verwendete Dosis und durch Rauschquel-
len im Detektorsystem bestimmt. Die DQE beschreibt die Abnahme des SNR für jede
Ortsfrequenz bei Übertragung von Signal und Rauschen über das Detektorsystem. Die
MTF beschreibt den Verlust von Bildschärfe, während die DQE nicht nur das SNR am
Ausgang beeinflusst, sondern auch angibt, inwieweit der Schärfeverlust durch linea-
re verschiebungsinvariante Filterung ausgeglichen werden kann, ohne dass spektrale
Rauschanteile überproportional verstärkt werden. Die DQE ist deshalb als Qualitäts-
kriterium mindestens so wichtig wie die MTF.
Abb. 2.33 zeigt DQE-Kurven für ein Detektorsystem bestehend aus einem
Röntgenbildverstärker mit einem Eingangsschirmdurchmesser von 23 cm und ei-
ner CCD-Kamera mit einer Auflösung von 1 × 1 k Bildpunkten. Die Pixelgröße auf
dem Eingangsschirm liegt damit bei rund 0,22 mm, woraus sich eine Abtastrate von
rund 4,4 Pixeln pro Millimeter ergibt. Die maximal reproduzierbare Ortsfrequenz
(Nyquist-Frequenz) entspricht der halben Abtastrate und liegt bei 2,2 Linienpaaren
pro Millimeter (lp/mm). Der Eingangsschirm ist mit einer 0,4 mm dicken Szintillator-
schicht aus natriumdotiertem Cäsiumjodid beschichtet. Das Diagramm zeigt, dass
für Ortsfrequenzen unter 2 lp/mm die DQE der Gesamtkette fast ausschließlich durch
die DQE der Szintillatorschicht bestimmt wird und einen Maximalwert von 65 %
erreicht. Oberhalb von 3 lp/mm fällt die DQE des Bildverstärkers gegenüber derje-
nigen des Szintillators alleine deutlich ab. Grund hierfür ist weißes Schrotrauschen
der im Bildverstärker erzeugten Photoelektronen. Zu höheren Ortsfrequenzen hin
übersteigen diese Rauschanteile das durch die MTF des Bildverstärkers tiefpassgefil-
terte Quantenrauschen und senken die DQE. Die DQE des Gesamtsystems kann nur
bis zur Nyquist-Frequenz von 2,2 lp/mm gemessen werden und fällt durch weitere
Rauschquellen in der Kamera zwischen 2 lp/mm und der Nyquist-Frequenz rapide
ab.
Abb. 2.34 zeigt beispielhaft DQE-Kurven über der Ortsfrequenz für ein Flachde-
tektorsystem bei verschiedenen Röntgendosen. Die Pixelgröße beträgt 0,2 mm, wor-
aus sich eine Nyquist-Frequenz von 2,5 lp/mm ergibt. Die Maximalwerte der DQE lie-
50 | Til Aach, Olaf Dössel
0,7
CSI
XRII
0,6
XRII+CCD
0,5
0,4
DQE
0,3
0,2
0,1
0
0 1 2 3 4 5
Ortsfrequenz in lp/mm
0,8
0,7 1000nGy
100nGy
10nGy
0,6 5nGy
0,5
DQE
0,4
0,3
0,2
0,1
0
0 0,5 1 1,5 2 2,5
Ortsfrequenz in lp/mm
Abb. 2.34: Gemessene DQE-Kurven für ein Flachdetektorsystem bei verschiedenen Dosen.
gen zwischen 60 und 80 %. Generell fällt die DQE bei geringerer Dosis schneller ab als
bei höherer Dosis, da die Leistung des Quantenrauschens mit der Dosis abnimmt und
systeminternes Rauschen dann stärker ins Gewicht fällt.
Die folgenden Abbildungen zeigen DQE und MTF heute erhältlicher Halbleiterde-
tektoren [Trixell 2011]. Abb. 2.35 zeigt links die DQE und rechts die MTF eines Flach-
detektors, der sowohl für Radiographie wie auch für Fluoroskopie einsetzbar ist. Die
Pixelgröße beträgt 148 μm, woraus sich eine Nyquist-Frequenz von 3,4 lp/mm und –
2 Bildgebung durch Projektionsröntgen | 51
70 100
60
80
50
40 60
DQE
MTF
30 40
20
20
10
0 0
0 0,5 1 1,5 2 2,5 3 3,5 4 0 0,5 1 1,5 2 2,5 3 3,5 4
Ortsfrequenz in lp/mm Ortsfrequenz in lp/mm
Abb. 2.35: DQE und MTF eines Flachdetektors für Radiographie und Fluoroskopie der Größe 2840 ×
2874 Pixel.
bei einer Matrixgröße von 2840 × 2874 Pixeln – Abmessungen der röntgenempfindli-
chen Fläche von rund 43 × 43 cm ergeben.
2.7 Phasenkontrast-Röntgen
In den letzten Jahren rückt eine neue Methode in den Bereich der medizinischen Bild-
gebung vor, mit der es gelingt, den Brechungsindex von Materialien im keV-Bereich
mit Röntgenstrahlung abzubilden. Der Brechungsindex kann allgemein geschrieben
werden als
n(x, y, z) = 1 − 𝛿(x, y, z) + i𝛽(x, y, z) (2.52)
wobei der Realteil von n (also 1 − 𝛿) der eigentliche Brechungsindex ist und der Imagi-
närteil (𝛽) proportional zum Röntgenschwächungskoeffizienten μ(x, y, z) ist. Die Ab-
weichung des Brechungsindex n von 1, also das 𝛿, ist im Bereich der Röntgenstrahlung
sehr klein: es ist nur von der Größenordnung 10−9 bis 10−10 . 𝛿 ist proportional zur Elek-
tronendichte; die Abbildung von 𝛿(x, y, z) verspricht daher einen neuen und anderen
Kontrast.
Wie kann es aber gelingen, so kleine Abweichungen von n zu messen? Die Antwort
ist das sogenannte Phasenkontrast-Röntgen.
Phasenkontrast-Röntgen: Abbildung der Abweichung des Brechungsindex von 1 bei und mithilfe
von Röntgenstrahlung.
Zunächst sei ein kleiner Ausflug in die Physik der Fata Morgana erlaubt (Abb. 2.36).
Über dem heißen Wüstensand (oder auch über einer heißen Straße) bildet sich
oft ein starker Temperaturgradient in der Richtung vom Boden nach oben aus (in
Abb. 2.36 die y-Richtung). Dieser Temperaturgradient führt zu einem Gradienten
des Brechungsindex: das oben definierte 𝛿 ist eine Funktion der Höhe y über dem
52 | Til Aach, Olaf Dössel
Abb. 2.36: Physik der Fata Morgana – Ablenkung des Lichtes durch einen Gradienten des Bre-
chungsindex.
∂δ
∂y
α
z
Boden. Trifft ein Lichtstrahl aus großer Entfernung auf dieses Gebiet, so wird er in
Richtung des Gradienten von 𝛿 abgelenkt. Es kann zu einer Spiegelung der Landschaft
am Horizont kommen, die dem Auge des Betrachters damit auf den Kopf gestellt er-
scheint. Mathematisch formuliert, akkumuliert jedes Volumenelement, durch das der
Lichtstrahl hindurch tritt, einen kleinen Ablenkungswinkel d𝛼 der proportional zum
Gradienten von 𝛿 in y-Richtung ist (d𝛿/dy).
Dies Prinzip lässt sich unmittelbar auf Röntgenstrahlen übertragen (Abb. 2.37).
Trifft ein Röntgenstrahl auf ein Material, welches senkrecht zur Ausbreitungsrichtung
einen Gradienten in 𝛿 aufweist, so wird der Röntgenstrahl in Richtung des Gradienten
abgelenkt. Sind die Ablenkungswinkel so klein, dass der Strahl innerhalb einer Säule
von Volumenelementen in Ausbreitungsrichtung (hier die z-Richtung) verbleibt, so
berechnet sich der gesamte Ablenkungswinkel in y-Richtung nach dem Weg z durch
das ablenkende Objekt zu:
d𝛿(x, y, z) I0
𝛼=∫ dz ln ( ) = ∫ 𝜇(z)dz (2.53)
dy I
Zum Vergleich ist auch die Gleichung zur Bestimmung des Integrals des Röntgen-
schwächungskoeffizienten angegeben.
Wie kann man nun den sehr kleinen Ablenkungswinkel 𝛼 messen?
Zunächst muss man Forderungen an die räumliche und zeitliche Kohärenz der
Röntgenquelle stellen, auf die hier nicht eingegangen werden kann [Schulz 2010].
Dann sind verschiedene Messprinzipien möglich von denen hier nur das Gitter-In-
terferometrische Verfahren (Talbot-Interferometer), beschrieben werden soll. Es erfor-
2 Bildgebung durch Projektionsröntgen | 53
1. Gitter 2. Gitter
2D-
Röntgen-
detektor
2D-
Röntgen-
detektor
Abb. 2.38: System zur Messung des Verlaufs des Brechungsindex von Röntgenstrahlen [Schulz
2010].
Röntgenverordnung (RöV): Festlegung der grundlegenden Sicherheitsnormen für den Schutz der
Gesundheit der Arbeitskräfte und der Bevölkerung gegen die Gefahren durch ionisierende Strah-
lung.
2 Bildgebung durch Projektionsröntgen | 55
Mammographie: Abbildung der weiblichen Brust zur Erkennung von Tumoren, meistens mithilfe
von Röntgenstrahlen.
Für die Durchleuchtung, also die kontinuierliche Aufnahme eines funktionellen Ab-
laufs im Körper des Patienten (bzw. dem Einlauf eines Kontrastmittels), sind verschie-
dene Systeme im Einsatz. Für die Durchleuchtung des Magen-Darm-Traktes werden
Systeme eingesetzt, bei denen der Patient aus der Senkrechten in die Waagerechte ge-
kippt werden kann (Verdacht auf Passagestörungen der Speiseröhre, Blinddarment-
zündung, Darmverschluss etc.).
Für die Angiographie des Herzens (Koronarangiographie: Darstellung der Herz-
kranzgefäße) und des Gehirns (zerebrale Angiographie: Darstellung der Blutgefäße
im Gehirn) sind sogenannte C-Bogen-Systeme optimal. Hierbei sind Röntgenquelle
und Detektor über einen C-förmigen Arm von z. B. 1,5 m Durchmesser verbunden
(Abb. 2.28). Die Anordnung ist so aufgehängt, dass sie im Raum geschwenkt und
56 | Til Aach, Olaf Dössel
verschoben werden kann, um den jeweils gewünschten Blickwinkel auf das Herz bzw.
Gehirn zu ermöglichen. Es gibt sogar Systeme, bei denen zwei C-Bögen ineinander
angeordnet sind, um gleichzeitig den Blick aus zwei Richtungen auf den Gefäßbaum
zu ermöglichen (biplane Durchleuchtung).
Zeigt sich bei einer Koronarangiographie eine Stenose in den Herzkranzge-
fäßen, so beginnt der Kardiologe sofort mit einer Aufweitung des verstopften Gefäßes
(Ballondilatation; perkutane transluminale koronare Angioplastie, PTCA) und
platziert dann eine Gefäßstütze (Stent). All dies erfolgt unter Röntgenkontrolle. Auch
Herzschrittmacher und Defibrillatoren werden unter Röntgenkontrolle implantiert.
C-Bogen: System aus Röntgenröhre und flächenhaftem Röntgendetektor, die in Form eines großen
„C“ fest miteinander verbunden sind, aber zusammen um den Patienten herum bewegt werden
können.
Kontrastmittel: Substanz, die in den Körper des Patienten eingebracht wird, um den Kontrast für
eine bestimmte diagnostische Fragestellung zu erhöhen.
Stent (dt. Stütze, Schiene): Gefäßstütze, um ein verengtes Blutgefäß dauerhaft wieder durchgän-
gig zu machen.
Für eine bessere Darstellung der Blutgefäße bei der Angiographie wurde die digitale
Subtraktionsangiographie (DSA) entwickelt. Hierbei werden zwei (logarithmierte)
Bilder voneinander subtrahiert: Das erste Bild erfolgt ohne Kontrastmittel („Maske“)
und das zweite mit Kontrastmittel („Fülllauf“). So sind die Blutgefäße ohne zusätzli-
che Schatten durch die z. B. davor oder dahinter liegenden Knochen zu erkennen.
Nierensteine können im Röntgenbild erkannt werden; die Navigation bei der Nieren-
stein-Zertrümmerung mit Ultraschall erfolgt überwiegend unter Röntgenkontrolle. In
Operationssälen wird immer öfter ein mobiler C-Bogen eingesetzt, um während der
Operation eine Röntgenaufnahme durchführen zu können (Abb. 19.1).
Quellenverzeichnis
Aach T., Schiebel U., Spekowius G.: Digital image acquisition and processing in medical X-ray
imaging. Journal of Electronic Imaging 1999; 8 (Special Section on Biomedical Image
Representation): 7–22.
Boone J. M., Seibert J. A.: An accurate method for computer-generated tungsten anode X-ray spectra
from 30 to 140 kV. Medical Physics 1997; 24 (11): 1661–1670.
Haxel O.: Entstehung, Eigenschaften und Wirkung ionisierender Strahlung. In: Diethelm L (Hrsg.):
Handbuch der medizinischen Radiologie, Teil 1, Physikalische Grundlagen und Technik. Berlin,
Heidelberg, New York: Springer Verlag, 1968: 1–107.
Heinzerling J.: Röntgenstrahler. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag,
1998.
Hsieh J.: Computed tomography. Principles, design, artifacts, and recent advances. Bellingham,
Washington: SPIE Press, 2003.
Johns H. E., Cunningham J. R.: The physics of radiology. Springfield: Thomas, 1974.
Overdick M.: Detectors for X-ray imaging and computed tomography. In: Spekowius G., Wendler T.
(Hrsg.): Advances in healthcare technology. Dordrecht: Springer, 2006: 49–64.
Rabbani M., Shaw R., van Mettler R.: Detective quantum efficiency of imaging systems with
amplifying and scattering mechanisms. Journal Optical Society of America A 1987; 4 (5):
895–901.
Schulz G., Weitkamp T., Zanette I., Pfeiffer F., Beckmann F., David C., et al.: High-resolution
tomographic imaging of a human cerebellum: comparison of absorption and grating-based
phase contrast. J R Soc Interface 2010; 7: 1665–1676.
Trixell, Moirans, France: Products, Technical Description.
www.trixell.com/html-gb/frameset{_}products.html?1. Zugriff: 8.11.2011.
Testfragen
1. Skizzieren, beschriften und erklären Sie den Aufbau einer Röntgenröhre für die medizinische
Diagnostik.
2. Skizzieren und erklären Sie das Spektrum einer Röntgenröhre für die medizinische Diagnostik
(spektrale Leistungsdichte über der Photonenenergie). Aus welchen Teilen setzt sich das Spek-
trum zusammen und welche physikalischen Prozesse spielen sich in der Anode ab? Wie verläuft
das Spektrum zu niedrigen Energien hin und warum? Wie ändert sich das Spektrum, wenn man
die Anodenspannung erhöht?
3. Wie wird in modernen Röntgengeneratoren die Hochspannung erzeugt (Blockschaltung und Er-
klärung)?
4. Welche Prozesse werden bei der Abschwächung von Röntgenstrahlen in Materie beobachtet?
Wie verläuft der Schwächungskoeffizient über der Photonenenergie (qualitativ)? Welcher Pro-
zess dominiert in Muskel, welcher in Blei?
5. Röntgenstrahlung dringt in Materie ein. Wie hängt die Röntgenintensität von der Tiefe ab, wenn
μ(x) gegeben ist (Gleichung und Erklärung)? Was versteht man in der Röntgentechnik unter einer
Projektion?
6. Von welchen Größen hängt die bildgebende Dosis ab? Nennen Sie drei Methoden, mit denen die
richtige Belichtung von Röntgenbildern erreicht werden kann.
7. Was versteht man unter einem Film-Folien-System? Erklären Sie die Komponenten, die physi-
kalischen Prozesse und die Qualitätsmerkmale. Beschreiben Sie die Komponenten, Prozesse
und Qualitätsmerkmale eines Speicherfoliensystems. Skizzieren Sie den Aufbau eines Halblei-
ter-Flachdetektors für Röntgenstrahlung und beschreiben Sie die Funktion.
8. Wozu dient ein Streustrahlenraster? Wie ist die Selektivität eines Streustrahlenrasters definiert?
9. Wie ist die Modulationsübertragungsfunktion MTF definiert und wie kann man sie messen?
10. Wie ist die detektive Quantenausbeute DQE im Allgemeinen definiert? Wie kann man die DQE des
Eingangsschirms eines Film-Folien-Systems beschreiben und bestimmen?
11. Wie sind die Ionendosis, die Energiedosis und die Äquivalentdosis definiert und in welcher Ein-
heit werden sie gemessen?
12. Welche Gesetze und Verordnungen regeln die sachgerechte Anwendung von Röntgenstrahlung
in der medizinischen Diagnostik?
13. Was versteht man unter einem C-Bogen?
14. Was versteht man unter Koronarangiographie? Was versteht man unter zerebraler Angiographie?
Welche diagnostischen Fragen will der Arzt damit beantworten?
15. Was versteht man unter digitaler Subtraktionsangiographie DSA? Was wird genau berechnet und
dargestellt und warum?
Thorsten M. Buzug, Thomas Flohr
3 Computertomographie
3.1 Einleitung | 60
3.2 Historie der Computertomographie | 62
3.3 Technologie | 70
3.4 Bildrekonstruktion | 77
3.5 Artefakte | 87
3.6 Aufnahmeplanung, Datenaufbereitung und Bilddarstellung | 91
3.7 Klinische Anwendungen | 96
3.8 Dosis und Dosisreduktion | 102
3.9 Spezielle CT-Systeme | 106
Abstract: Computed Tomography (CT) was the first method capable of acquiring cross-
sectional images of the human body and resolving even small differences in the den-
sity of various types of tissue. The invention of Computed Tomography marked a key
milestone for diagnostic capabilities in medicine. Due to the simple scanner opera-
tion, the precise physical and diagnostic evidence provided by the grey values of the
image, and the remarkable progress in reducing the dose of radiation, Computed To-
mography will remain established in the field of radiology. In this chapter, the history
of Computed Tomography, its modern technology, the mathematics of image recon-
struction, as well as practical, clinical applications and concepts to reduce the radia-
tion dose are outlined.
60 | Thorsten M. Buzug, Thomas Flohr
3.1 Einleitung
Die Computertomographie (CT) ist heute genauso spannend wie zu Beginn ihrer Ent-
wicklung in den sechziger und siebziger Jahren des letzten Jahrhunderts. Sie stellt das
Verfahren dar, das als Erstes axiale überlagerungsfreie Schnittbilder aus dem mensch-
lichen Körper erzeugen und dabei selbst kleine Dichteunterschiede zwischen unter-
schiedlichen Gewebetypen auflösen konnte (Abb. 3.1). Die Erfindung der Compu-
tertomographie war ein enormer Schritt innerhalb der diagnostischen Möglichkeiten
der Medizin. Heute gibt es einige konkurrierende Verfahren zur Computertomogra-
phie, allen voran die Magnetresonanztomographie (MRT). Obwohl seit Erfindung der
Magnetresonanztomographie der Computertomographie immer wieder ihr Ende vor-
ausgesagt wurde, hat sie doch durch die technischen Entwicklungen der letzten Jah-
re, insbesondere durch die Einführung der Spiral-CT und der Mehrschicht-CT, ihren
festen Platz in der Radiologie nicht nur behauptet, sondern ihr Anwendungsspek-
trum sogar erweitert. Mittlerweile sind kommerzielle CT-Geräte mit 64 oder 128 Zeilen
verfügbar, und einige Hersteller bieten sogar CT-Geräte mit noch mehr Zeilen (bis zu
320) an. Unterstützt durch dreidimensionale Bildverarbeitungstechniken, entstanden
neue Anwendungen wie z. B. die CT-Angiographie, die Darstellung der Gefäße mit-
tels der Computertomographie, die in vielen Fällen die klassische Katheterangiogra-
phie ersetzen kann. Selbst die Herzkranzgefäße können durch moderne Computer-
tomographen scharf und ohne Bewegegungsartefakte abgebildet werden. In einigen
Kliniken entfällt inzwischen der konventionelle Schockraum und wird durch einen
CT-basierten Schockraum ersetzt. Die Erstversorgung der Patienten erfolgt hier inter-
mittierend mit der Bildgebung. Gerade im Bereich der schnellen 3D-Diagnostik von
Traumapatienten (Unfallopfer) ist die Computertomographie der Standard.
In letzter Zeit entstanden darüber hinaus aber auch interessante technische, anthro-
pologische und forensische sowie archäologische und paläontologische Anwendun-
gen der Computertomographie, welche die Stellung des Verfahrens über die Verwen-
dung in der Medizin hinaus als allgemeindiagnostisches Werkzeug zur zerstörungs-
freien Materialprüfung und dreidimensionalen Visualisierung weiter stärken.
Aufgrund der einfachen Handhabung und der klaren physikalisch-diagnosti-
schen Aussage sowie der Fortschritte bei der Reduktion der Strahlenbelastung wird
die Computertomographie ihren festen Platz im radiologischen Umfeld behalten.
Wenn man heute von Tomographie spricht, so ist dies trotz alternativer diagnostischer
Verfahren wie MRT (Magnetresonanztomographie) oder PET (Positronen-Emissions-
Tomographie) immer noch ganz stark mit CT, also der Röntgen-Computertomogra-
3 Computertomographie | 61
Abb. 3.1: Mittels moderner, sehr schneller CT-Scanner mit Multizeilen-Detektorsystemen lassen sich
heute Ganzkörperübersichten aufnehmen, bei denen selbst kleinere Gefäße gut abbildbar sind. Die
hier gezeigte Aufnahme entstand mit einem CT-Gerät mit 64 Zeilen und 0,5 s Gantry-Rotationszeit.
Die Untersuchungszeit zur Abbildung des gesamten Körpers betrug etwa 25 s (Bildmaterial: Radiolo-
gisches Institut der Universität Tübingen).
Mit den modernen CT-Systemen ergeben sich neue Anforderungen an die Infra-
struktur einer Klinik. Die durch Bildschirmbefundungsplätze ersetzten Lichtkästen
sind dabei nur ein äußeres Zeichen dieses Wandels. Entscheidend sind natürlich ein
leistungsfähiges PACS (Picture Archiving and Communication System) sowie ein Klini-
knetzwerk mit hoher Bandbreite.
Darüber hinaus erfordert die Bilderflut der modernen Computertomographen ein
anderes Umgehen der Ärzte mit diesen Daten. Tatsächlich ist heute nicht mehr die
Datenaufnahme das zeitliche Nadelöhr bei einer Untersuchung, sondern Patienten-
lagerung und ärztliche Befundung. Da die großen Datensätze mit hunderten von Bil-
dern nicht mehr Schicht für Schicht betrachtet werden können, ist zu beobachten,
dass sich die Paradigmen ändern und dreidimensionale Bildnachverarbeitungsver-
fahren eine wesentliche Rolle spielen. Zunehmend sind dreidimensionale Bilder des
Patienten Bestandteil der Befundung (siehe z. B. Abb. 3.1). Dabei ist die Entwicklung
der hochauflösenden Multizeilen-Detektoren wiederum eine Voraussetzung für quali-
tativ hochwertige Sekundärrekonstruktionen und ihre dreidimensionalen Visualisie-
rungen.
In diesem Kapitel sollen die Historie der Computertomographie, die moderne
Technologie mit Schwerpunkt auf Röntgenstrahlenerzeugung und -detektion, die
Bildrekonstruktion sowie die Ursachen von Bildartefakten besprochen werden. Dar-
über hinaus sind Aspekte der Bedienung und Anwendung, Einblicke in die klinische
Applikation, der Dosis bei der Computertomographie und Techniken zur Dosisre-
duktion sowie ein kurzer Abschnitt über spezielle CT-Entwicklungen enthalten. Da
dieses Kapitel nur den Charakter eines Überblicks besitzt, sei an dieser Stelle schon
auf aktuelle Bücher verwiesen, die eine ausführliche Beschreibung der Technologie
der Computertomographie geben [Buzug 2008, Hsieh 2003, Kalender 2000, Seeram
2001].
3.2.1 System-Generationen
begründet den enormen Erfolg der Computertomographie. Etabliert ist eine Unter-
scheidung in vier Generationen von Computertomographen, die in Abb. 3.2 zu sehen
sind. Diese Unterscheidung ist historisch gewachsen und bezieht sich sowohl auf die
Art, wie Röntgenquelle und Detektor konstruiert sind, als auch auf die Art, wie beide
sich um den Patienten bewegen.
– Erste Generation: Die erste Generation von Computertomographen besitzt eine
Röntgenquelle, die einen einzelnen Nadelstrahl, auf Englisch „pencil beam“,
aussendet, der mithilfe von entsprechenden Kollimatoren aus dem Röntgen-
kegel selektiert wird. Auf der der Röntgenquelle gegenüberliegenden Seite des
Messfeldes befindet sich ein einzelner Detektor, der synchron mit der Rönt-
genquelle linear verschoben wird und dabei eine Reihe von Messwerten (eine
sogenannte Projektion) aufnimmt, die das Messfeld abdecken. Abhängig von den
spezifischen Schwächungseigenschaften des Gewebes wird die Intensität des
Nadelstrahls beim Durchgang durch den Körper geschwächt – der Detektor re-
gistriert die geschwächte Intensität für jede Messposition. Der Messvorgang wird
unter verschiedenen Projektionswinkeln 𝛾 wiederholt. Der erste CT-Scanner, den
ein Außenseiter, nämlich die für Schallplatten bekannte Firma EMI, gebaut hatte,
beruhte auf dem Nadelstrahlprinzip. 1972 realisierte Godfrey N. Hounsfield
(1919. . . 2004) diesen ersten Computertomographen in den EMI Forschungslabo-
ratorien. Dafür erhielt er 1979 zusammen mit Allen M. Cormack (1924. . . 1998)
den Nobelpreis für Medizin. Abb. 3.3 zeigt ein Foto des ersten Siemens-Kopf-
scanners aus dem Jahre 1974. Interessant ist, dass dieser Tomograph zwei in
Patientenlängsrichtung angeordnete Detektoren besaß. Er konnte so gleichzeitig
zwei Schichten des Patienten aufnehmen und war damit ein früher Vorläufer
eines Mehrzeilen-CT-Gerätes. CT-Scanner der ersten Generation werden nach
ihrem Aufnahmeprinzip auch „Translations-Rotations-Scanner“ genannt.
lineare Röntgenröhre
Verschiebung
Röntgen-
strahl
Iso-Zentrum
Kollimator
Abb. 3.2: Erste Generation: Rotation-Translation des Nadelstrahls (a), zweite Generation: Rotati-
on-Translation eines kleinen Fächerstrahls (b), dritte Generation: Rotation-Rotation eines großen
Fächerstrahls (c) und vierte Generation: Rotation-Fix mit geschlossenem Detektorring (d).
(c)
(a) (b)
Abb. 3.3: Historische Meilensteine der CT-Scanner. 1974: Siretom (1. Generation); 2009: Siemens
Definition Flash (Dual Source CT-Scanner, 2 × 3. Generation), Blick in die Gantry.
3.2.2 Spiral-CT
Spiral-CT: CT-Verfahren mit kontinuierlichem Tischvorschub während der Rotation des CT-
Abtastsystems.
Jetzt konnte die Abtasteinheit, welche die Röntgenquelle und in der dritten Generati-
on auch das Detektorarray trägt, kontinuierlich rotieren. Inzwischen sind Rotations-
frequenzen von mehr als zwei Umdrehungen pro Sekunde Standard. Der schnellste,
heute kommerziell erhältliche CT-Scanner bringt es mit einer Rotationszeit von 0,27 s
auf fast vier Umdrehungen pro Sekunde.
Für Spezialanwendungen gibt es auch kleinere Kompaktgeräte, die ihre Unab-
hängigkeit von einer äußeren Energiezufuhr während der Rotation der Abtasteinheit
durch Akkumulatoren herstellen. Ein Beispiel hierfür ist der mobile Tomoscan M
Computertomograph von Philips.
Bei der Übertragung der Messdaten zurück auf den stationären Teil der Gantry
findet man grundsätzlich verschiedene Wege. Während manche Geräte ihre Daten
über einen Schleifkontakt nach außen führen, wird insbesondere bei moderneren
Mehrzeilen-CT-Scannern eine kontaktlose kapazitive RF-Übertragung genutzt. Bei
der derzeitigen Entwicklung zu einer immer größer werdenden Detektorenanzahl bei
gleichzeitiger Steigerung der Umdrehungsgeschwindigkeit stellen die hohen Datenra-
ten bei der Übertragung von der Abtasteinheit auf den stationären Teil der Gantry eine
Herausforderung dar, der in neueren Geräten auch mit optischer Datenübertragung
begegnet wird.
Die kabellose Energie- und Datenübertragung ermöglichte ein neues CT-Scanpro-
tokoll. Bei kontinuierlichem Patiententischvorschub und kontinuierlicher Rotation
des Messsystems ist es nämlich nun möglich, Daten auf einer spiralförmigen Abtast-
bahn zu messen. Dieses Spiral-CT-Verfahren, auf das in Kapitel 3.4.3 noch einmal
eingegangen wird, wurde 1989 von Willi Kalender an einem Prototyp erfolgreich
demonstriert [Kalender 1989].
3.2.3 Mehrschicht-CT
Das erste Beispiel eines Ganzkörper-Mehrzeilen-CT-Gerätes war der im Jahre 1993 vor-
gestellte Zweizeilen-CT-Scanner Elscint TWIN (Elscint, Haifa, Israel). Im Jahre 1998
wurden von verschiedenen Herstellern Mehrzeilen-CT-Scanner kommerziell einge-
führt, die gleichzeitig vier in Patientenlängsrichtung benachbarte Schichten aufneh-
men konnten. In rascher Folge wurden in den letzten zehn Jahren neue Generationen
von 6-, 8-, 16-, 64- und neuerdings 128- oder sogar 256-Schicht-CT-Geräten auf den
Markt gebracht (Abb. 3.4). Diese rasante Entwicklung gab der CT als klinische Un-
tersuchungsmethode neue Impulse und führte zu neuen klinischen Anwendungen,
die wesentlich zur Renaissance der CT in den letzten Jahren beigetragen haben.
Röntgenstrahler
Einzelschicht-Detektor
Röntgenstrahler
Mehrschicht-Detektor
chen Zeit mit 2,5 mm Schichtdicke untersucht werden, mit einem 16-Zeilen-Scanner
sogar mit einer Schichtdicke von 0,625 mm.
Die meisten klinischen Untersuchungsprotokolle nutzen eine Kombination die-
ser Vorteile in verschiedenen Ausprägungen. Die sehr gute räumliche Auflösung
in allen drei Raumrichtungen durch die Wahl dünner Schichten erlaubt qualitativ
hochwertige dreidimensionale Volumenrekonstruktionen in der klinischen Routine.
Technologien wie geneigte multiplanare Reformatierungen (MPR) oder Maximum-
Intensity-Projektionen (MIP) erreichen dabei eine der axialen Schicht gleichwertige
Bildqualität.
3.3 Technologie
Computertomographen bestehen aus einem Frontend, dem eigentlichen Scanner, und
einem Backend, der Bedienkonsole, und der Bildbetrachtungseinheit (engl.: View-
ingstation). Das Frontend besteht aus Röntgenröhre, Filter, Blenden, Kollimator, De-
tektorsystem, Generator, Kühlsystem, Datenerfassungssystem, Schleifring, Patienten-
tisch, Elektronikkomponenten, Motorsteuerungen und Mechanik. Sämtliche dieser
Komponenten sind heute technisch hoch entwickelt und haben zum Teil lange Ent-
wicklungszeiten hinter sich. In diesem Abschnitt sollen aufgrund ihrer zentralen Be-
deutung nur die Hauptkomponenten des Frontends besprochen werden, die Röntgen-
röhre und das Detektorsystem.
3.3.1 Röntgenröhre
Elektronenstrahl Anode
Kathode Röntgen-
strahlen
Abb. 3.5: Abbildung einer Drehgehäuse-Röntgenröhre für die CT (Straton, Siemens AG, Forchheim,
Deutschland). Drehgehäuse-Röntgenröhren können durch den direkten Kontakt der Anode, die eine
Außenwand des Gehäuses bildet, mit einem Kühlmedium effizient gekühlt werden.
2 mm, wobei durch Änderung der Fokussierung häufig zwischen zwei oder noch
mehr Brennfleckgrößen umgeschaltet werden kann. Je größer der Brennfleck ist,
desto besser verteilt sich die Wärmeenergie auf der Anode. Andererseits beeinträch-
tigt die Halbschattenunschärfe bei einem großen optischen Brennfleck die Schärfe
des Bildes. Der mathematische Zusammenhang der Brennfleckgröße mit der Abbil-
dungsqualität wird durch die sogenannte Modulationstransferfunktion (s. Kap. 21.3,
Systemtheorie) beschrieben.
Ein weiterer Faktor, der in Bezug auf die Abbildungsqualität Beachtung finden
muss, ist die Richtungscharakteristik der Röntgenstrahlung, denn die Intensität der
Röntgenstrahlung ist für Strahlen, welche die Anode streifend verlassen, geringer.
Dieser Effekt ist auf die Selbstabsorption der Anode infolge der Oberflächenrauheit
zurückzuführen. Je kleiner der Winkel zwischen austretender Röntgenstrahlung und
der Anodenoberfläche ist, desto stärker wirkt sich die Absorption aufgrund der Rau-
heit entlang der Brennfleckbahn aus. Dieser sogenannte Heel-Effekt verstärkt sich
mit der Alterung der Röhre, da allmählich Material durch Elektronenbeschuss abge-
tragen wird, wodurch die Rauheit der Brennfleckbahn zunimmt [Heinzerling 1998].
Für die Bildrekonstruktion ist es wichtig, die Strahlcharakteristik der Röntgenröhre
genau zu kennen, denn die Basis aller Rekonstruktionsverfahren ist die Annahme,
dass das zu untersuchende Objekt homogen ausgeleuchtet wird. Leichte Inhomoge-
nitäten können durch spezielle röntgenseitige Filter sowie durch eine Detektorkali-
brierung kompensiert werden.
3.3.2 Detektorsystem
Die Detektion von Röntgenstrahlung beruht auf Effekten der Wechselwirkung zwi-
schen Strahlung und Materie. Das heißt, die Röntgenquanten werden nicht direkt ge-
messen, sondern lediglich die Wechselwirkungsprodukte wie zum Beispiel Photoelek-
tronen.
3 Computertomographie | 73
Gasdetektoren
Aufgrund der Tatsache, dass Röntgenstrahlung die Fähigkeit besitzt, Gase zu ionisie-
ren, liegt es nahe, Detektoren zu verwenden, die auf diesem physikalischen Sachver-
halt basieren. Das Geiger-Müller-Zählrohr ist einer der bekanntesten Detektoren
für ionisierende Strahlung. Tatsächlich wurden die ersten Versuche zur Computer-
tomographie auch mit Geiger-Müller-Zählrohrdetektoren realisiert. Auf dem Prin-
zip der Ionisierung von Gasen basieren auch die Gasdetektoren, die bis vor eini-
gen Jahren in Tomographen der dritten Generation zum Einsatz kamen. Sie wurden
als Proportionalzähler betrieben und mit Xenon unter hohem Druck bis 25 bar be-
füllt. Xenongas wurde verwendet, weil es chemisch stabil ist und eine hohe Ordnungs-
zahl aufweist. Die eintreffenden Röntgenquanten ionisieren das Gas entsprechend
h𝜈+Xe → Xe+ +e− . Die ionisierten Xenonatome und die Elektronen werden durch eine
Hochspannung zur Kathode bzw. Anode beschleunigt. Der dort gemessene Strom ist
ein Maß für die Intensität der Röntgenstrahlung. Die relativ geringe Quanteneffizienz
des Ionisationsprozesses kann durch Erhöhung des Gasdrucks und durch tiefe Ioni-
sationskammern erhöht werden. Die große Kammertiefe bietet den Vorteil der Rich-
tungsselektivität, denn je länger der Weg der Quanten durch das Gas ist, desto größer
ist die Ionisierungswahrscheinlichkeit. Quanten mit schrägem Einfall legen nur einen
kurzen Weg in der Kammer zurück.
Allerdings ist die Quanteneffizienz von Gasdetektoren auch bei mechanisch auf-
wendigen Konstruktionen nicht höher als 60. . . 70 %, und es ist praktisch nicht mög-
lich, Mehrzeilen-Gasdetektoren zu bauen. Dieses Detektionsprinzip wurde daher in
modernen Computertomographen aufgegeben.
Szintillationsdetektoren
Die meisten Computertomographen sind heute mit Szintillationsdetektoren ausge-
stattet. Ein solcher Detektor besteht im Wesentlichen aus einem Kristall und einer Pho-
todiode. Die einfallende (kurzwellige) Röntgenstrahlung wird in dem Szintillations-
kristall zunächst in (langwelliges) Licht umgewandelt. Diese Kristalle bestehen zum
Beispiel aus Cäsiumjodid, Wismutgermanat oder auch Cadmium-Wolframat. Für
die Wahl der Kristalle spielen Anforderungen wie die Effizienz der Umwandlung von
Röntgenstrahlung in Licht, aber auch die Abklingzeit bzw. das Nachleuchten (After-
glow) der Kristalle eine große Rolle. Für sehr schnelle Abklingzeiten, die heute bei den
Subsekundenscannern benötigt werden, kommen Keramiken wie Gadoliniumoxysul-
fid (Gd2 O2 S) zum Einsatz. Die einzelnen Detektorblöcke sind auf einem Kreisabschnitt
an der sich drehenden Abtasteinheit angebracht. Dies ist in Abb. 14.3 (c) am Scanner
der dritten Generation schematisch gezeigt.
Damit möglichst nur Strahlung von der direkten Verbindungslinie zwischen Röntgen-
fokus und Detektor in den Kristall einfällt, verwendet man lamellenförmige Abgren-
zungen zwischen den einzelnen Kanälen. Ohne dieses sogenannte Streustrahlenras-
ter, das einen detektorseitigen Kollimator darstellt, würde einfallende Störstrahlung
die Bildqualität erheblich beeinträchtigen. Ein Nachteil des Streustrahlenkollimators
liegt auf der Hand. Durch die zur Abschirmung gestreuter Röntgenstrahlung not-
wendige Lamellendicke von etwa 0,1 mm hat der Detektor nur eine geometrische
Gesamteffizienz von 50. . . 80 %. Die Toträume reduzieren das Auflösungsvermögen.
Festkörper-Mehrzeilen-Detektoren
Die im vorhergehenden Kapitel beschriebenen Kristall- bzw. Keramikdetektoren kön-
nen durch Aneinanderreihung in Patientenlängsrichtung (z-Richtung) zu mehrzeili-
gen Detektorarrays zusammengefügt werden. Die zentrale Forderung hierbei ist, dass
die Toträume zwischen den einzelnen Detektorelementen möglichst klein bleiben. Im
Gegensatz zu den im technischen Einsatz häufig vorkommenden planaren Detektoren
werden in medizinischen Anwendungen praktisch ausschließlich zylindrische Anord-
nungen verwendet.
CT-Detektoren müssen es dem Benutzer ermöglichen, verschiedene Schichtdi-
cken einzustellen, die an die Anforderungen der jeweiligen Untersuchung angepasst
sind. Bei Einzeilen-Detektoren erfolgt die Schichtdickeneinstellung durch das Öffnen
oder Schließen der röhrenseitigen Blende, des sogenannten Kollimators. Schichtdi-
ckenangaben beziehen sich in der CT immer auf das Drehzentrum des Gerätes, durch
die geometrische Projektion sind die Schichtdicken am Detektor größer.
Bei Mehrzeilen-Detektoren muss dieses einfache Kollimationsprinzip allerdings
verlassen werden. Um hier kollimierte Schichten unterschiedlicher Dicke zu erhal-
ten, wird einerseits mit der röhrenseitigen Blende die gewünschte Gesamtbreite des
Strahlprofils eingestellt, andererseits werden die Signale mehrerer Detektorelemente
in Patientenlängsrichtung elektrisch kombiniert. Bei Mehrzeilen-CT-Detektoren muss
man deshalb zwischen ihrer physikalischen Zeilenzahl und der Anzahl der Schichten,
die sie liefern, unterscheiden. Der Detektor eines etablierten 16-Schicht-CT-Gerätes
(Siemens SOMATOM Emotion 16) besteht beispielsweise aus 16 zentralen Zeilen mit je
0,6 mm Schichtdicke sowie vier äußeren Zeilen an beiden Seiten mit je 1,2 mm Schicht-
dicke – insgesamt weist der Detektor 24 Zeilen mit 19,2 mm Gesamtbreite im Drehzen-
trum auf. Werden durch die röhrenseitige Blende nur die inneren 16 Zeilen beleuchtet,
liefert der Detektor 16 Schichten mit 0,6 mm Schichtdicke. Bei Bestrahlung des ganzen
Detektors werden je zwei innere Zeilen mit 0,6 mm Schichtdicke elektronisch zu einer
1,2 mm Schicht zusammengefasst, zusammen mit den vier äußeren 1,2-mm-Schichten
auf beiden Seiten erhält man somit 16 Schichten mit 1,2 mm Schichtdicke (Abb. 3.6).
Die 16-Schicht-Detektoren anderer Hersteller folgen ähnlichen Konstruktionsprinzipi-
en, sie liefern z. B. wahlweise 16 × 0,625 mm Schichten oder 8 × 1,25 mm Schichten.
3 Computertomographie | 75
röhrenseitiger Kollimator
Patientenlängsachse
Mess-
feld 16×0,6 mm
Mehrzeilen-Detektor
16×1,2 mm
Abb. 3.6: Schichtdickeneinstellung bei Mehrzeilen-Detektoren. Gezeigt ist ein Detektor mit 24 Zei-
len, der wahlweise je 16 0,6-mm-Schichten oder 16 1,2-mm-Schichten auslesen kann.
Festkörper-Flat-Panel-Detektoren
Werden die Anzahl von Detektorzeilen und die Ausdehnung eines Detektors in Patien-
tenlängsrichtung so groß, dass man gesamte Organe wie das Herz, die Nieren oder das
Gehirn in einer einzigen Aufnahme mit einer Umdrehung des Messsystems untersu-
76 | Thorsten M. Buzug, Thomas Flohr
chen kann, ergeben sich qualitativ neue klinische Anwendungen. Heutzutage besitzt
das kommerziell verfügbare CT-Gerät Toshiba Aquilion One einen Detektor mit 16 cm
Abdeckung in Patientenlängsrichtung (auf das Drehzentrum bezogen), der diese An-
forderungen erfüllt.
3.4 Bildrekonstruktion
Das zentrale Problem der Computertomographie ist leicht formuliert: Man rekonstru-
iere das Bild eines Objektes aus den Projektionen, also aus allen möglichen Linienin-
tegralen durch dieses Objekt. Mathematisch handelt es sich bei der Computertomo-
graphie um ein sogenanntes inverses Problem. Die Bedeutung des mathematischen
Begriffes des inversen Problems erschließt sich sofort: Man hat keinen direkten Ein-
blick in die räumliche Verteilung der Objekte, die man darstellen möchte. Stattdes-
sen werden nur die Projektionen der Objekte aus allen Raumrichtungen über einen
Winkelbereich von mindestens 180° gemessen, aus denen man nun – gewissermaßen
rückwärts – die räumliche Verteilung der Objekte berechnen muss. Es handelt sich
hierbei um die Inversion von Integraltransformationen. Aus einer Sequenz von ge-
messenen Projektionen {p𝛾1 (𝜉), p𝛾2 (𝜉), p𝛾3 (𝜉), . . .} muss also die räumliche Verteilung
der Schwächungskoeffizienten μ(𝜉, 𝜂) innerhalb einer gewählten Schicht durch den
Körper errechnet werden.
3.4.1 Fourier-Scheiben-Theorem
Abhängig vom Weg 𝜂, den die Röntgenstrahlen durch den Körper nehmen, wird deren
Intensität nach dem Lambert-Beerschen Gesetz exponentiell geschwächt. Die vom
Detektorelement 𝜉 registrierte Intensität I𝛾 (𝜉) bezogen auf die Nullintensität ohne Pa-
tient wird logarithmiert, das ergibt als eigentlichen Messwert das Linienintegral p𝛾 (𝜉)
der Schwächungen entlang des Röntgenstrahls aus der Richtung 𝛾. Dabei gilt der Zu-
sammenhang
+∞
y ξ
f(x,y)
pγ(ξ)
Radon-
x Transformation 0° 180° γ
ξ
pγ(ξ)
)
(ξ
γ
p
Abb. 3.7: Linienintegrale durch den Ortsraum, Projektionen und Darstellung im Radon-Raum bzw.
Sinogramm.
Der Ausdruck p𝛾 (𝜉) stellt eine Integration entlang des Weges dar, der durch die Po-
sition 𝜉 der Röntgenquelle bzw. des Röntgendetektors und des jeweils eingestellten
Projektionswinkels 𝛾 vorgegeben ist. Die Richtung des linearen Detektors sei durch
den Vektor
cos(𝛾)
n𝜉 = ( ) (3.2)
sin(𝛾)
und die Richtung des Röntgenstrahls durch den Vektor
− sin(𝛾)
n𝜂 = ( ) (3.3)
cos(𝛾)
gegeben. Sie stellen Einheitsvektoren dar, die die rotierende (𝜉, 𝜂)-Ebene der CT-
Gantry aufspannen. Um ein Bild des Körperinneren zu berechnen, ist es erforderlich,
dass jeder Punkt des Messfeldes aus allen Richtungen 𝛾, also über mindestens 180°,
durchleuchtet wurde. Durch die kreisförmige Bewegung von Röntgenröhre und Detek-
toreinheit lägen die Messwerte für ein einzelnes, punktförmiges Objekt im Messfeld in
dieser Datenrepräsentation auf einer sinusförmigen Kurve, daher wird das Diagramm
auch Sinogramm genannt. Für einen Patienten überlagern sich viele sinusförmige
Strukturen im Sinogramm. Das Sinogramm ist eine Repräsentation der Rohdaten des
Abtastprozesses. Mathematisch handelt es sich um den sogenannten Radon-Raum
(Abb. 3.7), benannt nach dem böhmischen Mathematiker Johann Radon [Radon
1917]. Gleichung (3.1) stellt die Radon-Transformation dar.
Das zentrale mathematische Hilfsmittel zur Bildrekonstruktion aus den Projek-
tionen ist das Fourier-Schichten- oder Fourier-Scheiben-Theorem (engl.: Fouri-
er-Slice- oder Projection-Slice-Theorem ). Dieses Theorem stellt einen Zusammenhang
zwischen den Fouriertransformierten des Radon-Raums und denen des zu rekonstru-
3 Computertomographie | 79
ierenden Bildes her. Es besagt nämlich, dass man die eindimensionale Fouriertrans-
formierte P𝛾 (q) (mit q als der zu 𝜉 gehörenden Ortsfrequenz) des gemessenen Projekti-
onsprofils p𝛾 (𝜉) in der zweidimensionalen Fouriertransformierten F(u, v) des gesuch-
ten Bildes f (x, y) unter dem Winkel 𝛾 findet, unter dem das Profil gemessen wurde.
Dabei gilt, dass u = q cos(𝛾) und v = q sin(𝛾). Dies kann wie folgt leicht eingesehen
werden. Die Fouriertransformierte der Radon-Transformation ergibt sich mit
∞ ∞ ∞ ∞ ∞
−2𝜋iq𝜉 { }
P𝛾 (q) = ∫ p𝛾 (𝜉)e d𝜉 = ∫ { ∫ 𝜇(𝜉, 𝜂)d𝜂} e−2𝜋iq𝜉 d𝜉 = ∫ ∫ 𝜇(𝜉, 𝜂)e−2𝜋iq𝜉 d𝜉d𝜂
−∞ −∞ {−∞ } −∞ −∞
(3.4)
Nutzt man den geometrischen Zusammenhang 𝜉 = (r ⋅ n𝜉 ) = x cos(𝛾) + y sin(𝛾) zwi-
schen den Punkten auf dem Röntgenstrahl r = (x, y) im ruhenden Patientenkoordi-
natensystem und dem rotierenden Koordinatensystem der Gantry (𝜉, 𝜂) aus, so ergibt
sich weiter
∞ ∞ ∞ ∞
Damit ist gezeigt, dass F(u, v) = P (q). Würde man den Fourier-Raum F(u, v) über alle
gemessenen Winkel 𝛾 auf diese Weise füllen, so könnte man mit einer zweidimensio-
nalen inversen Fourier-Transformation das gesuchte Bild erhalten. Diese sogenannte
direkte Rekonstruktion wird heute allerdings aus Gründen des Rechenaufwands und
weil sie sich schwer auf Mehrzeilen-Geometrien übertragen lässt, nicht verwendet.
ξ
)
(ξ
f(x,y)
γ
h
Bei einer großen Anzahl von Projektionsmessungen kann auf diese Weise das Bild
rekonstruiert werden, da sich die durch die Hochpassfilterung der einzelnen Projek-
tionen im Projektionsprofil erzeugten Unter- und Überschwinger gerade so überla-
gern, dass sie sich kompensieren. Mathematisch lässt sich diese spezielle Filterung
wie folgt verstehen:
Das Ziel der gefilterten Rückprojektion ist es, f (x, y) direkt aus den Projektionen zu
gewinnen. Hierzu muss man sich ansehen, wie die inverse Fourier-Transformation
von F(u, v)
∞ ∞
Das äußere Integral in Gl. (3.7) lässt sich in zwei Teile aufspalten, wenn man die
Projektionen unter den Winkeln 𝛾 = [0, 𝜋) und 𝛾 = [𝜋, 2𝜋) separat behandelt. Damit
3 Computertomographie | 81
Mit dem Fourier-Slice-Theorem (Gl. (3.5) gilt nun weiter, dass F(q cos(𝛾),
q sin(𝛾)) = P𝛾 (q). Daher kann man folgenden Zusammenhang berechnen, in dem
man 𝜉 = x cos(𝛾) + y sin(𝛾) in den Exponenten der Gl. (3.9) einsetzt. Es ergibt sich
𝜋 +∞
Für einen festen Punkt r = (x, y) und einen festen Projektionswinkel 𝛾 ist 𝜉 die Projek-
tionskoordinate des Punktes r. Eine wichtige neue Größe ist nun
+∞
h𝛾 (𝜉) ist die eingangs schon erwähnte Hochpassfilterung der Projektion p𝛾 (𝜉), die
durch eine Multiplikation im Frequenzraum zustande kommt.
Wenn man das Scanprotokoll am CT vorbereitet, muss man immer einen Filter,
auch Faltungskern genannt, auswählen. Dieser Filter bezieht sich auf die Art der
oben beschriebenen Hochpassfilterung. Die lineare Gewichtung von P𝛾 (q) mit |q| ist
82 | Thorsten M. Buzug, Thomas Flohr
0,25 0,25
0,20 0,20
0,15 0,15
0,10 0,10
a2hSL(s)
a2hRL(s)
0,05 0,05
0,00 0,00
–0,05 –0,05
–0,10 –0,10
–0,15 –0,15
–4 –3 –2 –1 0 1 2 3 4 –4 –3 –2 –1 0 1 2 3 4
S/a S/a
a = Detektorabstand
0,5 0,5
HSL(w)
HRL(w)
0 0
–0,5 0 0,5 –0,5 0 0,5
wa wa
Abb. 3.9: Faltungskerne nach Shepp und Logan (SL) und nach Ramachandran und Lashminaray-
anan (RL) im Orts- und im Frequenzraum.
der mathematisch ideale Filter, er ist aber für praktische CT-Anwendungen wenig ge-
eignet, weil er hohe Frequenzen sehr stark betont und damit die Bildschärfe erhöht,
aber auch zu sehr starkem Bildrauschen führt. In der Praxis ist es oft empfehlens-
wert, die Gewichtung im Frequenzraum weniger aggressiv zu wählen und auf den
idealen Filter |q| einen Tiefpass T(|q|) anzuwenden – dadurch reduzieren sich die Bild-
schärfe, aber auch das Bildrauschen. Der Anwender kann an der Bedienkonsole eine
Vielzahl von Filtertypen von „sehr weich“ bis „sehr scharf“ auswählen, die an die je-
weils zu untersuchende Anatomie angepasst sind. Die Wahl eines Filters ist immer ein
Kompromiss zwischen hoher räumlicher Auflösung, die mit stärkerem Bildrauschen
einhergeht, und einem glatteren Bild mit weniger Bildrauschen und geringerer räum-
licher Auflösung. Eine Standardisierung dieser Filter, die gelegentlich mit Faltungs-
kern, Rekonstruktionsalgorithmus, Rekonstruktionsfilter oder Filterkernel bezeichnet
werden, gibt es nicht. Abb. 3.9 zeigt zwei Beispiele für oft verwendete Faltungskerne.
z z
d d/2
z₁ z z₂ z₁ z z₂
Abb. 3.10: Interpolation bei der Spiral-CT, links: 360° Interpolation, rechts: 180° Interpolation.
Pitch (dt. Abstand, Anstellwinkel): Tischvorschub pro Umdrehung des Abtastsystems bei der Com-
putertomographie, normiert auf die kollimierte Detektorbreite.
Als Folge der Spiralinterpolation entsteht aus der trapezförmigen kollimierten Schicht
ein glockenförmiges Schichtempfindlichkeitsprofil. Dessen Halbwertsbreite wird als
effektive Schichtdicke bezeichnet Die effektive Schichtdicke wird mit zunehmendem
Pitch größer, dadurch nimmt die räumliche Auflösung in Patientenlängsrichtung ab.
Die Zunahme der effektiven Schichtdicke ist für die 180°-Spiralinterpolation deutlich
geringer als für das 360°-Verfahren (Abb. 3.11).
Außerdem entstehen mit höherem Pitch durch Interpolation hervorgerufene Spi-
ralartefakte an Kontrastsprüngen, z. B. Knochenkanten. CT-Untersuchungen, die
besonders hohe Bildqualität erfordern, werden deshalb häufig mit kleinem Pitch
durchgeführt. Wenn der Röhrenstrom (der mAs-Wert) unverändert bleibt, ist das
Bildrauschen unabhängig vom Pitch, und die Strahlendosis nimmt mit zunehmen-
dem Pitch ab. In der Spiral-CT gilt deshalb die Regel, dass die Strahlendosis für den
Patienten durch Erhöhung des Pitches verringert werden kann.
3 Computertomographie | 85
Pitch 1, 180° LI
1
0,8
3 FWHM = 1,0
FWHM/kollimierte Schichtdicke
0,2
360° LI
2,5 0
–1,5 –1 –0,5 0 0,5 1 1,5
2 Pitch 2, 180° LI
1
1,5 0,8
180° LI
0,6
1
0,4
1 1,5 2 2,5 3
FWHM = 1,27
Pitch 0,2
0
–1,5 –1 –0,5 0 0,5 1 1,5
auf kollimierte Schichtdicke
normierte z-Achse
Abb. 3.11: Zunahme der effektiven Schichtdicke als Funktion des Pitchfaktors für die 180°- und 360°
-Spiralinterpolation.
3.4.4 Mehrschicht-Spiral-CT
Seit der breiten Einführung der Mehrzeilen-CT in die klinische Praxis wird die konven-
tionelle Aufnahme einzelner axialer Schichten nur noch bei speziellen Untersuchun-
gen eingesetzt, z. B. bei Schädelaufnahmen oder interventionellen Anwendungen. Der
weitaus größte Teil aller CT-Protokolle sieht die Erfassung von Mehrzeilen-Spiraldaten
vor.
In den letzten zehn Jahren wurden Verfahren zur Mehrschicht-Spiralrekonstruk-
tion entwickelt, die sowohl die komplizierten Abtastmuster der Messstrahlen entlang
der z-Achse als auch gegebenenfalls den Neigungswinkel der Messstrahlen gegen
eine senkrecht auf der z-Achse stehende Ebene berücksichtigen. Dieser sogenann-
te „Kegelwinkel“ kann – wie die Erfahrung zeigt – für CT-Geräte bis etwa sechs
Zeilen vernachlässigt werden, und die Messstrahlen können so behandelt werden,
als stünden sie senkrecht auf der z-Achse. Für CT-Geräte mit mehr Detektorzeilen
– und das ist der Großteil aller heute im klinischen Einsatz befindlichen CTs – muss
86 | Thorsten M. Buzug, Thomas Flohr
dieser jedoch bei der Rekonstruktion berücksichtigt werden, andernfalls ist mit einer
Beeinträchtigung der Bildqualität durch gravierende Kegelstrahlartefakte zu rechnen.
Wie in der Einzeilen-Spiral-CT müssen auch in der Mehrzeilen-Spiral-CT zur Re-
konstruktion eines Bildes Projektionen in der gewünschten Bildebene durch Interpo-
lation zwischen den vor und hinter der Bildebene aufgenommenen Messwerten er-
zeugt werden. Erste Ansätze zur Mehrzeilen-Spiralinterpolation waren Erweiterungen
der aus der Einzeilen-Spiral-CT bekannten 360°- und 180°-Interpolationsverfahren:
Die Spiralinterpolation erfolgte für jeden Projektionswinkel jeweils zwischen den bei-
den nächsten vor und hinter der Bildebene befindlichen Strahlen, auch wenn diese
z. B. von verschiedenen Detektorzeilen stammen konnten. Inzwischen werden meist
neuartige Interpolationsverfahren verwendet, wie die sogenannte z-Filterung, bei der
alle Strahlen innerhalb eines vorgebbaren Abstandes von der Bildebene gewichtet
zum Bild beitragen. Die Gewichtsfunktion ist frei wählbar, dadurch lassen sich Form
und Breite des Schichtempfindlichkeitsprofils einstellen. Bei manchen Mehrzeilen-
CT-Geräten wird die Gewichtsfunktion pitchabhängig so eingestellt, dass die effek-
tive Schichtdicke unabhängig vom Pitch konstant bleibt. Damit ist auch die räumli-
che Auflösung in Patientenlängsrichtung unabhängig vom Pitch immer gleich. Um
bei dieser Technik ein pitchunabhängiges Bildrauschen zu erhalten, muss der Röh-
renstrom (mAs-Wert) mit zunehmendem Pitch vergrößert werden. Dies geschieht bei
den genannten CT-Geräten automatisch. Als Konsequenz daraus nimmt allerdings die
Strahlendosis – anders als bei der Einzeilen-Spiral-CT – mit zunehmendem Pitch nicht
ab, sondern sie bleibt konstant. Die aus der Einzeilen-Spiral-CT bekannte Regel, zur
Verringerung der Dosis den Pitch zu erhöhen, lässt sich hier nicht anwenden.
Die Rekonstruktionsschichtdicke der Bilder nach der Aufnahme der Spiraldaten
ist bei den meisten Mehrzeilen-CT-Geräten in weiten Bereichen wählbar, sie kann nur
nicht kleiner als die kollimierte Schichtdicke sein. Bei vielen klinischen Anwendun-
gen ist die Untersuchung mit enger Kollimierung die Methode der Wahl, unabhän-
gig von der bei der nachfolgenden Bildrekonstruktion eingestellten Schichtdicke. Die
in der CT historisch übliche Unterscheidung zwischen der räumlichen Auflösung in
der Schichtebene und der räumlichen Auflösung senkrecht dazu, der transversalen
Auflösung, verliert mit der breiten Verfügbarkeit der Mehrzeilen-CT allmählich an Be-
deutung. Mit modernen 64-Zeilen-CT-Geräten können Daten mit isotroper Submilli-
meter-Auflösung aufgenommen werden. Isotrop bedeutet, dass die Auflösung in al-
len drei Raumrichtungen gleich ist. Die traditionelle Befundung axialer Schichten am
Monitor oder auf Film wird heute in zunehmendem Maße durch die interaktive Be-
fundung isotroper Volumendatensätze mit geneigten multiplanaren Reformatierun-
gen (MPRs) ersetzt. Oft werden aus dem gleichen Rohdatensatz Bildstapel mit ver-
schiedenen Schichtdicken rekonstruiert – dicke Schichten für einen ersten Überblick
und für die Archivierung im PACS und dünne Schichten für die dreidimensionale Bild-
nachverarbeitung.
3 Computertomographie | 87
3.5 Artefakte
Artefakte sind Bildfehler, die durch die Art der Rekonstruktion – das ist heute in der
Praxis die gefilterte Rückprojektion – oder durch den Einsatz spezieller Technologien
oder Anordnungen bei der Messwerterfassung entstehen. Die Kenntnis der Ursachen
von Artefakten ist die Voraussetzung für geeignete Gegenmaßnahmen. Diese Gegen-
maßnahmen sind umso wichtiger, da es in der Natur der gefilterten Rückprojektion
liegt, Artefakte über das gesamte Bild zu verteilen und so den diagnostischen Wert
des gesamten Bildes zu reduzieren. An dieser Stelle soll nur eine kurze Übersicht über
potentiell auftretende Artefakte gegeben werden. Eine ausführliche Diskussion ist in
[Buzug 2008] zu finden.
Durch die endliche Breite eines Detektorelements und die endliche Breite des Röhren-
fokus werden Intensitätswerte über einen Raumwinkelbereich gemittelt. Insbesonde-
re bei der Messung von Objektkanten kommt es dadurch zu Inkonsistenzen der Projek-
tionsprofile zwischen den einzelnen Winkeln. Als Konsequenz funktioniert die emp-
findliche Kompensation der Rückprojektion nicht mehr. Neben einer verschmierten
Darstellung von Objekten werden Objektkanten über das Objekt hinaus verlängert,
was sich in Form von Strichartefakten manifestiert. Diese Artefakte lassen sich nur
durch ein feineres Detektorarray und durch dünnere Schichten verringern. Insbeson-
dere der routinemäßige Einsatz von Submillimeter-Schichten in der Mehrzeilen-CT
hat das Problem dieser Partialvolumenartefakte stark reduziert.
3.5.2 Aufhärtungsartefakte
Die inhärente Annahme der gefilterten Rückprojektion ist die Verwendung mono-
chromatischer Röntgenstrahlung. Röntgenröhren (s. Kap. 2.2.1) erzeugen jedoch
polychromatisches Röntgenlicht. Da die Schwächungskoeffizienten der Materie
wellenlängenabhängig sind, misst man bei niederenergetischer Strahlung andere
Schwächungswerte als bei hochenergetischer Strahlung. Die Röntgenabsorption ist
bei niedrigen Energien höher, deshalb werden bevorzugt niederenergetische Rönt-
genquanten absorbiert und ein Röntgenstrahl wird, nachdem er einen längeren Weg
durch Materie zurückgelegt hat, immer hochenergetischer – man spricht deshalb von
„Aufhärtung“. Wird nun ein Objektpunkt aus verschiedenen Richtungen von Strahlen
getroffen, die verschieden lange Wege im Objekt zurückgelegt haben und deshalb ver-
schiedene mittlere Energien aufweisen, passen die gemessenen lokalen Röntgenab-
sorptionskoeffizienten nicht mehr zusammen – es entstehen Aufhärtungsartefakte.
88 | Thorsten M. Buzug, Thomas Flohr
3.5.3 Metallartefakte
Metalle in Form von Zahnfüllungen, wie Amalgam oder Gold, sowie Hüftprothesen
oder chirurgische Schrauben und Clips führen zu sehr starken Aufhärtungsartefakten.
Hinzu kommen ein niedriges Signal-Rausch-Verhältnis im Bereich des Metallschat-
tens sowie ein erhöhtes Verhältnis von Streustrahlung zu Primärstrahlung.
Im rekonstruierten Bild führt dies häufig zu dunklen Streifen zwischen den Metall-
objekten und zu sternförmigen, von den Objekten ausgehenden Streifen, die das um-
liegende Gewebe überlagern und hierdurch die diagnostische Beurteilung erschwe-
ren. Im Extremfall ist die Absorption der Röntgenphotonen durch das Metall so groß,
dass Messstrahlen quasi ausgelöscht werden (sogenannte photon starvation). Es wur-
den Korrektur-Algorithmen vorgeschlagen, bei denen kleine Metallobjekte im Sino-
gramm als sinusförmige Linie identifiziert und dann im Radon-Raum interpoliert wer-
den, um so den Einfluss auf das gesamte Bild zu reduzieren.
3.5.4 Bewegungsartefakte
Bisher wurde stets davon ausgegangen, dass sich die Morphologie innerhalb der zu
rekonstruierenden Schicht während der Datenakquisition nicht ändert. Muss man
aber die zeitliche Veränderung des Schwächungskoeffizienten durch Bewegung
ebenfalls berücksichtigen, so ergibt sich das Problem der Rekonstruktion bei sich
ändernder Datengrundlage. In diesem Fall sind die gemessenen Daten beim Umlauf
des Abtastsystems um den Patienten inkonsistent. Ziel der heutigen Entwicklung von
Computertomographen, gerade in Bezug auf die Zeitkonstanten bei anatomischen
bzw. physiologischen Bewegungen, ist die Beschleunigung der Datenakquisition
durch schnellere Rotation der Gantry. Moderne CT-Geräte mit Rotationszeiten von
0,3 s und weniger benötigen zur Aufnahme eines für die Bildrekonstruktion notwen-
digen Halbumlaufs an Messdaten 150 ms und weniger – das reicht aus, um selbst
das Herz in der diastolischen Ruhephase bei nicht zu hoher Herzfrequenz ohne
Bewegungsartefakte abzubilden.
3 Computertomographie | 89
Anode
Elektronen-
strahl Fokusposition 1
Fokusposition 2
Kathode Projektion 1
Anode
Projektion 2
Patienten-
z längsrichtung
(z-Richtung)
Röntgen-
strahlen Detektor
3.5.5 Abtastartefakte
Flying-Focus (dt. Springfokus): von Projektion zu Projektion wechselnde Position des Elektronen-
fokus auf der Anode der Röntgenröhre.
Dabei wird der Brennfleck des Röntgenstrahlers zwischen der Aufnahme aufeinander-
folgender Projektionen periodisch zwischen zwei Positionen auf dem Anodenteller
hin und her bewegt. Der Springfokus wird zur Erfüllung des Shannonschen Ab-
tasttheorems sowohl in der Schichtebene als auch senkrecht dazu eingesetzt: Beim
z-Springfokus wird die Amplitude der Fokusbewegung so eingestellt, dass aufeinan-
derfolgende Projektionen in Patientenlängsrichtung gerade um eine halbe kollimierte
Schichtdicke verschoben sind (Abb. 3.13). Je zwei solche Projektionen werden dann
zu einer Projektion mit doppelter Schichtanzahl, aber halbem Abtastabstand ver-
schachtelt.
90 | Thorsten M. Buzug, Thomas Flohr
konventionell z-Springfokus
Abb. 3.13: Unterdrückung von Spiralartefakten mit dem z-Springfokus durch die verbesserte Abtas-
tung in Patientenlängsrichtung.
3.5.6 Ringartefakte
Es gibt eine Reihe von Defekten im Detektor oder der Detektorelektronik, die zur Ver-
schlechterung oder sogar zur Unbrauchbarkeit des Bildes führen können. Ein solcher
Defekt ist beispielsweise der Ausfall eines Detektorkanals. Bei Computertomographen
der dritten Generation entsteht dadurch ein ringartiges Artefakt im Bild. Im Verlauf
der gefilterten Rückprojektion bilden die Verbindungslinien zwischen dem betreffen-
den Detektorelement und der Röntgenquelle die Tangenten eines Kreises. Es entste-
hen nun für jeden Punkt jeder Linie Inkonsistenzen mit den Messwerten der jeweils
anderen Projektionsrichtungen und deren korrespondierenden Detektoren. Ausgefal-
lene Detektorkanäle können bei geringer Anzahl durch Interpolation zwischen den
Nachbarkanälen ersetzt werden. Jedoch führen auch kleinere Fehler, z. B. Abweichun-
gen eines Detektorelements von seinem Kalibrierzustand, zu Ringen im Bild. Moderne
Computertomographen sind deshalb mit Algorithmen ausgestattet, die Ringe im Bild
erkennen und bis zu einer gewissen Grenze auch korrigieren können.
3.5.7 Streustrahlenartefakte
genstrahlung mit Materie im Detail die Intensität verringert, so können andere De-
tektorelemente, die außerhalb der direkten Verbindungslinie liegen, sehr wohl unter
bestimmten Wechselwirkungen leiden. Besonders im Bereich stärker schwächender
anatomischer Objekte wie z. B. Schulter, Bauch und Becken kann es zu Messwertver-
fälschungen kommen, da die Streustrahlung mit einem beträchtlichen Anteil zum
Gesamtsignal beiträgt. Während die Streustrahlung für alle Projektionswinkel in etwa
gleich groß ist, gilt dies für das Nutzsignal nicht. In Projektionsrichtungen, in denen
stark absorbierende Objekte hintereinander liegen, kann das Nutzsignal so schwach
werden, dass die Streustrahlung das Signal dominiert. Bei der gefilterten Rückprojek-
tion kommt es dann aus dieser Projektionsrichtung zu Inkonsistenzen, die zu streifen-
artigen Artefakten führen.
3.6.1 Aufnahmeplanung
Hounsfield-Skala: auf die Eigenschaften von Wasser normierte Schwächungswerte in der Compu-
tertomographie. Die CT-Zahl (angegeben in HU – Hounsfield unit) gibt die Abweichung vom Schwä-
chungswert des Wassers in Promille an.
3 Computertomographie | 93
Radiologen sind es gewohnt, die CT-Werte als absolute Werte zu sehen, die Organen
eindeutig zuzuordnen sind. Abweichungen dieser CT-Werte für bestimmte Organe stel-
len für den Radiologen Pathologien dar. Zu berücksichtigen ist allerdings, dass CT-
Untersuchungen mit verschiedenen Röhrenspannungen durchgeführt werden kön-
nen, in der Regel 80 kV, 100 kV, 120 kV und 140 kV. Je nach Röhrenspannung ändern
sich die CT-Werte der untersuchten Organe. Dies muss der Radiologe bei der Diagnose
berücksichtigen.
Besonders signifikant ist diese Änderung, wenn jodhaltiges Kontrastmittel ver-
wendet wird, wie es in vielen CT-Untersuchungen inzwischen der Fall ist. Je nach
Anwendung werden vor der CT-Untersuchung 40. . . 150 ml Jodkontrastmittel in einer
Konzentration von 300. . . 400 mg Jod/ml intravenös mit einer Flussrate von 3. . . 6 ml/s
verabreicht. Das Kontrastmittel verteilt sich in die Gefäße und von dort aus in das Ge-
webe – durch die hohe Ordnungszahl von Jod absorbiert es Röntgenquanten besser
als körpereigene Elemente, so dass z. B. jodgefüllte Gefäße durch ihre starke Rönt-
genabsorption und ihren dadurch hohen Schwächungswert in Hounsfield-Einheiten
leicht von der Umgebung unterschieden werden können. Durch die unterschiedliche
Jodaufnahme wird die Differentialdiagnose verschiedener Läsionen z. B. in der Leber
erst ermöglicht. Die Verwendung von Kontrastmitteln ist auch die Basis von neuen
CT-Applikationen wie der CT-Angiographie, der Gefäßdarstellung mit CT. Die Absorp-
tion von Jod nimmt mit abnehmender Röhrenspannung stark zu, so dass jodgefüllte
Organe bei niedrigen Röhrenspannungen im CT-Bild deutlich heller erscheinen.
Man kann die gesamte Hounsfield-Skala in diagnostisch relevante Bereiche un-
terteilen. Für das menschliche Auge ist der gesamte Dynamikbereich von −1000 HU
bis 3000 HU in 4000 Stufungen nicht auflösbar. Tatsächlich kann der Mensch je nach
Helligkeit im Auswerteraum zwischen 20 und 50 verschiedene Grauwerte unterschei-
den. Sollen Unterschiede zwischen Organen erkennbar sein, die in Bezug auf ihre
Abschwächung sehr ähnlich sind, so müssen die für die jeweilige Anwendung rele-
vanten Bereiche der Hounsfield-Skala auf den wahrnehmbaren Grauwertebereich
geeignet abgebildet werden. Dieser Prozess heißt „Fensterung“: Ein Ausschnitt der
Hounsfield-Skala, der um die Fenstermitte WL (Window Level) zentriert ist und die
Fensterbreite WW (Window Width) aufweist, wird bei der Darstellung auf den gesam-
ten wahrnehmbaren Grauwertebereich gespreizt. Objekte mit CT-Werten höher als die
obere Fenstergrenze erscheinen bei der Darstellung weiß, Objekte mit CT-Werten klei-
ner als die untere Fenstergrenze werden schwarz abgebildet (Knochenfenster: WL =
+300 HU, WW = 1500 HU; Weichteilfenster: WL = +50 HU, WW = 350 HU). Bei
Thoraxaufnahmen hat man die besondere Schwierigkeit, dass Lungengewebe, Weich-
teile und Knochen diagnostisch interessant sein können, diese aber praktisch die ge-
samte Breite der Hounsfield-Skala abdecken. Für die Darstellung von Thoraxaufnah-
men haben sich drei Fenster als praktisch erwiesen. Zu den oben schon genannten
Weichteil- und Knochenfenstern kommt hier das sogenannte Lungen- bzw. Pleura-
fenster (WL = −200 HU, WW = 2000 HU) hinzu, in dem Lungengewebe geringerer
Dichte ebenfalls differenzierbar wird. Die Auswertesoftware an der klinischen view-
94 | Thorsten M. Buzug, Thomas Flohr
ingstation stellt eine Vielzahl von Fenstern mit entsprechend voreingestellten Para-
metersätzen zur Verfügung.
bezeichnet. Bei der Diagnose mit MIPs ist zu beachten, dass analog zu konventio-
nellen Röntgenaufnahmen jede räumliche Tiefeninformation verloren geht und dass
Strukturen verschwinden, wenn sie nicht den höchsten CT-Wert entlang einer Sicht-
linie darstellen. Das MIP-Verfahren lässt sich einfach variieren, indem zum Beispiel
nach dem minimalen Werten gesucht wird oder die Summe aller Werte entlang der
Sichtlinie gebildet und anschließend dargestellt wird.
Zwei ganz unterschiedliche Ansätze zur 3D-Visualisierung sind das Volumen- und
das Oberflächen-Rendering. Beim Volumen-Rendering wird jedem räumlichen Pi-
xel, dem sogenannten Voxel (volume element in Erweiterung zum Pixel: picture ele-
ment), eine physikalische Lichtabsorption, Reflexion und Streuung zugeordnet. Im
Computer beleuchtet man diesen „Datennebel“ dann mit einer virtuellen Lichtquel-
le und berechnet den optischen Eindruck, den eine reale Wechselwirkung des Lichts
mit diesem Nebel erzeugen würde. Ordnet man Knochen und Organen bzw. einem
Kontrastmittel in den Gefäßen unterschiedliche optische Eigenschaften zu, so lassen
sich aufschlussreiche Darstellungen berechnen, bei denen man mit spezieller Nach-
verarbeitung einzelne Organe in der Gesamtvisualisierung auch wieder unterdrücken
kann. Zu beachten ist dabei, dass die Zuordnung von Farben zu den in den CT-Bildern
dargestellten Objekten rein willkürlich ist.
Eine Alternative zum Volumen-Rendering ist das sogenannte Oberflächen-
Rendering. Die einzelnen Grautöne der Schichten im Datenstapel repräsentieren
die Stärke der physikalischen Schwächung des Röntgenstrahls. Im klinischen Umfeld
wird aus Abweichungen zur normalen Verteilung dieser Werte auf pathologische
Veränderungen des Patienten geschlossen. Bei der Visualisierung muss man sich
nun entscheiden, ganz bestimmte Wertebereiche darzustellen und andere gezielt
auszublenden. Entscheidet sich der Betrachter für einen konstanten Grauwert, so re-
präsentieren alle Raumpunkte mit diesem Wert eine sogenannte Isofläche. Diese Iso-
grauwertfläche wird dann mit Dreiecken graphisch nachgebildet (Triangulierung).
Das Mosaik aus Dreiecken wird nun wieder mit dem oben beschriebenen Verfah-
ren virtuell beleuchtet und dargestellt. Je größer die Anzahl der Mosaiksteine für
die Nachbildung der Fläche gewählt wird, desto detailgetreuer ist das Ergebnis.
Neben der Darstellung von Organ- oder Knochenoberflächen, die am Computer in-
teraktiv gedreht werden können, sind auf diese Weise auch Innenansichten von
Hohlorganen, Atemwegen und kontrastierten Gefäßen rekonstruierbar. Dadurch sind
virtuelle „Fahrten“ bzw. „Flüge“ z. B. durch das Bronchialsystem oder durch den
Darm möglich. Der zentrale Gewinn der 3D-Diagnostik liegt in der Reduktion der
Datenflut, die einer normalen Schicht-für-Schicht-Befundung nicht mehr zugänglich
ist. 3D-Darstellungen eignen sich außerdem gut, um Befunde herauszuarbeiten und
Nichtradiologen präsentieren zu können.
96 | Thorsten M. Buzug, Thomas Flohr
CT-Angiographie ist die Darstellung der Gefäße nach intravenöser Injektion von jod-
haltigem Kontrastmittel. Die Gefäße können dann durch ihren hohen CT-Wert leicht
(z. B. mittels Schwellenoperationen) von ihrer Umgebung unterschieden werden
(Abb. 3.14). Ziel der CT-Angiographie ist die Analyse von Gefäßen und Gefäßver-
änderungen, z. B. Stenosen und Aneurysmen, und die Planung chirurgischer und
interventioneller Eingriffe, z. B. die Platzierung von Stents. Die CT-Angiographie er-
fordert eine hohe Ortsauflösung und eine insgesamt sehr kurze Untersuchungszeit,
um den gesamten Scan in einer bestimmten Kontrastmittelphase, z. B. der arteriellen
Phase, durchführen zu können. Aus diesem Grund werden hierzu Mehrzeilen-CT-
Scanner mit schneller Gantry-Rotation benötigt.
3.7.2 Cardio-CT
Die Abbildung des Herzens und der Herzkranzgefäße stellt hohe Anforderungen an
die CT. Zum einen ist eine hohe zeitliche Auflösung erforderlich – je kürzer die Auf-
nahmezeit für die Daten eines CT-Bildes ist, desto schärfer wird die bewegte Anatomie
des Herzens abgebildet. Zum anderen sollte die räumliche Auflösung in jeder Raum-
richtung deutlich weniger als einen Millimeter betragen, denn die Herzkranzgefäße
selbst haben nur wenige Millimeter Durchmesser. Um das Herz phasenkonsistent in
der diastolischen Ruhephase darzustellen, muss die Datenaufnahme mit dem EKG-
Signal des Patienten synchronisiert werden.
3 Computertomographie | 97
Abb. 3.14: CT-Angiographie: Darstellung einer Aortendissektion vor und nach der Behandlung (Ein-
satz eines Stents). Die Gesamtaufnahmezeit betrug unter Verwendung einer speziellen Hochpitch-
Technik an einem Dual Source CT nur etwa 2 s. Quelle: Deutsches Herzzentrum, München.
Die beiden grundlegenden Untersuchungstechniken für die Herz-CT sind die pro-
spektiv EKG-getriggerte Sequenzuntersuchung und die retrospektiv EKG-gegatete Spi-
raluntersuchung.
Bei der prospektiv EKG-getriggerten sequentiellen Untersuchung des Herzens
steuert das EKG-Signal des Patienten den Zeitpunkt der Aufnahme axialer Schicht-
bilder (Abb. 3.15). Der Patiententisch wird an die definierte Ausgangsposition in
der Patientenlängsrichtung gefahren. In einem vom Benutzer wählbaren zeitlichen
Abstand nach einer R-Zacke des EKGs des Patienten wird ein CT-Scan ohne Tischbe-
wegung durchgeführt. Dabei nimmt das CT-Gerät eine der Zeilenzahl entsprechende
Anzahl von Schichtbildern auf, die einen der gesamten Detektorbreite entsprechen-
den Abschnitt des Herzens abdecken.
Der Tisch wird nun an die nächste Position gefahren und im entsprechenden zeit-
lichen Abstand zur nächstmöglichen R-Zacke wird der nächste CT-Scan ausgelöst. Auf
diese Weise wird das Herzvolumen sequentiell mit axialen Schichtaufnahmen abge-
deckt. Die zeitliche Auflösung eines Schichtbildes entspricht der Aufnahmezeit der
zur Rekonstruktion dieses Bildes verwendeten Datenmenge. Zur Optimierung der zeit-
lichen Auflösung werden Teilumlauf-Daten aufgenommen. Diese umfassen einen Pro-
jektionswinkelbereich von 180° (einen Halbumlauf) plus den gesamten Fächerwinkel
des Detektors, insgesamt also etwa 240°. In der Nähe des Drehzentrums, wo das Herz
üblicherweise positioniert wird, reicht ein Halbumlauf an Daten (180°) zur Bildrekon-
98 | Thorsten M. Buzug, Thomas Flohr
Aufnahme
Tisch-
bewegung
Detektor-
breite
Patienten-
längsrichtung
Abb. 3.15: Prinzip der EKG-getriggerten sequentiellen Datenaufnahme. Das EKG-Signal des Pati-
enten ist schematisch dargestellt. Die gestrichelten weißen Linien markieren die z-Positionen der
einzelnen Detektorzeilen relativ zum Patienten, in diesem Beispiel für ein 8-Zeilen-Gerät. Mit einem
vom Benutzer wählbaren zeitlichen Abstand zur vorausgehenden R-Zacke werden Teilumlauf-Daten
aufgenommen, die als rote Rechtecke dargestellt sind. Mit der EKG-getriggerten Untersuchungs-
technik wird das Volumenbild des Herzens aus mehreren, entlang der z-Achse aneinandergereihten
Teilvolumina aufgebaut, die in aufeinanderfolgenden Herzzyklen erfasst werden. Die Ausdehnung
eines Teilvolumenbereiches entspricht der Breite des Detektors im CT-Gerät.
struktion aus. Die zeitliche Auflösung eines Bildes entspricht deshalb der halben Ro-
tationszeit des CT-Scanners, also z. B. 150 ms bei 0,3 s Rotationszeit.
Die prospektiv EKG-getriggerte Sequenz bietet den Vorteil einer sehr geringen
Strahlendosis für den Patienten, allerdings mit Einschränkungen bezüglich der ma-
ximal zulässigen Herzfrequenz. Für Patienten mit niedriger Herzfrequenz und regel-
mäßigem Herzschlag lassen sich bei Untersuchungen der Herzkranzgefäße Strahlen-
dosiswerte von nur etwa 2. . . 3 mSv erreichen. Die Aufnahmezeit für ein CT-Bild kann
mit Dual-Source-CT-Geräten auf Werte von weniger als 100 ms verringert werden, dies
erhöht die Bildqualität der Methode bei Patienten mit höheren Herzraten.
In retrospektiv EKG-gegateten Untersuchungen wird das Herz des Patienten mit
einem Spiral-Scan abgedeckt, bei dem der Tisch kontinuierlich bewegt wird und kon-
tinuierlich Messdaten erfasst werden. Parallel dazu wird das EKG des Patienten auf-
gezeichnet. Es dient nach der Datenaufnahme zur retrospektiven Auswahl derjenigen
Segmente aus dem Spiraldatensatz, die in den verschiedenen Herzschlägen jeweils in
der gleichen, vom Benutzer gewünschten Phase des Herzzyklus, aber unter anderen
Winkeln gemessen wurden und deshalb zur Bildrekonstruktion herangezogen wer-
den. Abb. 3.16 zeigt das Prinzip der retrospektiv EKG-gegateten Spiral-CT des Her-
zens.
Die EKG-gegatete Spiral-CT erlaubt eine Bildrekonstruktion in verschiedenen
Herzphasen und somit die retrospektive Optimierung der Bildqualität durch Auswahl
derjenigen Herzphase, bei der am wenigsten Bewegungsartefakte auftreten. Nach-
3 Computertomographie | 99
Rekon
ub
ch
vors
ch
r Tis
he
lic
uier zima2
n
nti
ko
zima1
Detektorbreite
Patienten-
längsrichtung
Abb. 3.16: Prinzip der EKG-gegateten Spiral-CT. Das EKG-Signal des Patienten ist schematisch dar-
gestellt. Die gestrichelten weißen Linien markieren die z-Positionen der einzelnen Detektorzeilen
relativ zum Patienten, in diesem Beispiel für ein 8-Zeilen-Gerät. Der Tisch bewegt sich kontinuier-
lich und es werden kontinuierlich Messdaten erfasst. Zur Bildrekonstruktion werden nur Messda-
ten herangezogen, die in einem vom Benutzer wählbaren zeitlichen Abstand zur vorausgehenden
R-Zacke aufgenommen wurden (in der Abbildung als rote Rechtecke markiert). Die beiden horizonta-
len weißen Linien deuten zwei Bildpositionen zima1 und zima2 an. Weil aufgrund der kontinuierlichen
Tischbewegung in den Bildebenen keine vollständigen Teilumlaufdaten vorliegen, müssen die Pro-
jektionen an den gewünschten z-Positionen durch Spiralinterpolation erzeugt werden. Um das Herz
in jeder Herzphase ohne Abtastlücken abzubilden, ist eine Anpassung des Tischvorschubs an die
Herzfrequenz des Patienten erforderlich.
teilig ist die relativ hohe Strahlenexposition für den Patienten, denn anders als bei
EKG-getriggerten Untersuchungen wird der Patient während der gesamten Aufnahme-
zeit der Spirale bestrahlt. Mithilfe von EKG-gesteuerten Dosismodulationstechniken
(„ECG-Pulsing“) lässt sich die Patientendosis deutlich verringern. Während des Spi-
ralscans wird der Strom der Röntgenröhre gemäß dem EKG des Patienten moduliert:
Der voreingestellte Nominalwert wird nur während einer vom Benutzer definierten
Phase des Herzzyklus erreicht, die dann auch zur Bildrekonstruktion herangezogen
wird. Während der restlichen Zeit wird der Röhrenstrom auf Werte zwischen 4 und
25 % des Nominalwertes abgesenkt.
Neben der Darstellung der Herzkranzgefäße ist das Kalzium-Scoring bedeutsam,
es bezeichnet die Quantifizierung von Kalkablagerungen in den Koronararterien aus
einem CT-Scan des Herzens ohne Kontrastmittel. Diese Untersuchung wird meist bei
sehr geringer Strahlendosis in prospektiv EKG-getriggerter Sequenztechnik durchge-
führt.
100 | Thorsten M. Buzug, Thomas Flohr
Detektorbreite Detektorbreite
CT-Wert
Zeit
Scanbereich Scanbereich
3.7.3 Funktionelle CT
Hirnperfusion
Aus der zeitlichen Analyse des Ein- und Ausströmens des Kontrastmittels im Hirn-
gewebe lassen sich verschiedene funktionelle Parameter berechnen, wie das Blutvo-
lumen (Cerebral Blood Volume, CBV), der Blutfluss (Cerebral Blood Flow, CBF), die
mittlere Transitzeit (Mean Transit Time, MTT) und die Zeit bis zum Erreichen des Bo-
lusmaximum (Time to Peak, TTP). Eine farbkodierte Darstellung dieser Größen kann
mit den entsprechenden axialen CT-Bildern überlagert werden. Die Änderung der er-
wähnten Parameter in bestimmten Hirnarealen ist ein Indiz für eine Durchblutungs-
störung des Gehirns, die z. B. durch einen Hirninfarkt (Schlaganfall) hervorgerufen
werden kann. CT-Hirnperfusionsuntersuchungen geben wertvolle Hinweise auf die
Behandlungsoptionen von Hirninfarkten, insbesondere ob es sinnvoll ist, Gefäßver-
schlüsse durch eine Lyse-Therapie zu behandeln.
Zur Modellierung der Perfusionsparameter müssen CT-Daten der betreffenden
anatomischen Region über einen längeren Zeitraum gemessen werden. Die Aufnah-
medauer hängt von der klinischen Fragestellung und vom verwendeten Perfusions-
modell ab – typischerweise werden Schichtbilder alle 0,5. . . 2 s über einen Zeitraum
von 30. . . 60 s akquiriert. Die naheliegendste Methode zur Vergrößerung des Untersu-
chungsbereiches ist die Verwendung breiterer Detektoren, z. B. in einem CT-Gerät mit
16 cm Detektorbreite im Iso-Zentrum. Alternativ kann bei CT-Geräten mit schmalerem
Detektor der Patiententisch periodisch zwischen zwei Positionen hin- und her bewegt
und dabei kontinuierlich Daten aufgenommen werden (Abb. 3.17).
3 Computertomographie | 101
Abb. 3.18: Darstellung eines Perfusionsparameters (Permeabilität) für einen Patienten mit Bronchi-
alkarzinom, vor (links) und zwei Wochen nach Kombinationstherapie (rechts). Obwohl der Tumor
sich in seiner Größe nicht verändert hat, ist die verringerte Permeabilität ein Indikator für das Thera-
pieansprechen des Tumors. Courtesy of Vicky Goh, King’s College London.
Tumorperfusion
Die Messung des zeitlichen Verlaufs der Kontrastmittelanreicherung lässt sich zur
Differentialdiagnose von Tumoren verwenden. Neuere Studien zeigen, dass das
Ansprechen bestimmter Tumoren auf moderne Chemotherapien oder Anti-Angio-
genesetherapien mit Perfusionsmessungen vorausgesagt werden kann (Abb. 3.18).
Des Weiteren lässt sich während der Therapie der Behandlungserfolg durch Ände-
rung von Perfusionsparametern wie Blutvolumen und Blutfluss beurteilen, bevor der
Tumor auf die Behandlung durch eine Größenänderung reagiert.
Dentalplanung: Panorama und Querschnitte des Ober- und Unterkiefers zur Un-
terstützung des Kieferchirurgen bei der Planung von Prothesenimplantaten.
Bestrahlungsplanung: 3D-CT-Daten als Grundlage für die Dosisplanung bei der
Bestrahlung von Tumoren.
Bildgeführte Chirurgie: 3D-CT-Daten als Grundlage für die Planung chirurgi-
scher Eingriffe und für die intraoperative Navigation.
Interventionelle Bildgebung: Darstellung der Instrumentenspitze während ei-
ner Biopsie. Dies wird durch sehr schnelle Online-Bildgebung während der Interven-
tion insbesondere mit Mehrzeilen-Detektoren erleichtert.
Strom-Zeit-Produkt (mAs-Wert)
Die Strahlendosis ist direkt proportional zum mAs-Wert, also zum Produkt aus Röh-
renstrom und Aufnahmezeit eines Schichtbildes. Die Varianz des Bildrauschens ist
umgekehrt proportional zum mAs-Wert. Die Standardabweichung des Bildrauschens,
die Wurzel aus der Varianz, ist damit umgekehrt proportional zur Wurzel aus dem
Strom-Zeit-Produkt.
Röhrenspannung
Bei Erhöhung der Röhrenspannung UA (s. Kap. 2.2.1) erhöht sich die Intensität der
Strahlung und damit die Strahlendosis überproportional. Die Strahlung wird dabei
härter, ihre Durchdringungsfähigkeit nimmt zu und Bildkontraste nehmen ab. Bei
Aufnahmen ohne Kontrastmittel wird dies allerdings durch die bessere Quantensta-
tistik ausgeglichen. Ganz anders ist die Situation bei CT-Untersuchungen mit Kon-
trastmittel: Die Absorption von Jod steigt bei Erniedrigung der Röhrenspannung UA so
stark an, dass erhöhtes Bildrauschen durch den zunehmenden Jodkontrast mehr als
kompensiert wird und Aufnahmen mit einem gewünschten Kontrast-Rauschverhält-
nis mit geringerer Strahlendosis durchgeführt werden können. Dieser Zusammenhang
kann aber – wegen der Leistungsbegrenzung von CT-Strahlern bei niedrigen Röhren-
spannungen – nur bei dünnen Patienten voll ausgenutzt werden.
Schichtdicke
Bei der ersten Generation von 4-Zeilen-CT-Geräten musste das Strahlprofil am Detek-
tor so eingestellt werden, dass die Halbschattenbereiche in Patientenlängsrichtung
außerhalb der aktiven Zone der Detektorelemente lagen. Diese Halbschattenbereiche
stellten Strahlendosis für den Patienten dar, die nicht zur Bildrekonstruktion genutzt
wurde. Bei dünnen kollimierten Schichten, z. B. 4 × 1 mm, war der relative Beitrag
der Halbschattenzonen natürlich größer als bei dicken kollimierten Schichten, z. B.
4 × 5 mm. Deshalb ging mit der Wahl dünner kollimierter Schichten bei der ersten Ge-
neration von Mehrzeilen-CT-Geräten auch immer eine gewisse Dosiserhöhung einher.
Bei modernen Mehrzeilen-Scannern mit einer größeren Anzahl von Detektorzeilen
(≥ 16) spielt dieser Effekt keine Rolle mehr und die Strahlendosis ist bei sonst unverän-
derten Parametern praktisch unabhängig von der Wahl der kollimierten Schichtdicke.
Pitchfaktor
Ein Pitchfaktor von p = 1 bedeutet, dass sich der Tisch in einer vollen Umdrehung
der Abtasteinheit um eine Schichtdicke fortbewegt (s. Kap. 3.4.3). Bei Veränderung
des Pitches gilt bei Einzeilen-CT-Systemen folgender Zusammenhang: Verringert man
den Pitch (p < 1), so misst man mit stärkerer Überlappung. Spiralartefakte verringern
sich, die Auflösung in Patientenlängsrichtung verbessert sich, dies jedoch auf Kosten
104 | Thorsten M. Buzug, Thomas Flohr
erhöhter Strahlendosis. Durch Erhöhung des Pitchfaktors (p > 1) kann man die Do-
sis verringern, allerdings auf Kosten zunehmender Spiralartefakte und schlechterer
Auflösung in der Patientenlängsrichtung durch wachsende effektive Schichtdicken.
Bei vielen Mehrzeilen-CT-Geräten gilt dieser Zusammenhang im Prinzip auch. Ei-
ne Ausnahme machen die Mehrzeilen-CT-Scanner der Fa. Siemens. Hier ist die Spi-
ralinterpolation so gestaltet, dass die räumliche Auflösung in Patientenlängsrichtung
unabhängig vom Pitch immer gleich ist. Um bei dieser Technik ein pitchunabhängiges
Bildrauschen zu erhalten, wird der Röhrenstrom (mAs-Wert) mit zunehmendem Pitch
automatisch vergrößert. Als Konsequenz daraus bleibt die Strahlendosis bei jedem
Pitch konstant.
Filterkern
Die Wahl des Filter- oder Faltungskerns hat zunächst keinen unmittelbaren Einfluss
auf die Dosis. Allerdings geht bei konstanter Strahlendosis höhere Bildschärfe, die
durch schärfere Faltungskerne erreicht wird, immer auf Kosten von erhöhtem Bildrau-
schen. Soll bei hoher Ortsauflösung das Rauschen verringert werden, muss die Strah-
lendosis erhöht werden.
Die effektivste Maßnahme zur Reduktion der Strahlendosis ist die Anpassung der Do-
sis an die Anatomie des Patienten. Gerade bei dünnen Patienten und bei Kindern kann
die Dosis zur Erreichung diagnostischer Bildqualität stark reduziert werden, und zwar
entweder manuell – durch Anpassung des mAs-Wertes oder gegebenenfalls auch der
Röhrenspannung – oder automatisch durch Techniken, die der Belichtungsautomatik
bei einer Fotokamera ähneln. Verfahren zur automatischen anatomischen Dosismo-
dulation sind in praktisch allen modernen CT-Scannern implementiert, unter Namen
wie z. B. „CareDose4D“ (Siemens). Sie lassen die Röhrenspannung unverändert und
passen den Röhrenstrom an die anatomische Situation an.
Dabei sind zwei Arten der Modulation zu unterscheiden. Der Röhrenstrom bzw.
die Dosis kann im ersten Schritt dynamisch an die anatomische Situation und die un-
terschiedlichen Schwächungsverhältnisse entlang der Patientenlängsachse (z-Achse)
angepasst werden (longitudinale Dosismodulation). In anatomischen Bereichen, in
denen eine kleine Schwächung der Röntgenintensität zu erwarten ist, z. B. im Bereich
der Lunge, können der Röhrenstrom und damit die Dosis herabgesetzt werden, ohne
dass es zu einer Verschlechterung der Bildqualität kommt. In anatomischen Bereichen
mit hoher Schwächung, z. B. der Schulter, ist im Gegensatz dazu eventuell sogar eine
Erhöhung des Röhrenstroms notwendig.
3 Computertomographie | 105
mAs mAs
100 % 100 %
verringerter Röhrenstrom
60 % 60 %
20 % 20 %
Winkel 20° 80° 20°
Winkel
erhöhter Röhrenstrom
Abb. 3.19: Prinzip der organselektiven Dosismodulation, hier zum Schutz der weiblichen Brust. Die
Dosisverteilungen entstanden durch Monte-Carlo-Simulation. Rot bedeutet geringere Dosis.
Dual Source CT (dt. Doppelquellen-CT): Computertomographie mit zwei Röntgenröhren und De-
tektorsystemen, die um etwa 90° versetzt sind.
3 Computertomographie | 107
Drehrichtung
der Gantry
z
x
y J I
Detektor B
I
cm
J
26
Detektor A
Abb. 3.20: Prinzip eines Dual-Source-CT-Gerätes, in dem zwei Messsysteme um einen Winkel von
90° versetzt angeordnet sind.
Bei der ersten Generation des Dual Source CTs mit einer Rotationszeit von 0,33 s betrug
die zeitliche Auflösung 83 ms, bei der zweiten, im Jahre 2009 eingeführten Generati-
on mit einer Rotationszeit von 0,28 s beträgt die zeitliche Auflösung 75 ms. Diese kur-
ze Aufnahmezeit ist besonders vorteilhaft bei der Untersuchung bewegter Organe wie
z. B. dem Herzen. Tatsächlich haben klinische Studien inzwischen gezeigt, dass es mit
der Dual Source CT möglich ist, die Herzkranzgefäße in diagnostischer Qualität auch
bei Patienten mit hohen und unregelmäßigen Herzraten darzustellen (Abb. 3.21).
Durch optimale Umsetzung der EKG-gesteuerten Dosismodulation und andere Maß-
nahmen ist dabei – trotz des gleichzeitigen Betriebes von zwei Röntgenröhren – die
Strahlenbelastung für den Patienten nicht größer und bei höheren Herzraten sogar
geringer als bei entsprechenden Single Source CT.
Dual-Source-CT-Geräte ermöglichen auch die gleichzeitige Aufnahme von zwei
Messdatensätzen mit unterschiedlichen Röntgenspektren, indem beide Röntgen-
strahler mit unterschiedlichen Röhrenspannungen betrieben werden. Mit der soge-
nannten Dual-Energy-Technik lassen sich unterschiedliche Gewebetypen chemisch
charakterisieren oder die Jodaufnahme im Gewebe quantitativ darstellen (Abb. 3.22).
Diese Untersuchungsmethode befindet sich noch im Stadium klinischer Forschung,
allerdings zeichnen sich bereits erste Routineanwendungen ab, z. B. die Charakteri-
sierung von Nierensteinen.
108 | Thorsten M. Buzug, Thomas Flohr
Harnsäurekristalle (Gicht)
Wenn man zu sehr kurzen Datenakquisitionszeiten kommen möchte, muss man das
Konzept mechanisch bewegter Systeme vollständig verlassen. Einen Ansatz dazu bie-
tet die Elektronenstrahl-Computertomographie (Electron Beam Computerized Tomo-
graphy, EBCT). Diese Form der Computertomographie wurde speziell für Aufnahmen
des Herzens entwickelt. Eine lokalisierte Röntgenröhre, die sich um den Patienten
dreht, gibt es hier nicht mehr. Vielmehr befindet sich der Patient gewissermaßen in-
nerhalb der Röntgenröhre. Ein Elektronenstrahl wird auf kreisförmig um den Pati-
enten angeordnete Wolframtargetringe fokussiert und erzeugt beim Aufprall auf das
3 Computertomographie | 109
3.9.3 Mikro-CT
Seit einiger Zeit sind sogenannte Mikro-CTs kommerziell erhältlich, die im Wesent-
lichen einer miniaturisierten Form eines Volumen-CTs entsprechen und zur zer-
störungsfreien, dreidimensionalen Mikroskopie genutzt werden. Das durchstrahlte
Messfeld ist mit typischerweise 2 cm3 so klein, dass Patientenuntersuchungen aus-
scheiden. Tatsächlich werden diese Geräte eher in der Materialprüfung und -analyse
verwendet, aber auch medizinische Anwendungen rücken zunehmend in das Zen-
trum des Interesses. Humanmedizinische Fragestellungen sind zum Beispiel Untersu-
chungen der Trabekularstruktur von Knochen. Mikro-CTs sind darüber hinaus ideale
Geräte, um radiologische Diagnostik an Kleintieren zu betreiben. Mikro-CTs sind
häufig als Tischgeräte ausgelegt und besitzen eine Messkammer, die mit Bleiwänden
gegen nach außen dringende Röntgenstrahlung vollständig abgeschirmt ist, so dass
keine weiteren Schutzmaßnahmen ergriffen werden müssen. Das zu untersuchende
Objekt wird auf einem Drehteller platziert, der von einem Schrittmotor gesteuert wird.
Die beiden entscheidenden Komponenten eines Mikro-CTs sind die Röntgenröhre
und das Detektorarray. Hierbei sind es speziell die Fokusgröße und die Größe der De-
tektorelemente, die neben der mechanischen Genauigkeit der Drehbewegung das Auf-
lösungsvermögen bestimmen, wobei Röntgenfokusgrößen unterhalb von 10 μm wün-
schenswert sind. Natürlich kann bei einer solch kleinen Elektronentargetfläche der
Anodenstrom nicht sehr groß gewählt werden – typische Ströme liegen im Bereich von
< 100 μA. Da der Strom die Intensität des Röntgenspektrums steuert, unterliegt man in
Bezug auf die zu untersuchenden Materialien natürlich gewissen Einschränkungen.
Als Detektor wird häufig ein gekühlter 12 Bit Röntgen-CCD-Chip mit einer Pixelmatrix
von 1024 × 1024 genutzt, der über eine Fiberoptik an einen Szintillationskristall ange-
koppelt ist. Die Größe der Bildelemente liegt ebenfalls in der Größenordnung von etwa
10 μm. Die Firma SkyScan gibt ein Auflösungsvermögen von insgesamt etwa 10 μm an.
Da es sich bei Mikro-CTs um Kegelstrahlröntgensysteme handelt, sind dreidimensio-
nale Rekonstruktionsverfahren erforderlich, um die Bilder zu berechnen.
110 | Thorsten M. Buzug, Thomas Flohr
3.9.4 PET-CT
Quellenverzeichnis
Brunst G.: High resolution digital flat panel detectors for X-ray applications – basics. In:
Niederlag W., Lemke H. U. (Eds.): Medical imaging. Dresden: Health Academy 02, 2002: 63.
Buzug T. M.: Computed tomography. Heidelberg: Springer-Verlag, 2008.
Heinzerling J.: Röntgenstrahler. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag,
1998: 77.
Hsieh J.: Computed tomography. Bellingham: SPIE Press, 2003.
Kalender W. A.: Computertomographie. München: Publicis MCD Verlag, 2000.
Kalender W. A., Seissler W., Vock P.: Single-breath-hold spiral volumetric CT by continuous patient
translation and scanner rotation. Radiology 1989; 173: 4.
Morneburg H. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. München: Publicis
MCD Verlag, 1995.
Nagel H. D. (Hrsg.): Strahlenexposition in der Computertomographie, 3. Aufl. Hamburg:
CTB-Publications, 2002.
Radon J.: Über die Bestimmung von Funktionen längs gewisser Mannigfaltigkeiten. Berichte der
mathematisch-physikalischen Kl. Sächsischen Gesellschaft der Wissenschaften, Leipzig, 1917:
262.
3 Computertomographie | 111
Ruhlmann J., Oehr P., Biersack H. J. (Hrsg.): PET in der Onkologie – Grundlagen und klinische
Anwendung. Heidelberg: Springer-Verlag, 1998.
Seeram E.: Computed tomography. Philadelphia: W. B. Saunders Company, 2001.
Sternberg S.: CT scans: ‘a very high-dose’ diagnosis. USA Today 20, 2000.
Weisser G.: Technische Grundlagen der EBCT. In: Gaa J., Lehmann K. J., Georgi M. (Hrsg.):
MR-Angiographie und Elektronenstrahl-CT-Angiographie. Stuttgart: Thieme-Verlag, 2000: 145.
Testfragen
1. Worin unterscheiden sich die vier ersten Generationen der Computertomographie?
2. Was sind die Vorteile der Mehrschicht-Detektor-Technologie in der Computertomographie in Be-
zug auf die klinische Applikationen?
3. Welche Detektortypen gibt es in der Computertomographie?
4. Welchen Zusammenhang beschreibt das Fourier-Scheiben-Theorem?
5. Welche Art von Filterung wird bei der gefilterten Rückprojektion vorgenommen und welches Sig-
nal wird gefiltert?
6. Welche Bedeutung hat der Begriff „Pitch“ in der Spiral-CT? Welchen Wertebereich darf dieser
Parameter besitzen?
7. Welche Artefakte treten bei der CT auf und welche gemeinsame Ursache haben sie fast immer?
8. Was wird mit der Hounsfield-Skala beschrieben?
9. Mit welcher Technik können CT-Bilder des Herzens aufgenommen werden?
10. Welches sind die wichtigsten Maßnahmen zur Dosisreduktion bei der Computertomographie?
Thomas Mertelmeier
4 Tomosynthese
Abstract: Tomosynthesis allows for the creation of cross sectional images of the body
using several images taken from various directions, similar to projection X-ray. This
chapter starts with a historical view on the development of conventional tomogra-
phy and digital tomosynthesis. Subsequently, an overview on image reconstruction
algorithms employed for tomosynthesis is given. The most important acquisition pa-
rameters that determine the achievable image quality, besides image processing, are
the tomosynthetic angle, the number of projections, and the radiation dose. Finally,
the most prominent applications, namely breast tomosynthesis, chest tomosynthesis,
and orthopedics, are discussed.
114 | Thomas Mertelmeier
Röntgenfokus
S1 S1
S2 S2
δS
δS
δS
Bildempfänger
Abb. 4.1: Schnittbildgenerierung mit linearer Bewegung von Röntgenquelle und Bildempfänger.
Quelle: Härer 1999, mit freundlicher Genehmigung von Springer Science and Business Media.
sich damit nicht eine komplette Ebene scharf abbilden, sondern nur der Drehpunkt.
Auch Mischformen der Bewegung wurden erprobt. Mit der Bewegung des Detektors
parallel zu einer Ebene durch den Patienten erreicht man, dass diese Ebene scharf
abgebildet wird, auch mit einer sich auf einem Bogen bewegenden Röntgenquelle.
Dieses Prinzip wurde 1934 von Grossmann [Grossmann 1934] patentiert und Tomo-
graphie genannt. Der Begriff Tomographie setzte sich als Oberbegriff für alle Schicht-
verfahren durch. Eine in der Dentalradiographie relevante Variante ist die Panto-
mographie [Paatero 1949], welche die Grundlage der heutigen Dentalpanoramaauf-
nahme (Orthopantomographie) darstellt. Dabei werden die Zahnreihen des Kiefers
auf gekrümmten Flächen entlang des Kieferbogens abgebildet. Ein aufschlussreicher
historischer Überblick über die Historie der Tomographieverfahren wurde von Webb
gegeben [Webb 1990], eine Einführung in die klassische Tomographie ist in Härer
[2001] zu finden.
4.2 Rekonstruktionsalgorithmen
In diesem Abschnitt soll ein Überblick über die Rekonstruktionsverfahren gegeben
werden, die für die Tomosynthese eingesetzt werden. Dabei beschränken wir uns im
Wesentlichen auf die lineare Tomosynthese, d. h. Tomosynthese mit linearer Abtas-
tung, dasjenige Verfahren, das für die Brust- und Lungenbildgebung in der Praxis ein-
gesetzt wird.
Bei der Tomosynthese handelt es sich um ein dreidimensionales Abbildungsver-
fahren, das wegen des eingeschränkten Winkelbereichs auf unvollständiger Abtas-
tung des Objekts beruht, d. h., es handelt sich um „limited angle tomography“. Der
Tomosynthesewinkel, d. h. der Winkel, um den das Messsystem geschwenkt wird,
beträgt typischerweise bei den heute eingesetzten Systemen zwischen 10 und 60°.
Im Gegensatz zur Verwischungstomographie, bei der während des Scans kontinuier-
lich das Schichtbild aufsummiert wird, werden bei der Tomosynthese endlich viele
Projektionen gemessen, d. h., nicht nur der Winkelbereich ist eingeschränkt, sondern
auch das Winkelinkrement ist endlich. Aus Dosisgründen ist mit verrauschten Projek-
tionsdaten zu rechnen. Dies alles führt dazu, dass das inverse Problem nicht exakt ge-
löst werden kann und notwendigerweise mit Artefakten zu rechnen ist. Ein aussichts-
reicher Rekonstruktionsalgorithmus muss diesen Herausforderungen Rechnung tra-
gen. Die analytischen Verfahren sind vergleichbar bzw. Weiterentwicklungen der CT-
Rekonstruktion, basierend auf der gefilterten Rückprojektion (FBP). Die iterativen
Verfahren gehen ähnliche Wege, wie sie in den Kapiteln über SPECT (s. Kap. 5) und
PET (s. Kap. 6) beschrieben werden.
4 Tomosynthese | 117
I(x, y)
p(x, y) = − ln ( ) (4.1)
I0
Center of Rotation (COR; dt. Rotationszentrum; auch fulcrum): Punkt, in dem sich bei der Tomo-
synthese alle Verbindungslinien vom punktförmig gedachten Röntgenfokus zum Zentrum der Bild-
ebene schneiden.
was als Summe über die Faltung (∗) mit einer Deltafunktion geschrieben werden kann.
Hierbei sind die Koordinaten yi − ci auf dem Detektor bezüglich des Fulcrums ver-
schoben. Die Größe yi -ci hängt von der Aufnahmegeometrie und von den Koordinaten
118 | Thomas Mertelmeier
(x,y,z)
L
COR
zCOR
Abb. 4.2: Lineare Tomosynthesegeometrie, illustriert mit 3 Projektionen, jeweils mit dem Strahl
durch das Fulcrum (center of rotation, COR) und dem Strahl durch den abzubildenden Punkt (x, y, z).
x, y, z des abzubildenden Punktes ab. Für die in Abb. 4.2 illustrierte Geometrie gelten
(i = 1, . . . , N für N Projektionen):
L z
yi = y− y (4.3)
L−z L − z si
und
zCOR
ci = −
y (4.4)
L − zCOR si
Hier bezeichnen L den Fokus-Detektor-Abstand, ysi die y-Koordinate des Röntgenfo-
kus und zCOR die z-Koordinate des Fulcrums (center of rotation).
Die Objekte außerhalb der abzubildenden Ebene z erscheinen jedoch bei der Sum-
mation an verschiedenen Stellen als mehr oder weniger schwache Artefakte. Dieses
Verfahren wird im Allgemeinen als Shift-and-Add-Algorithmus bezeichnet [Nikla-
son 1997] und ist äquivalent zur ungefilterten Rückprojektion, bei der die Werte der
Projektionen durch den abzubildenden Punkt entsprechend aufsummiert werden.
Dieser Algorithmus ist zwar einfach und schnell, leidet aber unter erheblichen
Artefakten, sowohl innerhalb der rekonstruierten Ebene (Verwischungsartefakte)
als auch senkrecht dazu (Out-of-plane-Artefakte). Deshalb werden auch in der To-
mosynthese, wie in der CT, Algorithmen vom Typ gefilterte Rückprojektion (Filtered
Backprojection, FBP) eingesetzt. Basierend auf der grundlegenden Arbeit von Grant
[Grant 1972], einer Methode mit dem Namen Ectomographie [Edholm 1980] und dem
Prinzip der inversen Filterung [Matsuo 1993], formulierten Lauritsch und Härer
[Lauritsch 1998] ein FBP-Verfahren zunächst für die zirkulare Tomosynthese, das sich
durch spezielle Filter zum Unterdrücken der Bildartefakte auszeichnet. Dieses Ver-
fahren kann auch für die lineare Tomosynthese formuliert werden [Haerer 1998, Mer-
telmeier 2006]. Unter der Annahme, dass das System nicht nur linear, sondern auch
4 Tomosynthese | 119
verschiebungsinvariant ist, lassen sich die Methoden der Systemtheorie (s. Kap. 21)
anwenden. Die Verschiebungsinvarianz ist bei Parallelstrahlgeometrie gegeben und
kann bei hinreichend großem Fokusabstand näherungsweise angenommen werden.
Gemäß dem Fourier-Slice-Theorem (s. Kap. 3.4.1), auch Projection-Slice-
Theorem genannt, wird bei der Datenaufnahme, approximiert in Parallelstrahlgeo-
metrie, die Ebene senkrecht zur Strahlrichtung abgetastet (Abb. 4.3 (a)). Während
eines Tomosynthese-Scans entlang der y-Achse (und Translationsinvarianz entlang x)
um den Winkel 2𝛼 (−𝛼 bis +𝛼) werden also die Daten auf den in einem Doppelkeil mit
Öffnungswinkel 2𝛼 angeordneten Ebenen im Frequenzraum gemessen (Abb. 4.3 (b)).
D. h., für einen typischen Tomosynthesewinkel 𝛼 wird nur ein kleiner Teil des Fre-
quenzraums abgetastet.
Im Sinne der Systemtheorie kann das Rekonstruktionsproblem folgendermaßen
formuliert werden. Die Systemgleichung
Röntgenfokus-Trajektorie
z
uz
Abtastebene ux
uξ uη
y uy
x
(a) (b)
Abb. 4.3: Datenakquisition bei Scan entlang y: (a) Mit der bei Winkel 𝜑(−𝛼 ≤ 𝜑 ≤ 𝛼) liegenden
Röhre werden die Daten in der gekennzeichneten Ebene (sampling plane) gemessen. (b) Bewegt
sich die Röhre über einen Winkelbereich von −𝛼 bis 𝛼, wird im Frequenzraum der gekennzeichnete
Doppelkeil abgetastet. Die Beziehung zwischen Objektfrequenzraum (ux , uy , uz ) und Projektionsfre-
quenzraum (u𝜉 , u𝜂 ) ist angedeutet.
Rauschen. Dies kann durch den Spektralfilter Hspectrum kompensiert werden. Für den
Spektralfilter kann beispielsweise ein von-Hann-Filter (auch „Hanning-Filter“
genannt) gewählt werden:
𝜋 𝜔y
Hspectrum (𝜔y ) = 0,5 (1 + cos ( )) für |uy | < A
A (4.9)
=0 sonst
Mit dem Parameter B wird die Grenzfrequenz in uz und damit die Schichtdicke
bzw. das Schichtprofil im Bildraum eingestellt. Jedoch verhindert die unvollstän-
4 Tomosynthese | 121
uz ichs
Bere
ete n
tast
s abge
de
nze
uz-max Gre „vollständige” Abtastung
α
uy
Hprofile
Abb. 4.4: Die Einführung der Schichtdickenfilterfunktion Hprofile (uz ) gewährleistet ein konstantes
Schichtprofil über einen weiten Frequenzbereich.
Unterschiedliche iterative Algorithmen unterscheiden sich durch die Art und Weise,
wie die Objektfunktion bei jedem Iterationsschritt aktualisiert wird.
In [Wu 2003, Wu 2004 und Zhang 2006] wird über die Anwendung iterativer Re-
konstruktionsalgorithmen bei der Brust-Tomosynthese berichtet.
4 Tomosynthese | 123
4.2.3 „Deblurring“-Methoden
Bevor die in Kapitel 4.2.2 beschriebenen iterativen Algorithmen für die Tomosynthe-
se aufkamen, wurde als Alternative zur Entwicklung neuartiger Filter zur Artefaktun-
terdrückung (s. Kap. 4.2.1) versucht, die typischen Verwischungs- und Out-of-Plane-
Artefakte mit speziellen Verfahren zu reduzieren. Die wichtigsten davon werden im
Folgenden kurz angerissen.
Beim sogenannten iterativen „Deblurring“ (iterative restoration) – entwickelt von
Ruttiman et al. [Ruttiman 1984, Suryanarayanan 2000] – werden Strukturen außer-
halb der zu rekonstruierenden Ebene mithilfe der aus der Geometrie abgeleiteten
Übertragungsfunktion [Grant 1972] unterdrückt. Das Verfahren erlaubt die gleich-
zeitige Entfaltung aller mit dem Shift-and-Add-Algorithmus rekonstruierten Ebenen.
Dazu muss ein Gleichungssystem, das den Einfluss der benachbarten Ebenen be-
schreibt, iterativ gelöst werden, um die Verwischungsartefakte zu subtrahieren.
Diese Methode der iterative Restoration ähnelt der sogenannten Matrix Inversion
Tomosynthesis (MITS) [Godfrey 2001, Dobbins 2003], welche die mit Shift-and-Add-
Algorithmus berechneten Tomosynthese-Schichtbilder ti , i = 1, . . ., n, aus den echten
Objektschichten sj , j = 1, . . .n, durch Faltung mit den Verwischungs-Übertragungs-
funktionen fij ausdrückt:
in Matrixschreibweise
T = F ⋅ S. (4.13)
Die Inversion dieses Gleichungssystems liefert schließlich die Schichtbilder als inver-
se Fouriertransformation von F −1 ⋅ T. Diese Methode liefert gute Ergebnisse für die
Lungentomosynthese [Godfrey 2006], leidet jedoch an Rauschen bei niedrigen Orts-
frequenzen. Der Grund hierfür ist die schlechte Konditionierung des zu invertierenden
Gleichungssystems bei niedrigen Frequenzen, da die Tiefenauflösung dort aufgrund
der fehlenden Information relativ gering ist (Abb. 4.3).
Ein weiteres Verfahren ist die nichtlineare Rückprojektion, bei der für die Re-
konstruktion einer Ebene Projektionswerte weggelassen werden, von denen erwartet
wird, dass sie nicht zum Signal beitragen bzw. für eine aus einer anderen Ebene
124 | Thomas Mertelmeier
4.3.2 Aufnahmemodi
Eine Vielzahl von möglichen Geometrien für die synchronisierte Bewegung von Strah-
lungsquelle und Detektor relativ zum Objekt ist denkbar. In Abb. 4.5 (a) ist die ge-
radlinige Bewegung sowohl von Röhre als auch von Detektor illustriert. Jedoch kann
sich die Röhre bei geradliniger Detektorbewegung auch auf einem Kreisbogen um das
Objekt bewegen (Abb. 4.5 (b)). Bei einer C-Bogen-Geometrie (Abb. 4.5 (c)) bewegen
sich sowohl Röhre als auch Detektor synchron auf einem Kreisbogen.
In der Mammographie befindet sich die Brust in unmittelbarer Nähe zum Detek-
tor, um aufgrund der hohen Detektorauflösung eine hohe Systemauflösung zu erzie-
len. Deshalb wird hier meist der Detektor gar nicht oder nur sehr gering bewegt. Mit
allen diesen Varianten ist die Realisierung der linearen Tomosynthese möglich. Die
Geometrie muss lediglich bei der Bildrekonstruktion korrekt berücksichtigt werden.
Da die meistens eingesetzten Detektoren einen festen Zyklus für Bestrahlungs-
und Auslesezeitintervall haben, wird die Röhre gepulst. Dabei kommen Systeme zum
Einsatz, bei denen sich das Messsystem zwischen den Aufnahmen der Einzelprojek-
tionen von einer Winkelposition zur nächsten bewegt, während der Aufnahme jedoch
steht (sogenannte Step-and-Shoot-Betrieb). Es gibt aber auch Systeme mit kontinu-
ierlicher Bewegung; in letzterem Fall besteht die Gefahr der Bewegungsverwischung.
Bei den heute eingesetzten Tomosynthesesystemen ist die Bewegung allerdings rela-
4 Tomosynthese | 125
Abb. 4.5: Geradlinige Bewegung von Röhre und Detektor (a), Bewegung der Röhre auf einem Kreis-
bogen (b), C-Bogen-Geometrie (c).
tiv langsam, so dass sich diese Verunschärfung in der Praxis nicht auswirkt und nur
einen kleinen Beitrag zur Systemauflösung darstellt.
Die Aufnahmezeit kann verkürzt werden, wenn beim Auslesen des Detektors Pixel
zusammengefasst werden (pixel binning). Der Verlust der Auflösung wird in der Bild-
qualität durch ein höheres Signal-Rausch-Verhältnis kompensiert. Details hängen
vom Systemdesign, von den Eigenschaften des Detektors und von der Anwendung ab.
mögliche Dosis für den Detektor bestimmt, um die Gesamtdosis auf die Größenord-
nung einer Radiographie zu begrenzen. Bei gegebener Bildrate des Detektors erhöhen
mehr Projektionen die Aufnahmezeit.
In der Praxis muss ein Kompromiss zwischen Bildqualität in Form von Auflösung,
Rauschen, Artefaktniveau, Dosis und Untersuchungszeit gefunden werden. Dieser
Kompromiss hängt vom eingesetzten Instrumentarium und von der Anwendung ab.
4.3.4 Gerätetechnik
Mit Stand von Frühjahr 2012 sind nach Wissen des Autors vier kommerzielle Tomo-
synthesesysteme für radiologische Anwendungen erhältlich. Alle Tomosynthesege-
räte sind als Modifikationen von Radiographie- bzw. Mammographiesystemen reali-
siert, was den praktischen Einsatz und die Akzeptanz erleichtert. Für den Einsatz in
der Mammographie ist die Tomosynthese gemäß der wissenschaftlichen Literatur
offensichtlich am interessantesten, da für diese Anwendung aufgrund der Strahlen-
belastung die Ganzkörper-CT nicht in Frage kommt. Deshalb sind für die mammogra-
phische Anwendung auch einige Prototypen in Entwicklung. Für alle anderen Anwen-
dungen steht als rekonstruktives 3D-Röntgenverfahren die CT mit echter 3D-Auflösung
zur Verfügung.
4.4.1 Brust
(e) (f)
Abb. 4.6: Rekonstruierte Schichten durch die Brust in MLO-Projektion. Von unten nach oben ((a) bis
(d)), die Läsionen aus Schicht (b) und (c) sind in (e) und (f) vergrößert dargestellt. 25 Projektionen
über 45°. Quelle: Dr. I. Andersson, Universitätskrankenhaus Malmö, Schweden.
Systeme mit einer Parenchymdosis von etwa der ein- bis zweifachen Dosis eines di-
gitalen Mammogramms arbeiten, versprechen iterative Rekonstruktionsalgorithmen,
die Dosis in den Bereich der Dosis für ein Mammogramm zu senken.
4.4.2 Lunge
Das zweithäufigste Einsatzgebiet für die Tomosynthese dürfte zurzeit die Lungenbild-
gebung sein. Die wichtigste Anwendung ist die Entdeckung von Lungenknoten, die
mit zweidimensionaler Projektionsradiographie wegen überlappender Gewebestruk-
turen nur schwer zu finden sind. Hier könnte die Tomosynthese eine kostengünstige
Alternative mit niedriger Dosis zur CT darstellen. In einer kürzlich veröffentlichten
4 Tomosynthese | 129
(a) (b)
Abb. 4.7: Mammogramm in MLO-Projektion (a) und eine rekonstruierte Tomosyntheseschicht durch
dieselbe Brust (b), in welcher der in der Mammographie nicht gefundene Tumor sichtbar ist (ovale
Markierung). Quelle: Baker 2011, mit freundlicher Genehmigung von Elsevier, Copyright [2011].
Studie [Vikgren 2008] mit 89 Patienten konnte gezeigt werden, dass die Rate der loka-
lisierten Lungenknoten mit der Tomosynthese etwa um den Faktor 3 höher liegt als bei
der Projektionsradiographie bei weit niedriger Dosis als mit CT, jedoch bei niedrigerer
Spezifität. Die Effektivdosis wurde mit 0,13 mSv angegeben [Johnsson 2010], was nur
leicht über der einer Lungenaufnahme liegt. Ähnliche Ergebnisse wurden von Dob-
bins [Dobbins 2008] berichtet.
4.4.3 Orthopädie
Abb. 4.8: Zwei Schichten durch ein Kniephantom im Abstand von 1,6 cm voneinander, aufgenom-
men mit einem Siemens Obertisch-Fluoroskopiesystem (51 Projektionen über einen Winkelbereich
von 56°), rekonstruiert mit ungefilterter Rückprojektion ((a), (b)) und mit gefilterter Rückprojektion
((c), (d)).
und mit der gefilterten Rückprojektion (Abb. 4.8 (c), (d)), wo deutlich der Kontrast-
und Schärfegewinn zu erkennen ist. Die Bildgebung von Fingergelenken zur Diagnose
von Arthritis ist eine weitere orthopädische Anwendung [Duryea 2003].
4.4.4 Dentalbildgebung
Als eine der ersten Anwendung wurde die digitale Tomosynthese für die Dentalbild-
gebung realisiert. Gründe hierfür dürften sein, dass digitale Detektoren mit kleiner
Fläche schon relativ früh zur Verfügung standen und die Panoramaschichtaufnahme
eine etablierte Technik war.
(a) (b)
(c) (d)
Abb. 4.9: Zwei Schichten durch ein Phantom eines Backenzahns mit 3 Wurzeln; (a), (b) ungefilterte
Rückprojektion, (c), (d) gefilterte Rückprojektion.
In der langen Geschichte der Tomosynthese wurden und werden noch weitere An-
wendungen erprobt und erschlossen. Diese reichen von der Angiographie, Urologie
(intravenöses Pyelogramm) bis zur Darmbildgebung. Neuerdings wird die Tomosyn-
these als Bildgebungsmodalität bei der bildgestützten Strahlentherapie diskutiert
(s. Kap. 19.7) [Pang 2008, Maltz 2009].
Bei allen Anwendungen sind die relativ leichte Verfügbarkeit, geringe Dosis, ex-
zellente Ortsauflösung in den Tomosyntheseschichten und niedrigen Kosten jedoch
mit der Verfügbarkeit von CT abzuwägen, womit im Gegensatz zur Tomosynthese ech-
te dreidimensionale Information gewonnen werden kann.
132 | Thomas Mertelmeier
Quellenverzeichnis
Andersson I., Ikeda D. M., Zackrisson S., Ruschin M., Svahn T., Timberg P., Tingberg A.: Breast
tomosynthesis and digital mammography: a comparison of breast cancer visibility and BIRADS
classification in a population of cancers with subtle mammographic findings. Eur Radiol 2008;
18: 2817–2825.
Baker J. A., Lo J. Y.: Breast tomosynthesis: state-of-the-art and review of the literature. Acad Radiol
2011; 18, 1298–1310.
Berry D. A., Cronin K. A., Plevritis S. K., et al.: Effect of screening and adjuvant therapy on mortality
from breast cancer. N Engl J Med 2005; 353: 1784–1792.
Bick U.: Mammographie-Screening in Deutschland: Wie, wann und warum? Fortschr Röntgenstr
2006; 178: 957–969.
Bird R. E., Wallace T. W., Yankaskas B. C.: Analysis of cancers missed at screening mammography.
Radiology 1992; 184: 613–617.
Bocage A. E. M.: Procédé et dispositifs de radiographie sur plaque en mouvement. Französisches
Patent 536464, 1922.
Claus B. E. H., Eberhard J. W.: A new method for 3D reconstruction in digital tomosynthesis. Proc SPIE
2002; 4684: 814–824.
Dobbins J. T. III, McAdams P., Song J.-W., et al.: Digital tomosynthesis of the chest for lung nodule
detection: interim sensitivity results from ongoing NIH-sponsored trial. Med Phys 2008; 35:
2554–2557.
Duryea J., Dobbins J. T. III, Lynch J. A.: Digital tomosynthesis of hand joints for arthritis assessment.
Med Phys 2003; 30: 325–333.
Edholm P., Granlund G., Knutsson H., Petersson C.: Ectomography – a new radiographic method for
reproducing a selected slice by varying thickness. Acta Radiologica 1980; 21: 433–442.
Flynn M. J., McGhee R., Blechinger J.: Spatial resolution of x-ray tomosynthesis in relation to
computed tomography for coronal/sagittal images of the knee. Proc SPIE 2007; 6510: 6510D1.
Godfrey D. J., Warp R. J., Dobbins J. T. III: Optimization of matrix inverse tomosynthesis. Proc SPIE
2001; 4320: 696–704.
Godfrey D. J., McAdams H. P., Dobbins J. T. III: Optimization of the matrix inversion tomosynthesis
(MITS) impulse response and modulation trransfer function characteristics for chest imaging.
Med Phys 2006; 33: 655–667.
Grant D. G.: Tomosynthesis: a three-dimensional radiographic imaging technique. IEEE Trans
Biomed Eng 1972; 19: 20–28.
Grossmann G.: Procédé et dispositif pour la représentation radiographique des section des corps.
Französisches Patent 771887, 1934.
Gur D., Abrams G. S., Chough D. M., et al.: Digital Breast Tomosynthesis: Observer Performance
Study. Am J Roentg 2009; 193: 586–591.
Gur D., Bandos A. I., Rockette H. E., Zuley M. L., Sumkin J. H., Chough D. M., Hakim C. M.: Localized
detection and classification of abnormalities on FFDM and tomosynthesis examinations rated
under an FROC paradigm. Am J Roentg 2011; 196: 737–741.
Härer W., Lauritsch G., Mertelmeier T.: Tomographie – Prinzip und Potenzial der
Schichtbildverfahren. In: Schmidt T. (Hrsg.): Handbuch Diagnostische Radiologie, Bd. 1,
Strahlenphysik, Strahlenbiologie, Strahlenschutz. Berlin: Springer, 2001: 191–199.
Härer W., Lauritsch G., Mertelmeier T., Wiesent K.: Rekonstruktive Röntgenbildgebung.
Physikalische Blätter 1999; 55: 37–42.
Haerer W., Lauritsch G., Zellerhoff M.: Verfahren zur Rekonstruktion eines dreidimensionalen Bildes
eines im Rahmen einer Tomosynthese abgetasteten Objekts sowie Vorrichtung zur
Tomosynthese. Patentschrift DE19842944, 1998.
4 Tomosynthese | 133
Humphrey L. L., Helfand M., Chan B. K., et al.: Breast cancer screening: a summary of the evidence
for the U. S. Preventive Services Task Force. Ann Intern Med 2002; 137: 347–360.
Johnsson Å. A., Vikgren J., Svalkvist A., et al.: Overview of two years of clinical experience of chest
tomosynthesis at Sahlgrenska university hospital. Radiation Protection Dosimetry 2010; 139:
124–129.
Kunze H., Haerer W., Orman J., Mertelmeier T., Stierstorfer K.: Filter determination for tomosynthesis
aided by iterative reconstruction techniques. In: 9th International Meeting on Fully Three-
Dimensional Image Reconstruction in Radiology and Nuclear Medicine, 2007; 309–312.
Laming D., Warren R: Improving the detection of cancer in the screening of mammograms. J Med
Screen 2000; 7: 24–30.
Lauritsch G., Haerer W. H.: A theoretical framework for filtered backprojection in tomosynthesis. Proc
SPIE 1998; 3338: 1127–1137.
Lehtimäki M., Pamilo M., Raulisto L., et al.: Diagnostic clinical benefits of digital spot and digital 3D
mammography. Proc SPIE 2003; 5029: 698–706.
Ludwig J., Mertelmeier T., Kunze H., Härer W.: A novel approach for filtered backprojection in
tomosynthesis based on filter kernels determined by iterative reconstruction techniques. In:
Krupinski E. (Hrsg.): Lecture Notes in Computer Science 5116, Digital Mammography, 9th
International Workshop, IWDM 2008. Berlin, Heidelberg: Springer, 2008: 612–620.
Maltz J. S., Sprenger F., Fuerst J., et al.: Fixed gantry tomosynthesis system for radiation therapy
image guidance based on a multiple source x-ray tube with carbon nanotube cathodes. Med
Phys 2009; 36: 1624–1636.
Matsuo H., et al.: Three-dimensional image reconstruction by digital tomo-synthesis using inverse
filtering. IEEE Transactions on Medical Imaging 1993; 12: 307–313.
Mertelmeier T., Orman J., Haerer W., Kumar M. K.: Optimizing filtered backprojection reconstruction
for a breast tomosynthesis prototype device. Proc SPIE 2006; 6142: 61420F.
Mertelmeier T., Ludwig J., Zhao B., Zhao W.: Optimization of tomosynthesis acquisition parameters:
angular range and number of projections. In: Krupinski E (Hrsg.): Lecture Notes in Computer
Science 5116, Digital Mammography, 9th International Workshop, IWDM 2008. Berlin,
Heidelberg: Springer, 2008: 220–227.
Niklason L. T., Christian B. D., Niklason L. E., et al.: Digital tomosynthesis in breast imaging.
Radiology 1997; 205: 399–406.
Nyström L., Andersson I., Bjurstam N., et al.: Long-term effects of mammography screening: updated
overview of the Swedish randomised trials. Lancet 2002; 359: 909–919.
Paatero Y. V.: A new tomographical method for radiographing curved outer surfaces. Acta Radiol
1949; 32: 177.
Pang G., Bani-Hashemi A., Au P., et al.: Megavoltage cone-beam digital tomosynthesis (MV-CBDT) for
image-guided radiotherapy: A clinical investigational system. Phys Med Biol 2008; 53:
999–1013.
Pisano E. D., Gatsonis C., Hendrick E., et al.: Diagnostic performance of digital versus film
mammography for breast-cancer screening. N Engl J Med 2005; 353: 1773–1783.
Poplack S. P., Tosteson T. D., Kogel C. A., Nagy H. M: Digital breast tomosynthesis: initial experience
in 98 women with abnormal digital screening mammography. Am J Roentg 2007; 189, 616–623.
Ruttimann U. E., Groenhuis R. A. J., Webber R. L.: Restoration of digital multiplane tomosynthesis by
a constraint iteration method. IEEE Trans Med Imaging 1984; 3: 141–148.
Suryanarayanan S., Karellas A., Vedantham S., et al.: Comparison of tomosynthesis methods used
with digital mammography. Academic Radiology 2000; 7: 1085–1097.
Svahn T., Andersson I., Chakraborty D., Svensson S., Ikeda D., Förnvik D., et al.: The diagnostic
accuracy of dual-view digital mammography, single-view breast tomosynthesis and a dual-view
combination of breast tomosynthesis and digital mammography in a free-response observer
performance study. Radiation Protection Dosimetry 2010; 139: 113–117.
134 | Thomas Mertelmeier
Svahn T. M., Chakraborty D. P., Ikeda D., Zackrisson S., Do Y., Mattson S., Andersson I.: Breast
tomosynthesis and digital mammography: a comparison of diagnostic accuracy. Brit J Radiol
2012; accepted for publication
Tabar L., Vitak B., Chen H. H., et al. The Swedish Two-County Trial twenty years later. Updated
mortality results and new insights from longterm follow-up. Radiol Clin North Am 2000; 38:
625–651.
Teertstra H. J., Loo C. E., van den Bosch M. A., et al.: Breast tomosynthesis in clinicla practice: initial
results. Eur Radiol 2010; 20: 16–24.
Vallebona A.: Radiography with great enlargement microradiography and a technical method for the
radiographic dissociation of the shadow. Radiology 1931; 17: 340.
Vikgren J., Zackrisson S., Svalkvist A., et al.: Comparison of chest tomosynthesis and chest
radiography for detection of pulmonary masses. Radiology 2008; 249: 1034–1041.
Webber R. L., Horton R. A., Tyndall D. A., Ludlow J. B.: Tuned-aperture computed tomography (TACT).
Theory and application for three-dimensional dento-alveolar imaging. Dentomaxillofac Radiol
1997; 26: 53–62.
Wiesent K., Barth K., Navab N., Durlak P., Brunner T. M., Schuetz O., Seissler W.: Enhanced 3-D
reconstruction algorithm for C-arm systems suitable for interventional procedures. IEEE Trans
Medical Imaging 2000; 19: 391–403.
Wu T., Stewart A., Stanton M., et al.: Tomographic mammography using a limited number of
low-dose cone-beam projection images. Med Phys 2003; 30: 365–380.
Wu T., Moore R. H., Rafferty E. A., Kopans D. B.: A comparison of reconstruction algorithms for breast
tomosynthesis. Med Phys 2004; 31: 2636–2647.
Zhang Y., Chan H.-P., Sahiner B., et al.: A comparative study of limited-angle cone-beam
reconstruction methods for breast tomosynthesis. Med Phys 2006; 33: 3781–3795.
Zhao B., Zhou J., Yue-Houng Hu, Mertelmeier T., Ludwig J., Zhao W.: Experimental validation of a
three-dimensional linear system model for breast tomosynthesis. Med Phys 2009; 36: 240–251.
Ziedes des Plantes, B. G.: Een bijzondere methode voor het maken van Röntgenphoto’s van schedel
en wervelkolom. Ned Tijdschr Geneesk 1931; 75: 5218–5222.
Weiterführende Literatur
Dobbins J. T. III, Godfrey D. J.: Digital x-ray tomosynthesis: current state of the art and clinical
potential. Phys Med Biol 2003; 48: R65–R106.
Webb S.: From the watching of shadows. The origins of radiological tomography. Bristol and New
York: Adam Hilger, 1990.
Testfragen
1. Beschreiben Sie das Prinzip der Tomosynthese.
2. Was ist der Unterschied zwischen konventioneller/klassicher Tomographie und der Tomosyn-
these?
3. Warum ist das inverse Problem der Tomosynthese nicht mathematisch exakt lösbar?
4. Beschreiben Sie die typischen Artefakte bei der Tomosynthese.
5. Was sind die wichtigsten/häufigsten Anwendungen der Tomosynthese in der medizinischen
Bildgebung?
Kristin Kötz, Henrik Botterweck
5 Szintigraphie und SPECT
Isotop: Variante eines Nuklides, die sich von anderen Varianten mit derselben Kernladungszahl Z
durch eine unterschiedliche Massenzahl A auszeichnet. Instabile Isotope (Radioisotope) gehen
unter Aussendung von radioaktiver Strahlung in einen stabilen Zustand über.
Die Bezeichnung der Isotope eines Elements erfolgt folgendermaßen: AZ X mit A: Mas-
senzahl (Zahl der Nukleonen im Kern), X: Symbol des chemischen Elementes, Z: Zahl
der Protonen im Kern, Beispiel 131
53 I steht für Jod 131.
Stabile Atomkerne zeichnen sich durch eine hohe Beständigkeit hinsichtlich der
Protonen- und Neutronenzahl und ihrer inneren Energie gegenüber äußeren Einwir-
kungen aus. Instabile Atomkerne (radioaktive Isotope, Radionuklide) sind durch ein
Missverhältnis zwischen Protonen und Neutronen oder durch eine zu hohe innere
Energie charakterisiert. Sie zerfallen ohne äußeren Anlass und unabhängig von me-
chanischer, thermischer oder anderer Beeinflussung durch Energieabgabe in Form
von radioaktiver Strahlung mit einer für das Isotop spezifischen Halbwertszeit, bis
ein stabiler Atomkern mit normalem Protonen-Neutronen-Verhältnis entsteht und
damit ein energetisch stabiler Endzustand erreicht wird. Beim Zerfall kommt es zur
Emission von Strahlung, die genügend Energie besitzt, um Atome und Moleküle zu
ionisieren, d. h., sie kann aus elektrisch neutralen Atomen und Molekülen positiv
und negativ geladene Teilchen freisetzen.
5.2.2 Strahlungsarten
Die Abgabe von Energie kann als Teilchen- (Korpuskel-)strahlung oder als elek-
tromagnetisches Quant (Photon, Gammastrahlung) erfolgen (Tab. 5.1). Teilchen-
strahlung nach Kernzerfall mit Alpha-Emission (𝛼-Strahlung), Beta-Minus-Emission
(𝛽− -Strahlung) und Positronen-Emission (𝛽+ -Strahlung) ist für die Szintigraphie
nicht unmittelbar nutzbar, allerdings kann dabei Gammastrahlung als Begleitprozess
auftreten.
138 | Kristin Kötz, Henrik Botterweck
Gammastrahlung (𝛾-Strahlung)
Die 𝛾-Strahlung ist eine energiereiche elektromagnetische Strahlung mit diskreter
Energie und sehr hoher Frequenz, etwa im Bereich medizinisch genutzter Röntgen-
strahlung oder höher. Diese Strahlung kann ihrer Natur nach weder elektrisch noch
magnetisch abgelenkt werden. Alle bei der diagnostischen Szintigraphie angewende-
ten Nuklide senden Gammaquanten aus.
5.2.3 Zerfallsgesetz
Das Zerfallsgesetz beschreibt, wie sich die Zahl der noch nicht zerfallenen Atomkerne
einer radioaktiven Substanz im Laufe der Zeit verringert. Die Halbwertszeit (HWZ) ist
die Zeit, in der die Hälfte der anfangs vorhandenen Atome zerfallen ist. Sie ist konstant
und charakteristisch für jedes Isotop und wird auch als physikalische Halbwertszeit
bezeichnet.
5 Szintigraphie und SPECT | 139
Radioaktives Zerfallsgesetz:
N(t) = N0 ⋅ e−𝜆t (5.1)
N0 Zahl der radioaktiven Atome zum Zeitpunkt Null
N Zahl der radioaktiven Atome zum Zeitpunkt t
𝜆 Zerfallskonstante = ln(2/HWZ) mit HWZ: Halbwertszeit
t Zeit
5.2.4 Aktivität
Die Aktivität A ist die Zahl N der Zerfallsakte pro Zeiteinheit. Die SI-Einheit ist Bec-
querel = Zerfälle pro Sekunde.
Definition der Aktivität:
dN(t)
A(t) = − Zahl der Zerfallsakte pro Zeiteinheit (5.2)
dt
Die biologische Halbwertszeit beschreibt die Zeit, in der die Hälfte des Radiopharma-
kons aus dem Organismus ausgeschieden wird. Die effektive HWZ Teff berücksichtigt
sowohl die physikalische Tphys als auch die biologische HWZ Tbiol :
T(phys) ⋅ T(biol)
T(eff) = (5.3)
T(phys) + T(biol)
Die Energiedosis D ist die absorbierte Energie pro Masseeinheit. Die Einheit für die
Energiedosis ist Gray (Gy); 1 Gy = 1 J/kg.
Bei der Äquivalentdosis H wird die Energiedosis mit dem dimensionslosen Qua-
litätsfaktor Q gewichtet, der die relative biologische Wirksamkeit der verschiedenen
Arten ionisierender Strahlung beschreibt. Die Einheit der Äquivalentdosis ist Sievert
(Sv).
H = D⋅Q (5.4)
Die effektive Dosis Eeff berücksichtigt zusätzlich die unterschiedliche Empfindlich-
keit verschiedener Gewebe und Organe mit dem dimensionslosen Gewebewichtungs-
faktor wT . Die Einheit der effektiven Dosis ist ebenfalls Sievert (Sv) (s. Kap. 7, Biolo-
gische Wirkung ionisierender Strahlung und Dosimetrie).
E = ∑ wT HT (5.5)
T
140 | Kristin Kötz, Henrik Botterweck
5.3 Radiopharmaka
5.3.1 Herstellung radioaktiver Isotope
Zur Anwendung kommen Radionuklide, die bestimmte chemische (für die Markie-
rung) und physikalische (Strahlenart, Energie, HWZ) Eigenschaften aufweisen. Durch
breite Verfügbarkeit, Preis, günstige Energie (140 keV) und HWZ (6 h) hat 99m Tc die
größte Bedeutung bei der medizinischen Anwendung.
Weitere Radionuklide sind Jodisotope aufgrund der natürlichen Affinität zur
Schilddrüse und einfacher Markierungsverfahren. Infolge seiner Strahleneigenschaf-
ten (Betastrahler) findet 131 I fast ausschließlich Anwendung in der nuklearmedizini-
schen Therapie. Hingegen ist 123 I ein reiner Gammaemitter, und besitzt eine günstige
HWZ (13,3 h). Jedoch ist die technische Herstellung (Zyklotron) aufwendiger, deshalb
ist 123 I nur eingeschränkt verfügbar. 201 Tl wird als Thalliumchlorid insbesondere zur
Herzdiagnostik eingesetzt, wird aber zunehmend von 99m Tc-markierten Substanzen
abgelöst.
Weitere Radionuklide zur nuklearmedizinischen Diagnostik sind u. a. 111 In, 67 Ga,
133
Xe sowie Positronenstrahler zur PET-Diagnostik (18 F, 11 C, 13 N, 15 O, 68 Ga, 82 Rb).
Tracer: mit einem radioaktiven Isotop (Gammastrahler oder Positronenstrahler) markiertes Mole-
kül in der nuklearmedizinischen Diagnostik, das man im Körper verfolgen möchte.
Man unterscheidet
– gasgefüllte Detektoren (Ionisationsmesskammern, Proportionalzählrohre, Gei-
ger-Müller-Zählrohre)
– Detektoren mit Flüssigkeitsszintillator
– Detektoren mit Festkörperszintillator (Szintillationsdetektor, Thermolumines-
zenzkristall, Halbleiterdetektor)
Szintillation: Abgabe von Lichtblitzen nach Anregung eines Materials durch energiereiche Strah-
lung.
Für nicht bildgebende Verfahren in der Nuklearmedizin stehen darüber hinaus soge-
nannte Bohrlochmessplätze, Szintillationssonden und Ganzkörperzähler (z. B. für In-
korporationsmessungen) zur Verfügung.
Szintillationsdetektor
Wechselwirkungsprozesse zwischen den Gammaquanten und dem Szintillationsma-
terial sind der Photoeffekt und die Compton-Streuung. Die Paarbildung ist bei den
verwendeten Energiebereichen/Isotopen meist nicht relevant.
Im Szintillationsdetektor erfolgt der Nachweis von ionisierender Strahlung durch
die Umwandlung der Strahlungsenergie in sichtbares Licht. Diesen Effekt nennt
man Szintillation (lat. scintillare = blitzen) oder auch Lumineszenz. Die Energie der
Gammaquanten wird im Szintillator absorbiert und dabei werden die Elektronen
des Szintillatormaterials auf ein höheres Energieniveau gebracht. Zum Wiedererrei-
chen des Grundzustandes wird die absorbierte Energie durch das Aussenden von
Lichtblitzen abgegeben. Die Lichtmenge, d. h. die Anzahl der Photonen des ausgesen-
5 Szintigraphie und SPECT | 143
Signale
Elektronik
Bleiab-
schirmung
Photomultiplier
Lichtleiter
Kristall
Kollimator
einfallendes
Gammaquant
5.4.2 Kollimatoren
Durch den Kollimator werden die vom Objekt ausgesendeten Gammaquanten einer
Filterung unterzogen, die letztlich eine Richtungsortung der Gammaquanten erlaubt.
Ein Kollimator ist vom Prinzip her eine den Detektor bedeckende Blei- oder Wolfram-
platte mit Tausenden kleiner Löcher.
Das Kollimatormaterial wird so gewählt, dass es im Idealfall alle auf die Lochwände
(Septen) treffenden Gammaquanten vollständig absorbiert. Das Durchtreten von Gam-
maquanten durch die Septen (Septenpenetration) verschlechtert die Bildqualität. Die
Penetration sollte 5 % nicht überschreiten. Deshalb wird die Auswahl des Kollimators
durch das benutzte Radioisotop und dessen charakteristische Gammaenergie(n) be-
144 | Kristin Kötz, Henrik Botterweck
Z
Punktbildfunktion
Halbwertsbreite
x Abb. 5.2: Die Breite der Punktbildfunktion eines
R Kollimatorelementes wird kleiner, wenn D/L
D Z+—
L kleiner wird, und größer, wenn der Abstand Z
R=—
L (
2 ) größer wird.
Objekt Detektor
5.4.3 Kristall
Ein Gammaquant, welches den Kollimator passiert hat, gibt seine Energie teilweise
(Compton-Effekt) oder vollständig (Photoeffekt) an den Szintillationskristall ab.
Dabei ist die Intensität der Lichtemission proportional zur Energie der absorbierten
Strahlung. Um die Lichtausbeute zu erhöhen, wird der Natriumjodidkristall mit Thal-
lium dotiert. Dennoch wird nur ein sehr geringer Anteil der Wechselwirkungen im
Kristall zu einer Szintillation führen, 80. . . 90 % der absorbierten Energie gehen als
Wärmeenergie verloren.
Compton-Effekt: Ergebnis des Wechselwirkungsprozesses von Photonen mit Materie. Das Photon
streut an einem Elektron, gibt dadurch einen Teil seiner Energie an das Elektron ab und ändert
seine Richtung (Compton-Streuung).
Für 99m Tc, dem meist verwendeten Nuklid, hat der NaI(Tl)-Kristall durch seine hohe
Dichte und Ordnungszahl einen hohen Wirkungsgrad. Die Strahlenabsorption erfolgt
überwiegend mittels Photoeffekt, somit wird eine sehr gute Lichtausbeute, Energie-
und Ortsauflösung erreicht.
Eabs(𝛾)
NL = 𝜂K ⋅ (5.6)
EL
NL Anzahl der Szintillationslichtquanten pro Absorption eines 𝛾-Quants
hK Wirkungsgrad des Kristalls
Eabs(𝛾) absorbierte Energie des 𝛾-Quants
EL Energie des emittierten Lichtphotons
Zwei Szintillationen können zeitlich nicht beliebig dicht aufeinander folgen (begrenz-
tes zeitliches Auflösungsvermögen des Kristalls); während der sogenannten Totzeit
können keine weiteren Szintillationen gemessen werden.
Die Dicke eines Kristalls bestimmt die Empfindlichkeit und die Auflösung abhän-
gig von der Energie des verwendeten Isotops. Ein dünner Kristall kann weniger Gam-
146 | Kristin Kötz, Henrik Botterweck
Photokathode
Lichtphoton
fokussierende
Elektrode
Dynode PMT Anode Abb. 5.4: Photomultiplier PMP.
maquanten nachweisen, hat aber eine sehr gute räumliche Auflösung. In einem dicke-
ren Kristall ist zum einen der Parallaxe-Effekt leicht schräg einfallender Gammaquan-
ten höher, zum anderen erfolgt die Energieumwandlung zunehmend durch den Comp-
ton-Effekt, folglich verschlechtert sich die Ortsauflösung insbesondere bei niedrigen
Energien. Die Wahl der Kristalldicke ist daher ein Kompromiss.
Die typische Form des Kristalls ist heutzutage rechteckig. Die Dicke wird in Zoll
angegeben; üblich sind für Gammakameras 3/8 Zoll (= 9,5 mm). Bei den meist rechte-
ckigen Kristallen beträgt die Diagonale 60 bis 70 cm.
Temperaturschwankungen des Kristalls sollten unbedingt vermieden werden,
da auftretende Spannungen sehr schnell zum Kristallbruch führen können. Darüber
hinaus ist der Wirkungsgrad der Lichtemission temperaturabhängig. Der Kristall ist
außerdem gegenüber mechanischen Erschütterungen sehr empfindlich und stark
hygroskopisch; Wassereinlagerungen können zum Verlust der Szintillationsfähigkeit
führen.
Der Szintillator ist direkt oder über einen Lichtleiter mit den Photomultipliern ver-
bunden, an allen anderen Flächen ist der Kristall mit einer reflektierenden Alumini-
umfolie ausgestattet.
5.4.4 Photomultiplier
Die aus dem Kristall austretenden Lichtblitze werden von einem Array von Photomul-
tipliern (PMP) in ein elektrisches Signal umgewandelt und anschließend verstärkt.
Der PMP (auch Photomultiplier Tube, PMT oder Sekundärelektronenvervielfacher,
SEV) besteht aus einem evakuierten Glaskolben mit einer Photokathode, weiteren
Elektroden (Dynoden) und einer Anode (Abb. 5.4). Die angelegte Hochspannung
hängt von der Zahl der Dynoden ab und beträgt ca. 1000 V.
Über den Lichtleiter kann das Szintillationslicht auf die Photokathode der PMP
treffen und dort infolge des photoelektrischen Effekts Elektronen freischlagen. Die-
se werden durch die von Dynode zu Dynode ansteigende Spannung auf die Anode
hin beschleunigt und schlagen beim Auftreffen auf die Dynoden weitere Sekundär-
elektronen frei. Die Dynoden sind geometrisch so arrangiert, dass sie auf die jeweilig
folgende fokussieren und somit insgesamt ca. 106 Sekundärelektronen pro Photon er-
zeugen können. Wichtig ist eine stabile Hochspannung, da sonst die Proportionalität
zwischen der Intensität des Lichtes und der Zahl der freigesetzten Elektronen nicht
5 Szintigraphie und SPECT | 147
Vor- Linear-
PMP ADC
verstärker verstärker
Ortungs- Impuls-
Z-Puls
elektronik höhen-
(Summen-)
(x,y) analysator
mehr gegeben ist. Die intrinsische Auflösung eines Detektors steigt mit der Anzahl
der Photomultiplier. Deren Anzahl pro Detektor variiert von weniger als 40 bis hin zu
mehr als 100.
Die Ladungsimpulse des PMP haben eine zu geringe Signalamplitude und eine un-
geeignete Form für die Weiterverarbeitung. Diesem tragen ein Vorverstärker und ein
Linearverstärker Rechnung (Abb. 5.5).
Weiterhin müssen die erzeugten Impulse dem Ort des Szintillationsereignisses zu-
geordnet werden. Bei modernen Detektoren werden sie bereits vor der Ortungselek-
tronik, direkt nach der Verstärkung der Impulse, digitalisiert.
Im Vorverstärker werden die Ladungsimpulse zunächst linear um den Faktor
5. . . 20 verstärkt, dies wird für die später folgende Analyse der Energiebereiche vor-
ausgesetzt. Zum anderen werden die Ladungsimpulse in Spannungsimpulse umge-
wandelt.
Im Linearverstärker werden die vom Vorverstärker gelieferten Spannungsimpul-
se wiederum auf einige Volt linear verstärkt und die noch relativ breiten Signale wer-
den in eine Form gebracht, die die Signaldauer erheblich verkürzt. Dies ermöglicht
eine höhere Zählrate.
Die bislang verarbeiteten Signale sind analoge Signale. Für die weitere Verarbei-
tung, Speicherung und zur Anzeige am Computermonitor werden sie mittels eines
Analog-Digital-Konverters (ADC) digitalisiert.
Elektronische Ortszuordnung
Die elektronische Ortszuordnung beruht meistens auf dem analogen Prinzip der Wi-
derstandsmatrix von Anger. Da für die Ortungsanalyse viele verschiedene, mehr oder
148 | Kristin Kötz, Henrik Botterweck
gestreut primär
Abb. 5.6: Ein Impulshöhenanalysator kann
primäre Gammaquanten von gestreuten
Gammaquanten relativ gut trennen. Je höher
die untere Schwelle gesetzt wird, desto bes-
ser werden gestreute Quanten unterdrückt.
Gleichzeitig werden aber auch immer mehr
E₀ E primäre Quanten abgeschnitten.
weniger digitalisierte Modifizierungen existieren, soll hier nur das grundlegende Prin-
zip dargestellt werden.
In einem über dem Szintillationskristall zentrisch angeordneten Koordinatensys-
tem sind jedem Photomultiplier vier Widerstandspaare zugeordnet, so dass jedes Pho-
tomultiplier-Ausgangssignal durch vier Koordinaten (+x, −x, +y, −y) beschrieben und
der Positionierungselektronik zugeleitet wird.
Impulshöhenanalysator
Der Impulshöhenanalysator (Pulse Height Analyzer, PHA) erkennt und charakterisiert
den Energiebereich der gemessenen Impulse. Mithilfe zweier Diskriminatoren werden
eine untere und eine obere Schwellenhöhe eingestellt ( Abb. 5.6). Ihre Differenz ist der
gemessene Energiekanal, der charakteristisch für jedes Nuklid ist. Dieser erlaubt den
Ausschluss unerwünschter Energien (z. B. von gestreuten Quanten), d. h., diese Ein-
heit filtert die registrierten Ereignisse. Man unterscheidet die Systeme nach Einkanal-,
Mehrkanal- und Vielkanal-Analysatoren. Für die üblicherweise verwendeten Gamm-
akameras sind das Vielkanal-PHAs mit 256 bis 512 Kanälen.
Registriereinheit
Die angeschlossene Registriereinheit bereitet die Anzeige und Speicherung der vom
PHA durchgelassenen Impulse vor und dient der Ablaufsteuerung der Aufnahme (z. B.
Messzeit). An modernen Gammakameras werden ausschließlich digitale Registrier-
5 Szintigraphie und SPECT | 149
einheiten verwendet. Man unterscheidet dabei die Anzeige von Impulszahl und Im-
pulsrate. Letztere wird angegeben in cpm (counts per minute) oder cps (counts per se-
cond).
Der Zähler (counter) arbeitet in zwei verschiedenen Modi. Zum einen kann die
Aufnahme nach einer voreingestellten Messzeit (preset time) beendet werden. Ebenso
kann eine bestimmte Impulszahl (preset counts) voreingestellt sein und die Messung
wird nach deren Erreichen automatisch beendet. Auch eine Kombination beider ist
möglich, so dass die Messung beendet wird, wenn eine der beiden Voreinstellungen
erfüllt ist.
Die gesamte elektronische Nachverarbeitung (u. a. Impulsanalyse, Signalkorrek-
turen und Pile-up-Korrektur) wird, ebenso wie die Korrekturen (z. B. Energie, Lineari-
tät, Homogenität), in modernen Kameras in real time mikroprozessorgesteuert durch-
geführt, d. h., bevor die Daten zum Auswerterechner übermittelt werden.
Szintigraphie: funktionsabbildendes projektives Verfahren in der Medizin auf Basis von Gamma-
strahlenemission durch in den Körper eingebrachte Radiopharmaka.
Für SPECT können Ein- und Mehrkopfsysteme verwendet werden, vorzugsweise sind
dies mindestens zwei Detektoren (sogenannte Doppelkopfkameras). Dabei können
die Detektoren meist in unterschiedlichen Winkeln zueinander stehen (180°, 90°, 76°).
In der Praxis hat sich die Doppelkopfkamera mit einem großen FOV als das am viel-
seitigsten einsetzbare System durchgesetzt.
5.5.1 Charakteristika/Kenngrößen
Photomultiplier
Kristall
Kollimator
Abb. 5.7: Verschiedene Anordnungen und Anzahl von Messköpfen bei Gammakameras.
Ausbeute
Mit „Ausbeute“ bezeichnet man die Nachweisempfindlichkeit für Gammaquanten –
sie wird durch das Verhältnis von gemessenen zu tatsächlichen Impulsen einer radio-
aktiven Quelle beschrieben. Beeinflusst wird die Ausbeute maßgeblich vom Kollima-
tor, der Kristalldicke und dem Energiefenster.
Ortsauflösung
Die Ortsauflösung beschreibt die Fähigkeit des bildgebenden Systems, zwei getrennte
Strukturen (Punktquelle oder auch Linienquelle) voneinander getrennt im Szinti-
gramm abzubilden. Die Abbildung einer Punkt- oder Linienquelle wird auch als Point
5 Szintigraphie und SPECT | 151
30 mm
5 cm 10 cm 15 cm 20 cm 25 cm 30 cm 40 cm 50 cm
Abb. 5.8: Abstandsabhängige Variation der extrinsischen Auflösung am Beispiel der PSF einer
Punktquelle.
Spread Function (PSF, Punktantwortfunktion) oder Line Spread Function (LSF) be-
zeichnet. Die Halbwertsbreite (Full Width at Half Maximum, FWHM) dieser Funktion
gilt als Maß der räumlichen Auflösung und wird in mm angegeben.
Man unterscheidet zwischen der intrinsischen Auflösung (auch inhärente Auflö-
sung, ohne Kollimator) und der extrinsischen Auflösung (auch Systemauflösung, mit
Kollimator). Da die Ortsauflösung stark von den Kollimatoreigenschaften und vom
Abstand des zu messenden Objektes vom Detektor (Abb. 5.8) abhängt, kommt der
Systemauflösung die größere Bedeutung zu. Die intrinsische Auflösung der heutigen
Gammakameras liegt bei ca. 4. . . 10 mm. Sie ist abhängig von der Energie der Gam-
maquanten und nimmt mit dem Inversen der Wurzel ihrer Energie ab.
Die räumliche Auflösung des Kollimators wird bestimmt von den geometrischen
Eigenschaften wie Lochdurchmesser, Anzahl der Löcher, Lochlänge.
Energieauflösung
Die Energieauflösung ist die Fähigkeit, zwei Gammaquanten unterschiedlicher Ener-
gie als solche zu erkennen. Da die Szintillation einen stochastischen Prozess darstellt,
werden Gammaquanten derselben Energie i. A. zu unterschiedlich hohen Messimpul-
sen führen. Diese statistischen Schwankungen führen effektiv zu einer Faltung des
linienhaften Photopeaks, der somit einer Gauss-Verteilung (Abb. 5.2.) ähnelt. Die
Registrierung kurz hintereinander eintreffender Quanten, die im Körper des Patien-
ten Compton-gestreut wurden, können durch deren Aufsummierung fälschlich in das
Photopeakfenster fallen.
Die Energieauflösung wird als relative Halbwertsbreite angegeben und ist auf eine
bestimmte Energie bezogen. Oft wird sie auch als Zehntelwertsbreite (Full Width at
Tenth Maximum, FWTM) angegeben. Für NaI(Tl)-Detektoren ist die Energieauflösung
< 10 %. Beeinflussende Faktoren sind Kristallmaterial, Kristalldicke und die Energie
der Photonen.
152 | Kristin Kötz, Henrik Botterweck
Zählrate
Zeitauflösung
Die zeitliche Auflösung ist die Zeit, die vom gesamten System benötigt wird, um ein ab-
sorbiertes Gammaquant zu verarbeiten. In dieser Zeit können keine weiteren Impulse
registriert werden (Totzeit des Systems).
Die zeitliche Auflösung des Systems bedingt die von dem System verarbeitbare
Impulsrate, welche proportional zur Aktivität ist. Wird bei zunehmender Impulsra-
te ein Schwellenwert überschritten, können nicht mehr alle tatsächlich vorhandenen
Impulse registriert werden. Es kommt durch die Totzeit des Systems zum Zählratenver-
lust oder zu sogenannten Pile-up-Effekten, die etwa gleichzeitig detektierte Photopea-
kereignisse zu einem Ereignis falscher Energie zusammenfassen (i.A. eine etwas über
dem Photopeak liegende Energie). Die Impulsratencharakteristik kann als Funktion
von gemessener Zählrate zur Aktivität dargestellt werden (Abb. 5.9).
Linearität
Die Linearität beschreibt die Nichtverzerrung etwa einer räumlich geraden Struktur.
Nach dem Anger-Prinzip operierende Detektoren verzerren die Linearität jedoch im-
mer. Zur Korrektur wird eine Aufnahme mit einer geometrischen Bleimaske, die auf die
Kristalloberfläche platziert und von einer fernen Punktquelle beleuchtet wird, heran-
gezogen. Üblicherweise wird eine Korrekturmatrix, die das gemessene, verzerrte Bild
auf die bekannte, unverzerrte Bleimaske abbildet, berechnet und im Kamerakopf ge-
speichert. Dies ist die Linearitätskorrektur.
Homogenität
Die „Homogenität“ ist eine homogene bildliche Darstellung einer gleichmäßigen Ak-
tivitätsverteilung. Sie folgt immer nach der Linearitätskorrektur.
Die Inhomogenität eines Systems wird als differentielle und integrale Inhomoge-
nität angegeben. Die Impulswerte bei der differentiellen Inhomogenität Idiff werden
durch die größte Differenz 𝛥Wmax von fünf benachbarten Pixelwerten in einer Spalte
5 Szintigraphie und SPECT | 153
(a) (b)
Fouriertransformation
MTF
PSF
Modulationsübertragungsfunktion
Die Modulationsübertragungsfunktion (Modulation Transfer Function, MTF) be-
schreibt die quantitative Abbildungseigenschaft des Systems (Abb. 5.11). Sie ergibt
sich üblicherweise aus dem Leistungsspektrum der Fouriertransformierten der PSF
(oder LSF) (s. Kap. 21, Systemtheorie).
154 | Kristin Kötz, Henrik Botterweck
Gesichtsfeld
Das Gesichtsfeld wird von der Kristallgröße und vom Kollimator bestimmt. Angege-
ben werden Länge/Breite und/oder die Diagonale. Unterschieden werden, insbeson-
dere für Qualitätskontrollen, das gesamte nutzbare Gesichtsfeld (Useful Field of View,
UFOV) und das zentrale Gesichtsfeld (Central Field of View, CFOV, ca. 75 % vom UFOV).
Matrixgröße/Pixelgröße
Die Aufteilung der Detektorfläche erfolgt in ein Raster quadratischer Elemente. Das
Raster selbst wird auch dann quadratisch angelegt, wenn der Kristall rechteckig ist.
Die Matrixwahl erfolgt vor der Aufnahme (im frame mode, s. u.) und bestimmt neben
der Zoomeinstellung die Pixelgröße und limitiert damit die Ortsauflösung. Typische
Matrixgrößen sind 64 × 64, 128 × 128, 256 × 256, 512 × 512. Für Ganzkörperaufnahmen
werden i. A. rechteckige Matrizen mit 256 x 1024 Pixeln verwendet.
Abbildungsmaßstab/Rastermaßstab
Der Abbildungsmaßstab wird definiert als x : y-Verhältnis eines Pixelelements und
ist vom verwendeten Kollimator abhängig. Für Parallellochkollimatoren sollte er 1 : 1
betragen.
Werden divergierende oder konvergierende Kollimatoren benutzt, so ist der Abbil-
dungsmaßstab weitgehend vom Abstand des Objektes zum Kollimator bestimmt. Der
Rastermaßstab ist als Kehrwert der Pixelgröße (Pixel/cm) definiert.
5.5.2 Aufnahmetechniken
(a) (b)
(c) (d)
Abb. 5.12: Szintigraphie und SPECT: (a) statische Aufnahme der Schilddrüse. (b) Dynamische Nie-
rensequenz. (c) Skelettganzkörperszintigraphie. (d) SPECT-Hirnperfusion.
wenn die Gammakamera bewegt wird, muss jede gemessene Zählrate mithilfe der be-
kannten Zerfallskonstante des verwendeten Isotops auf eine Aktivität zur Zeit der In-
jektion korrigiert werden.
Für eine Volumendarstellung ist es notwendig, eine bestimmte Anzahl planarer
Projektionen aus verschiedenen Winkelrichtungen zum Objekt aufzunehmen. Diese
Aufnahmetechnik wird als SPECT bezeichnet. Mithilfe spezieller mathematischer Re-
chenalgorithmen (s. Kap. 5.6.1 und Kap. 3.4, Computertomographie) ist es möglich,
aus zweidimensionalen Projektionsbildern einen dreidimensionalen Volumendaten-
satz zu berechnen und die Radioaktivitätsverteilung überlagerungsfrei in einzelnen
Schichten darzustellen (Tomographie). Wenn die Projektionen mit zusätzlichen In-
formationen, z. B. EKG oder Atmung des Patienten, verbunden sind, spricht man von
einem getriggerten (gated) SPECT.
Bei der Aufnahme von Szintigrammen unterscheidet man den frame mode und
den list mode. Beim frame mode wird jedes registrierte Quant sofort bezüglich seines
Ereignisortes in einer vorher definierten Bildmatrix gespeichert. Die Information des
156 | Kristin Kötz, Henrik Botterweck
Zeitpunktes der Registrierung wird somit entweder gänzlich verworfen oder impli-
zit verwertet, etwa bei der Nutzung einer Bildmatrix pro Winkelstellung des SPECT-
Detektors. Beim list mode werden die Orts- und Zeitinformationen der registrierten
Quanten fortlaufend gespeichert. Oftmals werden andere simultan akquirierte Infor-
mationen (EKG-, Atemtriggerung oder Bewegung) mit synchronisierten Zeitmarkern
erfasst und erlauben eine vielfältige Nachbearbeitung der Bilddaten unter gewissen
Gesichtspunkten (reframing). Dies erfordert einen wesentlich größeren Speicherplatz,
eine spezielle Software zur Datenverarbeitung und wird deshalb meist nur zu speziel-
len Untersuchungen genutzt.
Bei szintigraphischen Bilddaten können viele Möglichkeiten der digitalen Bild-
verarbeitung und -auswertung (z. B. Glättungsfilter, Kantenfilter, Quantifizierung mit-
tels ROI [Region of Interest] oder VOI [Voxel of Interest], Zeit-Aktivitäts-Kurven) genutzt
werden.
5.6 SPECT
5.6.1 Prinzip
5.6.2 Aufnahmeparameter
Gammakamera
Strahlenschutzgründen ist die Dosis für den Patienten so gering wie möglich zu hal-
ten (sogenannte diagnostische Referenzwerte). Der Detektorabstand zum Patienten
sollte so gering wie möglich sein, um Auflösungsverluste zu minimieren.
Energiefenster
Das Energiefenster (peak) und die Fensterbreite müssen entsprechend dem verwen-
deten Isotop voreingestellt sein und sollten überprüft werden.
Kollimatorwahl
Entscheidend ist die Energie des Isotops. Unterteilt in nieder-, mittel- und hochener-
getische Bereiche, stellt die Kollimatorwahl einen Kompromiss von Empfindlichkeit
(Ausbeute) und Ortsauflösung dar. Bei höheren Energien bedingt die stärkere Septen-
penetration dickere Kollimatorwände, was andererseits die Sensitivität oder bei ent-
sprechend vergrößerten Öffnungen auch die Ortsauflösung verringert. Der am häufigs-
ten verwendete Kollimator ist der Parallellochkollimator mit hoher Ortsauflösung.
Matrix
Die Matrix sollte der untersuchten Körperregion (bzw. dem untersuchten Organ) und
der Systemauflösung angepasst sein. Generell gilt, dass der Verlust an räumlicher Auf-
lösung, der mit der Verwendung einer kleineren Matrix einhergeht, irreversibel ist.
Bei Verwendung von größeren Matrizen kann es zu einer zu geringen Impulszahl
pro Pixel kommen. In diesem Fall sind iterative Rekonstruktionsverfahren, die explizit
158 | Kristin Kötz, Henrik Botterweck
die statistische Verteilung der Zählraten berücksichtigen (s. u.) vorteilhaft. Dies gilt für
aktuelle iterative Rekonstruktionsmethoden nicht mehr. Größere Matrizen benötigen
mehr Speicherplatz und Rechenleistung. Üblich für die SPECT ist 128 × 128.
Zoom
Für kleine Objekte kann es sinnvoll sein, bei der Akquisition das aktive Gesichtsfeld
des Detektors zu verändern, d. h. im Allgemeinen zu verkleinern. Dabei wird der Ras-
termaßstab geändert und nicht die Matrixgröße. Für den Rekonstruktionsalgorithmus
ist es notwendig, immer den ganzen Körper von ganz rechts bis ganz links im Blickfeld
zu haben. Falls dies nicht der Fall ist, sind spezielle Korrekturen zur Vermeidung von
Trunkations-(Abschneide-)artefakten notwendig.
Rotationswinkel
Für den Rekonstruktionsalgorithmus notwendig sind viele Projektionen über einen
Bereich von 180°. Optimal ist die Aufnahme von Projektionen in einem Vollkreis, da
nur so eine gleichmäßig gute Auflösung erreicht werden kann. Bei nur 180° wird die
Zählstatistik der rückwärtigen Bereiche wegen der Absorption unter Umständen zu
schlecht (im Unterschied zur CT). Bei Doppelkopfkameras mit gegenüberstehenden
Detektoren ist demnach eine Abtastung um 180° ausreichend.
Für nicht zentrisch liegende Organe (Herz) ist es auch üblich, Projektionen über
einen Rotationswinkel von nur 180° zu akquirieren; dabei stehen die Detektoren in
einem Winkel von 90° oder 76° zueinander.
Rotationsform
Die Detektoren können sich in einem fest definierten Abstand kreisförmig (circular)
oder auf einer elliptischen (non circular) Bahn körpernah um das Objekt bewegen.
Rotationsbewegung
Die Rotation kann schrittweise (step and shoot) oder kontinuierlich (continuous) er-
folgen. Bei der schrittweisen Bewegung bleibt der Kamerakopf zur Aufnahme einer
Projektion in vordefinierten Winkelschritten stehen, um nach der Aufnahme in die
nächste Position zu rotieren. Bei der kontinuierlichen Bewegung werden mit stetig
rotierendem Kamerakopf fortlaufend Projektionsdaten aufgenommen und in einer
vorgegebenen Anzahl von Projektionen gespeichert. Mit zunehmender Projektions-
zahl wird beim schrittweisen Modus der Zeitanteil für die Bewegungen (Anfahren
und Stoppen) an der Gesamtaufnahmedauer größer. Daher gewinnt der kontinuier-
liche Modus an Bedeutung, wobei die Auflösungsverluste durch die kontinuierliche
Bewegung meist vernachlässigbar sind.
5 Szintigraphie und SPECT | 159
Projektionen
Für eine artefaktfreie Rekonstruktion mit guter Auflösung ist prinzipiell eine hoch-
auflösende Matrix notwendig. Für analytische Rekonstruktionen sind darüber hinaus
Projektionsbilder in 180°-Rotation (s. o. Rotationswinkel) mit möglichst kleinen Win-
kelschritten notwendig, wobei sich hier die Zahl der Projektionen bei gewählter Ma-
trix durch das Abtasttheorem ergibt. So sollten für eine SPECT mit 128 × 128 Pixeln
bei einer Rotation von 180° insgesamt 128 Projektionsbilder aufgenommen werden.
Iterative Rekonstruktionsalgorithmen benötigen deutlich weniger Projektionsbilder.
Aufnahmezeit
Mit langen Aufnahmezeiten werden statistische Fehler kleiner und das Signal-Rausch-
Verhältnis besser. Limitierend ist die bei langen Aufnahmezeiten zunehmende Patien-
tenbewegung.
In diesem Abschnitt sollen die für die SPECT spezifischen Eigenarten der tomogra-
phischen Bildrekonstruktion dargestellt werden. Die mathematische Modellierung
des Bildgebungsprozesses ist analog zum Fall der Röntgen-Transmissions-CT (s.
Kap. 3.4, CT): Die Messdaten ergeben sich aus der Anwendung eines mathemati-
schen Operators auf die zugrunde liegende räumliche Verteilung einer für die Wech-
selwirkung verantwortlichen Größe – dort die Schwächung der Röntgenintensität,
hier der spontane radioaktive Zerfall mit anschließender 𝛾-Emission. Für beide Fälle
gilt:
– Es gibt keine effizienten Röntgenlinsen: Deshalb muss die Richtungsinformati-
on der auf den Detektor treffenden Photonen auf andere Weise kodiert werden:
über eine Punktquelle bei der Transmissions-CT, Koinzidenzmessungen bei PET
(s. dort) und Kollimation bei SPECT.
– Da nur Projektionen (also Integrale längs eines Weges durch den Patienten) ge-
messen werden, geht auch die Tiefeninformation verloren. Das Signal in einem
Detektorpixel entspricht ideal einem Linienintegral bzw. real dem Integral über
das Blickfeld aus einer Kollimatoröffnung.
– Die Abbildung ist in guter Näherung linear: Der Summe zweier Aktivitätsvertei-
lungen entspricht die Summe ihrer Projektionen.
Rekonstruktion: Berechnung eines 2D/3D-Schnittbildes aus Projektionsdaten durch Lösen des zu-
geordneten inversen Problems.
160 | Kristin Kötz, Henrik Botterweck
Im einfachsten Modell ergibt sich für die Abbildung eines Objektes mit einem idealen
Parallelkollimator die lineare „X-ray“-Transformation (auch John-Transformation):
Projektionen sind Linienintegrale der Emissionsdichte. Der im Vergleich zur Trans-
mission fehlende Logarithmus vereinfacht die statistische Interpretation der Projekti-
onsdaten (s. u.).
In n = 2 Dimensionen fällt diese Integraltransformation mit der bekannteren Ra-
don-Transformation (Integration über n− 1 dimensionale Hyperebenen) zusammen,
für die effiziente analytische Rekonstruktionsformeln bekannt sind (s. Kap. 3.4, CT).
Radon-Transformation: Abbildung einer n-dimensionalen Funktion auf ihre Integrale über (n − 1)-
dimensionale Hyperebenen. Vgl. X-ray-Transformation.
X-ray-Transformation: Abbildung einer zweidimensionalen Funktion auf ihre Integrale entlang ein-
dimensionaler Geraden, vgl. RADON-Transformation.
Die Aufgabe der SPECT-Rekonstruktion ist allgemein die Inversion des linearen Abbil-
dungsoperators, also das Auffinden der originalen räumlichen Verteilungsfunktion
der Emission. Dieses Problem ist mathematisch schlecht gestellt: Zwei sehr verschie-
dene Emissionsverteilungen können praktisch gleiche, sehr ähnliche Projektionen er-
zeugen – umgekehrt ist die Rekonstruktion also unstetig, kleine Abweichungen von
der mathematisch idealen Projektion etwa durch die unvermeidlich diskrete Vertei-
lung gemessener Photonen können zu sehr großen Abweichungen im rekonstruierten
Volumen führen. Diese Abweichungen sind aber im Allgemeinen sehr stark räumlich
oszillierend, also unphysiologisch. Es kann also in geeigneter Weise Vorwissen in die
Rekonstruktion eingebracht werden, um realistische Bilder zu erhalten. Im einfachs-
ten Fall entspricht diese Regularisierung einer Glättung des Bildes.
Weniger problematisch ist der Umstand, dass nicht alle möglichen idealen vor-
stellbaren Projektionen als Ergebnis des Abbildungsoperators auftreten können. Den
gemessenen Projektionen entsprechen also wiederum wegen Messfehlern und Diskre-
tisierung im Allgemeinen überhaupt keine räumlichen Emissionsverteilungen. Dieses
Problem wird bei den verschiedenen Rekonstruktionen teilweise implizit durch einen
5 Szintigraphie und SPECT | 161
Volumen-Raum Sinogramm-Raum
unstetiges Rˉ¹
W-Verteilung
des Rauschens
Rekon EM
AP (R)
ert/M FB P
Bild
gularisi Rekon
re
n LSQ
Reko
FBP
LSQ
r
he
he ri
EM
sc rio
lic
in
hr a p
Messung
wa
Abb. 5.14: Schematische Darstellung der Rekonstruktion als Inversion des Abbildungsoperators und
speziell der Rolle statistisch motivierter Rekonstruktion (maximum-likelihood/EM und MAP). Links
ist der Raum aller möglichen Emissionsverteilungen gezeigt, rechts derjenige der Projektionen und
darin die Menge „konsistenter“, idealer Projektionen im Bildbereich des Abbildungsoperators R.
Die Rekonstruktion führt von den gemessenen Projektionen zurück in den Raum der Emissionsver-
teilungen.
Die meisten heute eingesetzten Verfahren beruhen auf dem EM-Algorithmus [Lange
1984]. Er findet iterativ die Lösung eines Maximum-likelihood-Problems durch ab-
wechselnde Schätzung der Beobachtungen unter Annahme unbeobachtbarer Größen
– hier der Verteilung der einzelnen Emissionsorte – und anschließender Maximie-
rung der likelihood unter der gegebenen Verteilung. Konkret bedeutet dies im ersten
Schritt die Simulation der Bildgebung für eine angenommene Emissionsverteilung
– die Vorwärtsprojektion – und anschließend die numerische Zurückprojektion von
Korrekturfaktoren in das modellierte Volumen, um eine verbesserte Schätzung zu
erhalten.
Diese Korrekturfaktoren sind das Verhältnis der gemessenen zu den in der Vor-
wärtsprojektion geschätzten Zählraten je Pixel. Die Laufzeit dieses Algorithmus wird
erst praktikabel, wenn je Iterationsschritt nur je eine von mehreren repräsentati-
ven Teilmengen aller gemessenen Projektionen verwendet wird (Ordered Subset EM,
OSEM). Weiterentwicklungen des OSEM-Algorithmus betreffen die Berücksichtigung
von Vorwissen (MAP-Verfahren) oder empirisch geschicktere Wahlen der Korrektur-
werte (RAMLA) [Browne 1996].
5 Szintigraphie und SPECT | 163
Ein Problem ist in jedem Fall die Feststellung, wann die Iteration abzubrechen ist.
Häufig werden nur zwei oder drei vollständige Schritte durchgeführt, dies entspricht
einer impliziten Regularisierung (s. o.) – anschließend würden die Bilder immer stär-
kere oszillierende Artefakte aufweisen.
Während also eine mathematisch exakte Charakterisierung der Konvergenz und
Stabilität von OSEM-Algorithmen schwieriger als für analytische Verfahren ist, so ist
doch deren großer Vorteil die Möglichkeit, die im folgenden Abschnitt beschriebenen
physikalischen Effekte direkt im Vorwärtsprojektor berücksichtigen zu können: OSEM
ist nicht direkt abhängig von der idealisierten X-ray-Transformation, die analytischen
Verfahren zugrunde liegt. Aus dem gleichen Grund werden auch weitere Verallgemei-
nerungen möglich, z. B. die gleichzeitige Rekonstruktion mehrerer Nuklide, um z. B.
Stress- und Ruheaufnahmen des Herzens in einer Sitzung zu erhalten [Botterweck
2007].
Quantitative Rekonstruktion
Im Allgemeinen gilt SPECT im Unterschied zur PET als nicht quantitativ: Es werden
zwar numerische Werte wie z. B. relative Emissionsintegrale bestimmt, aber nicht ab-
solute Angaben über die Stoffmenge und Aktivität des angelagerten Tracers z. B. etwa
in Bq/cm3 . Dies liegt zum Teil an der historisch frühen Entwicklung der Technik mit
analoger Elektronik, zum anderen Teil aber an den großen Schwankungen absoluter
Werte bei fehlerhafter Schwächungskorrektur und bei nicht exakter Berücksichtigung
der statistischen Verteilung der Zählraten. Diese und weitere Effekte wie Down-scatter
(Streuung höherenergetischer Emissionsenergien in ein Energiefenster an einem nie-
derenergetischen Peak, bei einem oder mehreren gleichzeitigen Nukliden) können
aber prinzipiell mit den beschriebenen Rekonstruktionsverfahren hinreichend genau
modelliert werden. Forschungsbestrebungen sind deshalb auf dieses Ziel hin ausge-
richtet, da moderne Diagnostik auch in Kombination mit anderen Modalitäten immer
spezifischere funktionale Daten benötigt.
Streuung
Bei einer Oberkörperaufnahme werden viele Photonen gestreut, etwa 20. . . 30 % sogar
mehrfach. Bei niedrigen Energien ist der Beitrag der elastischen Rayleigh-Streuung
nicht zu vernachlässigen: Ein Streuzentrum erscheint dann für die Kamera wie eine
Originalemission. Für die meisten SPECT-Nuklide oberhalb 50 keV überwiegt jedoch
die Compton-Streuung. Wegen des damit verbundenen Energieverlustes des Photons
könnten Streusignale im Detektor prinzipiell durch eine Energieselektion am Emis-
sionswert unterdrückt werden. Das ist aufgrund der schlechten Energieauflösung im
Bereich von 10 % nur für Rückstreuung und Mehrfachstreuung um größere Winkel ef-
fektiv. Es funktioniert gar nicht im Falle mehrerer Emissionsenergien: Beispielsweise
166 | Kristin Kötz, Henrik Botterweck
emittiert 201 Tl zu etwa 10 % Photonen bei 135 keV und 167 keV zusätzlich zum Haupt-
peak um 71 keV. Wegen der geringeren Schwächung bei höheren Energien tragen diese
Quanten nach Streuung in den Bereich um 70 keV signifikant zu den Detektionen bei.
Ein gutes Korrekturverfahren beruht auf der Messung mehrerer Energiefenster um
den Hauptpeak herum (Triple Energy Window, TEW), so dass aus der Interpolation der
Nebenfenster auf den Emissionspeak im zentralen Fenster geschlossen werden kann.
Eine große Klasse von Korrekturansätzen beruht auf der Berücksichtigung der
Streuung während der Rekonstruktion selbst. Im einfachsten Fall kann der Streubei-
trag unter Annahme eines homogenen Wasservolumens geschätzt werden. Dabei wer-
den allerdings starke bzw. von Wasser abweichend schwache Streubeiträge etwa an
Knochenoberflächen oder in der Lunge falsch angenommen.
Die Compton-Streuung hängt im Wesentlichen von der Elektronendichte ab.
Diese kann aus CT- oder weniger genau auch Festquellen-Transmissionsdaten (s. o.)
geschätzt werden, wenn eine Materialklassifikation durchgeführt wird (grob nach
Luft/Lunge, Weichgewebe, Knochen). Wieder kann die Streuung also im Vorwärts-
projektor des EM-Algorithmus geschätzt werden. Numerisch vorteilhaft ist dabei, dass
sie als additiver Beitrag in den geschätzten Projektionen verbleibt, statt vor der Rekon-
struktion von den Messdaten subtrahiert zu werden. Die Subtraktion fehlerbehafteter
Größen ist wegen der relativen Fehlerverstärkung unbedingt zu vermeiden.
Die Gerätehersteller implementieren verschiedene Methoden, um die Streuung
effizient in iterativen Rekonstruktionen zu schätzen. Typisch ist die Verwendung
vorberechneter Streu-Faltungskerne und die Reduktion notwendiger Speicherzugriffe
durch ein geeignetes räumliches Abarbeiten der Beiträge. Als Goldstandard können
Monte-Carlo-Simulationen des Bildgebungsprozesses dienen. Um diese aber nicht
nur in der Forschung, sondern auch in Echtzeitanwendungen einsetzen zu kön-
nen, sind deutliche Vereinfachungen und Beschleunigungsmethoden zu verwenden
[Botterweck 2007 und Ref. darin].
Wegen der Subjektivität der Beurteilung von SPECT-Aufnahmen gerade im Hin-
blick auf Streuartefakte ist die Optimierung der Streukorrektur und der Vergleich ver-
schiedener Verfahren nicht leicht. Ein möglicher Zugang ist der Einsatz numerischer
Beobachter (Observer) als statistischer Klassifikatoren des Nutzwertes eines Bildes
[Farncombe 2004 und Referenzen darin] (s. Kap. 21, Systemtheorie und ROC).
Tiefenabhängige Auflösung
Große Fortschritte bei der Bildqualität kommerzieller Systeme wurden durch die Be-
rücksichtigung der tiefenabhängigen Ortsauflösung, allgemeiner der Punkt-Abbil-
dungsfunktion des Kollimators (PSF) erreicht. In der Vorwärtsprojektion werden die
Beiträge in einem gegebenen Abstand zur Kamera mit der entsprechenden PSF gefal-
tet, bevor sie auf die Kamera projiziert werden. In der Rückprojektion kann Gleiches
geschehen, jedoch kann dies die Konvergenz des EM-Algorithmus verschlechtern.
5 Szintigraphie und SPECT | 167
Bewegungskorrektur
Wegen der langen Aufnahmezeiten sind Bewegungsartefakte problematisch. Wichtige
Beispiele sind die Leberspitze, die durch Atembewegung scheinbar durch das Zwerch-
fell hindurch das Herz erreichen und dessen Bildgebung stören kann, oder Teile des
Herzens selbst, die durch Atmung in extrakorporale Gebiete gelangen, wobei dann
die Schwächungskorrektur nicht mehr greift. Lösungsansätze hierzu basieren auf der
Korrektur der Projektionen um gemessene oder geschätzte Bewegungen oder auf der
Zerlegung der Aufnahme in Zeitfenster (Gating) jeweils ähnlicher Bewegungszustän-
de von Atmung und/oder Herzschlag. In diesem Fall kann versucht werden, zur Ver-
besserung der dann geringen Zählraten auch statistische Information aus den jeweils
anderen Zeitfenstern zu verwenden.
5.7 Qualitätskontrolle
5.7.1 Gesetze, Verordnungen, Richtlinien, Leitlinien
Verbindlich auf nationaler Ebene sind das Atomgesetz und die Strahlenschutzver-
ordnung (StrlSchV). Daraus sind Richtlinien, DIN-Vorschriften und Empfehlungen
abgeleitet. Bestandteil der Qualitätssicherung ist die Zustandsprüfung (auch Abnah-
meprüfung), die daraus abgeleiteten Referenzbedingungen und die regelmäßigen
Konstanzprüfungen. Insbesondere bei tomographischen Untersuchungen können
schon geringe Abweichungen von den Referenzwerten zu schwerwiegenden Artefak-
ten bei der Bildrekonstruktion führen.
Die folgenden Angaben dienen nur der Übersicht und beziehen sich auf eine
SPECT-fähige Gammakamera (Tab. 5.3). Weiterführende Erklärungen und prakti-
sche Anleitungen können z. B. auf der Homepage der Deutschen Gesellschaft für
Nuklearmedizin (www.nuklearmedizin.de) unter der Rubrik Leitlinien in „Nuklear-
medizinische Bildgebung“ nachgelesen werden.
– Nulleffekt – Die Untergrundmessung dient der Erkennung von Kontaminationen
am Messkopf oder störenden radioaktiven Quellen in der Umgebung.
– Peak – zur Überprüfung der Energiefenstereinstellung für die verwendeten Nuk-
lide.
(arbeits)täglich Untergrundzählrate
(arbeits)täglich Energiefenstereinstellung
wöchentlich Inhomogenität (extrinsisch)
wöchentlich Ausbeute
wöchentlich Center of Rotation COR
halbjährlich Linearität (Ortsauflösung)
168 | Kristin Kötz, Henrik Botterweck
(a)
(b)
5.9 Hybridbildgebung
5.9.1 Hybridbildgebung
SPECT kann funktionelle Vorgänge darstellen, die mit anderen bildgebenden Verfah-
ren nicht erfassbar sind, enthält aber oft nur unzureichende Informationen über deren
genaue anatomische Lage. Diese ist jedoch bei der Planung regional wirksamer The-
rapieverfahren (z. B. Operation, Strahlentherapie) unabdingbar. Unter Hybridbildge-
bung versteht man hier die Überlagerung mehrerer schnittbildgebender Verfahren.
170 | Kristin Kötz, Henrik Botterweck
Quellenverzeichnis
Botterweck H., Bippus R., Gödicke A., Salomon A., Wieczorek H.: Iterative Monte-Carlo based
reconstruction for quantitative simultaneous multiple isotope SPECT. Imaging, Proc Fully 3D
2007; 221–224; www.fully3d.org/2007/Fully3D{_}HPIR{_}Proceedings.pdf. Zugriff: 15.12.2011.
Browne J., de Pierro A. B.: A row-action alternative to the EM algorithm for maximizing likelihood in
emission tomography. IEEE Trans Med Imag 1996; 15: 687–699.
Farncombe T., et al.: Assessment of scatter compensation strategies for 67Ga SPECT using numerical
observers and human LROC studies. J Nucl Med 2004; 45: 802–812.
Lange K., Carson R.: EM reconstruction algorithms for emission and transmission tomography. J
Comput Assist Tomogr 1984; 8: 306–316.
Novikov R. G.: An inversion formula for the attenuated X-ray transform. Ark Math 2002; 40: 145–167.
Testfragen
1. Was ist Szintigraphie? Was wird dabei gemessen, was wird für den Arzt dargestellt?
2. Was ist SPECT? Was wird dabei gemessen, was wird für den Arzt dargestellt?
3. Welche Strahlungsarten werden in der nuklearmedizinischen Diagnostik angewandt und wo ent-
stehen diese?
4. Was sind Radiopharmaka (Tracer)?
5. Welche Detektoren werden zum Nachweis von Gammaquanten genutzt?
6. Was sind Bestandteile einer Anger-Kamera?
7. Skizzieren Sie den schematischen Aufbau eines Gammakamerakopfes.
8. Was sind fokussierende Kollimatoren?
9. Welche Komponenten und Aufgaben hat ein Photomultiplier (PMT)?
10. Warum wird die Ortsauflösung durch die Eigenschaften des Kollimators bestimmt?
11. Worin unterscheiden sich statische und dynamische Akquisitionen?
12. Wie unterscheidet sich das reale Rekonstruktionsproblem der SPECT von der mathematisch idea-
len Inversion der Radon-Transformation (min. vier physikalisch-technische Gründe)?
13. Erläutern Sie die statistische Formulierung des Rekonstruktionsproblems: Warum ist diese in der
nuklearmedizinischen Bildgebung (bisher) wichtiger als bei der Transmissions-CT?
14. Für Fortgeschrittene: Stellen Sie einen mathematischen Ausruck für den Logarithmus der like-
lihood der SPECT dar – in zwei Dimensionen, ohne Schwächung und mit einem idealen (im Grenz-
wert nichtdiskreten) Detektor und Kollimator.
15. Was versteht man unter Hybridbildgebung?
Simone Beer, Henrik Botterweck
6 PET
Abstract: The most accurate imaging technique of nuclear medicine is Positron Emis-
sion Tomography (PET): with a comparably low radiation dose, PET depicts images
of functional processes in the patient. Slice images are calculated from coincidence
measurements of two 𝛽+ -annihilation gamma photons by tomographic reconstruc-
tion. Critical components are fast and sensitive scintillators with matching photomul-
tipliers and an efficient artifact correction. Recent improvements comprise time-of-
flight measurements and the detection of the depth-of-interaction for scintillation.
The strength of PET is its molecular sensitivity combined with highly specific trac-
ers, allowing for truly functional imaging. Advantageous is also the combination with
transmission-CT for anatomical imaging.
174 | Simone Beer, Henrik Botterweck
6.2 Grundlagen
6.2.1 Positronenstrahler
Der Atomkern besteht aus zwei Sorten von Elementarteilchen mit nahezu gleicher
Masse, den positiv geladenen Protonen und den ungeladenen Neutronen. Die Kernla-
dung wird durch die Anzahl der Protonen ausgedrückt und entspricht der Ordnungs-
zahl Z des Atoms, die Summe von Protonen und Neutronen der Massenzahl A. Die
Nuklide werden durch das Symbol des chemischen Elementes X (z. B. Fe für Eisen
oder C für Kohlenstoff) und die Massenzahl A, gelegentlich auch zusätzlich durch die
Ordnungszahl Z beschrieben: AZ X bzw. A X.
Nuklide mit demselben Z, aber unterschiedlichem A werden als Isotope be-
zeichnet. Isotope mit überschüssigen Protonen oder Neutronen sind instabil und ge-
hen unter Aussendung von radioaktiver Strahlung in einen stabilen Zustand über. Sol-
che Isotope werden als Radioisotope oder Radionuklide bezeichnet. Für die PET von
Interesse sind die Radioisotope mit Protonenüberschuss, die durch Positronenemis-
sion, auch Beta-Plus-Zerfall (𝛽+ ) genannt, zerfallen. Ein Proton des Kernes wird in ein
Neutron umgewandelt, und dabei werden ein Positron und ein Neutrino ausgesandt.
Die freiwerdende Energie wird zwischen den beteiligten Teilchen aufgeteilt. Daher ha-
ben die Positronen ein Spektrum an unterschiedlichen Energien bis hin zu einer Maxi-
malenergie. Der zeitliche Verlauf des radioaktiven Zerfalls wird durch die Halbwerts-
zeit charakterisiert, d. h. der Zeit, nach der jeweils die Hälfte der Kerne zerfallen ist.
Tabelle 6.1 zeigt einige für die PET wichtige Radionuklide und ihre Eigenschaf-
ten. Hergestellt werden PET-Radionuklide durch Bestrahlung von Flüssigkeiten oder
Gasen in sogenannten Zyklotronen.
Das Positron ist das Antiteilchen des Elektrons. Wenn ein Positron auf ein Elek-
tron trifft, vernichten sich die beiden unter Aussendung von zwei in entgegengesetzte
Richtung auseinanderfliegende Gammaquanten, die jeweils eine Energie von 511 keV
haben (Abb. 6.1).
6 PET | 175
Tab. 6.1: Positronenstrahler und ihre Eigenschaften [Pfennig 1998, Levin 1999].
Positronen-emittierendes
Radionuklid 511 keV Photon
Positron
Elektron
Abb. 6.1: Positronenemission und nachfolgende Annihilation unter Aussendung von zwei 511 keV
Photonen.
Diese entspricht der Masse der beiden Teilchen nach der Einsteinschen Masse-
Energie-Beziehung
E = mc2 = me c2 + mp c2 (6.1)
Dabei sind me und mp die Massen des Elektrons und des Positrons, c ist die Lichtge-
schwindigkeit (3 ⋅ 108 m/s). Dieser Prozess wird Annihilation genannt.
Annihilation (lat.: annihilatio – das Zunichtemachen): Vorgang der Paarvernichtung beim Aufein-
andertreffen von Teilchen und Antiteilchen. Im Falle der Positron-Elektron-Annihilation werden
beide Teilchen vollständig vernichtet. Dabei entstehen nach E = mc2 zwei Gammaquanten mit
einer Energie von jeweils 511 keV.
nachgewiesen werden können; zum anderen die Tatsache, dass die beiden emittier-
ten Photonen eine klare zeitliche und geometrische Beziehung zueinander haben.
Gelingt es, beide Photonen nachzuweisen, dann geht die Verbindungslinie (Line of
Response, LOR) beider Punkte durch den Ort der Annihilation, der wiederum dem
Punkt der Positronenemission sehr nahe liegt. Zusammengehörende Photonenpaare
erkennt man daran, dass sie gleichzeitig nachgewiesen wurden. Dieses bezeichnet
man als Koinzidenz.
Line of Response (LOR): Verbindungslinie zwischen zwei Detektoren, die ein Photonenpaar in Ko-
inzidenz nachgewiesen haben.
Die wichtigsten Wechselwirkungen, die ein 511-keV-Photon mit Materie haben kann,
sind Photoeffekt und Compton-Effekt. Beim Photoeffekt transferiert das Pho-
6 PET | 177
ton seine Energie vollständig auf ein Hüllenelektron eines Atoms und wird dadurch
vollständig absorbiert. Das Hüllenelektron wird in einen angeregten Zustand geho-
ben oder verlässt sogar das Atom. In Festkörpern und Flüssigkeiten wird es aber sehr
schnell wieder absorbiert, so dass in diesen Fällen das Resultat des Photoeffektes die
komplette Absorption des Photons ist. Die gesamten 511 keV werden lokal im umge-
benden Material deponiert.
Im Gegensatz dazu wird das Photon beim Compton-Effekt an einem Elektron ge-
streut. Dabei geht ein Teil der Energie auf das Elektron über, und das Photon ändert
seine Richtung abhängig vom Energieübertrag. Die Wahrscheinlichkeit, dass ein Pho-
toeffekt oder Compton-Effekt auftritt, hängt von der Kernladungszahl des Materials
ab. Die Abhängigkeit geht für den Photoeffekt etwa mit Z 4 , für den Compton-Effekt
mit Z. Zusammengenommen werden diese Effekte durch den linearen Schwächungs-
koeffizienten 𝜇 ausgedrückt. Er hat die Einheit 1/cm, d. h., er beschreibt die Wahr-
scheinlichkeit für die Absorption eines Photons im Verhältnis zur Dicke des Materials
und ist von der Energie des einfallenden Photons sowie der Kernladungszahl des ab-
sorbierenden Materials abhängig.
Tab. 6.2 zeigt den Schwächungskoeffizienten für 511-keV-Photonen von einigen
ausgewählten Gewebetypen und Detektormaterialien sowie für Blei, das häufig zur
Abschirmung verwendet wird. Die Wechselwirkung kann nun durch ein Exponential-
gesetz beschrieben werden:
I(x) = I(0) exp(−𝜇x) (6.2)
Dabei ist I(0) die Intensität des einfallenden Photonenflusses und I(x) die Intensität
des Photonenflusses nach einer Distanz x im Material. Die Halbwertsdicke in Tab. 6.2
gibt die Stärke des Materials an, nach der nur noch die Hälfte der einfallenden Pho-
tonen vorhanden ist. Während die Wechselwirkung der Photonen im Gewebe ein un-
erwünschter und störender Prozess ist, ist sie für den Nachweis im Detektor die unbe-
dingte Voraussetzung.
178 | Simone Beer, Henrik Botterweck
6.2.5 Parallaxeneffekt
Abb. 6.2 soll den Parallaxeneffekt am Beispiel eines Ringsystems mit diskreten
Detektoren verdeutlichen. Die Photonenpaare, die aus dem Zentrum des Messfel-
des emittiert werden, dringen senkrecht in den Detektor ein. Unabhängig von der
Eindringtiefe geschieht die Wechselwirkung immer noch in dem Detektor, in den
das Photon ursprünglich eingedrungen ist. Für Photonen, die am Rande des Mess-
feldes emittiert werden, stellt sich die Situation anders dar. Sie können schräg auf
die Detektoren auftreffen und mehrere Detektoren durchdringen, bevor es zu einer
Wechselwirkung kommt. Verbindet man die Detektoren, in denen die Wechselwir-
kung stattgefunden hat, miteinander, bekommt man eine Abweichung der Verbin-
dungslinie vom ursprünglichen Ort der Annihilation. Dieser Effekt verursacht eine
Verschlechterung der Auflösung in radialer Richtung und ist von besonders großer
Bedeutung in Tomographen mit einem kleinen Durchmesser. Abhilfe bieten Systeme,
die in der Lage sind, die Wechselwirkungstiefe (Depth of Interaction, DOI) in den
Detektoren zu bestimmen.
Durch die Bestimmung einer Koinzidenz lässt sich zunächst nur eine Linie ermitteln,
auf der eine Annihilation stattgefunden hat. Eine Annäherung an den Punkt der An-
nihilation auf der Linie lässt sich erreichen, wenn es gelingt, zwischen den beiden
Photonen einen Zeitunterschied nachzuweisen. Wenn der Annihilationsort näher an
Detektor 1 als an Detektor 2 liegt, wird das Photon in Detektor 1 eher nachgewiesen als
das in Detektor 2. Der Zusammenhang zwischen der Zeitdifferenz 𝛥t und dem Ort der
Annihilation, bezogen auf einen Punkt exakt in der Mitte zwischen den Detektoren,
ist gegeben durch
Δt ⋅ c
d= (6.3)
2
wobei c die Lichtgeschwindigkeit (3 ⋅ 108 m/s) ist. Diese Technologie wird „Time of
Flight“ (TOF) genannt. Moderne Positronen-Emissions-Tomographen können eine
Zeitauflösung von ∼ 500 ps erreichen. Damit liegt die Genauigkeit, mit der der An-
nihilationsort auf der Verbindungslinie der Detektoren bestimmt werden kann, bei
7,5 cm. Die Time-of-flight-Technologie lohnt sich also erst bei Tomographen mit grö-
ßeren Durchmessern und ausgedehnten Messobjekten. Wird diese Information aber
in die Rekonstruktionsverfahren mit einbezogen, kann sie eine Verbesserung der
Bildqualität bewirken.
Eine höhere Auflösung allein ist allerdings nicht automatisch mit einer besseren
Bildqualität gleichzusetzen. Ein Bild besteht aus kleinen Volumenelementen, deren
Inhalt farblich dargestellt wird. Eine höhere Auflösung bedeutet gleichzeitig, dass die
Volumenelemente des Bildes kleiner werden müssen. Bei einer Verbesserung der Auf-
lösung um einen Faktor 2 muss die Anzahl der Volumenelemente um einen Faktor
23 = 8 erhöht werden. Dementsprechend muss auch die 8-fache Menge an Daten auf-
genommen werden, um denselben statistischen Fehler pro Volumenelement zu erhal-
ten. Wenn nicht entweder die injizierte Dosis oder die Messzeit erhöht werden soll,
muss die Sensitivität (Angabe in Prozent) des Tomographen als weiterer signifikan-
ter Parameter betrachtet werden. Sie kann ausgedrückt werden als
𝜀2 𝜑𝛺
S = 100 ⋅ (6.5)
4𝜋
wobei 𝜀 die Nachweiswahrscheinlichkeit eines einzelnen Detektors für 511-keV-
Photonen ist. Die Packungsdichte 𝜑 beschreibt das Verhältnis zwischen Detektor-
material und Füllmaterial wie z. B. Reflektormaterial und liegt bei ca. 80 %. 𝛺 ist der
von den Detektoren bedeckte Raumwinkelbereich. Typische Sensitivitätswerte liegen
bei ca. 5 %. Eine äquivalente und häufig benutzte Einheit der Sensitivität ist auch
cps/Bq.
Für eine korrekte Interpretation der Messdaten ist ein linearer Zusammenhang
zwischen Aktivitätskonzentration im Messfeld und aufgenommenen Daten unabding-
bar. Durch die Totzeit des Tomographen, zu der sowohl die Detektoren als auch die
Elektronik beitragen, gibt es bei höheren Aktivitätskonzentrationen eine Abweichung
vom linearen Zusammenhang. Der Totzeitanteil DT ist definiert als %DT = 1 − T/Tex
und ist eine Funktion der Aktivitätskonzentration. Dabei ist T die Rate der gemesse-
nen echten Koinzidenzen und Tex die erwartete Rate der echten Koinzidenzen, die sich
aus einer linearen Extrapolation der Rate bei sehr geringen Zählraten ergeben würde.
Das Signal-Rausch-Verhältnis wird nicht nur durch das statistische Rauschen
beeinflusst. Auch gestreute und zufällige Koinzidenzen verursachen einen Unter-
grund. Der Anteil an zufälligen Koinzidenzen steigt quadratisch mit der Aktivität im
Messfeld und trägt bei hohen Dosen zur Totzeit des Tomographen bei. Ein prakti-
sches Maß für das Signal-Rausch-Verhältnis unter Berücksichtigung der Totzeit ist
die rauschäquivalente Zählrate (Noise Equivalent Count Rate, NECR oder NEC), eine
Funktion, die von der Aktivitätskonzentration im Messfeld abhängig ist:
T2
NEC = (6.6)
T + S + 2fR
Dabei ist T die Rate der echten, R die Rate der zufälligen Koinzidenzen und S sind die
gestreuten Koinzidenzen. f ist ein Maß für die Größe des Phantoms, das zur Messung
der NEC-Kurve verwendet wird, im Verhältnis zur Messfeldgröße.
182 | Simone Beer, Henrik Botterweck
Peak NECR
Zählrate in cps
Noise Equivalent Count Rate (NEC; dt. rauschäquivalente Zählrate): auf gestreute und zufällige Ko-
inzidenzen korrigierte Zählrate; praktisches Maß für das Signal-Rausch-Verhältnis unter Berück-
sichtigung der Totzeit.
Abb. 6.3 zeigt eine typische NEC-Kurve. Aus der Kurve lässt sich abschätzen, welche
Aktivitätskonzentrationen im Messfeld zu sinnvollen Ergebnissen führen. Häufig wird
der Wert des Maximums der NEC-Kurve (Peak NECR in cps) angegeben. Je höher der
Wert ist, desto günstiger ist das Verhältnis von echten zu störenden Koinzidenzen.
Die Bildqualität kann durch die Homogenität des Bildes in homogenen Bereichen,
das Überstrahlen von heißen in kalte Bereiche („Spill-Over Ratio“, SOR) und die soge-
nannten Recovery-Koeffizienten beschrieben werden. Die Homogenität wird durch
die Standardabweichung, die das Bild von einem homogen gefüllten Volumen hat,
beschrieben. Befindet sich ein kalter Bereich in einer radioaktiven Umgebung, wird
durch die Bildrekonstruktion Aktivität in den kalten Bereich „hineinrekonstruiert“.
Dieses „Übersprechen“ stammt im Wesentlichen aus gestreuten oder zufälligen Ereig-
nissen. Eine möglichst kleine spill-over-ratio ist ein Zeichen für gut funktionierende
Korrekturverfahren. Wenn ein Volumen klein ist im Vergleich zur Auflösung des To-
mographen, verschmiert es aufgrund der begrenzten Auflösung und stellt sich als
größeres Volumen mit geringerer Aktivität dar. Das wird als Partialvolumeneffekt
bezeichnet. Die Recovery-Koeffizienten geben für Strukturen unterschiedlicher Grö-
ße den Faktor (zwischen 0 und 1) an, mit dem sich die dargestellte Aktivität von der
wirklichen unterscheidet.
6.3 Technik
Positronen-Emissions-Tomographen wurden ständig weiterentwickelt, seit die ersten
Instrumente mit einer Ortsauflösung von 1. . . 2 cm und geringer Sensitivität Mitte der
6 PET | 183
6.3.1 Szintillationskristalle
Szintillator: Material, das Lichtblitze aussendet, wenn es von ionisierender Strahlung getroffen
wird.
Wichtige Szintillatoren für PET sind anorganische Kristalle. Sie werden charakterisiert
durch ihre Dichte, die Menge an Photonen pro einfallendem 511-keV-Photon, die Dau-
184 | Simone Beer, Henrik Botterweck
Tab. 6.3: Eigenschaften von Szintillatoren für die Positronen-Emissions-Tomographie [Knoll 2010].
er des Lichtblitzes und die Wellenlänge des emittierten Lichtes. Szintillatoren, die in
der PET eingesetzt werden, sollten eine möglichst hohe Dichte haben, um die 511-keV-
Photonen effektiv nachweisen zu können. Die Dauer des Lichtblitzes sollte möglichst
kurz sein, damit ein enges Koinzidenzfenster benutzt werden kann und die Totzeit des
Detektors nicht zu hoch wird. Eine wesentliche Quelle von Rauschen im Detektorsi-
gnal sind statistische Fluktuationen in der Anzahl der detektierten Szintillationspho-
tonen. Diese Fluktuationen unterliegen der Poisson-Statistik und gehen mit 1/√N,
wobei N die Anzahl der detektierten Photonen ist. Da das Signal des Photodetektors
sowohl zur Positionsbestimmung des einfallenden Photons als auch zur Energiedis-
kriminierung verwendet wird, sollten die Fluktuationen möglichst gering sein. Daher
sollte die Menge der erzeugten Photonen hoch sein und die Wellenlänge in einem Be-
reich liegen, in dem der Photodetektor empfindlich ist. Auch der Brechungsindex des
Szintillators ist nicht unwichtig, da ein unpassender Brechungsindex unerwünschte
Reflexionen an der Grenzfläche zwischen Photodetektor und Szintillator hervorrufen
kann.
Tab. 6.3 zeigt die Eigenschaften einiger für die PET wichtigen Szintillatoren.
In den frühen 1980er-Jahren war Wismutgermanat (BGO) der Szintillator der Wahl.
In den Folgejahren wurde er mehr und mehr durch neu entwickelte Szintillatoren
wie Gadoliniumoxyorthosilikat (GSO) und Lutetiumoxyorthosilicat (LSO) ersetzt, die
sich insbesondere durch eine höhere Lichtausbeute und kürzere Szintillationszeit
auszeichnen. Heutzutage ist LSO oder LYSO (LSO mit geringem Zusatz an Yttrium,
aber ansonsten fast gleichen Eigenschaften) in den meisten Fällen der Szintillator
der Wahl, weil er im Vergleich zu BGO und GSO noch dichter ist und eine sehr hohe
Lichtabgabe erzielt. Das erlaubt die Herstellung einzelner, sehr kleiner Detektorkris-
talle. Ein Nachteil von LSO-basierten Detektoren ist allerdings ein kleiner Anteil an
intrinsischer Radioaktivität, der auf das Vorkommen des langlebigen radioaktiven
Isotops 176 Lu im natürlichen Lutetium zurückzuführen ist.
6.3.2 Photodetektoren
tokathode, mehreren Dynoden und einer Anode. Das Szintillationslicht geht durch
ein Fenster auf die Photokathode, eine lichtempfindliche Schicht, aus der durch die
Photonen Elektronen gelöst werden. Jedes optische Photon hat, abhängig von seiner
Wellenlänge, eine gewisse Wahrscheinlichkeit, ein Photoelektron auszulösen. Diese
Wahrscheinlichkeit wird als Quanteneffizienz bezeichnet. Für die Szintillatoren aus
Tab. 6.3 und typische Bialkali-Photokathoden liegt diese Wahrscheinlichkeit bei
∼ 20 %.
Von der Photokathode werden die Elektronen durch ein elektrisches Feld auf
die erste Dynode beschleunigt, eine Elektrode, die wiederum mit einem Material
beschichtet ist, aus dem sich leicht Elektronen lösen können. Jedes beschleunigte
Elektron löst in der Dynode mehrere Elektronenemissionen aus. Der Elektronenstrom
wird also um einen entsprechenden Faktor verstärkt. Die Elektronen aus der ersten
Dynode werden auf die zweite Dynode beschleunigt und so weiter, bis z. B. nach
zehn Stufen eine Verstärkung des Elektronenstroms um ca. 106 erreicht wird. In der
Anode werden am Ende die Elektronen gesammelt und erzeugen einen Spannungs-
impuls. PMTs sind in verschiedensten Größen sowie als ortsempfindliche Varianten
erhältlich. Der Vorteil von Photomultipliern ist die hohe erreichbare Verstärkung des
Szintillationslichtes. Sie sind unempfindlich, stabil und sehr schnell. Ein Nachteil
ist ihre Größe und der Preis. Außerdem sind sie sehr empfindlich gegenüber Magnet-
feldern, wodurch sich ein Einsatz beispielsweise in kombinierten PET/MRT-Geräten
verbietet.
Eine Alternative zu PMTs sind Photodioden. Photodioden sind Halbleiterzähler.
In ihnen findet keine Verstärkung wie im Photomultiplier statt. Daher ist das Signal
einer Photodiode um einen Faktor ∼ 106 schwächer als das Signal eines PMTs. Das
Resultat ist ein sehr viel schlechteres Signal-Rausch-Verhältnis und die Notwendig-
keit, das Signal sehr viel länger integrieren zu müssen. Daher werden einfache Pho-
todioden normalerweise in der PET nicht verwendet, obwohl sie sehr kostengünstig
hergestellt werden können.
Eine Modifizierung der Photodiode ist die Avalanche-Photodiode (APD). Sie un-
terscheidet sich von der herkömmlichen Photodiode dadurch, dass eine viel höhe-
re Spannung angelegt wird. Dadurch bildet sich eine Ladungsträger-Lawine aus. Ein
einzelnes Photon kann in einer APD einige tausend Ladungsträgerpaare erzeugen.
Das Signal einer APD ist damit zwar längst nicht so hoch wie das eines PMTs, aber
doch wesentlich höher als das einer normalen Photodiode. Allerdings haben APDs
eine viel bessere Quanteneffizienz als Photomultiplier, so dass die geringere Verstär-
kung dadurch zum Teil kompensiert wird. Sie sind darüber hinaus klein und kompakt
und nicht sensitiv auf Magnetfelder. Das macht sie zu interessanten Detektoren für
die PET. Ein Nachteil ist allerdings die Empfindlichkeit der Verstärkung der APD auf
Spannungs- und Temperaturschwankungen, so dass besondere Sorgfalt beim Betrieb
von APDs angezeigt ist. Eine moderne Umsetzung der APD-Technik findet sich in so-
genannten Silicon-Photomultipliern (SiPM) [Buzhan 2003].
186 | Simone Beer, Henrik Botterweck
6.3.3 Detektoraufbau
(a) (b)
Bei einer zweiten Variante werden die Szintillatoren von zwei Seiten ausgelesen. Auch
die Abschätzung der Wechselwirkungstiefe aus der Signalform ist möglich.
Da die PET aufgrund des Messprinzips nur funktionelle Information, aber keine Infor-
mation über die zugrunde liegende Anatomie liefert, besteht grundsätzlich ein großes
Interesse daran, auch die anatomische Information hinzuziehen zu können. Geeigne-
te Modalitäten für die Darstellung der Anatomie sind die Computertomographie (CT)
und die Magnetresonanztomographie (MRT oder kurz MR). Werden mehrere Modalitä-
ten zusammen angewendet, spricht man von multimodaler Bildgebung oder Hybrid-
bildgebung.
Dabei gestaltet sich die Kombination von PET und CT als relativ unkompliziert. Bei-
de Tomographen werden in der Regel in einer Tandem-Konfiguration hintereinander
in einem Gehäuse platziert, mit einer gemeinsamen Patientenliege, auf der der Pati-
ent durch beide Modalitäten gefahren wird. Zusätzlich zur anatomischen Information
kann das CT auch dazu dienen, die Schwächungskorrektur für PET durchzuführen
[Townsend 2004]. Dabei ist zu beachten, dass es durch die sehr kurze Messzeit des
CT im Vergleich zur PET zu Bewegungsartefakten kommen kann. Ein Nachteil der zu-
sätzlichen Untersuchung mittels CT ist allerdings die zusätzliche Strahlenbelastung
aufgrund der Röntgenstrahlen.
MRT liefert im Vergleich zum CT einen besseren Weichteilkontrast ohne jegliche
zusätzliche Strahlenbelastung. Darüber hinaus besteht mit funktioneller MRT auch
die Möglichkeit, zusätzliche funktionelle Information aus der MRT zu bekommen. Die
Kombination von MRT und PET verspricht also viele interessante Möglichkeiten. Al-
lerdings ist die instrumentelle Kombination von PET und MRT eine große Herausfor-
derung, da konventionelle PET-Detektoren PMTs verwenden, die sehr empfindlich auf
das Magnetfeld der MRT reagieren. Auf der anderen Seite können die PET-Signale die
elektromagnetischen Hochfrequenz-Impulse der MRT stören. Daher müssen alterna-
tive Detektorkonzepte für die PET-Detektoren entwickelt werden. Zurzeit gibt es die
ersten „PET-Inserts“, basierend auf Avalanche-Photodioden, für den Einsatz in der
Humanmedizin und für Kleintier-Tomographen.
Während bei einer PET/CT-Untersuchung beide Modalitäten sequentiell ge-
messen werden, können bei einem MRT mit PET-Insert die MRT- und die PET-
Untersuchung simultan stattfinden. Dieses bietet aufgrund der noch kürzeren Mess-
zeit noch mehr Komfort für die Patienten. Außerdem werden Bewegungsartefakte
weiter reduziert.
188 | Simone Beer, Henrik Botterweck
6.4 Algorithmen
Ein idealer PET-Algorithmus würde alle physikalischen Effekte explizit und statistisch
korrekt berücksichtigen. Das ist allerdings mathematisch und numerisch nicht reali-
sierbar. Deshalb wird im Allgemeinen nur der 𝛽+ -Zerfall in der Rekonstruktion selbst
modelliert, deren Regularisierung und Optimierung damit gut beherrschbar werden.
Weitere Effekte wie Streuung und Zufallskoinzidenzen werden als Störung aufgefasst.
Sie können entweder in der Vorverarbeitung als Datenkorrektur oder nachträglich als
Bildkorrektur berücksichtigt werden. Dem Vorteil vereinfachter, separater Betrach-
tung dieser Effekte steht der Nachteil einer nicht mehr konsistenten statistischen Mo-
dellierung des Gesamtsystems gegenüber.
Die primären PET-Daten sind Koinzidenzen, die schon in der Hardware aufgrund der
Signalstärken und -verläufe klassifiziert werden. Die Liste all dieser Ereignisse verse-
hen mit Zeitmarken repräsentiert die vollständige Messinformation. Mit solchen List-
mode-Daten können deshalb statistisch korrekte Rekonstruktionen gemacht werden;
außerdem können nachträglich weitere Rekonstruktionsversuche optimiert werden.
Jedoch ist eine direkte List-mode-Rekonstruktion sehr zeit- und speicheraufwendig,
denn es müssen einige 108 Ereignisse sequentiell und wiederholt verarbeitet werden.
Es ist deshalb üblich, die Ereignisse in eine diskrete Menge geometrisch vereinfach-
ter LOR zu akkumulieren. Im idealisierten Fall würde jeder Gerade im Raum eine LOR
entsprechen.
Im zweidimensionalen Fall können die LOR nach ihrer Richtung und Verschie-
bung gegenüber dem Ursprung aufgetragen werden. Ein einzelner Aktivitätspunkt x
im Objekt trägt dann zu einer LOR bei, die auf einer Sinuskurve erscheinen, deren Am-
plitude und Phase eindeutig von x abhängen, dem Sinogramm. Der Diskretisierung
(binning) entspricht eine Integration aller Zerfälle über näherungsweise quaderförmi-
ge Volumenelemente entlang den LOR. Ursprünglich wurden alle zweidimensionalen
Schichten separat gemessen und rekonstruiert. Vorteile dabei waren die schnellere
Rekonstruktion und die Reduktion von Streuung durch Kollimatorbleche zwischen
den Ebenen. Moderne PET-Scanner erfassen sämtliche Koinzidenzen im zylinderför-
migen Detektor, wodurch die Sensitivität signifikant erhöht wird.
List Mode (LM; dt. Listenmodus): Datenformat, in dem alle Ereignisse nacheinander, ggf. zusam-
men mit weiteren Informationen (Zeit, Position, Energie), in Form einer Liste gespeichert werden.
Sinogramm (lat. sinus – Krümmung): Datenformat, in dem die Projektionen nach Richtung und
Verschiebung vom Ursprungsort aufgetragen werden; ergibt einen vollständigen Datensatz zur
Rekonstruktion einer Schicht als Gesamtheit aller Projektionen, zugeordnet zum Detektionsort,
über eine Drehung von 0°bis 180°. Ein Punkt stellt sich im Sinogramm als Sinuskurve dar.
6 PET | 189
Wie jede Tomographie ist die PET-Rekonstruktion ein schlecht gestelltes inverses Pro-
blem. Nicht zu jedem (fehlerbehafteten) Sinogramm P(𝜃, s) existiert eine passende Ak-
tivitätsfunktion A(x). Die Radontransformation ist nicht surjektiv, ihr Bildbereich nur
ein linearer Unterraum im Raum aller Sinogramme. Außerdem ist der Bildbereich der
Radontransformation nicht abgeschlossen. Das bedeutet, dass die Rekonstruktion als
inverse Transformation selbst auf dem Bildbereich nicht stetig ist. Beliebig kleine Feh-
ler resultieren in großen Abweichungen des Urbildes (vgl. Abb. 5.14 in Kap. 5).
Die mangelnde Surjektivität ist kein schwerwiegendes Problem, denn daraus fol-
gen Konsistenzbedingungen an den Bildbereich möglicher Sinogramme, die die Ent-
wicklung analytischer Rekonstruktionsalgorithmen sogar vereinfachen können, z. B.
[Natterer 2001].
Da die Radontransformation also nicht allgemein invertierbar ist, kann man ihre
Pseudo-Inverse betrachten, die jedem Sinogramm p eine Aktivitätsfunktion A zuord-
net, so dass die L2 -Norm ‖RA − P‖ minimiert wird [Rieder 2003]. Diese least-squares-
(LSQ-) Lösung wird meist iterativ gefunden.
Numerisch stabiler und effizienter ist die gefilterte Rückprojektion (Filtered Back-
projection, FBP), wobei die Projektionen mit einem Ramp-Filter |k| im Fourierraum
gefiltert und dann direkt zurückprojiziert werden.
Weitere analytische Rekonstruktionsformeln lassen sich gewinnen, die bei
rausch- und fehlerfreien Sinogrammen immer exakt invertieren, ansonsten aber
zu verschiedenen Ergebnissen führen [Natterer 1999]. Für die PET müssen wir uns
aber in stärkerem Maße als etwa bei der CT dem Problem der Regularisierung und
den statistischen Effekten durch kleine Zählraten widmen. In Kombination erlaubt
dies bisher keine sehr gute analytische Lösung, so dass iterative Verfahren entwickelt
werden.
Wirklich schlecht gestellt wird die PET-Rekonstruktion durch obigen zweiten Punkt,
die Unstetigkeit der Rekonstruktion. Es wird also eine Regularisierung notwendig: zu-
sätzliche Terme oder Annahmen, die den inversen Radon-Operator durch eine geglät-
tete, stetige Variante ersetzen [Scherzer 2009]. Die Aufgabe ist die Optimierung der
Glättungsparameter als Kompromiss zwischen den Effekten der Datenfehler – kleine
Rauschbeiträge ergeben große Abweichungen der Rekonstruktion – und der Regula-
risierungsfehler – zu starke Glättung und Verlust diagnostischer Details.
Bei den analytischen Algorithmen der PET sind Regularisierungen gut verstan-
den. Bei der gefilterten Rückprojektion zeigt sich die Notwendigkeit der Regularisie-
rung im unbeschränkten Anwachsen des Filterkerns |k|. Wie bei der CT können sie in
glatter Weise bei hohen Frequenzen durch Fensterfunktionen abgeschnitten werden.
190 | Simone Beer, Henrik Botterweck
Ein Nachteil vieler statistischer Verfahren ist die nur implizite Regularisierung durch
vorzeitiges Beenden der Iteration. Es ist schwer, allgemeine Regeln zur optimalen Ite-
rationszahl anzugeben.
Einer PET-Aufnahme entspricht mathematisch eine Abbildung vom Raum der 3D-
Aktivitätsverteilungen A im Objekt in die Koinzidenzverteilungen über die LOR. Ohne
Streuung ist diese Abbildung eine X-ray-Transformation – die Integration von A ent-
lang der LOR, gewichtet mit der Schwächung entlang des Strahls. Eine Vereinfachung
der PET gegenüber SPECT ergibt sich aus der Tatsache, dass sich die Schwächung
der Zählrate aus dem Produkt der Schwächungen beider einzelnen Photonenpfade
ergibt. Deshalb ist sie unabhängig von der Position eines Zerfalls auf der LOR. In
2D mit dem LOR-Richtungswinkel 𝜃 der Verschiebung s, dem Einheitsvektor n𝜃 in
LOR-Richtung und n⊥𝜃 senkrecht darauf sowie dem lokalen Absorptionskoeffizienten
𝜇(x) ist die PET-Transformation:
⊥
R[A](𝜃, s) = e∫ 𝜇(sn𝜃 +tn𝜃 )dt ∫ A(sn⊥𝜃 + tn𝜃 )dt (6.7)
Transmission (lat. trans – hinüber; mittere – schicken): Durchstrahlung des Messobjektes aus
Quellen, die sich innerhalb des Detektorrings befinden; dient zur Abschätzung der Schwächung
der Emissionsstrahlung durch das Objekt und zur Streukorrektur.
3. die Diskretisierung der Zerfallsaktivität in Photonen, wie sie durch die Quanten-
mechanik unvermeidlich ist.
Ein Rekonstruktionsverfahren kann vor oder nach der Diskretisierung betrachtet wer-
den. Die gefilterte Rückprojektion (FBP) wird primär im kontinuierlichen Raum ent-
wickelt, statistische Rekonstruktionen sind endlichdimensional und diskret.
Jeder Rekonstruktion liegt implizit oder explizit ein statistisches Modell der Messung
zugrunde. Der 𝛽+ -Zerfall ist als Folge unabhängiger, gleichverteilter Ereignisse Pois-
son-verteilt; die Wahrscheinlichkeit, dass in einem Teilvolumen mit Aktivität A inner-
halb der Zeit T genau n Zerfälle stattfinden ist:
(AT)n
p(n) = e−AT (6.8)
n!
Bei hohen Zählraten kann eine Gauss-Verteilung angenommen werden. Unter die-
ser Näherung sind least-squares und die ähnlich wirkenden Rückprojektionsalgorith-
men (FBP) nahezu optimal. Aber je mehr Eingangskanäle existieren (3D-PET, TOF,
DOI), desto weniger Ereignisse werden im Einzelnen erwartet. Wenn man aus sol-
chen zufallsverteilten Größen abgeleitete Parameter – also die Aktivitätsverteilung –
schätzen will, so ist ein unter gewissen Bedingungen bestmögliches Optimierungs-
prinzip die Maximum-Likelihood-Schätzung: Wenn p(P|A) eine bekannte Wahrschein-
lichkeitsdichte für Sinogramme P bei gegebener Aktivitätsverteilung A ist, dann ist
L(A|P) = p(P|A) die likelihood von A bei beobachtetem P und
Für PET kann die likelihood nur iterativ maximiert werden. Der am weitesten verbrei-
tete Algorithmus ist Expectation Maximization (EM). Statt der eigentlich zu optimie-
renden Funktion wird eine betrachtet, die von weiteren, unbeobachtbaren Fakten ab-
hängt – nämlich vom tatsächlichen Herkunftsort der einzelnen Ereignisse einer LOR.
Zwei Schritte wechseln sich ab:
Expectation (E-Schritt): Bestimme den Erwartungswert der log-likelihood der Ak-
tivität, gemittelt über alle möglichen Werte der unbeobachtbaren Größen (Annihilati-
onsorte). Die Gewichte dieser Mittelung ergeben sich aus den Beobachtungen und der
aktuellen Aktivitätsschätzung.
Maximisation (M-Schritt): Bestimme eine neue Aktivitätsschätzung durch Maxi-
mieren der im letzten Schritt gefundenen Funktion.
Für PET heißt das konkret [Shepp und Vardi 1982]: Bestimme zur aktuellen Schät-
zung das erwartete Sinogramm (Vorwärtsprojektion). Hier können alle Effekte realis-
tisch modelliert werden, was den großen Vorteil iterativer Verfahren gegenüber den
analytischen ausmacht. Berechne den Quotienten aus den gemessenen und den eben
geschätzten LOR-Raten. Multipliziere die Aktivität an Orten x mit einem Faktor ent-
sprechend den Quotienten des vorigen Schritts im Sinogrammraum, wenn man sie so
gewichtet, wie sich die Annihilationen bei x über das Sinogramm verteilen (Rückpro-
jektion). Der letzte Schritt bedeutet anschaulich, dass die Korrekturkoeffizienten vom
Sinogramm entlang den LOR zurück in das Aktivitätsvolumen projiziert werden und
sich dort entsprechend mitteln.
Unpraktikabel wird der originale EM-Algorithmus durch seine schlechte Konver-
genz; oft wären über 100 Iterationen notwendig. Eine Reduktion wird möglich, wenn
in jedem Schritt nur eine Teilmenge aller LOR betrachtet wird: Ordered Subset EM
(OSEM). Für stabile Konvergenz müssen die Teilmengen möglichst gleichviel, aber
komplementäre Information enthalten. Grundsätzlich ist das Konvergenzverhalten
des OSEM-Algorithmus nicht trivial: Verschiedene Größen- und Frequenzskalen kon-
vergieren unterschiedlich, so dass Artefakte entstehen können. Bei einer empirisch
zu bestimmenden Iterationszahl ergibt sich die beste Bildqualität, entsprechend der
Regularisierung bei analytischen Algorithmen.
6 PET | 193
6.4.8 Korrekturen
Bei der statistischen 3D-PET Rekonstruktion sind sehr viele LOR iterativ zu betrach-
ten. Es ist entscheidend, speziell die Vorwärtsprojektion effizient zu implementieren.
So muss nicht für jeden Annihilationsort der geometrische Beitrag zu jeder LOR
berechnet werden, da das System Symmetrien in der zylinderförmigen Detektoran-
ordnung besitzt. Es können symmetrieangepasste Koordinaten verwendet werden.
So wird auch eine List-mode-Rekonstruktion über jeden beobachteten Zerfall einzeln
möglich. LOR, die bezüglich der Symmetrie äquivalent sind, können zusammenge-
fasst werden; mehrere solcher Gruppen können dann gleichzeitig von verschiedenen
Prozessorkernen bearbeitet werden. Zu verfolgende LOR-Strahlen sollten so abge-
arbeitet werden, dass jeweils auf die physikalischen Speicherzellen einer „memory
page“ zugegriffen wird. Das ist nicht ganz einfach, da ja der Computerspeicher linear
angeordnet, das zu betrachtende Volumen aber dreidimensional ist.
In der Kardiologie kann der funktionelle Aspekt einer Herzerkrankung für die Thera-
pieplanung und Prognoseabschätzung von großer Bedeutung sein. Die PET wird dabei
zur Untersuchung der myokardialen Perfusion und des myokardialen Stoffwechsels
eingesetzt. Als Tracer werden neben FDG auch 13 NH3 , H15 82
2 O und Rb eingesetzt. Einen
Überblick über die Methoden und klinischen Anwendungen der Nuklearkardiologie
gibt der Positionsbericht der Arbeitsgemeinschaft Kardiovaskuläre Nuklearmedizin
der Deutschen Gesellschaft für Nuklearmedizin 2001 [Arbeitsgemeinschaft Kardio-
196 | Simone Beer, Henrik Botterweck
(a) (b)
Abb. 6.5: Beispiele für Positronen-Emissions-Tomographen der (a) Humanmedizin und (b) für Klein-
tiere (Bilder von Siemens Health Care).
6.6.3 NEMA-Standard
6.7 Nebenwirkungen/Grenzwerte
Die bei einer PET-Untersuchung verwendeten Radiopharmaka sind häufig aufgrund
der Messmethode den körpereigenen Substanzen sehr ähnlich, außerdem werden sie
in sehr geringer Dosierung verabreicht. Aus diesem Grund sind Nebenwirkungen auf-
grund der pharmakologischen Intervention nicht zu erwarten. Mögliche, aber sehr un-
wahrscheinliche Nebenwirkungen können sich aufgrund des notwendigen Zugangs
zu den Blutgefäßen für die Injektion des Tracers oder eine notwendige Blutabnahme
ergeben. Hauptsächlich liegt das Risiko einer PET-Untersuchung darin, dass die Pati-
enten radioaktiver Strahlung ausgesetzt werden.
Der Strahlenschutz der Bevölkerung folgt gemäß den Empfehlungen der Inter-
nationalen Strahlenschutzkommission ICRP einer einfachen Regel: „ALARA – as low
as reasonably achievable“. Für eine PET-Untersuchung ist von einem Arzt mit der
erforderlichen Fachkunde im Strahlenschutz die „rechtfertigende Indikation“ nach
§ 80 StrlSchV zu stellen, d. h., der gesundheitliche Nutzen für den Patienten muss
die möglichen Risiken überwiegen. Eine Untersuchung mit [18 F]-FDG beispielsweise
bewirkt typischerweise eine effektive Dosis von ∼ 7 mSv. Diese Dosis ist in Relation
zur natürlichen Strahlenexposition zu sehen, die durch Quellen wie z. B. kosmische
Strahlung oder die Strahlung der natürlich vorkommenden Radionuklide in der Um-
welt bei 2,1 mSv pro Jahr liegt. Die Schwellendosis für akute Schäden aufgrund von
radioaktiver Strahlung liegt bei einer deutlich höheren Dosis von ∼ 200 mSv. Mit
steigender Dosis nimmt aber die Wahrscheinlichkeit für Spätschäden zu. Dabei er-
höht sich die Wahrscheinlichkeit für das Auftreten von tödlichem Krebs um 0,005 %
pro mSv und die Wahrscheinlichkeit für das Auftreten von schweren Erbschäden um
0,001 % pro mSv. Dem „allgemeinen“ Risiko für tödlichen Krebs von ca. 23 % und dem
raucherspezifischen Risiko von ca. 8 % steht damit ein Risiko von 0,035 % durch eine
[18 F]-FDG-Messung gegenüber (s. auch Kap. 7, Biologische Wirkung ionisierender
Strahlung und Dosimetrie).
In den Veröffentlichungen der Internationalen Strahlenschutzkommission
ICRP sind für eine große Anzahl weiterer Tracer detaillierte Informationen über die
Biokinetik und die entsprechenden Organ- und Körperdosen zu finden ([ICRP 1988]
und zugehörige Addenda). Bei der PET/CT kommt zur Strahlenexposition des PET-
Radiopharmazeutikums zusätzlich die Strahlenexposition durch die CT, als ob es sich
um getrennte Untersuchungen handeln würde.
auch die Nutzung der MRT-Daten für notwendige Korrekturen wie die Schwächungs-
korrektur.
Bei der Weiterentwicklung von PET-Detektoren spielen die neuen „Silicon-Pho-
tomultiplier“ (SiPM) [Buzhan 2003] aktuell eine große Rolle und scheinen eine sehr
interessante Alternative zu herkömmlichen Photomultipliern zu sein, da sie sehr kom-
pakt sind und unempfindlich auf Magnetfelder reagieren. Eine neue Entwicklung bei
den Kristallen sind monolithische Szintillationskristalle, in denen der Ursprung des
Szintillationslichtes durch mathematische Methoden ermittelt wird. Sie haben gegen-
über Block-Detektoren oder einzelnen Kristallstäbchen eine Menge Vorteile, so z. B. ei-
ne genaue Ermittlung der Wechselwirkungstiefe und hohe Sensitivität, da kein Raum
durch Schnitte oder reflektierende Materialen verloren geht. Eine Herausforderung ist
die Stabilität der Positionsbestimmung bzw. der nötigen Kalibrationsmessungen [van
Dam 2011]. Diese neuen Entwicklungen versprechen die Bildqualität der Positronen-
Emissions-Tomographen sowie die Kombinierbarkeit mit anderen Modalitäten weiter
zu verbessern.
Auch durch die Entwicklung neuer, spezifischer Tracer wird die PET mit ihrer ho-
hen Sensitivität ihre Bedeutung im wachsenden Bereich der molekularen Bildgebung
behalten. Dabei werden verlässliche quantitative Rekonstruktions- und Auswerteme-
thoden auch im Bereich der Forschung immer wichtiger.
Quellenverzeichnis
Arbeitsgemeinschaft Kardiovaskuläre Nuklearmedizin der Deutschen Gesellschaft für
Nuklearmedizin e.V.: Methoden und klinische Anwendung der Nuklearkardiologie:
Positionsbericht. Göttingen: Deutsche Gesellschaft für Nuklearmedizin (DGN), 2001.
Bao Q., Newport D., Chen M., Stout D. B., Chatziioannou A.: Performance evaluation of the Inveon
dedicated PET preclinical tomograph based on the NEMA NU-4 Standards. J Nucl Med 2009; 50:
401–408.
Brix G., Zaers J., Adam L-E., Bellemann M. E., Ostertag H., Trojan H., Haberkorn U., Doll J.,
Oberdorfer F., Lorenz W. J.: Performance evaluation of a whole-body PET scanner using the
NEMA Protocol. J Nucl Med 1997; 38: 1614–1623.
Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit: Strahlenschutz in der Medizin.
Richtlinie nach der Verordnung über den Schutz vor Schäden durch ionisierende Strahlen
(Strahlenschutzverordnung – StrlSchV). Berlin: 2002.
Buzhan P., Dolgoshein B., Filatov L., Ilyin A., Kantzerov V., Kaplin V., et al.: Silicon photomultiplier
and its possible applications. Nucl Instr Meth A 2003; 504: 48–52.
Casey M. E., Nutt R.: A multicrystal two dimensional BGO detector system for positron emission
tomography. IEEE Trans Nucl Sci 1986; 33: 460–463.
Chatziioannou A. F.: Molecular imaging of small animals with dedicated PET tomographs. Eur J Nucl
Med 2002; 29: 98–114.
Hubbel J. H., Seltzer S. M.: Tables of X-ray mass attenuation coefficients and mass energy-absorption
coefficients from 1 keV to 20 MeV for elements Z = 1 to 92 and 48 additional substances of
dosimetric interest. NIST Standard Reference Database 126. Gaithersburg, MD: National
Institute of Standards and Technology (NIST), 2004.
6 PET | 201
Weiterführende Literatur
Knoll G. F.: Radiation detection and measurement. 4. Aufl. New York: Wiley, 2010.
Natterer F.: Numerical methods in tomography. Acta Numerica 1999.
Natterer F., Wübbeling F.: Mathematical methods in image reconstruction. Monographs on
Mathematical Modeling and Computation 2001; 5: SIAM.
Phelps M. E.: PET: molecular imaging and its biological applications. New York: Springer, 2004.
Phelps M. E.: PET: Physics, instrumentation, and scanners. New York: Springer Science+Business
Media, LLC, 2006.
Rieder A.: Keine Probleme mit inversen Problemen. Wiesbaden: Vieweg, 2003.
Testfragen
1. Welche beiden Faktoren limitieren die grundsätzlich erreichbare Auflösung der Positronen-Emis-
sions-Tomographie?
2. Welche Anforderungen muss ein PET-Detektor erfüllen?
3. Was wird in der PET-Datenerfassung als list mode bezeichnet? Warum wird dieser in der Rekon-
struktion häufig durch akkumulierte Sinogramm-Daten ersetzt?
4. Warum stellt die Schwächung durch Absorption in der PET ein kleineres Problem dar als in der
SPECT? Formulieren Sie dazu die Integraltransformation der PET mit Schwächung mathematisch.
5. Zählen Sie typische Korrekturen der PET-Rekonstruktion auf, die zusätzlich zum idealisierten Ver-
fahren berücksichtigt werden müssen.
6. Welche Eigenschaften dürfen PET-Detektoren nicht haben, wenn sie in einem MRT betrieben wer-
den sollen? Gilt das auch, wenn sie in einem CT betrieben werden?
Olaf Dössel
7 Biologische Wirkung ionisierender Strahlung und
Dosimetrie
Abstract: Ionizing radiation can be harmful for humans – an aspect that cannot be ne-
glected in a book on medical imaging. However, the biological effect of ionizing radia-
tion is a wide research area that can only be discussed briefly in this book. Determinis-
tic and stochastic effects are described first. Further the methodology to quantitatively
evaluate the risk of health hazards arising from ionizing radiation is outlined on the
basis of quantities and units of dosimetry. Typical doses applied in X-ray imaging and
nuclear medicine are presented. The safe operation of X-ray and nuclear medicine
systems and laboratories is ensured by several legal regulations that are summarized
here.
204 | Olaf Dössel
Zelloberfläche
ionisierendes
Teilchen
Liposomen
Ribosomen
Mitochondrium
raues endoplasma-
vom Tubulus-Typ
tisches Retikulum
Nucleolus
Poren der Kernhülle
Mitochondrium
Golgi-Komplex vom Crista-Typ
ment des Wassers: das Hydroxyl-Radikal OH− . Diese Radikale können den Zellen
Schaden zufügen, indem sie mit Molekülen der Zelle reagieren und so deren Funktion
beeinträchtigen.
Eine ganze Reihe solcher Schäden wird nach kurzer Zeit durch natürliche Prozes-
se wieder „repariert“, wenn die Einwirkung von außen ein „erträgliches Maß“ nicht
überschreitet. Die Dosis, die nicht überschritten werden darf, kann für alle Zelltypen
des Körpers folgendermaßen bestimmt werden: Gesunde Zellen in einem Kulturmedi-
um teilen sich mit einer typischen Rate. Wird durch die Einwirkung der Strahlen diese
„Kolonienbildung“ gestoppt, so ist die maximale Dosis erreicht. Bleibt man unterhalb
dieser Dosis, gilt: je kleiner die Dosis, desto kleiner der Effekt auf die Zellteilungsrate
(der Effekt ist nicht unbedingt linear: siehe Dosiseffektkurven). Schäden, die sich so
verhalten, werden als deterministische Schäden bezeichnet. Bei großen kerntech-
nischen Unfällen ist es vorgekommen, dass Menschen einer so großen Strahlung aus-
gesetzt waren, dass ein sehr großer Teil ihrer Zellen nicht repariert werden konnte
und sie daran gestorben sind. Auch dies sind deterministische Schäden. Die LD 50/60
ist die lethale Dosis, bei der 50 % der betroffenen Menschen nach 60 Tagen verstorben
sind. Sie beträgt für gesunde Menschen 3 bis 5 Gy [Knedlitschek und Weibezahn 2002]
(die Einheit wird in Kap. 7.3 erklärt).
Deterministische Schäden: Schäden des Körpers durch ionisierende Strahlen, die umso größer
werden, je größer die Dosis ist.
Stochastische Schäden: Schäden des Körpers durch ionisierende Strahlen, bei denen die Wahr-
scheinlichkeit für einen Schaden mit der Dosis zunimmt.
Nun gibt es aber auch Schäden, die nicht repariert werden können oder bei deren Re-
paratur zufällig etwas „schief gegangen ist“. Hierzu zählen insbesondere Schäden an
der DNA, die sowohl durch direkte Treffer als auch durch Reaktion mit freien Radika-
len entstanden sein können. Man unterscheidet stochastische Schäden an den all-
gemeinen Körperzellen und stochastische Schäden an den Keimzellen. Die Ersteren
können in einer Kaskade weiterer Prozesse Krebs auslösen. Die Zweiten können zu ei-
ner Schädigung des möglicherweise aus diesen Keimzellen entstehenden Lebewesens
führen. Schon eine sehr kleine Dosis kann, wenn auch mit sehr kleiner Wahrschein-
lichkeit, einen stochastischen Schaden auslösen.
Die Teilchenflussdichte von einem parallelen Strahlenbündel ist als Zahl der Teil-
chen N (z. B. Photonen) pro senkrecht zum Flussvektor stehender Fläche dA pro Zeit
dt definiert.
Teilchenflussdichte 𝜙: Zahl der Teilchen bzw. Photonen pro Durchtrittsfläche und Zeitintervall in
1/(m2 s).
Zahl der Teilchen d2 N
𝜙= =
Fläche (senkrecht) ⋅ Zeit dA ⋅ dt
Teilchenfluenz 𝛷: Teilchenflussdichte, integriert über ein Zeitintervall in 1/m2 .
Die Teilchenfluenz 𝛷 ist die über eine vorgegebene Zeitspanne integrierte Photonen-
zahl pro Fläche. Diese Größe erlaubt unmittelbar die Berechnung der Zahl der Photo-
nen pro Pixel, die für das Quantenrauschen (Poisson-Statistik, s. Kap. 21.5) maßgeb-
lich ist. Für einen nicht in eine Richtung ausgerichteten Photonenfluss wird die Zahl
der Photonen genommen, die pro Zeit dt in eine Kugelfläche dA eintritt.
Die Energieflussdichte 𝜓 ist bei einem parallelen Strahlenbündel die Energie E,
die durch eine senkrecht stehende Fläche dA pro Zeit dt hindurchtritt. Sie ist bei Pho-
tonen identisch mit dem Poyntingvektor der elektromagnetischen Feldtheorie.
Energieflussdichte 𝜓: durch eine Fläche pro Zeitintervall hindurchtretende Energie in Form von
Strahlung in J/m2 s = W/m2 .
durchtretende Energie d2 E
𝜓= =
Fläche (senkrecht) ⋅ Zeit dA ⋅ dt
dE
𝛹= = ∫ 𝜓dt
dA
Die Aufgabe, ein Strahlenfeld quantitativ auszumessen, führt zu den Größen Ionen-
dosis und Ionendosisleistung. Die genauen Definitionen sind:
Halten wir eine mit Luft gefüllte Messkammer in einen Strahlengang und bestim-
men die in dieser Messkammer durch Ionisation gebildete Ladungsmenge (eines Vor-
zeichens) dividiert durch die Masse des Gases in der Kammer, so erhalten wir die Io-
nendosis J. Die zeitliche Ableitung der Ionendosis ist die Ionendosisleistung.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 207
Ionendosis: Maß für die ionisierende Strahlung. Die in einem Messobjekt durch Strahlung gebil-
dete Ladung (eines Vorzeichens) pro Masse des Messobjekts (z. B. der Masse des Gases in einer
Messkammer) in As/kg.
dJ
Ionendosisleistung J ̇ =
dt
Früher wurde die Ionendosis in der Einheit Röntgen (R) angegeben, wobei 1 R = 2,58 ⋅
10−4 As/kg.
Die Masse des Gases in der Messkammer erhält man, indem man den Druck und
die Temperatur misst und daraus die Dichte bestimmt. Dann multipliziert man die
Dichte mit dem Volumen der Messkammer und erhält die Masse.
Es sollte beachtet werden, dass die Messkammer selber den Photonenfluss nur
sehr wenig absorbieren sollte.
Mithilfe eines geeigneten Massenschwächungskoeffizienten von Luft (der natür-
lich von der Photonenergie abhängt), kann aus der Teilchenflussdichte 𝜙 die Ionen-
dosisleistung berechnet werden (und umgekehrt).
Die Frage nach dem Schaden, der einem Körper zugefügt wird, der sich diesem
Photonenfluss aussetzt, führt als Erstes zu der Größe Kerma K (kinetic energy released
in matter):
Die Kerma kann mit einem geeigneten Massenschwächungskoeffizienten 𝜇/𝜌 aus der
Energiefluenz berechnet werden. Der Massenschwächungskoeffizient hängt vom Ma-
terial (Wasserkerma bzw. Luftkerma) und der Photonenergie ab.
Im nächsten Schritt definiert man die gesamte im Objekt deponierte Energie pro
Masse: die Energiedosis D.
Energiedosis D: in einem Körper durch Strahlung deponierte Energie pro Masse des Körpers in
J/kg = Gy (Gray).
in der Probe deponierte Energie
Energiedosis = D =
Masse der Probe
̇
Energiedosisleistung D: Energiedosis pro Zeitintervall in J/(kg s) = Gy/s.
dD
Energiedosisleistung Ḋ =
dt
208 | Olaf Dössel
Tab. 7.1: Bewertungsfaktoren q für verschiedene Strahlenarten (für Neutronen und Protonen unbe-
kannter Energie).
Äquivalentdosis: Produkt aus Energiedosis und einem strahlenartabhängigen Faktor, der die bio-
logische Wirksamkeit berücksichtigt. Dieser Faktor wurde für Röntgenstrahlen auf 1 festgelegt.
Die Äquivalentdosis wird in der Einheit Sievert (Sv) angegeben.
Äquivalentdosis = H = q ⋅ D
Äquivalentdosisleistung = Ḣ = q ⋅ Ḋ
Der Bewertungsfaktor für Photonen wurde willkürlich auf 1 festgelegt. Früher wurde
die Äquivalentdosis in rem angegeben, wobei 1 rem = 10 mSv.
Die jetzt gültige Einheit der Äquivalentdosis ist, da der Bewertungsfaktor keine
Einheit hat, wieder J/kg. Um Verwechslungen zu vermeiden, wurde die Einheit Sie-
vert (Sv) für die Äquivalentdosis eingeführt. Da der Bewertungsfaktor für die in die-
sem Buch interessierenden Röntgen- und Gammaquanten 1 ist, ist der Zahlwert für die
Energiedosis in Gy und die Äquivalentdosis in Sv hier gleich.
Absorbiert ein Körper tatsächlich einen wesentlichen Anteil der auftreffenden
Photonen, so wird ein kleines Volumenelement an der Oberfläche die größte Dosis
erhalten (Hautdosis). Je tiefer das Volumenelement im Körper liegt, desto kleiner ist
dann die Energiedosis (Tiefendosis).
Bei der sogenannten Ganzkörperdosis wird die ungleichmäßige Verteilung der
Dosis im Körper vernachlässigt und einfach die gesamte deponierte Energie durch das
Körpergewicht geteilt. Bei der Organdosis wird entsprechend die im Organ deponierte
Energie durch das Gewicht des Organs geteilt.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 209
J⋅f =D
fWasser, 100 kV, 4,2 mm Al = 34, 50 Gy/(As/kg)
fMuskel, 100 kV, 4,2 mm Al = 35, 66 Gy/(As/kg) (7.2)
Relatives Risiko (RR): Risiko, durch eine Strahlenexposition an Krebs zu erkranken. Es, gibt den
Faktor an, um den die Spontanrate der Tumorerkrankung durch die Exposition erhöht wird.
Attributives Risiko: relatives Risiko minus 1. Damit ist das attributive Risiko Null, wenn durch die
bewerteten Einflüsse keine zusätzlichen Erkrankungen auftreten.
Das attributive relative Lebenszeitrisiko muss genau genommen für alle Organe des
Körpers getrennt angegeben werden, da jedes Organ unterschiedlich empfindlich auf
ionisierende Strahlung reagiert (Gewebegewichtsfaktoren und effektive Dosis). Auch
ist das Risiko natürlich vom Alter bei der Strahlenexposition abhängig: Bei Kindern
210 | Olaf Dössel
und Jugendlichen ist das Risiko deutlich größer als bei Menschen, die älter als 40 Jahre
sind. Schließlich muss man zwischen Männern und Frauen unterscheiden. Trotzdem
macht es Sinn, auch die pauschalen Werte abzuschätzen. Man sollte aber wissen, dass
es für den Einzelfall (wenn Alter, Geschlecht und Art der Exposition bekannt sind)
Methoden gibt, das Risiko genauer zu bestimmen.
Die Internationale Strahlenschutzkommission ICRP gibt einen pauschalen
Wert von 5,2 % pro Sievert für das attributive Lebenszeitrisiko, an Krebs zu erkranken,
und für vererbbare Schäden einen Wert von 0,2 % pro Sievert an [ICRP 2007]. Das
bedeutet, dass nach einer Aufnahme mit 1 mSv im statistischen Mittel von 1 Mio. Pa-
tienten 52 dadurch an Krebs sterben. Das muss verglichen werden mit einer Zahl von
ca. 220 000 Krebstoten pro Jahr in Deutschland. Bezogen auf ca. 80 Mio. Einwohner
entspricht das 2750 Krebstoten pro 1 Mio. Menschen.
In Deutschland beträgt die natürliche Strahlenexposition 2,4 mSv pro Jahr. Die
220 000 Krebstoten pro Jahr haben also überwiegend andere Ursachen als die natür-
liche oder diagnostische Strahlenbelastung. Ebenfalls sei zum Vergleich gesagt: Ein
Transatlantikflug verursacht eine zusätzliche Dosis von ca. 0,03 mSv. Diese Dosis kann
bei ca. zwei von 1 Mio. Passagieren eine Krebserkrankung auslösen.
Krankheiten, die es zu untersuchen gilt (z. B. Herzinfarkt), oft einen tödlichen Aus-
gang nehmen und daher ein höheres Strahlenrisiko akzeptiert wird.
In der Szintigraphie erfolgt die Berechnung der Äquivalentdosis völlig anders als
in der Röntgendiagnostik, da in der Nuklearmedizin ein radioaktives Isotop in den
Körper des Patienten injiziert wird. Aber die Äquivalentdosis hat natürlich die gleiche
Bedeutung wie in der Röntgendiagnostik. Tabelle 7.3 zeigt einige typische Werte.
An einigen Durchleuchtungssystemen wird am Bedienpult der Anlage die im Ver-
lauf der Untersuchung insgesamt applizierte Äquivalentdosis angezeigt. Wie kann die
Röntgenanlage abschätzen, welche Dosis der Patient bereits abbekommen hat?
Der Schlüssel zu der Antwort ist die sogenannte Äquivalentdosisleistungskon-
stante 𝛤H (Abb. 7.2). Diese Zahl gibt die Äquivalentdosisleistung bei 1 mA Anoden-
strom und 1 m Abstand zwischen Röhre und Patient an. Daraus erhält man die Äqui-
valentdosisleistung nach folgender Formel:
I
Ḣ = 𝛤H ⋅ A (7.3)
rRP
wobei IA der Anodenstrom und rRP der Abstand zwischen der Röntgenröhre und dem
Patienten ist. Die Äquivalentdosis ist dann das Zeitintegral der Äquivalentdosisleis-
tung, also die Summe aus allen gewählten Äquivalentdosisleistungen multipliziert
mit den zugehörigen Belichtungszeiten.
Wird für die Röhre beispielweise eine Anodenspannung von 100 kV gewählt, ein
2 mm Aluminiumfilter verwendet, 60 mA Anodenstrom und eine Belichtungszeit von
1 s eingestellt, so hat der Patient eine Dosis von 10 mSv bekommen.
7.6 Dosimeter
Das Personal, welches im Bereich einer röntgendiagnostischen oder nuklearmedizi-
nischen Einrichtung arbeitet, unterliegt der Strahlenschutzkontrolle. Es muss bei der
Arbeit ständig Dosimeter am Körper tragen, um eine Messung der Äquivalentdosis,
die möglicherweise versehentlich appliziert wurde, zu ermöglichen.
Im Einsatz sind sogenannte Stabdosimeter und Dosimeter mit Filmplaketten. Bei
den Stabdosimetern wird ein kleiner beweglicher Faden in einer kleinen Ionisations-
212 | Olaf Dössel
1000
Filter in mm
1 Be
Äquivalentdosisleistungskonstante I¯R in (mSv m²)/(mA min)
100
0,2 Al
0,5 Al
1 Al
2 Al
3 Al
10
0,5 Cu
1 2 Cu
3,4 Cu
0,1
50 100 150 200
Röhrenspannung in kV
kammer elektrostatisch aufgeladen. Geht nun ionisierende Strahlung durch das Do-
simeter, so entlädt sich der Faden und verkippt im Dosimeter. Dies ist mit einer Lupe
zu erkennen. Die Filmplaketten sind mit einem hochempfindlichen Röntgenfilm aus-
gestattet und zeigen eine Schwärzung, wenn sie belichtet wurden. In den Plaketten
sind außerdem verschiedene Metallplättchen angebracht, mit deren Hilfe eine Aussa-
ge über die ungefähre Energie der Strahlung und deren Einfallsrichtung möglich ist.
Die Filme müssen regelmäßig entwickelt und quantitativ ausgemessen werden.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 213
Quellenverzeichnis
DIN 6812: Deutsches Institut für Normung e. V. www.din.de.
DIN 6827: Deutsches Institut für Normung e. V. www.din.de.
DIN 6855: Deutsches Institut für Normung e. V. www.din.de.
DIN 6868: Deutsches Institut für Normung e. V. www.din.de.
de.wikibooks.org/wiki/Physikalische_Grundlagen_der_Nuklearmedizin/_Dosimetrie, Zugriff: Juni
2012.
ICRP: Die Empfehlungen von 2007 der Internationalen Strahlenschutzkommission (ICRP) von 2007, –
ICRP-Veröffentlichung 103, www.icrp.org/. Zugriff: Juni 2012.
Jung H.: Strahlenrisiken. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag, 1998:
24–42.
Knedlitschek B., Weibezahn K. F.: Biologische Grundlagen der Strahlenwirkung. In: Schlegel W.,
Bille J. (Hrsg.): Medizinische Physik. Band 2: Medizinische Strahlenphysik. Berlin: Springer,
2002: 123–134.
Schlegel W., Bille J. (Hrsg.): Medizinische Physik. Band 2: Medizinische Strahlenphysik. Berlin:
Springer, 2002.
Weiterführende Literatur
BMU (Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit): Umweltradioaktivität und
Strahlenbelastung. Jahresbericht 1994.
Bundesärztekammer: Leitlinien der Bundesärztekammer zur Qualitätssicherung in der
Röntgendiagnostik. Qualitätskriterien röntgendiagnostischer Untersuchungen. Deutsches
Ärzteblatt 1995; 92: B 1691–1703.
Laubenberger T., Laubenberger J.: Technik der medizinischen Radiologie. Köln: Deutscher
Ärzte-Verlag, 1994.
Medizinproduktegesetz (MPG): www.gesetze-im-internet.de/mpg.
Röntgenverordnung (RöV): www.gesetze-im-internet.de/r_v_1987.
Strahlenschutzverordnung (StrlSchV): www.gesetze-im-internet.de/strlschv_2001/index.html.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 215
Testfragen
1. Was ist der Unterschied zwischen stochastischen und deterministischen Wirkungen ionisieren-
der Strahlung?
2. Wie sind die Teilchenflussdichte und die Teilchenfluenz definiert?
3. Wie sind die Energieflussdichte und die Energiefluenz definiert?
4. Wie sind die Ionendosis und die Ionendosisleistung definiert und in welcher Einheit werden sie
gemessen?
5. Wie sind die Energiedosis und die Energiedosisleistung definiert und in welcher Einheit werden
sie gemessen?
6. Wie sind die Äquivalentdosis und die Äquivalentdosisleistung definiert und in welcher Einheit
werden sie gemessen? Nennen Sie den Bewertungsfaktor für Photonen und für Protonen.
7. Wie groß ist die jährliche natürliche Äquivalentdosis in Deutschland?
8. Wie sind das relative Risiko (RR), das relative Lebenszeitrisiko und das attributive Risiko, durch
eine Strahlenexposition an Krebs zu erkranken, definiert?
9. Wie kann man mit Hilfe der Äquivalentdosisleistungskonstanten die Äquivalentdosis abschät-
zen, der ein Patient bei einer Röntgenaufnahme ausgesetzt wird?
10. Welche Gesetzte und Verordnungen regeln in Deutschland den sachgerechten Umgang mit Rönt-
genstrahlen in der medizinischen Diagnostik?
Helmut Ermert, Christian Hansen
8 Ultraschall
Abstract: Using ultrasound waves to produce images of the human body – this is the
fascinating world of sonography. This chapter first presents basic foundations of ul-
trasound wave propagation in biological tissue and the design and operation of trans-
ducers. Following sections discuss the conventional ultrasonic imaging concepts B-
mode and Doppler-based systems. New ultrasonic imaging modalities such as com-
pounding, elastography, and application of contrast agents open up new diagnostic
options. Finally, relevant aspects of patient safety and system quality assurance will
be discussed.
218 | Helmut Ermert, Christian Hansen
8.1 Einleitung
Diagnostischer Ultraschall gilt als relativ kostengünstige, strahlenphysikalisch unge-
fährliche, unbelastende, mobile und leicht zu applizierende Modalität, die neben der
konventionellen Röntgentechnik das am weitesten verbreitete medizinisch-diagnos-
tische Bildgebungsverfahren darstellt.
Die Technik der diagnostischen Bildgebung mit Ultraschall hat einen hohen Stand
erreicht. Mit den Entwicklungen der letzten Jahrzehnte auf dem Gebiet der Elektro-
nik, Sensorik und Signalverarbeitung konnte erreicht werden, dass heute selbst Ultra-
schallgeräte der mittleren und unteren Preisklasse einschließlich tragbarer Systeme
eine Bildqualität hervorbringen, die zu Zeiten der Anfänge des medizinisch-diagnos-
tischen Ultraschalls nicht denkbar gewesen wären. Zwar erfordern die Ultraschallbil-
der auch moderner B-Bild-Geräte immer noch ein erfahrenes und geübtes Auge auf-
seiten des Anwenders, aber nicht mehr in dem Maße wie in den Anfängen des Ultra-
schalls. Auf dem heutigen Stand der Technik fungiert das Ultraschallgerät als leicht
handhabbares System für den Arzt, für den sich Ultraschalluntersuchungen in Bezug
auf den Grad der Interaktivität und den organisatorischen Ablauf bei der Anwendung
von Röntgen-, CT- und MR-Untersuchungen wesentlich unterscheiden.
Man kann dem bildgebenden Ultraschall drei verschiedene diagnostische Ziel-
richtungen zuordnen: Die dominierende und traditionelle ist die morphologische
Abbildung, die im Rahmen des B-Bild-Konzeptes zu einer grauwertkodierten Schnitt-
bilddarstellung im Echtzeitbetrieb mit den bereits erwähnten Qualitätsfortschritten
geführt hat, welche sich vornehmlich auf räumliche Auflösung und Kontrastauflösung
beziehen.
Neben der morphologischen Abbildung ist die funktionelle Abbildung eine zwei-
te, äußerst bedeutende Zielrichtung. Beim Ultraschall ist es insbesondere die tech-
nische Nutzung des Doppler-Effektes (s. Kap. 8.6), welche die Quantifizierung und
Visualisierung von Blutfluss erlaubt und damit funktionsdiagnostische Möglichkeiten
schafft. Die Entwicklungen auf dem Gebiet der farbkodierten, bildgebenden Dopp-
ler-Sonographie in den 1980er-Jahren haben mit zu dem großen Erfolg der Ultra-
schalltechnik beigetragen und diese für die Kardiologie und die Angiologie zu einer
unverzichtbaren diagnostischen Technik werden lassen. Mehr noch als die flussrich-
tungsselektive Darstellungsweise („color flow“) ist die flussintensitätsorientierte Dar-
stellung (power mode“) geeignet, Vaskularisierung und Perfusion zu visualisieren,
und hat damit die diagnostischen Möglichkeiten weiter bereichert. Die Technik zur
Darstellung von Flusszuständen in kleinen Gefäßen mit Ultraschall als funktionelle
Abbildungsmodalität hat mit der Entwicklung von kurzlebigen und lungengängigen
Ultraschallkontrastmitteln (s. Kap. 8.7.3) einen weiteren Impuls erfahren, der u. a.
die Möglichkeiten der quantitativen Flussanalyse verbessert und Anwendungsmög-
lichkeiten in den Bereichen erschließt, in denen die Doppler-Technik ohne Kontrast-
mittel aus Gründen der relativ geringen Empfindlichkeit nur begrenzt einsetzbar ist.
Die Anwendung spezieller Kontrastmittel verspricht auch einen erfolgreichen Ein-
satz des Ultraschalls in der molekularen Bildgebung.
Das Hauptanwendungsgebiet des Ultraschalls in der Medizin liegt im Bereich der me-
dizinischen Diagnostik. Die Ultraschalltechnik hat seit ihren ersten medizinisch-
diagnostischen Anwendungen in den 1940er- und 1950er-Jahren [Dussik 1942, Howry
et al. 1952, Wild 1950], begünstigt durch ihren erfolgreichen Einsatz in der Gynäkologie
und Geburtshilfe, in nahezu allen Fachbereichen der Humanmedizin Einzug gehalten.
Ultraschallabbildungsverfahren finden heutzutage hauptsächlich Verwendung in der
bereits erwähnten Gynäkologie und Geburtshilfe, in der Gastroenterologie, in der Kar-
diologie und allgemein in der Radiologie. Darüber hinaus wird die Sonographie unter
anderem auch in der Pädiatrie, der Orthopädie, der Chirurgie sowie in der Neurologie,
der Onkologie, der Urologie und der Angiologie eingesetzt.
Obwohl die Technik der Ultraschallbildgebung detailliert in Kapitel 8.5 be-
schrieben wird, ist es für das Verständnis der folgenden Ausführungen sinnvoll,
bereits an dieser Stelle das grundsätzliche Prinzip der Ultraschallabbildung vor-
220 | Helmut Ermert, Christian Hansen
Schallwandler: Ultraschallbild
Array aus Einzelelementen y (grauwertkodiertes B-Bild)
(elevat.)
x (lateral)
Haut,
Muskel Fett
Muskel
z (axial)
Schild- 1
drüse
Hals-
Luft- schlagader
röhre Scan 2
Strahl-
linie
3
(a) (b) 1 2 3 cm
Abb. 8.1: Puls-Echo-Betrieb am Beispiel der Schilddrüsenabbildung. (a) Schematische Skizze. (b) B-
Bild mit folgenden Artefakten (vgl. Kap. 8.5): Abschattung hinter der Luftröhre (Stern), Randschat-
ten von der Halsschlagader (Kreuze), dorsale Schallverstärkung hinter der Halsschlagader (Kreis)
und Speckle im Bereich der Schilddrüse (Dreieck). Das Ultraschallbild wurde mit einem Siemens
Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz aufgenommen.
Neben den aufgeführten Vorteilen der Sonographie existieren allerdings auch Nach-
teile, die ihren Einsatz gerade in Konkurrenz zur Röntgen-CT oder MRT limitieren:
– Transmissionsgrenzen: Die Anwendbarkeit von Ultraschall ist (bis auf wenige
Ausnahmen) auf die Darstellung von Weichgewebe begrenzt, da die üblicherwei-
se in der Medizin genutzten Ultraschallwellen in gasgefüllte Bereiche und rigide
Strukturen wie Knochen kaum eindringen können. Auch Regionen, die in Schall-
ausbreitungsrichtung hinter Knochen oder gasgefüllten Regionen liegen, können
nicht abgebildet werden. In Weichgewebe breitet sich Ultraschall hingegen bes-
222 | Helmut Ermert, Christian Hansen
ser aus. Allerdings ist auch hier die Eindringtiefe begrenzt, da die Schallwellen
im Gewebe gedämpft werden.
– Rauschen: Ultraschallbilder sind von Speckle-Rauschen überlagert (vgl.
Abb. 8.1 (b)). Die Ursache für das Auftreten von Speckle wird in Kapitel 8.5.2
näher beschrieben. Im Vergleich zur rauscharmen Darstellung in CT- und MRT-
Aufnahmen werden diese Speckle häufig als störend empfunden.
– Unidirektionalität: Röntgen-CT und MRT nehmen als multidirektionale Aufnah-
meverfahren das zu untersuchende Objekt aus einer Vielzahl verschiedener Blick-
richtungen in einer Schnittebene auf. Dies ist zwar bei diesen rekonstruktiven
Verfahren für die Bildgebung unumgänglich [Buzug 2004, Kalender 2006, Oppelt
2005, Morneburg 1995], führt allerdings direkt dazu, dass im entstehenden Bild
keine Vorzugsrichtung existiert. Die konventionelle Sonographie arbeitet hinge-
gen unidirektional. Hier kommt es zu Phänomenen bei der Abbildung (z. B. Tie-
fenabhängigkeiten und Artefakte), die von der Einfallsrichtung der Schallwellen
und der damit verbundenen Interaktion zwischen Schallwellen und Objekten ab-
hängen (vgl. Kap. 8.5.3).
– Bildorientierung: Die Orientierung der Bildebene (axial, lateral und elevational
gemäß Abb. 8.1) in einem an dem Schallwandler ausgerichteten Koordinaten-
system ist in Relation zu den Koordinatenachsen des Patienten (koronal, trans-
versal und sagittal [Sobotta 2002]) nicht eindeutig festgelegt, sondern variiert mit
der Position und Ausrichtung des Schallwandlers. Dies bedingt, dass bei den Ul-
traschallaufnahmen stets angegeben werden oder durch standardisierte Untersu-
chungsprotokolle definiert sein muss, wie ein Ultraschallbild entstanden ist. Bei
CT- oder MRT-Aufnahmen hingegen ist eine Darstellung von Schnittebenen üb-
lich, die an den Koordinatenachsen des Patienten ausgerichtet sind (z. B. die ty-
pische Drei-Felder-Ansicht bei Volumendatensätzen). Die variable Orientierung
der Ultraschallbildebene führt zu einer erschwerten Deutung der sonographisch
dargestellten Anatomie.
Eine Besonderheit der Sonographie ist die Möglichkeit eines hohen Maßes an Interak-
tivität von Ultraschalluntersuchungen, die durch die vielen Freiheitsgrade in der Auf-
nahmetechnik entsteht. Durch manuelles Verschieben des Schallkopfes und Druck-
applikation ändert sich die Darstellung von Organen im Ultraschallbild. Das Speck-
le-Muster verändert sich mit der dargestellten Form des Objektes, Artefakte zeigen
sich an anderer Position im Bild, und Objekte verändern ihre Lage zueinander. Die-
se Möglichkeit kann einerseits als vorteilhaftes Merkmal der Sonographie angesehen
werden. Die Interaktivität erlaubt es, eine Bildebene (auch durch manuelle Kompressi-
on des Gewebes) einzustellen, die eine Befundung und Diagnose optimal ermöglicht.
Auf der anderen Seite entsteht auf diese Weise eine große Intra- und Inter-Observer-
Variabilität der Diagnose, da nicht sichergestellt ist, dass die optimale Bildebene von
dem aktuellen Untersucher auch gefunden wird. Die Ultraschalluntersuchung erfor-
8 Ultraschall | 223
dert daher große Erfahrung auf Seiten des Anwenders. Forderungen nach standardi-
sierten Untersuchungsverfahren sind die Folge.
Einen Schritt weiter gehen Systeme, die nicht nur die Durchführung der Unter-
suchung festlegen, sondern darüber hinaus eine automatisierte Bildaufnahme ggf.
sogar dreidimensional ermöglichen. Solche Systeme sind allerdings klinisch bislang
nicht etabliert oder befinden sich noch in der technischen Entwicklung. Durch ih-
ren Einsatz könnte jedoch eine Reproduzierbarkeit und gute Dokumentierbarkeit der
Bilderzeugung erzielt werden. Ein besonderer Vorteil entstünde dadurch, dass solche
Systeme ggf. von Assistenzpersonal bedienbar sind. Derzeit werden in Deutschland
Ultraschalluntersuchungen nur von Ärzten durchgeführt und beurteilt. Das hinge-
gen bei CT- und MRT-Untersuchungen übliche arbeitsteilige Konzept, die Bildaufnah-
men standardisiert durch Assistenzpersonal durchführen zu lassen und die Bilder nur
zur Diagnose einem Arzt vorzulegen, wird zur Senkung von Betriebskosten in Län-
dern wie Großbritannien oder den USA auch bei der Ultraschallabbildung angewandt.
Aufgrund der oben beschriebenen Untersucherabhängigkeit der Sonographie wird in
Deutschland allerdings davon Abstand genommen. Die automatisierte Bilderzeugung
könnte eine solche Arbeitsteilung hingegen ermöglichen, sofern sie sich in zeitopti-
mierter Weise und mit gesicherten Qualitätsstandards in den klinischen Betrieb inte-
grieren ließe.
Möglichkeiten zur Realisierung einer automatisierten und reproduzierbaren Bild-
erzeugung bieten Systeme, die für die Anwendung an speziellen Organen entworfen
wurden. Im Vordergrund des Interesses steht dabei häufig die Mammadiagnostik.
Hier gibt es derzeit mehrere Entwicklungsaktivitäten und auch bereits einige Produk-
te. Zum Beispiel hat die Firma Siemens Healthcare ein System auf den Markt gebracht,
bei dem ein besonders breiter Schallwandler frontal auf die Mamma aufgesetzt und
automatisiert über die weibliche Brust senkrecht zur Bildebene (elevational gemäß
Abb. 8.1) verfahren wird, um so 3D-Datensätze aufzunehmen [Wöhrle et al. 2010].
Die Firma Toshiba Medical Systems unterstützt Entwicklungsarbeiten zu einem Scan-
ner, bei dem ein Schallwandler in aufrechter Position elevational um die Brust ro-
tiert [Halliwell et al. 2008, Shipley et al. 2005]. Hier ist unter anderem auch die Tech-
nik des spatial compoundings (s. Kap. 8.7.1) anwendbar. Die Firma Techniscan Medi-
cal Systems [www.techniscanmedicalsystems.com], die Firma Helix Medical Systems
[www.helix.co.il] und das Karmanos Cancer Institute [Duric et al. 2007, Glide et al.
2007] haben unabhängig voneinander Ultraschallscanner für die Mammadiagnostik
entwickelt, die nach einem vergleichbaren Prinzip arbeiten. Eine flexible Lösung für
einen Echo-CT-Mammascanner, die ein konventionelles Ultraschallgerät zur Bildge-
bung verwendet und den Einsatz von Kontrastmitteln gestattet, wurde in [Hansen
2009] gefunden.
Neben den oben beschriebenen klinischen Anwendungen können bei der Ultra-
schalldiagnostik auch verschiedene diagnostische Ziele unterschieden werden.
224 | Helmut Ermert, Christian Hansen
Morphologische Diagnostik
Die in der Medizin konventionell eingesetzte zweidimensionale Ultraschallabbildung
erfolgt, wie bereits weiter oben am Beispiel der Abb. 8.1 beschrieben, im sogenann-
ten Puls-Echo-Betrieb. Die auf Echos an Grenzschichten und Streuern im Gewebe
basierende Bildinformation in den Schnittbildern repräsentiert in erster Linie die Mor-
phologie (Größen, Formen, Dimensionen, Umrandungen, Grenzschichten) des Ob-
jektes. Häufig unterscheiden sich verschiedene Areale in den morphologischen Bil-
dern durch die dargestellte Textur (s. Kap. 8.7.5) und das auftretende Speckle (s.
Kap. 8.5.3), womit indirekt bereits ein Hinweis auf bestimmte Arten bzw. Zustän-
de des biologischen Gewebes gegeben sind. Die diagnostische Aussagekraft der mor-
phologischen Bildinformation wird wesentlich durch die Echtzeitfähigkeit der Ultra-
schallbildgebung unterstützt. Letztere gestattet bereits einen Schritt in Richtung einer
funktionellen Diagnostik.
Funktionsdiagnostik
Neben einer diagnostischen Beurteilung der anatomischen Verhältnisse über die ab-
gebildete Morphologie und Textur von Organen und Gewebearten besteht auch die
Möglichkeit, funktionelle Untersuchungen sonographisch durchzuführen. Neben der
Untersuchung von Bewegungsabläufen in den morphologischen Echtzeitbildern liegt
der Schwerpunkt funktionsdiagnostischer Verfahren in der Untersuchung der Blutver-
sorgung des Gewebes bzw. der Organe. Etablierte Verfahren sind hier die qualitative
Darstellung und die quantitative Messung von Blutflussgeschwindigkeiten in Blutge-
fäßen, die weitgehend auf dem Doppler-Effekt basieren [Bogdahn 1998, Jensen 1996].
Erstmalig angewandt in 1957 [Satomura 1957], hat gerade die quantitative Blutflussab-
bildung der Sonographie einen großen Aufschwung in den 1980er-Jahren verschafft.
Die Blutbestandteile (im Wesentlichen Erythrozyten, Leukozyten und Thrombo-
zyten) erzeugen nur eine geringe Rückstreuung der Ultraschallwellen. In einem Ultra-
schallbild in gewebeoptimierter Aussteuerung ist das echoarme Innere von größeren
Blutgefäßen daher dunkel dargestellt (z. B. die Halsschlagader in Abb. 8.1 (b)). Trotz
dieser sehr geringen Rückstreuung können die aus dem Blutgefäß empfangenen Echo-
signale genutzt werden, um die Bewegung von Blutteilchen (hier aufgrund ihrer domi-
nierenden Größe und Menge vorrangig der Erythrozyten) über einen kurzen Zeitraum
zu beobachten und deren Bewegungsrichtung und Geschwindigkeit zu schätzen. Die
verschiedenen Modifikationen der Doppler-Sonographie werden in Kapitel 8.6 vor-
gestellt.
Bei großer klinischer Akzeptanz und Anwendung sind die Doppler-Verfahren
im Bereich niedriger Flussgeschwindigkeiten von unter zehn Zentimetern pro Se-
kunde, wie sie in kleinen Gefäßen des Blutkreislaufes vorkommen, nicht einsetzbar.
8 Ultraschall | 225
Zur zweiten Gruppe ist das sogenannte HIFU-Verfahren (High-Intensity Focused Ultra-
sound, HIVU) zu zählen, das hochfokussierten Ultraschall zur thermischen Behand-
lung von Tumoren verwendet und in den letzten Jahren an Interesse gewonnen hat
[Kremkau 1979, Randal 2002, Kennedy et al. 2003]. Wegen der thematischen Ausrich-
tung dieses Bandes werden therapeutische Verfahren hier nicht weiter behandelt.
Fluide Medien: Medien ohne Formelastizität (z. B. Gase, Flüssigkeiten), in denen sich im Fall idea-
ler Fluidität nur longitudinale akustische Wellen, nicht aber Scherwellen ausbreiten können.
Schallschnelle: Geschwindigkeit der periodischen Auslenkung von Masseteilchen aus ihrer Ruhe-
lage in einem akustischen Wellenfeld.
Die Euler-Gleichung
dv⃗
−∇p = 𝜌 , (8.1)
dt
beschreibt den Zusammenhang zwischen dem lokalen Druckgradienten im Medium
und der Beschleunigung der Masseteilchen des Mediums. Die Kontinuitätsglei-
chung
d𝜌
−∇(𝜌v)⃗ = (8.2)
dt
erfasst die Beziehung zwischen der Bewegung der Masseteilchen und der zeitlichen
Abnahme der lokalen Dichte.
Eine dritte Beziehung, die zur Herleitung einer Wellengleichung für den Ultra-
schall erforderlich ist, ist die Zustandsgleichung, die beim Ultraschall wegen der
Schnelligkeit der Ausbreitungsvorgänge und des daher vernachlässigbaren Wärme-
austauschs der Feldanteile mit ihrer Umgebung einen adiabatischen Zustandsprozess
beschreibt. Sie definiert den nichtlinearen Zusammenhang zwischen Druck und Dich-
te gemäß
p = p(𝜌, T) ≈ p(𝜌) , (8.3)
Die Besonderheit beim Ultraschall in homogenen fluiden Medium besteht darin, dass
die Feldgrößen Druck und Dichte sich jeweils einem räumlichen und zeitlichen Gleich-
anteil p0 bzw. 𝜌0 überlagern, während dieses auf die Feldgröße Schnelle (Geschwin-
digkeit der Masseteilchen) bei einem ruhenden Medium nicht zutrifft. Berücksichtigt
man in allen Gleichungen, dass die Gleichanteile viel größer sind als die der Ultra-
schallwelle zugehörigen Wechselanteile, lassen sich nützliche Näherungen anwen-
den, die jeweils zu einer Linearisierung der Beziehungen führen. Für die Zustandglei-
chung ergibt sich eine solche Linearisierung aus einer Taylor-Reihen-Entwicklung
in der Umgebung des statischen „Arbeitspunktes“ p0 , 𝜌0 , welche für kleine Wechsel-
signale zu einer Beziehung
1 𝜕p
= 𝜌0 (8.4)
𝜅0 𝜕𝜌 𝜌=𝜌0
führt, mit der die Kompressibilität 𝜅0 neben der Dichte 𝜌0 als Materialkenngröße des
fluiden Mediums definiert werden kann.
Kompressibilität: Eigenschaft, die die Volumenelastizität fluider Medien beschreibt (Kehrwert des
Kompressionsmoduls).
228 | Helmut Ermert, Christian Hansen
Damit lassen sich nun die Beziehungen zwischen den Feldgrößen einer Ultra-
schallwelle in Form zweier linearer, verkoppelter Differentialgleichungen (Feld-
gleichungen) angeben
𝜕v⃗
−∇p = 𝜌0 , (8.5)
𝜕t
𝜕p
−∇v⃗ = 𝜅0 , (8.6)
𝜕t
aus denen sich die Wellengleichungen für den Schalldruck und die Schallschnelle
in quellenfreien, homogenen Medien
1 𝜕2
(∇2 − )p = 0 (8.7)
c20 𝜕t2
1 𝜕2
(∇2 − ) v⃗ = 0 (8.8)
c20 𝜕t2
herleiten lassen. Es zeigt sich, dass die Ausbreitungsgeschwindigkeit einer Ultra-
schallwelle durch die Materialparameter Dichte 𝜌0 und Kompressibilität 𝜅0 bestimmt
wird. Somit wird die Schallgeschwindigkeit c0 :
1
c0 = . (8.9)
√𝜌0 ⋅ 𝜅0
gegeben. e⃗z sei der Einheitsvektor in z-Richtung und kennzeichnet den vektoriellen
Charakter der Schnelle. Häufig ist es vorteilhaft, bei sinusförmiger Zeitabhängigkeit
der Signale die komplexwertige harmonische Exponentialfunktion zu benutzen, wo-
mit sich die Feldgrößen in folgender Form darstellen lassen:
Tab. 8.1: Schallgeschwindigkeiten c0 und Schallimpedanzen Z0 für einige Materialien [Szabo 2004].
Wellenzahl k: Kenngröße, die im Sinne einer Ortsfrequenz die räumliche Periodizität eines Wel-
lenfeldes beschreibt. Sie ist mit der (Zeit-)Frequenz f und der Ausbreitungsgeschwindigkeit c (z. B.
Schallgeschwindigkeit) über die Beziehung k = 2𝜋f /c verknüpft.
Aus den Wellengleichungen ergibt sich nun für die Wellenzahl k die Beziehung
𝜔 2𝜋f 2𝜋
k= = = , (8.14)
c0 c0 𝜆
in der von dem Zusammenhang zwischen Frequenz, Schallgeschwindigkeit und Wel-
lenlänge
𝜆 = c0 /f (8.15)
Gebrauch gemacht wird. Für die Amplituden der Feldgrößen erhält man die Relation
p̂ 𝜌
= √ 0 = Z0 , (8.16)
v̂ 𝜅0
aus der sich der Feldwellenwiderstand bzw. die Schallimpedanz Z0 als Material-
kenngröße definieren lässt.
berechnet werden. Beim Beispiel der sich in positiver z-Richtung ausbreitenden ebe-
nen Welle gemäß Gl. (8.10) und Gl. (8.11) ist im Falle eines verlustlosen Mediums
die Intensität an jeder Stelle z gleich groß und beträgt
1 1 2
J = p̂ ⋅ v̂ = p̂ . (8.18)
2 2Z0
Ein Maß, das vor allem zur Abschätzung der mechanischen Beanspruchung des Ge-
webes eingesetzt wird, ist der mechanische Index (MI). Er berechnet sich aus dem
negativen Spitzendruck p̂ neg (in MPa) und der Frequenz f (in MHz) gemäß:
p̂ neg
MPa
MI = (8.19)
√ MHz
f
Intensität und mechanischer Index sind für die Festlegung von Grenzwerten von Be-
deutung, die für eine sichere Anwendung des diagnostischen Ultraschalls am Patien-
ten zu beachten sind (s. Kap. 8.8.3).
Mechanischer Index: aus dem negativen Spitzendruck und der Frequenz einer Schallwelle abge-
leiteter Faktor, der in der Ultraschalldiagnostik als Grenzwert zur Vermeidung mechanischer Schä-
den durch die Schallwellen benutzt wird.
c₁, Z₁
Ѳr
Ѳe
c₂, Z₂
Ѳt
Abb. 8.2: Schematische Darstellung der Reflexi-
on und Brechung von Schallwellen in strahlen-
geometrischer Näherung.
8 Ultraschall | 231
die Reflexion. Das Maß der Reflexion kann über den Reflexionskoeffizient Kr be-
stimmt werden, wobei die Schallintensität der reflektierten Welle Jr ins Verhältnis zur
Schallintensität der einfallenden Welle Je gesetzt wird. Er ergibt sich in Abhängigkeit
des Einfallswinkels 𝜃e und des Transmissionswinkels 𝜃t zu [Millner 1987]:
2
Jr (Z ⋅ cos 𝜃e − Z1 ⋅ cos 𝜃t )
Kr = = 2 (8.20)
Je (Z2 ⋅ cos 𝜃e + Z1 ⋅ cos 𝜃t )2
Grenzschicht: flächenhafter Raumbereich zwischen zwei Medien mit Unterschieden in den für die
Wellenausbreitung (Brechung, Reflexion, Streuung) relevanten Materialparametern (Wellenwider-
stand, Ausbreitungsgeschwindigkeit).
sin 𝜃t sin 𝜃e
= (8.21)
c2 c1
Jt 4 ⋅ Z1 ⋅ Z2 ⋅ cos 𝜃e ⋅ cos 𝜃t
Kt = = (8.22)
Je (Z2 ⋅ cos 𝜃e + Z1 ⋅ cos 𝜃t )2
Die Richtungsänderung einer transmittierten Welle infolge der Brechung gemäß Glei-
chung Gl. (8.21) ist bei weichem Gewebe wegen der Ähnlichkeit der Schallgeschwin-
digkeitswerte gering. Zum Beispiel ist bei der Transmission durch eine Grenzschicht
zwischen Fettgewebe und Muskelgewebe und bei einem Einfallswinkel von 20° (im
Fett) der Austrittswinkel der gebrochenen Welle (im Muskel) ca. 22,2°. Wegen des ge-
ringen Unterschiedes wird in den diagnostischen Ultraschallgeräten der Effekt der
Brechung vernachlässigt.
Beugung: Bei der Ausbreitung und der Interaktion mit Objekten kommt es zusätz-
lich zur Reflexion und zur Brechung zu einer Beugung (Diffraktion) der Schallwellen.
Das entstehende Wellenfeld ergibt sich gemäß dem Huygens-Prinzip. Die Beugungs-
gesetze stellen auch eine wichtige Grundlage zur Berechnung der Schallwellenfelder
dar, die von Ultraschallwandlern ausgehen.
Apertur: Begriff aus der Antennentheorie, der die Geometrie (Länge oder Fläche) eines Sende- oder
Empfangssystems (einzelne Antenne, Gruppenantenne) beschreibt.
x
→ →
R =Ωr₁ – r₂Ω Feldpunkt
dS
Apertur S
→
r₂ →
p(r→₁,t)
r₁
z
νn
Abb. 8.3: Anordnung zur Berechnung des von einer ebenen Apertur
ausgehenden Schallwellenfeldes.
8 Ultraschall | 233
(r2⃗ , t − | 1 c 2 | )
𝜕 r ⃗ −r ⃗
𝜌 v
𝜕t n
p(r1 , t) = 0 ∬ ⃗ dS (8.23)
2𝜋 r1 − r2⃗
S
berechnet werden. Es wird dabei angenommen, dass die Oberfläche („Apertur“) Be-
standteil einer unendlich ausgedehnten Ebene ist und die Apertur mit nur einer Nor-
malkomponente der Schallschnelle belegt ist, während die Schallschnelle außerhalb
der Apertur auf der gesamten Ebene verschwindet. Für den Fall eines monofrequenten
Wellenfeldes und einer homogenen Belegung der Apertur mit einer Schnelle
j𝜔𝜌0 e−jkR
p(r1⃗ ) = v̂n ⋅ ∬ dS mit R = r1⃗ − r2⃗ (8.25)
2𝜋 R
S
und
p(r1⃗ , t) = Re {p(r1⃗ )ej𝜔t } (8.26)
bestimmen.
Streuung: Neben den makroskopisch beschreibbaren Effekten der Reflexion, Bre-
chung und Beugung kommt es zur Streuung des Ultraschalls an Streukörpern, die
kleiner sind als die Wellenlänge der Schallwelle. Aufgrund der mikroskopischen In-
homogenität des biologischen Gewebes tritt diese Rayleigh-Streuung permanent
bei der Schallausbreitung im Weichgewebe auf, so dass sie bei der Abbildung von
Gewebestrukturen hauptsächlich ausgenutzt wird. Ein Maß für die Streuung ist der
Streuquerschnitt 𝜎s , der sich aus der Leistung der gestreuten Welle Ps und der Leis-
tungsdichte der einfallenden Welle Je ergibt:
Ps
𝜎s = (8.27)
Je
Die lokale Reflektivität 𝛾(x, y, z) ergibt sich in Abhängigkeit von den Ortskoordina-
ten (x, y, z) und bei Annahme einer schwachen Inhomogenität der Schallimpedanz
Z(x, y, z) um den Mittelwert Z näherungsweise zu:
Z(x, y, z) − Z
𝛾(x, y, z) = . (8.28)
2⋅Z
Reflektivität: räumlich verteilte Materialeigenschaft, bei Puls-Echo-Verfahren ein Maß für die
durch die Feinstruktur des Materials erzeugten Echopegel (z. B. im biologischen Gewebe).
234 | Helmut Ermert, Christian Hansen
Tab. 8.3: Dämpfungswerte für Wasser und für einige Gewebearten [Szabo 2004].
Dämpfung: Reduktion der Amplitude bzw. der Leistung einer Welle infolge Absorption, Reflexio-
nen, Streuung und/oder Beugung im Übertragungsmedium; definiert als Verhältnis zweier (elek-
trischer, optischer, akustischer o. a.) Leistungs- (oder Amplituden-)werte, oder der 10-fache (Leis-
tung) bzw. 20-fache (Amplitude) dekadische Logarithmus dieses Verhältnisses mit der Einheit De-
zibel (dB).
Die Stärke dieser Gewebedämpfung wird durch die Materialeigenschaften des Gewe-
bes bestimmt. Es ergibt sich für die Leistungsdichte über der Tiefe z:
wobei 𝛼 der Absorptionskoeffizient ist, für den in Abhängigkeit von der Frequenz f
gemäß empirischer Untersuchungen [Angelsen 2000, Duck 1990] gilt:
Die Dämpfung der Schallwellen nimmt im menschlichen Gewebe also mit zunehmen-
der Tiefe und höheren Frequenzen zu. Sie liegt bei linearer Näherung von Gl. (8.30)
typischerweise im Bereich von ca. 0,5 dB/(cm·MHz). In Tab. 8.3 sind die Dämpfungs-
werte für Wasser und einige Gewebearten zusammengestellt.
Stoßwellen: pulsförmige akustische Wellen höherer Amplitude, die durch die nichtlinearen Eigen-
schaften des biologischen Gewebes bei der Ausbreitung ihre Form verändern und wegen der Aus-
bildung steiler Pulsflanken zur Steinzertrümmerung genutzt werden können.
Akustischer Strahlungsdruck: Durch die nichtlineare Wirkung eines Mediums erzeugter Gleichan-
teil des Schalldruckes in einem akustischen Wellenfeld.
Nichtlinearität des Mediums: Die in der Zustandsgleichung Gl. Gl. (8.3) beschrie-
bene Abhängigkeit des Drucks p von der Dichte 𝜌 ist nichtlinear [Hamilton 1997, Meyer
u. Neumann 1979]. Entwickelt man den Druck p (𝜌) in einer Taylor-Reihe um einen
Arbeitspunkt 𝜌0 und bei einem stationären Druck p0 , so ergibt sich:
𝜌 − 𝜌0 B 𝜌 − 𝜌0 2
p − p0 = A ⋅ ( )+ ⋅( ) + ... (8.32)
𝜌0 2! 𝜌0
Unter Vernachlässigung von Anteilen höherer Ordnung wird über das Verhältnis aus
dem Faktor B des quadratischen Anteils zum Faktor A des linearen Anteils die Nichtli-
nearität des Mediums charakterisiert. Der Quotient B/A wird als Nichtlinearitätspa-
rameter bezeichnet. Es ist
B 𝜕c
= 2 ⋅ 𝜌0 ⋅ c0 ( ) (8.33)
A 𝜕p 𝜌=𝜌0
Typische Werte von B/A liegen bei menschlichem Gewebe im Bereich zwischen 5
und 10. Die Schallgeschwindigkeit c wird durch diese Nichtlinearität lokal erhöht. Es
gilt [Hamilton 1997, Meyer u. Neumann 1979]:
B
c(t) = c0 + ⋅ v̂ cos(𝜔t) . (8.34)
2A
In Kombination führen beide Effekte dazu, dass die Schallgeschwindigkeit asymme-
trisch und amplitudenabhängig mit v⃗ variiert und die Form der Wellenfronten verzerrt
236 | Helmut Ermert, Christian Hansen
p(t) p(t–τ)
Zeitbereich
t t
Ausbreitung
ΩP( ƒ )Ω ΩP( ƒ )Ω
Energie
Frequenzbereich
ƒ₀ 2ƒ₀ ƒ ƒ₀ 2ƒ₀ ƒ
wird:
B
) ⋅ v̂ cos(𝜔t)
c = c0 + (1 + (8.35)
2A
In Abb. 8.4 ist veranschaulicht dargestellt, wie der zeitliche Verlauf einer Wellengrö-
ße (z. B. des Druckes p(t)) mit der Frequenz f0 während der Ausbreitung (z. B. nach
einem Laufweg z = c0 ⋅ 𝜏) verzerrt und Signalenergie vom Spektralbereich um die
Frequenz f0 in den Bereich der ersten Harmonischen 2f0 übergekoppelt wird.
8.4 Ultraschallwandler
8.4.1 Der piezoelektrische Effekt
Der piezoelektrische Effekt tritt in einer Reihe kristalliner und teilkristalliner Medien
auf. In seiner direkten Form besteht dieser Effekt darin, dass sich an den gegenüber-
liegenden, z. B. planparallelen Außenflächen von z. B. zylindrischen Körpern, die aus
piezoelektrischen, elektrisch nichtleitenden Materialien bestehen, elektrische Ladun-
gen bilden können. Diese Ladungen treten auf, wenn auf diese Körper eine mecha-
nische Spannung, die mit einer Deformation verbunden ist, senkrecht zu den Stirn-
flächen einwirkt. Der reziproke piezoelektrische Effekt bewirkt das Auftreten einer
mechanischen Spannung und einer Dehnung als Folge einer Einwirkung einer elek-
trischen Spannung. In den Wandlern, die für die diagnostische Anwendung von Ul-
traschall genutzt werden, finden heute überwiegend piezoelektrische Materialien An-
wendung.
I = A⋅∂D
∂t
T⋅A
A
S⋅h
U = E⋅h
h E D
Abb. 8.5: Kreiszylindrischer Körper der Höhe h und der Fläche A als piezoelektrisches Element.
D = 𝜀E (8.36)
und
S = sT (8.37)
beschrieben wird. Darin ist die Beziehung zwischen der dielektrischen Verschie-
bungsdichte D und der elektrischen Feldstärke E durch die Dielektrizitätskonstante 𝜀
und die Beziehung zwischen der Deformation (englisch: strain) S und der mechani-
schen Spannung (englisch: stress) T durch die Elastizitätskonstante s gegeben.
Bei piezoelektrischen Materialien sind diese Gleichungen nicht mehr voneinan-
der entkoppelt, es entsteht ein System zweier verkoppelter Gleichungen
D = 𝜀T E + d ⋅ T
S = d ⋅ E + sE T , (8.38)
in denen die Größe d die Verkopplung von elektrischer und mechanischer Energie
repräsentiert und „piezoelektrische Ladungskonstante“ genannt wird. Darin ist 𝜀T
die Dielektrizitätskonstante bei konstanter mechanischer Spannung T und sE die Elas-
tizitätskonstante bei konstanter elektrischer Feldstärke E. In anderer Darstellung lau-
238 | Helmut Ermert, Christian Hansen
S = +sD T + g ⋅ D
1
E = −g ⋅ T + T D . (8.39)
𝜀
Hier wird g die „piezoelektrische Druckkonstante“ genannt. sD ist die Elastizitäts-
konstante bei konstanter dielektrischer Verschiebungsdichte D und 𝜀T die Dielektrizi-
tätskonstante bei konstanter mechanischer Spannung T. Zwischen Ladungskonstante
und Druckkonstante besteht ein Zusammenhang gemäß
d sE
= 𝜀T √ D , (8.40)
g s
wobei diese Größen wegen ihrer für die Praxis relevanten Wirkung auch wie folgt in-
terpretiert werden können:
erzeugte Deformation
d= ⇒ Sendekonstante
angelegtes elektrisches Feld mech. Leerlauf
erzeugtes elektrisches Feld
g= ⇒ Empfangskonstante
angelegten Druck el. Leerlauf
Die gesamte Energiewandlung wird durch einen Koppelfaktor k beschrieben, der von
beiden Faktoren d und g abhängig ist:
d2 g2
k2 = = (8.41)
sE 𝜀T sD
𝜀
T
Es ist erkennbar, dass PZT die besseren Sendeeigenschaften und PVDF die besseren
Empfangseigenschaften besitzt. PVDF ist zwar wegen seiner kleineren akustischen
Impedanz besser an eine fluide Umgebung angepasst, PZT besitzt aber einen größeren
Koppelfaktor k und ist außerdem verlustärmer als PVDF.
8 Ultraschall | 239
g d k 𝜖r c0 Z0
10−3 V ⋅ m/N 10−12 C/N % m/s 106 kg/(m2 ⋅ s)
PZT 10 110 30 1 200 4 350 30
PVDF 216 23 12 12 2 250 2,7
Polyvinylidenfluorid (PVDF): für die Verwendung in Schallwandlern geeigneter Kunststoff mit pie-
zoelektrischen Eigenschaften.
Ωp(z,t = t₀)Ω
Ωνz(z,t = t₀ + Tn/4)Ω
h Druck p
Schnelle νz
werden kann. Aus den Ansätzen für den Druck und die Schnelle gemäß Gl. (8.10)
und Gl. (8.11) ergeben sich nach Überlagerung zweier gegenläufiger Wellen gleicher
Amplitude für die Einhüllenden die Ausdrücke
p(z, t = t0 ) = 2p̂ ⋅ sin(kn z) (8.42)
und
vz (z, t = t0 + Tn /4) = 2v̂z cos(kn z) , (8.43)
wobei t0 einen der Zeitpunkte beschreibt, zu denen der Schalldruck seine maximale
Amplitude annimmt. Die Schnelle erreicht ihre maximale Amplitude um ein Viertel
der Schwingungsdauer Tn später. Dickenschwingungen treten nur dann auf, wenn
die Schallschnellen an den Stirnflächen des Schwingers entgegengesetztes Vorzei-
chen haben. Das ist dann der Fall, wenn die Schwingerdicke einem ungeradzahligen
Vielfachen der halben Schallwellenlänge im Schwingermaterial entspricht. Bei gerad-
zahligen Vielfachen ändert sich die Dicke des Schwingers nicht, es existiert keine Di-
ckenschwingung. Die Resonanzfrequenzen und die entsprechenden Periodendauern
lassen sich aus
𝜔 1 c
fn = n = = n ⋅ PZT mit n = 1, 3, 5, . . . . (8.44)
2𝜋 Tn 2⋅h
berechnen, wobei cPZT die Schallgeschwindigkeit des piezoelektrischen Materials für
die Ausbreitung in z-Richtung ist. Dickenschwinger führen auch parasitäre Radial-
schwingungen aus. Im Falle flacher Scheiben mit einem Radius gemäß
a = √A/𝜋 ≫ h (8.45)
liegen diese in einem anderen Frequenzbereich und sollen hier außer Acht gelassen
werden.
Neben den Dickenschwingern gibt es auch andere Schwingerformen wie z. B.
Längsschwinger, Ringschwinger, Rohrschwinger, Radialschwinger [Lerch et al. 2009],
die teilweise dadurch gekennzeichnet sind, dass die elektrischen und die mechani-
schen Feldgrößen senkrecht zueinander orientiert sind.
Elektrische Eingangsimpedanz
An den elektrischen Anschlussklemmen eines Wandlerelements stellt sich dieses als
2-Pol-Netzwerk dar, dessen Bauelemente das elektrische und das mechanische Ver-
halten beschreiben und das in Abb. 8.7 dargestellt ist. Das piezoelektrische Element
mit den Metallisierungen auf seinen Stirnflächen wirkt zunächst als Plattenkonden-
sator
C0 = 𝜀A/h , (8.46)
dessen Eigenschaften durch die Geometrie und die dielektrischen Eigenschaften des
Wandlermaterials beschrieben werden. Die Wandlerfunktion bei k > 0 kann durch
8 Ultraschall | 241
Lm
Cm RV
Y C₀ Rm
RS Abb. 8.7: Elektrisches Ersatzschaltbild, das die
Eingangsadmittanz eines Wandlers beschreibt.
Im Y
ωM
ωA ωR
Re Y
k2 1
Cm = C0 und Lm = (8.47)
(1 − k 2 ) (𝜔12 Cm )
nimmt die Leistung auf, die im Wandler absorbiert wird und sich aus einem Gütefaktor
𝜔1
Q= (8.49)
𝛥𝜔3 dB
Δƒ
dPZT dAS Abstrahlung
ƒ₀ ƒ
λPZT cPZT
dPZT = =
2 2ƒ₀
Bei der Frequenz 𝜔M wird in der Nähe der Resonanzfrequenz der Betrag der Admit-
tanz maximal. Die Schaltungsumgebung des Wandlers muss so ausgelegt sein, dass
dieser im Bereich der Resonanzfrequenz optimal an Sender und Empfänger angepasst
ist.
Es gibt auch Ersatzschaltbilder für Ultraschallwandler, die als 3-Tor-Netzwerke
sowohl die elektrische als auch die beiden akustischen Seiten der Wandler mit einbe-
ziehen. Dazu sei hier auf die Literatur [Szabo 2004] verwiesen.
𝜆 PZT
dPZT = . (8.50)
2
Die Rückseite des piezoelektrischen Elementes ist an ein Absorbermaterial („Backing“)
angekoppelt, in dem der nach hinten abgestrahlte Schallanteil gedämpft wird. Die
Schallimpedanz ZB soll ungefähr der Schallimpedanz des Schallwandlermateri-
als ZPZT entsprechen, um eine gute Ankopplung zu gewährleisten.
Backing (dt. Hinterfüllung): dämpfendes, an der nicht benutzten Rückseite eines piezoelektri-
schen Schallwandlerelements angekoppeltes Material.
Eine perfekte Anpassung lässt sich nicht realisieren; die beiden Impedanzen können
prinzipiell nicht gleich sein, weil das Wandlermaterial verlustarm und das Backing-
Material stark verlustbehaftet ist. Die Ausdehnung der Backing-Schicht nach hinten
ist so zu bemessen, dass Echos von ihrer Rückseite den Wandler nur noch stark ge-
dämpft erreichen können oder total abgeklungen sind. Die Bedämpfung auf der Rück-
seite des Wandlers beeinflusst das Resonanzverhalten in der Weise, dass es die Band-
breite Δf gegenüber dem Fall einer akustisch leerlaufenden Rückseite vergrößert. Die
größere Bandbreite beim Sende- und Empfangsverhalten des Wandlers erlaubt den
Betrieb mit kürzeren Impulssignalen, was für eine gute axiale Auflösung in der Echo-
sonographie vorteilhaft ist, auch wenn gleichzeitig die Empfindlichkeit reduziert wird.
Die Anpassungsschicht wird gemäß
𝜆 AS cAS
dAS = = , ZAS = √ZPZT ZF (8.51)
4 4f0
dimensioniert, wobei ZF die Schallimpedanz der fluiden Umgebung ist. Diese Anpas-
sung wirkt nur bei der Mittenfrequenz f0 und ist schmalbandig, was die angestrebte
Breitbandigkeit des Wandlers ein wenig beeinträchtigt. Eine Abhilfe kann hier durch
die Beschichtung mit mehr als einer Anpassungsschicht geschaffen werden.
Das von einem Wandler abgestrahlte Wellenfeld kann auf unterschiedliche Wei-
se ermittelt werden. Für ebene Wandler mit kreisförmiger oder rechteckförmiger Ober-
fläche gibt es analytische Lösungen mit begrenzter Genauigkeit [Stenzel und Brosze
1958]. Aus diesen Lösungen können einige Parameter abgeleitet werden, welche die
Konturen des Schallfeldes gemäß Abb. 8.10 beschreiben.
In unmittelbarer Nähe zur Oberfläche eines kreisförmigen Wandlers mit dem
Durchmesser D wird ein Wellenfeld aufgebaut, das innerhalb eines Kreiszylinders
etwa gleichen Durchmessers D und der Länge
D2 D2
zF = = f (8.52)
4𝜆 4c
244 | Helmut Ermert, Christian Hansen
zF
α
D
α z
Nahfeldbereich Fernfeldbereich
Abb. 8.10: Vereinfachte Darstellung der Form des von einem ebenen Wandler abgestrahlten Wellen-
feldes.
Abb. 8.11: Monofrequentes Wellenfeld eines kreisförmigen Wandlers mit ebener Oberfläche (Durch-
messer 12 mm, Frequenz 2 MHz) im Bereich z < zF .
verteilt ist. Dieser Abstand stellt den Übergang vom sogenannten Nahfeld zum Fern-
feld dar, in dem die Ultraschallwelle mit einem Divergenzwinkel
𝜆
sin 𝛼 = 1,2 ⋅ (8.53)
D
divergiert und bei großen Entfernungen z den Charakter einer Kugelwelle annimmt.
Eine experimentelle Möglichkeit zur Bestimmung von Ultraschallwellenfeldern
ist die schlierenoptische Darstellung. In Abb. 8.11 ist das schlierenoptisch aufge-
nommene monofrequente Wellenfeld dargestellt, das von einem kreisförmigen Wand-
ler (Material PZT) mit einem Durchmesser von 12 mm bei der Frequenz 2 MHz aufge-
nommen wurde [Neumann et al. 2005].
Die Länge des dargestellten Wellenfeldes beträgt ca. 25 mm und ist wesentlich
kleiner als die Fernfeldgrenze (zf = 46 mm). Durch Fokussierungsmaßnahmen, die
bei Einzelwandlern akustisch durch sphärisch gekrümmte Wandlerscheiben oder mit-
tels einer Linse und bei Arrays elektronisch durch die Ansteuerung der Arrayelemente
getroffen werden können, kann die Strecke zF verändert, z. B. verkürzt, werden. Eine
typische Kontur des resultierenden Schallstrahls ist in Abb. 8.12 dargestellt.
Eine entsprechende schlierenoptische Aufnahme ist in Abb. 8.13 zu finden.
8 Ultraschall | 245
zF
D
z
Abb. 8.12: Vereinfachte Darstellung der Form des von einem fokussierenden Wandler abgestrahlten
Wellenfeldes.
(a) (b)
elektr. Abschirmung
z
x
Koaxial-Kabel y
Abb. 8.14: Ultraschallgruppenwandler („Array“) für den Einsatz in der bildgebenden Echosonogra-
phie.
Array (dt. Reihe, Anordnung): in der Radar- und Ultraschalltechnik eine aus einzelnen Antennen-
elementen bestehende Gruppenantenne.
In Abb. 8.15 sind zwei Ultraschallarrays mit unterschiedlicher Feinteilung bei der
Aufgliederung in Einzelelemente ohne Anpassungsschicht dargestellt.
246 | Helmut Ermert, Christian Hansen
Zusätzlich zu der Anpassungsschicht ist das Array noch mit einer akustischen Zy-
linderlinse versehen, mit der eine Fokussierung des Schallfeldes in elevationaler Rich-
tung (y) erreicht werden kann und die Wellenfelder auf eine endliche Schichtdicke in
y-Richtung konzentriert werden. In Abb. 8.16 ist eine solche Anordnung dargestellt.
Linear Array (dt. lineare Reihe): eindimensionale Antennengruppe, bei der die Gruppenelemente
entlang einer Linie angeordnet sind.
piezoelektrisches
Schallwandlerelement
aktive Untergruppe
laterale
F₁ Fokus-
sierung
F₂
zylindrische
Fokussierungslinse
F₃
elevationale x
Fokussierung y
laterale Scan-Richtung
Δy
Δx
Apertur
wurde für eine Sendefrequenz von fo = 8,5 MHz in [Hiltawsky 2005] gemäß Gl. (8.25)
berechnet. Die Aperturlänge in lateraler Richtung betrug Δx = 14,08 mm, die Apertur-
breite in elevationaler Richtung Δy = 2,50 mm. Die Geometrie der Anordnung ist in
Abb. 8.17 dargestellt.
248 | Helmut Ermert, Christian Hansen
70
10
0 10 20 30 40 50 60
z in mm
0 80
70
10
0 10 20 30 40 50 60
z in mm
90
10
80
x in mm
60
0
40
70
m
–10 20 z in m
5
yi
n m 0–5 0
m
Abb. 8.20: Schallfeld einer Array-Element-Gruppe (ohne Beamforming) in den Ebenen x = 0 und
y = 0.
DUX
Puls
Echo
Eingang Wandler
1 2
470
4700
3
Ausgang
Empfangswandler identisch sind, bedarf es, wie bei einer Radar-Anlage, einer elek-
tronischen Schaltung (Duplexer, „DUX“), die in der Funktion als Signalweiche den
Sendeimpuls (mit hoher Amplitude) an den Wandler leitet und dabei die empfindliche
Empfangselektronik entkoppelt und die das Echosignal (mit kleiner Amplitude) an
die Empfangselektronik leitet und dabei auch den Weg zur Sendeelektronik versperrt
(Abb. 8.22).
In der Ultraschalltechnik lassen sich solche Duplexer in Form nichtlinearer Schal-
tungen realisieren. Ein typisches, einfaches Netzwerk, das als Sende-Empfangswei-
che arbeitet, ist in Abb. 8.23 dargestellt.
Mit zueinander antiparallel geschalteten Diodenpaaren lassen sich das Sperren
und das Öffnen der Sendeseite sowie der Empfangsseite in Abhängigkeit von den auf-
tretenden Signalpegeln erreichen.
Duplexer: Signalweiche zur Trennung von Sende- und Echosignal in einem Puls-Echo-System.
Ein simultanes Senden und Empfangen mit einem einzelnen Wandler bereitet auf
elektronischer Seite wegen des großen Pegelunterschiedes zwischen Sende- und Emp-
fangssignal Schwierigkeiten. Bei monofrequentem Betrieb, wie er zum Beispiel beim
CW-Doppler-Verfahren angewandt wird (s. Kap. 8.6), wird aus diesem Grunde mit ge-
trennten Sende- und Empfangswandlern gearbeitet. Diese lassen sich z. B. mit halb-
8 Ultraschall | 251
Puls-Echo-Betrieb
Die medizinische Ultraschallabbildung erfolgt üblicherweise, wie bereits in
Kap. 8.2.1 erwähnt, im Puls-Echo-Betrieb. Hierbei werden von einem Schallwand-
ler breitbandige Sendepulse in einem begrenzten Raumbereich entlang gebündelter
Schallwellen ausgesandt und die durch Reflexion und Streuung erzeugten Echosigna-
le entlang dieser Linien wieder empfangen. Abgebildet wird somit die Reflektivität
des Gewebes, die aufgrund von Inhomogenitäten in den Verteilungen von Dichte und
Kompressibilität lokal variiert.
In Abb. 8.25 wird das Konzept erläutert. Das Sendesignal eines fokussierenden Ul-
traschallwandlers, hier in Form des Schalldrucks pS (t), breitet sich in einem streifen-
förmigen Bereich des zu untersuchenden Gewebes aus. Wegen der Reziprozität des
Sende- und Empfangsverhaltens des Wandlers gelangen Echos, die bei der Wechsel-
wirkung des Ultraschallsignals mit dem Gewebe entstehen, als Empfangssignale, hier
in Form einer elektrischen Spannung u(t), an den Wandler zurück. Aus diesem Sig-
252 | Helmut Ermert, Christian Hansen
p(t)
u(t)
GTGC(t)
t
Bild-Zeile
Abb. 8.25: Zur Erläuterung des A-Scans und der Bildung einer grauwertkodierten B-Bild-Zeile.
nal wird eine Einhüllende gewonnen, deren Amplitude zur Grauwertkodierung einer
Bildzeile genutzt werden kann. Die eindimensionale bzw. einzeilige Version dieser
Technik wird mit „A-Scan“ (A = Amplitude) bezeichnet, der Aufbau eines flächenhaf-
ten Schnittbildes, das sich aus parallelen A-Scan-Zeilen zusammensetzt, wird B-Scan
(B = Brightness) genannt.
In Abb. 8.26 sind am Beispiel des Schalldrucks einige Zeitsignale und ihre Betrags-
spektren dargestellt. Die Darstellung lässt erkennen, dass es einen systematischen Zu-
sammenhang zwischen der Dauer der Signale und der Breite ihrer Spektren gibt. Ex-
perimentell gewonnene Beispiele der Sende- und Empfangssignale eines Ultraschall-
systems sind in Abb. 8.27 dargestellt. Die Abb. 8.27 (a) zeigt für einen Sendepuls
mit einer Mittenfrequenz von f0 = 2,25 MHz den Druckverlauf p(t) über der Zeit t
(Hydrophonmessung am Schallwandler CH4-1 des Ultraschallgerätes Siemens Acuson
Antares). Das zugehörige Betragsspektrum |P(f )| ist in Abb. 8.27 (c) dargestellt. Die
Bandbreite 𝛥f der derzeit in der Medizin verwendeten Schallwandler aus piezoelek-
trischen Materialien liegt typischerweise in der Größenordnung von 0,8f0 . Innerhalb
dieser Grenzen kann die Mittenfrequenz (spektraler Mittelwert eines bandbegrenzten
Signals) der Schallpulse variiert werden.
8 Ultraschall | 253
p₀(t) ΩP₀( ƒ )Ω
Δƒ = 0
T₀ → ∞ ƒ₀ ƒ
p₁(t) ΩP₁( ƒ )Ω
t Δƒ₁
T₁ ƒ₀ ƒ
p₂(t) ΩP₂( ƒ )Ω
t Δƒ₂
T₂ ƒ₀ ƒ
Bandbreite: spektrale Breite eines Signals oder des Übertragungsverhaltens (Durchlass, Dämp-
fung) eines Übertragungssystems (z. B. eines Bandfilters).
aus dem analytischen Signal u(t) bestimmt werden, das mit der Hilberttransformation
H [Fettweis 1996]:
u(t) = u(t) + jH {u(t)} (8.55)
254 | Helmut Ermert, Christian Hansen
Tiefe s(t) in cm
7,4 7,6 7,8 8
100
1
0,5
0 0
–0,5 –50
–1
–100
0 2 4 6 8 95 100 105
(a) Zeit t in μs (b) Zeit t in μs
0 0
Betragsspektrum ΩU( ƒ )Ω in dB
Betragsspektrum ΩP( ƒ )Ω in dB
–10 –10
–20 –20
–30 –30
–40 –40
0 2 4 6 8 0 2 4 6 8
(c) Frequenz ƒ in MHz (d) Frequenz ƒ in MHz
Abb. 8.27: Signalverläufe bei der Abbildung im Puls-Echo-Betrieb: (a) Druckverlauf p(t) eines Sen-
depulses mit f0 = 2,25 MHz, (b) Empfangsecho u(t) bzw. u(s) (grau) und Hüllkurve a(t) bzw. a(s)
(schwarz) (Umrechnung t → s gemäß Gl. (8.56)), (c) Betragsspektrum des Sendepulses, (d) Be-
tragsspektrum des Empfangsecho. (b) Das gezeigte Echosignal stammt von einer In-vivo-Aufnahme
der Leber. Die Aufnahme wurde mit einem Ultraschallgerät Siemens Acuson Antares und dem
Schallwandler CH4-1 gemacht, wobei das hochfrequente Echo u(t) über eine Schnittstelle abgerufen
und gespeichert wurde.
aus dem Messsignal u(t) gewonnen wird. Das demodulierte Signal a(t) wird als A-Linie
bezeichnet (A = Amplitude). Die Zeitkoordinate t steht bei u(t) und a(t) stets in direk-
ter Beziehung zur Tiefe z = s, aus welcher das Echo empfangen wird. Es gilt allgemein
für jedes t0 :
t0
1
s(t0 ) = ∫ c(t) ⋅ dt (8.56)
2
0
8 Ultraschall | 255
Hierbei ist s(t0 ) die dem Zeitpunkt t = t0 entsprechende Tiefe (Distanz zwischen
Schallwandler und Streuer), t die Zeit, die direkt mit dem Empfang bei t = 0 be-
ginnt und bis t0 läuft und schließlich bei der Empfangszeit tE endet, und c(t) die
Schallgeschwindigkeit im Gewebe, mit der sich die Schallwelle zur jeweiligen Zeit
ausbreitet. Da im Regelfall über die inhomogene Schallgeschwindigkeitsverteilung
im menschlichen Gewebe keine Informationen vorliegen, wird bei der konventionel-
len Sonographie nur näherungsweise mit einer konstanten Schallgeschwindigkeit c,
üblicherweise c = 1540 m/s, gerechnet. Es gilt somit:
1
s(t) = ⋅c⋅t (8.57)
2
Aufgrund der tiefenabhängigen Dämpfung des gesendeten und des reflektierten
Schallsignals weisen die Echos von tiefer liegenden Strukturen systematisch geringe-
re Amplituden auf als jene von wandlernahen Strukturen. Die Signale u(t) sind daher
tiefenabhängig zu verstärken. Eine solche tiefenabhängige Verstärkung GTGC (s) wird
als Time Gain Compensation (TGC) bezeichnet (siehe Abb. 8.25). Da allerdings die
Verteilung des materialabhängigen Dämpfungkoeffizienten 𝛼 im Gewebe inhomogen
und im Regelfall unbekannt ist, muss der optimale Verlauf von GTGC (s) geschätzt
werden.
Time Gain Compensation (TGC; dt. Dämpfungskompensation mit zeitlich veränderlicher Verstär-
kung): Zeitsteuerung der Empfangsverstärkung eines Puls-Echo-Systems, mit dem der Einfluss der
Dämpfung im Übertragungsmedium für unterschiedliche Objektentfernungen ausgeglichen wird.
Konturen in Bewegung
Wandler
A-Scan
B-Scan-Zeile
t
„schnelle” Zeitachse
t
„langsame” Zeitachse
TM-Scan
1/𝛥tabt = 40 MHz. Bei Beachtung des Abtasttheorems wird hierdurch die Ultra-
schallabbildung auf den Einsatz von Pulsen mit maximalen Frequenzanteilen bis
zu 20 MHz beschränkt. Im Folgenden soll die Beschreibung der Echosignale aber
zeitkontinuierlich erfolgen. Nur bei Bedarf wird zu der zeitdiskreten Notation überge-
gangen. Gleiches gilt für die ebenfalls diskret vorliegende Koordinate sm .
TM-Scan
Aus dem A-Scan-Konzept lässt sich das TM-Scan-Verfahren (TM=Time Motion),
manchmal auch M-Scan genannt, herleiten (siehe Abb. 8.28). Bei diesem Ver-
fahren wird kein lateraler Scan durchgeführt. Der Wandler verharrt in einer bestimm-
ten Position und registriert über eine Serie von Puls-Echo-Zyklen Bewegungen von
Diskontinuitäten, die sich innerhalb seiner gebündelten Schallstrahlcharakteristik
befinden. Die Ortsveränderung dieser Grenzschichten wird über einer sogenannten
„langsamen“ Zeitachse aufgezeichnet, so dass eine zweidimensionale Darstellung
entsteht, mit der Bewegungsabläufe gut analysiert werden können. Das TM-Scan-
Verfahren wird überwiegend in der Kardiologie und der Angiologie angewandt und
simultan zur Echtzeit-B-Bildgebung betrieben.
Time Motion Scan (TM; dt. Abbildung der Bewegung im Zeitverlauf): auf dem A-Scan basierendes
Verfahren zur Beobachtung und Aufzeichnung von Bewegungsabläufen von Grenzschichten (z. B.
Herzklappen) entlang einer Schallstrahlachse.
8 Ultraschall | 257
Strahlformung
Um die Ultraschallwellen räumlich entlang eines definierten Schallstrahls im Sende-
fall zu bündeln und darüber hinaus auch im Empfangsfall gerichtet die Echosigna-
le aufzunehmen, bedarf es einer präzisen Strahlformung (beamforming). Eine solche
Strahlformung modifiziert die Richtcharakteristik der Sende- und Empfangsapertur
in lateraler und elevationaler Richtung gemäß Abb. 8.29.
Beamforming (dt. Strahlformung): Methode zur Erzeugung einer bestimmten Strahlform (Breite
und Richtung) durch die Ansteuerung der Elemente eines Arrays.
Hierbei werden eine Fokussierung des Schallfeldes zur Verbesserung der Auflösung
und ein Schwenken der Strahllinie zur gerichteten Aufnahme realisiert:
Curved Array (dt. gekrümmte Gruppe): Array mit gekrümmter, z. B. konvexer Aperturgeometrie.
Phased Array (dt. phasengesteuerte Gruppe): Gruppenantenne mit elektronischer Steuerung der
Phasenbelegung der Antennenelemente zum Zweck der elektronischen Fokussierung und des
elektronischen Schwenkens der Richtcharakteristik.
Im Rahmen der Sendefokussierung kann die Fokustiefe sF zwar frei gewählt wer-
den, ist aber für einen einmal ausgesendeten Puls nicht mehr veränderbar. Meist wird
der Schallstrahl daher im Sinne einer verbesserten Tiefenschärfe über einen grö-
ßeren Tiefenbereich gleichbleibend breit gehalten. Die laterale Fokusbreite ist dabei
zwangsläufig größer als die für diskrete Tiefen minimal mögliche Breite. Sollen mehre-
re laterale Sendefokuszonen verwendet werden, so ist der Puls-Echo-Betrieb entlang
desselben Schallstrahls entsprechend zu wiederholen und die Empfangsechos sind
nach Hüllkurvendetektion gewichtet zu addieren.
Anders als im Sendefall kann der Fokus beim Empfang laufend jener Tiefe ange-
passt werden, aus der die aktuell empfangenen Echos eintreffen (dynamische Emp-
fangsfokussierung).
258 | Helmut Ermert, Christian Hansen
axial
elevational
lateraler
Fokus
axial
lateral
elevationaler
Fokus
Scan
Abb. 8.29: Darstellung der lateralen (a) und elevationalen (b) Strahlformung am Beispiel eines Cur-
ved-Arrays. Schematisch sind drei Einzelelemente zu einer aktiven Apertur zusammengefasst. Bei
realen Array-Schallwandlern ist diese Anzahl deutlich größer.
Sender Phased-Array
τn τ8 τ4 τ1
Verzögerungs-
elemente
lateraler
Fokus
Array
axial
Wellenfront
lateral
Schallausbreitungsrichtung
Scan
Abb. 8.30: Darstellung der lateralen Strahlformung am Beispiel eines Phased-Arrays. Hier werden
alle Einzelelemente zu einer aktiven Apertur zusammengefasst. Bei realen Phased-Array-Schall-
wandlern ist diese Anzahl deutlich größer. Elementbreite und Elementabstand müssen aus beu-
gungsphysikalischen Gründen wesentlich geringer sein als beim Linear-Array oder Curved-Array.
(a) Simultanes Fokussieren und Schwenken durch verzögerte Ansteuerung der Einzelelemente.
(b) Darstellung des Beamforming und Scan-Konzepts.
8 Ultraschall | 259
Eine große Tiefenschärfe ist hier nicht erforderlich, so dass die Fokusbreite im Emp-
fangsfall minimiert werden kann. Um diese für alle Tiefen konstant zu halten, wird
meist die aktive Apertur für geringe Tiefen verringert. Für die F-Zahl FN , die über die
Fokustiefe sF und die Breite der aktiven Apertur Dap definiert ist, ergeben sich tiefenu-
nabhängig konstante Werte:
s
FN = F (8.58)
Dap
F-Zahl: Kenngröße von Ultraschallwandlern; Verhältnis von Fokus-Abstand (Wandler – Fokus) zum
Wandlerdurchmesser.
Zusätzlich zur lateralen Fokussierung kann auch ein Schwenken des Schallstrahls
realisiert werden. Während ein solches Schwenken bei Linear-Arrays meist optional
(s. Kap. 8.7.1) möglich ist, ist es bei Phased Arrays für die Bildgebung konzeptionell
(siehe Abb. 8.30).
Üblicherweise wird neben der zeitverzögerten Ansteuerung der Einzelelemente
auch eine Gewichtung ihrer Sende- und Empfangssignale [Cobbold 2007] vorgenom-
men (Apodisierung; Abb. 8.31). Bei Verwendung räumlicher Apodisierungsfunktio-
nen (z. B. eines Hanning- Fensters [Szabo 2004]) werden zur Reduzierung von Neben-
keulen (sidelobes, siehe Abb. 8.38) die Beiträge von Elementen am Rand der aktiven
Apertur weniger stark gewichtet als solche von zentral gelegenen Elementen [Angel-
sen 2000].
Sendephase: Empfangsphase:
ein Fokus pro Sendepuls optimaler Fokus für jede Tiefe
(einstellbar, aber fixiert) (mitlaufend, dynamisch)
Sendeapertur variable Empfangsapertur
Array
Fokus 1
Fokus 2
Fokus 3
Fokus
Fokus 4
1D
fixierte Elevationsapertur,
fester Fokus
1.25D
variable Elevationsapertur,
statische Fokussierung
1.5D
dynamische Fokussierung,
symmetrisch
1.75D
wie 1.5D, aber unsymmetrische
Ansteuerungsmöglichkeit
Abb. 8.32: 1.XD-Arraykonzepte für die Optimierung der Strahlformung in elevationaler Richtung.
8.5.2 B-Bild-Technik
Bildaufbau
Zweidimensionale Ultraschall-B-Bilder (B = Brightness) werden erzeugt, indem der zu-
vor beschriebene Puls-Echo-Betrieb für mehrere lateral benachbarte Schallstrahlen
wiederholt wird und die einzelnen A-Linien grauwertkodiert und in geometrisch kor-
rekter Lage nebeneinander angeordnet werden. Obwohl die Schallausbreitung auch
elevational fokussiert in einem begrenzten Raumbereich erfolgt, werden sämtliche
Empfangssignale ohne elevationale Ortsauflösung in einer zweidimensionalen Ebene
dargestellt. Es existiert somit eine elevationale Schichtdicke, innerhalb derer alle ele-
vational benachbarten Objekte mit unterschiedlicher Gewichtung zum dargestellten
8 Ultraschall | 261
Grauwert beitragen (vgl. Kap. 8.5.4). Stark echogene Bereiche, die eine hohe lokale
Reflektivität aufweisen und/oder hinter Bereichen geringer Dämpfung liegen, werden
in B-Bildern hell, schwach echogene Bereiche dunkel dargestellt.
B-Bild: auf dem B-Scan-Konzept (B = Brightness; dt. Helligkeit) basierendes Ultraschallbild mit
grauwertcodierter Schnittbild-Darstellung von Objekten.
Dynamikbereich: Verhältnis zwischen dem maximalen Signalpegel und dem kleinsten, über dem
Rauschuntergrund detektierbaren Signalpegel in einem System.
Bevor der Puls-Echo-Betrieb für den Schallstrahl n + 1 (oder für einen weiteren Sende-
fokus) beginnt, muss der Empfang für Linie n (bzw. für den vorherigen Sendefokus)
abgeschlossen sein. Die Pulswiederholrate (pulse repetition frequency, PRF) ist somit
1
fPRF = , (8.59)
tE
wobei für die Empfangszeit tE gilt:
2 ⋅ sbild 2 ⋅ smax
≤ tE ≤ (8.60)
c c
Hierin sind c die angenommene Schallgeschwindigkeit, sbild die gewählte Bildtiefe
und smax die maximale Tiefe, bis zu der hin eine Ultraschallabbildung aufgrund der
262 | Helmut Ermert, Christian Hansen
A-Linien n/100
1 2 3
0 5 0
2 1 –10
Abtastpunkte m/1000
Tiefe s(t) in cm
4 2
–20
3 10
6
z in cm
–30
8 4
–40
5 15
10
–50
6
12
–60
110 90 70 –10 0 10
(a) Abstrahlwinkel φ in Grad (b) x in cm dB
Abb. 8.33: B-Bildgebung am Beispiel einer Leberaufnahme mit einem Curved-Array: (a) Parallel
angeordnete, grauwertkodierte A-Linien (in typisch logarithmischer Skalierung). (b) B-Bild nach
Scankonvertierung. Das Dreieck markiert ein Spiegelartefakt, das Rechteck einen Bereich, dessen
Amplitudenverteilung weiter unten analysiert wird. Die Aufnahme wurde mit einem Siemens Acuson
Antares und dem Curved-Array CH4-1 mit einer Mittenfrequenz von 2,5 MHz durchgeführt.
f0 in MHz 2,0 3,5 5,0 17,5 10,0 15,0 Tab. 8.5: Reichweiten bzw. maximale
smax in cm 30 17 12 8 6 4 Bildtiefen für verschiedene Frequenzen.
Dämpfung möglich ist. Diese Tiefe lässt sich mit der Beziehung
D
smax [ dBeff ]
[ ]= (8.61)
cm 2 ⋅ 𝜂 ⋅ [f0 /MHz]
abschätzen, in der Deff der nutzbare Dynamikbereich des Puls-Echo-Systems, f0 die
Mittenfrequenz der Ultraschallsignale und 𝜂 ein Proportionalitätsfaktor ist, der nach
den Ausführungen in Kapitel 8.3.1 (siehe auch Tab. 8.3) zwischen 0,5 und 1 liegt. Für
einen Dynamikbereich von 100 dB erhält man beispielsweise bei einer Frequenz von
5 MHz und bei einer Annahme von 𝜂 = 0,8 eine Reichweite von 12,5 cm. Praktikable
Richtwerte für die Reichweite bzw. maximale Bildtiefe sind in Tab. 8.5 zusammen-
gestellt.
Bei einer Bildtiefe von beispielsweise sbild = 10 cm ergibt sich aus Gl. Gl. (8.60)
mit c = 1540 m/s eine minimale Empfangszeit von tE = 0,13 ms und damit eine PRF
von fPRF = 7,7 kHz.
Für die Aufnahme eines aus 300 A-Linien bestehenden Ultraschallframes wird
mindestens eine Aufnahmezeit von 𝛥tfr = 39 ms benötigt. Hierbei ist t eine globale
Zeitkoordinate, die anders als t an keinen besonderen Vorgang (wie den Puls-Echo-
Betrieb für einen Schallstrahl) gebunden ist. Die Bildwiederholrate (frame rate) er-
gibt sich für nur einen Sendefokus aus
1 1 c
ffr = = ≤ (8.62)
𝛥tfr N ⋅ tE 2 ⋅ N ⋅ sbild
8 Ultraschall | 263
Für das genannte Beispiel beträgt sie ffr = 39 Hz. In Abhängigkeit der Bildtiefe und der
Liniendichte ergeben sich aber durchaus Werte von bis zu 200 Hz. Im Falle mehrerer
Sendefoki reduziert sich ffr bei Erhöhung von 𝛥tfr entsprechend.
Scankonvertierung
Um eine ortsrichtige Abbildung zu realisieren, sind im Rahmen einer Scankonvertie-
rung die aufgenommenen A-Linien in korrekter geometrischer Lage zueinander an-
zuordnen (Abb. 8.33). Während beim Linear-Array nur der Abstand der parallel lie-
genden A-Linien anzupassen ist, muss beim Curved-Array und beim Phased-Array
die Lage der A-Linien unter Berücksichtigung des Abstrahlwinkels korrigiert werden.
Auflösung
Unter der Auflösung eines Abbildungssystems versteht man den kleinsten Abstand,
den zwei Punktobjekte voneinander entfernt sein dürfen, um im Bild noch getrennt
dargestellt zu werden.
Auflösung, räumlich: Maß für die Fähigkeit eines Abbildungssystems, kleine, nah beieinander lie-
gende Objekte als separate Objekte darstellen zu können.
Im Falle der Ultraschallabbildung ist die Auflösung stark anisotrop (Anisotropie: Rich-
tungsabhängigkeit, z. B. von Systemeigenschaften oder von Materialeigenschaften).
Man unterscheidet zwischen der axialen Auflösung, der lateralen Auflösung und der
elevationalen Auflösung (Schichtdicke). Die axiale Auflösung ist bei der zweidimen-
sionalen Ultraschallabbildung deutlich besser als die laterale; die elevationale Auf-
lösung ist am schlechtesten. Alle drei Größen variieren zusätzlich mit ihrem axialen
Abstand zur Ultraschallquelle, so dass die Auflösung tiefenabhängig ist. Die axiale
Auflösung ist, wie weiter unten erläutert wird, nur in geringerem Maße von der Tiefe
abhängig als die laterale und die elevationale. Aufgrund der anisotropen und tiefen-
abhängigen Auflösung des Ultraschallbildes variiert die Darstellung aufgenommener
Objekte grundsätzlich mit der Einfallsrichtung des Ultraschalls.
Abb. 8.34 zeigt beispielhaft die Bilder eines transversal abgebildeten linienför-
migen Streuers (dünner Draht) für verschiedene Tiefen.
Zur Charakterisierung der räumlichen Auflösung eines Ultraschallsystems kann
die Ausdehnung der Punktbildfunktion im Ultraschallbild benutzt werden. Dabei
interessiert der Verlauf der Echoamplitude des Punktbildes in axialer, lateraler und
elevationaler Richtung für Positionen des Punktes in verschiedenen Tiefen z = z.̆ Die
Halbwertsbreiten der Amplitudenverläufe 𝛿x , 𝛿y , 𝛿z in den Raumrichtungen x (lateral),
y (elevational) und z (axial) können als Maße für die räumliche Auflösung betrachtet
264 | Helmut Ermert, Christian Hansen
werden, wobei kleine Werte der Halbwertsbreiten jeweils eine hohe Auflösung bedeu-
ten. Die Halbwertsbreite ergibt sich als Abstand zwischen den Punkten im Amplitu-
denverlauf, an denen die Amplitude um die Hälfte ihres Maximalwertes (um 6 dB der
Maximalintensität) abgefallen ist.
Abb. 8.34: Linienbilder eines transversal abgebildeten Drahtes für verschiedene Tiefen relativ zum
Sendefokus sF = 8 cm.
u(t) ΩU( ƒ )Ω
50 % 50 %
ΔƒE
T6dB
t ƒ₀ ƒ
Abb. 8.35: Zur Erläuterung der axialen Auflösung: links: HF-Echosignal eines Punktstreuers, Ein-
hüllende (grün), Einhüllende des Echos eines weiteren Punktstreuers (grün gestrichelt), rechts:
Betragsspektrum des Echosignals.
8 Ultraschall | 265
wenn sich beide Einhüllenden nicht weiter als bis zu ihren Halbwertsbreiten überlap-
pen. Streng genommen überlagern sich die Einhüllenden nicht additiv. Die Überlage-
rung der Echosignale erfolgt im HF-Bereich, und als resultierende Einhüllende ent-
stehen komplexe Zeitverläufe. Erfahrungsgemäß ist die Annahme in Gl. (8.63) aber
trotzdem anwendbar. Für die meisten in der Echosonographie verwendeten Pulsfor-
men gibt es einen fundamentalen Zusammenhang zwischen Pulsdauer und Bandbrei-
te, der hier auch gültig ist:
𝛥fE ⋅ T6dB ≈ 1 (8.64)
In der Regel fungiert der Schallwandler mit seiner begrenzten Bandbreite Δf als Band-
pass für das ausgesandte Sendesignal und das empfangene Echosignal.
Bandpass: Filter, das die Übertragung von Signalen auf eine bestimmte Bandbreite begrenzt.
Wegen der zweifachen Filterung auf Hinweg und Rückweg ist die 6-dB-Bandbreite des
Echosignals ΔfE nur halb so groß wie die Bandbreite des Wandlers Δf . Somit lässt sich
die axiale Auflösung auch über die Bandbreite Δf des Ultraschallgerätes definieren:
c0
𝛿ax ≈ (8.65)
𝛥f
Gleichung Gl. (8.65) stellt die gegenüber Gl. (8.63) universellere Definition der axia-
len Auflösung dar. Sie ist auch anwendbar auf Signale, deren Zeit-Bandbreite-Produkt
gemäß Gleichung Gl. (8.64) viel größer als 1 ist. Von solchen Signalen wird in spezi-
ellen Puls-Echo-Systemen unter Nutzung des Konzepts der Pulskompression [Rao et
al. 1993, Paßmann et al. 1996] Gebrauch gemacht.
Da die Bandbreite bei zunehmender Mittenfrequenz steigt (Δf ≈ 0,8 f0 ), nimmt
auch die axiale Auflösung mit der Mittenfrequenz zu. Für einen Sendepuls mit einer
Gauss-förmigen Einhüllenden und einer Mittenfrequenz von f = 2,25 MHz ergibt sich
theoretisch bei einer Bandbreite von 𝛥f ≈ 0,8 f0 = 1,8 MHz und für eine Schallge-
schwindigkeit von c0 = 1540 m/s eine axiale Auflösung von 𝛿 ax = 0,86 mm. Eine Tie-
fenabhängigkeit der axialen Auflösung ergibt sich aus der frequenzabhängigen Dämp-
fung des Gewebes, da mit zunehmender Wegstrecke bei der Ausbreitung des Ultra-
schalls höhere Frequenzanteile der Signale stärker gedämpft werden als niedrigere,
woraus eine Verschiebung der Mittenfrequenzen zu niedrigeren Werten hin und eine
Reduzierung der Bandbreite resultieren.
Die laterale Auflösung wird durch die laterale Breite des Schallstrahls bestimmt
(vgl. Abb. 8.29 und Abb. 8.30). Da die Strahlform maßgeblich durch die Fokus-
sierung beeinflusst wird, variiert auch die laterale Auflösung tiefenabhängig mit der
Wahl des Sende- und Empfangsfokus. Insofern lässt sich für die laterale Auflösung
kein einheitliches Maß angeben. Von besonderem Interesse ist die laterale Auflösung
im Fokus des Ultraschallstrahls. Dort ist sie optimal und wird maßgeblich durch
die Mittenfrequenz f0 , von dem Abstand Wandler – Fokus sF und von der lateralen
266 | Helmut Ermert, Christian Hansen
Ausdehnung der aktiven Apertur Dap bestimmt. Im Fokus eines B-Bildes, der sich im
Sende- und Empfangsfall statisch in gleicher Tiefe befindet (Abb. 8.31), gilt für die
laterale Halbwertsbreite der Punktbildfunktion die Proportionalität
sF ⋅ f0
𝛿lat ∼ , (8.66)
Dap
wobei der hier weggelassene Proportionalitätsfaktor in der Größenordnung von 1
liegt [Lang et al. 1997] und von der lateralen Form des Schallwandlers oder der ak-
tiven Schallwandlergruppe abhängt. Da die Richtcharakteristik dieser Apertur im
Puls-Echo-Betrieb zweimal durchlaufen wird, entspricht die 6-dB-Auflösung der
3-dB-Breite des gesendeten Schallfeldes. Bei einem Ultraschallgerät und einem
Curved-Array mit einer Mittenfrequenz von 2,5 MHz wurde beispielsweise in einer
Fokustiefe von 13 cm experimentell eine laterale Auflösung (laterale Halbwertsbreite
der Punktbildfunktion) von 2,5 mm ermittelt [Hansen 2009].
Die elevationale Auflösung bezieht sich auf die zweite, zur Schallausbreitungs-
richtung transversale Raumkoordinate. Hier gilt die Beziehung Gl. (8.66) entspre-
chend. Ein wie oben beschrieben experimentell ermittelter Wert für die elevationale
Auflösung (Schichtdicke) in beispielsweise 8 cm Tiefe betrug 4 mm.
Speckle
Ultraschallbilder weisen stets eine granulare Struktur auf, die als Speckle-Muster be-
zeichnet wird. Speckle entstehen durch die Überlagerung der rückgestreuten Echos
einer Vielzahl von Streuern, die sich gemeinsam innerhalb einer Auflösungszelle be-
finden. Solche Verhältnisse liegen in biologischem Gewebe regelmäßig vor, da die Zell-
strukturen des Gewebes wesentlich kleiner sind als eine Auflösungszelle. Bei der Aus-
breitung der Echosignale kommt es sowohl zu konstruktiver als auch zu destruktiver
Interferenz. Infolge dieser Interferenzen entsteht nach der Hüllkurvendetektion das
typische Speckle-Muster.
Speckle (dt. Fleck): granulare Feinstruktur von Bildern bei der Bildgebung mittels kohärenter Wel-
len infolge von Interferenzeffekten.
0,03
relative Häufigkeit η
0,02
Andererseits führen aber auch die bei der Tissue Harmonic Imaging-Abbildung (THI,
siehe Kap. 8.5.4) ausgenutzten nichtlinearen Effekte bei der Wellenausbreitung
(z. B. im Gewebe) oder bei der Streuung (z. B. bei Kontrastmittel) dazu, dass es zu
Abweichungen von der Rayleigh-Verteilung kommt.
Artefakte in Ultraschallbildern
Als Artefakte werden lokale Fehldarstellungen in Ultraschallbildern bezeichnet, die
aufgrund der Eigenschaften und der Methodik der Ultraschallbildgebung entstehen.
Wegen der unidirektionalen Aufnahmetechnik und der besonderen Relevanz wellen-
physikalischer Phänomene bei der Schallausbreitung ist das Auftreten solcher Arte-
fakte abhängig von der Schalleinfallsrichtung. Artefakte beeinträchtigen die Bildqua-
lität in Abhängigkeit ihrer Stärke und ihrer Position im B-Bild und können bei einer
Fehlinterpretation durch den Untersucher eine Diagnose negativ beeinflussen.
Eine erste Gruppe von Artefakten entsteht aufgrund der Interaktion der Schall-
wellen mit Objekten und Strukturen im Gewebe:
– Abschattung: Ein häufig auftretendes Artefakt ist die Abschattung von Bildberei-
chen hinter stark reflektierenden oder stark dämpfenden Objekten wie beispiels-
weise Knochen. Wird die Abschattung durch eine stark reflektierende Struktur er-
zeugt, so erscheint bei senkrechtem Einfall der Schallwelle auf die Grenzfläche
vor dem dunklen Schallschatten eine echogene Struktur im B-Bild. Bei schrägem
Einfall erscheint nur der schwarze Schallschatten. In Abb. 8.1 (b) ist ein Abschat-
tungsartefakt im Bereich der Luftröhre zu erkennen.
Bei runden oder ovalen Grenzflächen können bei tangentialem Auftreffen der
Schallpulse Randschatten entstehen. Die Pulse werden in diesem Fall von der
Grenzfläche seitlich abgelenkt, so dass kaum Schallenergie in die Randbereiche
hinter diesen Strukturen gelangt. In Abb. 8.1 (b) treten solche Randschatten
seitlich hinter der Halsschlagader auf.
– Dorsale Schallverstärkung: Die dorsale Schallverstärkung entsteht im B-Bild
aufgrund von Dämpfungsunterschieden in Objekten, die in der Bildebene lateral
nebeneinander liegen. Das beispielsweise axial hinter (dorsal) einer Zyste oder
einem großen Gefäß liegende Gewebe wird aufgrund schwacher Dämpfung in
dem flüssigkeitsgefüllten Bereich heller (scheinbar verstärkt) dargestellt als la-
teral benachbarte Bereiche des gleichen Gewebetyps. Die Bezeichnung dieses
Artefakts als Schallverstärkung ist in Hinblick auf seine Ursache zwar inkorrekt,
aber üblich. In Abb. 8.1 (b) ist eine dorsale Schallverstärkung zentral hinter der
Halsschlagader zu erkennen.
– Geometrische Verzerrungen: Bei der Berechnung von B-Bildern werden
Brechungs- und Beugungseffekte nicht berücksichtigt und Laufzeitunterschiede
der Schallsignale durch die Verwendung einer konstanten Schallgeschwindigkeit
c = 1540 m/s vernachlässigt. Grundsätzlich erscheinen daher alle abgebildeten
Objekte geometrisch verzerrt. Hierbei ist die Größe der Schallgeschwindigkeits-
8 Ultraschall | 269
unterschiede der Objekte maßgeblich für die Stärke dieser Verzerrungen. Die
Abb. 8.37 veranschaulicht dies am Beispiel eines Kugel-Hohlraumphantoms,
das nacheinander mit unterschiedlichen Flüssigkeiten befüllt und abgebildet
wurde. Die Abb. 8.37 (a) und (c) zeigen den Strahlengang und das B-Bild für den
Fall, dass das Innere der Kugel mit dem sie auch umgebenden Wasser befüllt ist
(cw = 1540 m/s). Die Abb. 8.37 (b) und (d) zeigen den Fall, dass sich im Inneren
der Kugel Isopropanol befindet (cobj ≈ 1200 m/s < cw ). Im ersten Fall passieren die
Schallsignale ungebrochen und mit unveränderter Geschwindigkeit die Kugel, so
dass im B-Bild keine Fehler auftreten. Im zweiten Fall treten zwei beobachtbare
Effekte auf: Zum einen werden die Schallstrahlen am Rand der Kugel gebrochen,
so dass sich ihre Ausbreitungsrichtung verändert. Zum anderen durchlaufen die
Schallsignale die Kugel mit verringerter Geschwindigkeit. Im B-Bild erscheint die
Rückwand der Kugel daher verbreitert (Brechung) und axial nach hinten versetzt
(Laufzeit). Ähnliche Effekte sind nicht nur an der Kugel selbst, sondern auch
an Objekten hinter ihr zu beobachten. Grundsätzlich werden die Schallstrahlen
nicht nur in der Bildebene sondern auch elevational gebrochen. Die Schallwellen
können somit auch aus der Bildebene hinauslaufen und dort gestreut werden.
Neben den beschriebenen Brechungs- und Laufzeiteffekten treten Beugungseffek-
te auf, wodurch die Form des Schallstrahls verändert wird. Solche Effekte sind im
beispielhaft präsentierten Fall aber von geringerer Stärke.
– Wiederholartefakt: Wiederholartefakte (Reverberationen) entstehen aufgrund
von Mehrfachreflexionen der Schallwellen zwischen stark reflektierenden Grenz-
schichten. Da bei jeder der Reflexionen immer auch ein Teil der Schallwelle trans-
mittiert wird, werden wiederholt Echosignale derselben Grenzflächen empfan-
gen. Der feste zeitliche Abstand dieser Echos ist abhängig von der Distanz der
beiden reflektierenden Grenzflächen. Im B-Bild werden die zeitverzögert eintref-
fenden Echos mehrfach untereinander dargestellt. Als Sonderfall können Mehr-
fachreflexionen auch zwischen Grenzflächen im Gewebe und der Schallwandler-
oberfläche auftreten.
– Spiegelartefakt: Hinter spiegelnd reflektierenden Grenzschichten kommt es ge-
legentlich zum Spiegelartefakt. Hierbei werden die Sendepulse von der Grenzflä-
che umgelenkt, so dass Objekte und Strukturen, die eigentlich vor oder seitlich
neben der stark reflektierenden Grenzfläche liegen, im B-Bild auch hinter dieser
Grenzfläche dargestellt werden. In Abb. 8.42 (b) ist solch ein Spiegelartefakt ne-
ben dem Zwerchfell (siehe Dreieckmarkierung) zu sehen.
Neben der vorgestellten ersten Gruppe von Artefakten, die auf Besonderheiten bei der
Interaktion der Schallwelle mit Objekten und Strukturen im Gewebe zurückzuführen
sind, existiert eine zweite Gruppe von Artefakten, die hauptsächlich aufgrund der spe-
ziellen Eigenschaften oder Einstellungen des Ultraschallgerätes entstehen:
– Überreichweiteartefakte: Bei einer zu klein gewählten Pulswiederholrate PRF
kann es dazu kommen, dass bei der Aufnahme der n-ten A-Linie starke Echos
270 | Helmut Ermert, Christian Hansen
(a) (b)
5 cm 5 cm
(c) (d)
ϑ
w(χ)
x
W(ϑ)
Hauptkeule
Gitterkeule
Nebenkeule
ϑ
W(ϑ)
Hauptkeule
Gitterkeule
Nebenkeule
Abb. 8.38). Die Richtcharakteristik einer Apertur ist bei Fresnel- und Fraun-
hofer-Näherung proportional zu ihrer Fourier-Transformierten der Apertur-
belegungsfunktion (Szabo 2004). Bei einem Array entstehen daher gratinglobes
aufgrund der diskreten Verteilung der Einzelelemente und sidelobes aufgrund
der endlichen lateralen Breite der gesamten aktiven Apertur.
Gratinglobes werden vermieden, indem der Abstand zwischen den Einzelelemen-
ten (Pitch) klein gehalten wird. Die Einzelelemente eines Linear-Arrays können
beispielsweise so eng angeordnet werden, dass die entstehenden gratinglobes
(ohne Schwenken des Schallstrahls) außerhalb des Bildfeldes liegen. Soll der
Schallstrahl (wie beim Phased-Array) allerdings geschwenkt werden, so ist der
Pitch weiter zu verringern, da mit der Hauptkeule auch die gratinglobes in den
Bildbereich hineingeschwenkt werden. Sidelobes werden typischerweise durch
eine Amplituden-Gewichtung der Aperturfunktion (Apodisierung) in Form von
beispielsweise einem Hanning-Fenster auf Kosten der lateralen Auflösung unter-
drückt (Szabo 2004).
– Schichtdickenartefakte: Zu Schichtdickenartefakten kommt es aufgrund der
endlichen elevationalen Strahlbreite und der damit verbundenen Schichtdicke
eines Ultraschallbildes: Da sich die gesendeten Ultraschallpulse stets in einem
begrenzten Raumbereich ausbreiten, treffen sie eine Objektgrenze immer auch
272 | Helmut Ermert, Christian Hansen
Objekt elevationale
Schichtdicke 2D-Schnittebene
Schallwandler
(Seitenansicht)
Breite der
Fehldarstellung
an elevational verschiedenen Stellen (siehe Abb. 8.39). Da sich die zum Schall-
wandler zurückzulegenden Weglängen für die Echos elevational benachbarter
Bereiche unterscheiden, treffen diese Echos kontinuierlich zeitverzögert am
Schallwandler ein. Im B-Bild kommt es daher zu einer zu dicken und unscharfen
Abbildung der Objektgrenze.
Das Auftreten von Harmonischen ist in diesem Modell also darüber zu erklären, dass
quadratische Anteile im Empfangssignal zu Frequenzanteilen bei 2𝜔0 , kubische An-
teile zu Frequenzanteilen bei 3𝜔0 etc. führen. Wie nachfolgend gezeigt wird, kann
eine Auswertung allein der höheren Harmonischen im Rahmen der nativen Ultra-
schallabbildung zu Vorteilen gegenüber der rein fundamentalen Bildgebung führen.
Man spricht in diesem Zusammenhang von Harmonic Imaging.
0 0
Betragsspektrum A(f) in dB
–10 –10
–20 –20
–30 –30
–40 –40
–50 –50
0 2 4 6 8 0 2 4 6 8
(a) Frequenz ƒ in MHz (b) Frequenz ƒ in MHz
0 0 0
2 2
–20
4 4
Tiefe s(t) in cm
6 6 –40
8 8
–60
10 10
12 12 –80
0 2 4 6 8 0 2 4 6 8
(c) Frequenz ƒ in MHz (d) Frequenz ƒ in MHz dB
Abb. 8.40: Spektren von konventionellen Empfangsechos (a, c) und von Empfangsechos bei Ver-
wendung der Phaseninversionstechnik (b, d). Dargestellt sind die Spektren der gesamten Emp-
fangssignale (a, b) und die Spektren über der Tiefe, die aus einer Fensterung in verschiedenen Tie-
fen resultieren (c, d). Das gezeigte Spektrum stammt von einer In-vivo-Aufnahme der Leber. Die
Aufnahme wurde mit einem Siemens Acuson Antares im THI-Modus (s. u.) unter Verwendung des
Schallwandlers CH4-1 gemacht.
274 | Helmut Ermert, Christian Hansen
1 1
Druck p(t) in MPa
0 0
–0,5 –0,5
–1 –1
0 2 4 6 8 0 2 4 6 8
(a) Zeit t in μs (b) Zeit t in μs
40
4
un(t), an(t) in a.u.
20
2
0
0
–20
–2
–40
–4
–60
32 33 34 32 33 34
(c) Zeit t in μs (d) Zeit t in μs
Abb. 8.41: Sendepulse (a, b) und Empfangssignale (c, d) bei der THI-Abbildung mittels Phase-
ninversionstechnik: (a) Sendepuls mit 0° Phasenlage; (b) Sendepuls mit 180° Phasenlage (blau:
Sendepuls aus (a)); (c) Empfangssignale unA (t) (blau) und unB (t) (grün) sowie deren Addition un (t)
(schwarz); (d) Summensignal un (t) und seine Einhüllende an (t).
zeigen das Empfangsspektrum (über der Tiefe) eines Empfangssignals zum Sendepuls
mit Mittenfrequenz f0 = 2,25 MHz (vgl. Abb. 8.41 (a)). Während der Pegel der 2. Har-
monischen deutlich unter dem der 1. Harmonischen liegt, überlappen die signaltra-
genden Frequenzbereiche beider Harmonischen stark. Eine einfache Bandpass-Filte-
rung um 2f0 = 4,5 MHz führt daher entweder dazu, dass nicht alle Frequenzanteile der
1. Harmonischen ausgeblendet werden oder dass die 2. Harmonische nicht vollstän-
dig erfasst wird. Auch muss eine solche Filterung tiefenabhängig durchgeführt wer-
den, da es aufgrund der frequenz- und tiefenabhängigen Dämpfung (vgl. Kap. 8.3.1)
typischerweise zu einer Verminderung der Bandbreite in der Tiefe und damit zu ei-
ner scheinbaren Verschiebung des Spektrums zu niedrigeren Frequenzen kommt (vgl.
Abb. 8.40 (c)).
8 Ultraschall | 275
Phase Inversion (dt. Phasenumkehr): Konzept zur Erzeugung und Aussendung einer Sequenz von
Sendesignalen für die nichtlineare Abbildung, bei der das zweite Sendesignal durch Phasenum-
kehr aus dem zuerst ausgesandten Sendesignal gewonnen wird.
Für das Tissue Harmonic Imaging (THI) ergeben sich bei Verwendung der Phasenin-
versionstechnik folgende Vorteile gegenüber der herkömmlichen B-Bildgebung:
– Axiale Auflösung: Aufgrund einer größeren nutzbaren Signalbandbreite, die
nach der Addition der Echosignale unA (t) und unB (t) um die 2. Harmonische
vorliegt, verbessert sich die axiale Auflösung.
– Laterale Auflösung: Die Empfangssignale weisen die doppelte Mittenfrequenz
auf wie die Sendesignale. Außerdem unterscheiden sich die Richtcharakteristiken
im Sende- und Empfangsfall aufgrund der verschiedenen Mittenfrequenzen. Die
Lage von Side- und Gratinglobes (vgl. Kap. 8.5.3) variiert daher für beide Fälle.
Beide Effekte führen gemeinsam zu einer Verbesserung der lateralen Auflösung.
– Elevationale Auflösung: Auch die elevationale Auflösung wird verbessert. Die
Gründe entsprechen denen, die für die laterale Auflösung aufgezählt wurden.
276 | Helmut Ermert, Christian Hansen
Die genannten Eigenschaften des THI sind in Abb. 8.42 zu sehen. Hier wird ein kon-
ventionelles B-Bild einem THI-Bild gegenübergestellt. Beide Bilder wurden aus dem-
selben THI-Datensatz berechnet, der bei der Abbildung einer Leber gewonnen wurde.
Tissue Harmonic Imaging (THI; dt. Gewebebildgebung mit höheren Harmonischen): nichtlineare
Abbildung (siehe Harmonic Imaging), die auf der nichtlinearen Wirkung des Übertragungsmedi-
ums (z. B. des biologischen Gewebes) basiert.
5 0
–10
–20
10
z in cm
–30
–40
15
–50
–60
–10 0 10 –10 0 10
x in cm x in cm dB
(a) (b)
Abb. 8.42: B-Bild (a) und THI-Bild (b) der Leber. Beide Bilder wurden aus demselben Datensatz be-
rechnet. Die Aufnahme wurde mit einem Siemens Acuson Antares im THI-Modus unter Verwendung
einer HF-Daten-Schnittstelle und mit dem Schallwandler CH4-1 gemacht.
8 Ultraschall | 277
Die Konzepte der Signalverarbeitung bei der nichtlinearen Abbildung variieren bei
den verschiedenen Geräteherstellern ebenso wie die Bezeichnungen. Bei den Verfah-
ren, die auf der Basis der Nichtlinearität des Gewebes arbeiten, hat sich die Bezeich-
nung „Tissue Harmonic Imaging“ (THI) international allgemein durchgesetzt, auch
wenn es neben dem Verfahren der Pulsinversion, welches die oben beschriebenen Un-
symmetrien bezüglich positiver und negativer Echosignalanteile nutzt, andere Verfah-
ren gibt, bei denen die Reaktion des Gewebes auf unterschiedliche Signalleistungspe-
gel (power modulation) ausgenutzt werden [Cobbold 2007, Jiang et al. 1998].
A
F
E B
D C
(a) C B A (b)
Abb. 8.43: Schematische Darstellung zweier Verfahren zur Aufnahme eines Ultraschallvolumenda-
tensatzes. (a) Verschiebung des Schallwandlers. (b) Schwenken der Bildebene.
nuell zu verfahren bzw. zu verkippen. Im zweiten Fall sind mechanische oder elek-
tronische Hilfsmittel zur gesteuerten Wandlerbewegung nötig.
– Art der automatisierten Bewegung: Wird die Bildebene gemäß dem vorherigen
Punkt automatisiert bewegt, so kann zwischen einer mechanischen Bewegung
des gesamten Schallwandler-Arrays und dem elevationalen Schwenken der Bild-
ebene mittels eines elektronischen Beamforming unterschieden werden.
– Art der Registrierung: Um die aufgenommenen Ultraschallframes in eine geo-
metrisch korrekte Beziehung zueinander zu bringen (Registrierung), existieren
verschiedene Möglichkeiten. Bei der automatisierten Bewegung bietet es sich an,
die Position und Orientierung des Arrays bzw. die Abstrahlwinkel der Ultraschall-
pulse zu jedem Frame zu speichern. Bei Freihandverfahren können einerseits Po-
sitionserfassungssysteme eingesetzt werden, um die Position und Orientierung
des Arrays jeweils zu ermitteln. Andererseits können aber auch bildbasiert (bei-
spielsweise über Korrelationsverfahren) die Informationen der aufgenommenen
Ultraschallframes in gegenseitige Beziehung gesetzt werden.
Ohne dass der Einsatz zusätzlicher experimenteller Aufbauten erforderlich ist, un-
terstützen klinische Ultraschallgeräte häufig sowohl Freihandverfahren als auch au-
tomatisierte Verfahren zur Aufnahme von 3D-Datensätzen. Während die Freihand-
verfahren nur die Installation zusätzlicher Software auf den Ultraschallgeräten er-
fordern, werden für die automatisierte Aufnahme spezielle Schallwandler benötigt.
Derzeit sind zwei Arten von Schallwandlern kommerziell erhältlich, die beide die Bild-
ebene gemäß Abb. 8.43 (b) automatisch schwenken: Zum einen existieren Wandler,
die ein 1D-Curved-Array in einem größeren Gehäuse mechanisch um eine feste Achse
drehen (Abb. 8.45). Zum anderen existieren 2D-Phased-Arrays, sogenannte Matrix-
Wandler [Dausch et al. 2008], welche die Bildebene über ein elektronisches Beam-
8 Ultraschall | 279
geschwenktes 2D-Array
1D-Array
e
n n lev
Sca (m ale atio n
elevationaler ler isch) ec r S - Sca
ra ha ca ler isch)
Scan late ktron nis n ra
late ktron
(mechanisch) (ele ch
) (ele
(a) (b)
Abb. 8.44: Arrays für die 3D-Abbildung: mechanisch geschwenktes 1D-Array (a), 2D-Array (b).
8.6 Doppler-Verfahren
8.6.1 Der Doppler-Effekt
Ein Vorteil bei der Anwendung von Ultraschall in der medizinischen Diagnostik be-
steht darin, dass sich Bewegungen mit relativ geringem technischem Aufwand durch
die Nutzung des Doppler-Effektes messen und auch visualisieren lassen. Dieses ist
insbesondere für die Messung und Darstellung von fließendem Blut von Interesse. Der
Doppler-Effekt wurde von dem österreichischen Physiker C. A. Doppler [Gill 1965]
beschrieben und besteht darin, dass sich bei der Wellenausbreitung zwischen Sen-
dern und Empfängern die Frequenzen bzw. Spektren der Empfangssignale gegenüber
denen der Sendesignale verändern, wenn sich Sender und/oder Empfänger in der
Sende- bzw. Empfangsphase relativ zueinander bewegen. Falls sich infolge der Rela-
tivbewegung zwischen Sender und Empfänger der Übertragungsweg verkürzt, erfolgt
beim Empfangssignal eine spektrale Verschiebung zu höheren Frequenzen hin, bei
einer Verlängerung der Wegstrecke gibt es eine Verschiebung zu niedrigeren Frequen-
zen.
Doppler-Effekt: Verschiebung von Frequenzen bzw. Spektren von Signalen während der wellen-
förmigen Ausbreitung infolge der Bewegung des Senders und/oder des Empfängers und/oder ei-
nes im Wellenfeld befindlichen Streuobjektes.
280 | Helmut Ermert, Christian Hansen
(a)
Ähnlich wie bei Radarverfahren gibt es beim diagnostischen Ultraschall die Beson-
derheit, dass Sender und Empfänger identisch und stationär sind und dass hier der
Doppler-Effekt dadurch hervorgerufen wird, dass durch die Bewegung eines reflek-
tierenden bzw. rückstreuenden Objektes während der Wechselwirkung mit dem Sig-
nal die aus Hinweg (Sender – Objekt) und Rückweg (Objekt – Empfänger) bestehende
Gesamtstrecke verändert, d. h. verkürzt oder verlängert, wird. Diese Situation wird im
Folgenden anhand der Abb. 8.47 erläutert.
Das Sendesignal und das Empfangssignal sollen hier ganz allgemein, unabhängig
von ihrer physikalischen Natur, durch die Zeitfunktionen fS (t) bzw. fE (t) beschrieben
werden. Für das Empfangssignal lässt sich der Ausdruck
fE (t) = A ⋅ fS (t − 𝜏) (8.74)
angeben, in dem A ein Amplitudenfaktor und 𝜏 die Verzögerung ist, die das Echosignal
gegenüber dem Sendesignal wegen des Laufweges 2z0 (Hin- und Rückweg zwischen
Wandler und Streuer) erfährt. Dabei soll näherungsweise angenommen werden, dass
die Amplitude der Rückstreuung frequenz- und entfernungsunabhängig ist. Falls sich
das Streuobjekt bewegt, trägt näherungsweise nur die z-Komponente der Geschwin-
digkeit vz zur Entfernungsänderung bei. Der Abstand Wandler – Streuer ändert sich
gemäß
z = z0 + vz t , (8.75)
und die Verzögerung 𝜏 wird zu einer Zeitfunktion entsprechend
2 2v
𝜏(t) = (z + vz t) = 𝜏0 + z t , (8.76)
c0 0 c0
in der c die frequenzunabhängige Ausbreitungsgeschwindigkeit und z0 ein Anfangs-
wert für den Abstand Wandler – Streuer ist, der zu einem zeitunabhängigem Anteil 𝜏0
der Laufzeitverzögerung führt. Für das Echosignal ergibt nun sich der Ausdruck
fE (t) = A ⋅ fS (b ⋅ t − 𝜏0 ) (8.77)
mit
2vz
b = (1 − ). (8.78)
c0
Sendesignal ν→
ƒS(t) νX
ϑ
Schallwandler
νZ
Objekt
ƒE(t) Echosignal
0 z0 z
Es lässt sich erkennen, dass beim Echosignal die Zeitachse gegenüber dem Sende-
signal durch einen Faktor b gestaucht oder gestreckt wird, je nachdem, ob sich das
Streuobjekt zum Wandler hin bewegt (vz < 0, b > 1, „Rückwärtsbewegung“) oder vom
Wandler entfernt (vz > 0, b < 1, „Vorwärtsbewegung“). Während der Faktor b eine
spektrale Veränderung des Echosignals beschreibt, haben die Anfangswerte z0 und
𝜏0 keinen Einfluss auf diese Veränderung und sollen im Folgenden unberücksichtigt
bleiben.
Für ein monofrequentes Signal
Schallwandler
Kontaktgel
Hautoberfläche
ϑ
Blutgefäß ν→
Abb. 8.48: Typische Anordnung bei der Dopp-
ler-Sonographie.
8 Ultraschall | 283
berechnen und die Richtung der z-Komponente des Geschwindigkeitsvektors aus dem
Vorzeichen von fD ableiten lässt.
Die Geschwindigkeitskomponente senkrecht zur Wellenausbreitungsrichtung
wird bei Anwendung von Doppler-Radar-Verfahren im Luftverkehr „Blindgeschwin-
digkeit“ genannt. Dieser Ausdruck beschreibt das Phänomen, dass ein Flugkörper im
Radarbild nicht sichtbar ist, wenn er sich zum Beispiel auf einer Kreisbahn um die Po-
sition des Radarsystems bewegt und damit seine Entfernung zum Radarsystem nicht
verändert. Der Einfluss einer lateralen Geschwindigkeitskomponente ist aber nur
näherungsweise verschwindend klein. Da beim Ultraschall in der Regel mit fokussie-
renden Wandlern gearbeitet wird, die relativ stark gebündelte Schallwellen erzeugen,
bewirkt das laterale Durchqueren eines Schallstrahls durch ein Streuobjekt eine Va-
riation der Amplitude des Rückstreusignals. Diese Art der Amplitudenmodulation
führt auch zu einer Beeinflussung des Spektrums des Echosignals, was wiederum die
Genauigkeit der Geschwindigkeitsbestimmung reduzieren kann. Andererseits bietet
eine genaue Auswertung dieses Phänomens auch die Möglichkeit, Informationen
über die laterale Bewegung des Objektes zu gewinnen.
Bei der Anwendung von Ultraschall-Doppler-Verfahren zur Messung der Ge-
schwindigkeit von fließendem Blut muss natürlich auch beachtet werden, dass es sich
hier nicht, wie bisher oben angenommen, um jeweils einzelne Streuobjekte handelt,
die sich durch eine bestimmte Geschwindigkeit und eine bestimmte Geschwindig-
keitsrichtung auszeichnen, sondern durch eine strömende Flüssigkeit, die sich aus
einem Gemenge von Partikeln zusammensetzt, die in unterschiedlicher Weise zur
Rückstreuung von Schallsignalen beitragen.
Beim Blut handelt es sich um eine Suspension aus zellularen und fluiden Bestand-
teilen. Letztere machen beim Menschen etwa 55 % des Blutvolumens aus, bestehen
zu 90 % aus Wasser und werden als Blutplasma bezeichnet. Die restlichen 45 % be-
stehen zu ca. 95 % aus roten Blutkörperchen (Erythrozyten), zu 0,13 % aus weißen
Blutkörperchen (Leukozyten) und zu 4,87 % aus Blutplättchen (Thrombozyten). In
Tab. 8.6 sind die Größen und die Volumenanteile der zellulären Bestandteile des Blu-
tes zusammengestellt.
284 | Helmut Ermert, Christian Hansen
8.6.2 CW-Doppler-Verfahren
Doppler-Sonographie: Methode zur Bestimmung der Geschwindigkeit von fließendem Blut (oder
auch der Bewegung von Gewebe) mithilfe eines Ultraschallsystems. Die Methode basiert auf dem
Doppler-Effekt (benannt nach Christian Doppler).
Continuous Wave (CW; dt. Dauerstrich): Betriebsart mit kontinuierlichen Wellenformen (z. B. Si-
nuswellen).
Das sogenannte CW-Doppler-Verfahren (continuous wave, CW) ist das älteste und
technisch einfachste Doppler-Verfahren der Ultraschalldiagnostik. Es wird sowohl
perkutan in einer der Abb. 8.48 entsprechenden Anordnung als auch intravaskulär
mittels kleiner Sonden angewandt, wobei im letzteren Fall bei einer im Gefäß inner-
halb der Blutströmung positionierten Sonde die Winkelkorrektur entfällt. Im stark
vereinfachten Fall einer zeitlich und räumlich konstanten Blutströmung entsteht ein
Echospektrum gemäß Abb. 8.49 (a), das sich aus einer spektral unveränderten Li-
nie, die den Anteil der Festziele repräsentiert, und einer spektral verschobenen Linie,
8 Ultraschall | 285
die dem Echo aus dem fließenden Blut zuzuordnen ist, zusammensetzt. Im realen
Fall nimmt das Echospektrum eher eine Verteilung nach Abb. 8.49 (b) an, die da-
durch gekennzeichnet ist, dass die Spektrallinien verbreitert sind. Die Verbreiterung
in der Umgebung von ± 𝜔0 lässt sich damit erklären, dass einige Gewebebereiche,
insbesondere die Gefäßwände, Bewegungen durchführen, die vom Doppler-System
erfasst werden. Die Verbreiterung der Linie ± (𝜔0 − 𝜔D ) hängt ursächlich mit der
räumlich inhomogen verteilten Fließgeschwindigkeit des Blutes in dem erfassten
Gefäß zusammen. Die Spektralanteile bei |𝜔| > 𝜔0 deuten auf Blutfluss in umge-
kehrter Richtung hin. Dieser Anteil kann z. B. von anderen Gefäßen stammen, die
bei der Doppler-Messung mit erfasst werden. Es gibt aber auch Gefäßstrukturen, in
deren Querschnitten sich Bereiche befinden, in denen zu gleicher Zeit Blutfluss mit
entgegengesetzten Flussrichtungen auftritt.
Nichtdirektionale Signalverarbeitung
Die einfachste Form der Auswertung der Echosignale besteht in einer Signalverarbei-
tung, bei der die verschiedenen Flussrichtungen nicht unterschieden werden. Ein sol-
ches nichtdirektionales Verfahren lässt sich mit einer Schaltung nach Abb. 8.50 rea-
lisieren, in der das Echosignal mittels eines als Multiplikator wirkenden Mischers mit
einem monofrequenten Signal gemischt wird, das dieselbe Frequenz 𝜔0 besitzt wie
das Sendesignal.
Die Signalverarbeitung sei hier der Anschaulichkeit wegen an einem einfachen
Beispiel erläutert, bei dem nur ein Geschwindigkeitswert auftritt. Es sei
ΩFEΩ
ΩFEΩ
ωD
–ω₀ ω₀ ω –ω₀ ω₀ ω
(a) (b)
Abb. 8.49: Echo-Spektren beim CW-Doppler: Idealisierter Fall (a), realer Fall (b).
f0 /MHz 1 10 100
vz Tab. 8.7: Einige typische Zahlenbeispiele für die
cm/s
Doppler-Verschiebung fD gemäß Gl. (8.82).
1 13,3 133 1 333 Hz
3,5 46,6 466 4 655 Hz
5 656 665 6 650 Hz
10 133 1 333 13 333 Hz
das Sendesignal, das bei einer Flussgeschwindigkeit vz vom bewegten Ziel ein Echo-
signal
fE (t) = B ⋅ cos b𝜔0 t (8.86)
mit b gemäß Gl. (8.78) hervorruft. (Echos von nicht-bewegten Zielen sollen hier nicht
betrachtet werden.) A und B seien beliebige Amplitudenfaktoren, c sei die Schallge-
schwindigkeit. Die Multiplikation führt zu einem Signal
erzeugt, dessen Frequenz 𝜔D = 2𝜋fD bei den üblichen Ultraschallfrequenzen und den
vorkommenden Flussgeschwindigkeiten im Bereich des menschlichen Hörvermögens
liegt.
In Tab. 8.7 sind einige Werte der möglichen Doppler-Frequenzen zusammenge-
stellt, die veranschaulichen, dass die erzeugten Signale hörbar gemacht werden kön-
nen. Diese akustische Information ist für geübte Anwender des Verfahrens außeror-
dentlich nützlich.
ΩFMΩ
–2ω₀ 2ω₀ ω
In Abb. 8.51 wird gezeigt, wie sich die Bandpassfilterung auf ein typisches Dopp-
ler-Signal auswirkt. Der Bandpass, dessen Frequenzgang durch die gestrichelte Linie
gekennzeichnet ist, ist so dimensioniert, dass alle hochfrequenten Signalanteile und
solche niederfrequente Anteile, die auf sehr geringe Geschwindigkeiten (Bewegung
der Gefäßwände im Herzzyklus) zurückzuführen sind, unterdrückt werden („Wandfil-
ter“). Es ist auch zu erkennen, dass im abwärtsgemischten Signal die Flussanteile mit
entgegengesetzten Richtungen (vorwärts/rückwärts) nicht mehr unterscheidbar sind.
Direktionale Signalverarbeitung
Das Ziel einer Unterscheidbarkeit der Flussrichtungen kann mit einer direktionalen
Signalverarbeitung erreicht werden. Das klassische Konzept besteht in einer zweika-
naligen Verarbeitung nach dem Prinzip der Quadraturdemodulation. Ein Blockschalt-
bild ist in Abb. 8.52 dargestellt.
Die Funktion dieses Verfahrens soll anhand eines Echosignalspektrums erläutert wer-
den, wie es in Abb. 8.53 dargestellt ist. Es setzt sich aus Signalanteilen zusammen,
die durch vorwärts (V) und rückwärts (R) fließendes Blut hervorgerufen werden. Au-
ƒE(t) cos(ω₀t)
sin(ω₀t)
ƒS1(t) ƒS2(t) +
BP H ƒR(t)
ƒS3(t) –
FE(w)
W W
R V V R
Durchlass-
Charakteristik
ßerdem sind Anteile hoher Amplitude enthalten, die von stationären und sehr lang-
sam bewegten Gewebebereichen, vorwiegend von den Gefäßwänden (W), stammen.
Das Spektrum FE (𝜔) des Echosignals fE (t) lässt sich durch folgenden Ausdruck
beschreiben:
FE (𝜔) = +V(𝜔 − 𝜔0 + 𝜔D ) + W(𝜔 − 𝜔0 ) + R(𝜔 − 𝜔0 − 𝜔D )
+ V(𝜔 + 𝜔0 − 𝜔D ) + W(𝜔 + 𝜔0 ) + R(𝜔 + 𝜔0 + 𝜔D ) (8.90)
Im oberen Signalzweig ergibt die Multiplikation mit dem Signal cos(𝜔0 t) in der Zeit-
bereichsdarstellung
1
fC1 (t) = fE ⋅ [ej𝜔0 t + e−j𝜔0 t ] (8.91)
2
und im Spektralbereich eine Faltung gemäß
Wandfilter: Hochpass zur Unterdrückung der durch statisches Gewebe und durch sehr langsam
bewegte Objekte erzeugten Signale.
Damit gilt
Die Multiplikation mit sin(𝜔0 t) im unteren Signalzweig ergibt im Zeitbereich den Aus-
druck
1
fS1 (t) = fE (t) ⋅ sin(𝜔0 t) = fE (t) ⋅ [e+j𝜔0 t − e−j𝜔0 t ] (8.95)
2j
8 Ultraschall | 289
FR(w) FV(w)
R R V V
Abb. 8.55: Getrennte Spektren der Doppler-Signale für die Flussanteile in Vorwärtsrichtung und in
Rückwärtsrichtung.
FS3 (𝜔) = FS2 (𝜔) ⋅ HH (𝜔) ∼ [−V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) − V(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )] , (8.98)
das mit dem entsprechenden Signal des oberen Signalzweiges in der Weise kombiniert
werden kann, dass sich gemäß
die Anteile des vorwärts und des rückwärts gerichteten Flusses trennen lassen.
In Abb. 8.55 sind die Spektren der beiden Ausgangssignale fV (t) und fR (t) darge-
stellt.
Die Bestimmung der diagnostisch interessanten Flussinformation aus den Sig-
nalen fD (t) bei nichtdirektionaler Verarbeitung bzw. fV (t) und fR (t) bei direktionaler
Verarbeitung kann nun auf verschiedene Weise erfolgen:
1. Berechnung des zeitlichen Verlaufs des Mittelwertes der Doppler-Verschiebung
nach Berechnung des Kurzzeitspektrums des Doppler-Signals innerhalb eines
Zeitfensters T mittels schneller Fourier-Transformation (FFT) gemäß
t+T/2
∫ 𝜔|FDT (𝜔, t)|2 d𝜔
t−T/2
𝜔(t) = (8.101)
t+T/2
∫ |FDT (𝜔, t)|2 d𝜔
t−T/2
290 | Helmut Ermert, Christian Hansen
ƒD(t)
t
T
FFT
FDT (ω,t)
–
ω
–(t)
ω
Abb. 8.56: Kurzzeit-FFT zur Bestimmung eines zeitabhängigen Mittelwertes der Flussgeschwindig-
keit innerhalb eines Zeitfensters T.
Darin ist
sD (t) = fD (t) + jH {fD (t)} (8.103)
das Doppler-Signal in komplexer, analytischer Form, das aus dem Messsignal durch
Anwendung der Hilbert-Transformation gewonnen werden kann. Es kann gezeigt
werden, dass sich damit der Mittelwert der Doppler-Verschiebung näherungsweise
aus der zeitlichen Ableitung der Phase der Autokorrelationsfunktion
d
𝜔(t) ≈ arg rsD sD T (𝜏, t)𝜏=0 (8.104)
d𝜏
bestimmen lässt. Da sich diese Berechnung gegenüber der in 1. dargestellten Methode
sehr schnell durchführen lässt, wird sie auch bei dem weiter unten zu behandelnden
„Color-Flow“-Verfahren benutzt, das simultan zur B-Bild-Abbildung eine Echtzeit-Ab-
bildung von Flusszuständen in Schnittbildern erlaubt [Kasai et al. 1985].
Die Wiedergabe der Doppler-Information kann akustisch oder graphisch vorge-
nommen werden:
– akustische Wiedergabe durch Lautsprecher oder Kopfhörer (ggf. zweikanalig bei
direktionaler Verarbeitung)
– visuelle, grauwertkodierte Darstellung des zeitlichen Verlaufs der mittels schnel-
ler Fourier-Transformation (FFT) gewonnenen Kurzzeitspektren des Doppler-
Signals gemäß Abb. 8.57.
8 Ultraschall | 291
ω
FE(ω)
t
(a) (b)
Abb. 8.57: Grauwertkodierte Darstellung der Kurzzeit-FFT: schematisch (a), aufgenommenes Spek-
trum aus einem Gefäß (b).
8.6.3 PW-Doppler-Verfahren
Beim CW-Doppler lassen sich mit der direktionalen Methode zwar Flüsse mit entge-
gengesetzten Richtungen unterscheiden, es gibt allerdings keine Informationen über
die Entfernungen, aus denen die Doppler-Signale stammen. Die Forderung nach
gleichzeitiger Gewinnung von Flussinformation und Entfernungsinformation führt
zu einem gewissen Konflikt. Für die Entfernungsinformation (axiale Auflösung) wird
die Bandbreite benötigt (siehe Gl. (8.65)), die durch Signale mit kurzer Dauer (Pulse,
siehe Gl. (8.63)) realisiert werden kann. Für die Gewinnung von Bewegungsinforma-
tion aus dem Dopplereffekt werden aber Signale mit großer Dauer benötigt, wie weiter
unten gezeigt wird (siehe Gl. (8.112)). Die beim CW- Doppler verwendeten monofre-
quenten Signale verfügen über eine große Dauer, ihre Bandbreite ist aber theoretisch
gleich Null. Mit dem Puls-Doppler-Verfahren (auch Pulsed-Wave-Doppler bzw.
PW-Doppler) wird dieses Problem durch Anwendung einer Pulssequenz gelöst, die
sowohl über eine genügend große Bandbreite als auch über eine genügend große
Signaldauer verfügt.
TB
TA
Verzögerungs-
Generator
glied
Sample&Hold-
Filter Duplexer Schallwandler
Glied
Ein einfaches Blockschaltbild für ein Puls-Doppler-System, mit dem die Flussinfor-
mation durch Wahl bestimmter Verzögerungszeiten aus definierten Objekttiefen ge-
wonnen werden kann, ist in Abb. 8.59 dargestellt.
Wird nun zur Auswertung der empfangenen Echosignale eines homogenen Strö-
mungszustandes z. B. die Signalverarbeitung gemäß Abb. 8.52 angewandt, so erhält
man demodulierte Signale der Form
N
t − t0 − nTA
fD (t) = cos(𝜔D t + 𝜑0 ) ⋅ ∑ rect ( ), (8.106)
n=1 TB /2
u₁(t)
CW
PW
TB t
ƒD(t) TA
CW
cos(2πƒD t + φ₀)
PW
TB t
TA
t₀
Abb. 8.60: Vergleich der Doppler-Signale des CW-Verfahrens (gestrichelt) und des PW-Doppler-
Verfahrens: Einhüllende des Sendesignals (oben), demoduliertes Doppler-Signal (unten).
2,5 MHz
3,5 MHz
4
5,0 MHz
7,5 MHz
ΩVzΩmax in m/s
0
0 2 4 6 8 10
zmax/m
Abb. 8.61: Wertebereiche gemäß Gl. (8.110) bei einer Schallgeschwindigkeit von c0 = 1500 m/s.
c2
vz max ⋅ zmax < 0 (8.110)
8f0
In Abb. 8.61 sind für einige Ultraschallfrequenzen die Zusammenhänge aus
Gl. (8.110) graphisch dargestellt.
Auflösungseigenschaften
Informationen über die räumliche Auflösung der Doppler-Informationen können
aus einer Betrachtung der Ambiguity-Funktion des Puls-Doppler-Konzepts abgelei-
tet werden. Während sich die Ortsauflösung bei der Entfernungsbestimmung der
Doppler-Echos aus der Pulsbreite gemäß
c0
𝛿z = ⋅ TB (8.111)
2
ergibt, kann für die Genauigkeit der Geschwindigkeitsmessung ein Ausdruck für die
Geschwindigkeitsauflösung angegeben werden
c0 2,4
𝛿v = , (8.112)
4f0 N ⋅ TA
der aussagt, dass neben der Schallgeschwindigkeit und der Sendefrequenz die zeitli-
che Dauer des Sendesignals N⋅TA einen wesentlichen Einfluss auf die Messgenauigkeit
hat [Jensen 1996, Shung 2006, Xu 1995].
8.6.4 TS-Verfahren
Time Shift (TS; dt. Zeitverschiebung): Verfahren, bei dem alternativ zu den Doppler-Verfahren die
Blutflussinformation aus dem Vergleich zeitverschobener Echosignale gewonnen wird.
Color-Flow-Konzept
In Abb. 8.62 werden die verschiedenen Doppler-Verfahren hinsichtlich der geome-
trischen Orte verglichen, aus denen jeweils Flussinformationen gewonnen und verar-
beitet werden.
Während die Flussinformation beim CW-Doppler lediglich eine durch die Wand-
lercharakteristik geprägte laterale Auflösung, aber keinerlei Tiefenauflösung besitzt,
kann beim PW-Doppler ein bestimmtes räumliches Zielgebiet vorgegeben werden,
innerhalb dessen die Doppler-Information (Spektren, Mittelwerte) ausgewertet wer-
den kann. Ziel der bildgebenden Verfahren ist, simultan zur morphologischen B-Bild-
Darstellung des interessierenden Organbereiches eine ortsaufgelöste Flussinformati-
on in Echtzeit zur Verfügung zu stellen („Duplex-Betrieb“). Dabei gibt es zwei Pro-
bleme. Zum einen kann innerhalb eines Bildpunktes nicht die gesamte Information
über einen Flusszustand dargestellt werden. Deshalb wird hier üblicherweise der Mit-
telwert der Flussgeschwindigkeit benutzt und in farbkodierter Weise dargestellt. Das
zweite Problem liegt in den Anforderungen an die Geschwindigkeit der Signalverar-
Messfenster
Abb. 8.62: Vergleich von CW-Doppler, PW-Doppler und bildgebendem Doppler („Farb-Doppler“).
296 | Helmut Ermert, Christian Hansen
Geschwindigkeit
(Farbsättigung)
ts
är
rw
vo
ng
h tu
Ric
ts
är
ckw
rü
Abb. 8.64: Beispiel einer „Momentaufnahme“ aus einer Farb-Doppler-Bildsequenz (rechts) als
Ergänzung zum grauwertkodierten B-Bild (links): Gefäßverzweigung mit Ablagerung in einem Blut-
gefäß („Plaque“) und Flussanteilen in verschiedenen Richtungen. (Mit freundlicher Genehmigung
des MedArchivs der Siemens AG).
Abb. 8.65: Beispiel einer „Momentaufnahme“ aus einer Farb- Doppler-Bildsequenz in Ergänzung
zum grauwertkodierten B-Bild: Leber mit Teilen ihrer Gefäßarchitektur, dazu die Darstellung des
PW-Doppler-Signals in einem speziellen Zielgebiet (mit freundlicher Genehmigung des MedArchivs
der Siemens AG).
Power-Doppler-Konzept
Ein besonderes Merkmal der Farb-Doppler-Technik besteht darin, dass sich die Fluss-
information aus kleinen Gefäßen wegen der Begrenztheit der Doppler-Signalpegel
und wegen der geringen Flussgeschwindigkeiten nicht darstellen lassen. Aus diesem
Grunde reißt in den Bildern die Farbinformation aus den Gefäßen hin zu kleinen Ge-
fäßdurchmessern ab. Eine Verbesserung lässt sich mit dem Power-Flow-Verfahren er-
reichen, das auf die Richtungsinformationen des Blutflusses verzichtet und eine um
einiges vollständigere Darstellung von Perfusionszuständen des Gewebes und von Ge-
fäßarchitekturen unter Verzicht auf quantitative Flussinformationen gestattet. Darge-
stellt wird das Leistungsdichtespektrum der Doppler-Signale, das sich aus
+∞
2
∫ FD (𝜔) d𝜔 (8.113)
−∞
298 | Helmut Ermert, Christian Hansen
Wandfilter Wandfilter
Blutfluss
Blutfluss
Rauschen Rauschen
ƒD ƒD
bestimmen lässt. Abb. 8.66 zeigt die beiden Modalitäten anhand einer Darstellung
des Flusses in zwei benachbarten Gefäßen mit entgegengesetzter Flussrichtung.
Abb. 8.68: Power-Flow-Darstellung: Beispiel (Gefäßarchitektur einer Niere). (Mit freundlicher Ge-
nehmigung des MedArchivs der Siemens AG).
men wird und die Empfangsdaten der Einzelbilder ortsrichtig miteinander kombiniert
werden. Legt man den beim medizinischen Ultraschall üblichen Puls-Echo-Betrieb
und die konventionelle Bilderzeugung durch mehrere fokussierte Strahllinien zugrun-
de, so können die aus unterschiedlichen Richtungen empfangenen Echolinien auch
Grundlage einer multidirektionalen Bildgebung sein. Anders als im unidirektionalen
Fall werden sich diese Linien im Bildbereich allerdings schneiden, so dass einem Pi-
xel des Bildbereiches mehrere Werte zugeordnet sind. Eine Kombination dieser Werte
kann dadurch erfolgen, dass sie inkohärent (nach Hüllkurvendetektion der Echolini-
en) addiert werden. Man spricht in diesem Fall von Spatial Compounding. Das Prinzip
des Spatial Compoundings wurde bereits in wissenschaftlichen Untersuchungen aus
den 1970er- und 1980er-Jahren beschrieben. In jener Zeit wurden viele Arbeiten zum
Spatial Compounding veröffentlicht, welche bei verschiedener Anwendung das Poten-
tial zur Verbesserung der Bildqualität grundsätzlich wie folgt beschreiben [Burkhardt
1978, Einighammer 1985, Ermert et al. 1986, Hiller et al. 1982, Jago 1994, Röhrlein et al,
1987, Shankar et al, 1994, Trahey et al. 1986]:
– Rausch-Reduktion: Speckle und elektronisches Rauschen werden durch die Mul-
tidirektionalität reduziert, wenn das in den einzelnen Ultraschallbildern vorhan-
dene Rauschen nicht miteinander korreliert ist. Die Speckle-Formation eines Ul-
traschallbildes hängt von der Konfiguration der Streuer relativ zur Schallwellen-
ausbreitung ab, so dass das Speckle-Muster sich bei Beschallung aus unterschied-
lichen Richtungen ändert. Je größer der Unterschied in den Aspektwinkeln ist,
desto geringer ist die Korrelation des Speckle-Musters. Ist das Speckle-Muster der
aufgenommenen Einzelbilder unkorreliert, so reduziert sich bei W aufgenomme-
nen Einzelbildern das in Gl. (8.69) definierte SNR um den Faktor √W.
– Isotrope Auflösung: Während beim konventionellen Ultraschallbild die Auflö-
sungen in axialer und lateraler Richtung stark differieren, kann die Multidirek-
tionalität des Spatial Compoundings abhängig von der Anzahl und der Verteilung
der Aspektwinkel dazu führen, dass die Auflösung isotroper wird.
– Artefaktunterdrückung: Bildartefakte, deren Auftreten von der Einfallsrichtung
des Ultraschalls abhängen, werden reduziert.
– Vollständige Darstellung: Spiegelnd reflektierende Strukturen, die nur ab-
schnittsweise in den einzelnen Ultraschallbildern als echogene Linien erschei-
nen, werden beim Spatial Compounding zusammenhängend dargestellt.
– Reduzierung tiefenabhängiger Intensitätsverteilungen: Durch die Abbildung
eines Objektes aus verschiedenen Richtungen liegen dieselben Objektstrukturen
in den Einzelbildern in unterschiedlichen Tiefen. Bei der Überlagerung der Ein-
zelbilder wird die tiefenabhängige Dämpfung der konventionellen Ultraschallab-
bildung somit kompensiert.
(a) (b)
Abb. 8.69: (a) Linearer B-Scan, Compounding durch elektronisches Schwenken des Bildfeldes,
(b) Compounding durch mechanische Translation eines Wandlers mit sektorförmigem Bildfeld.
302 | Helmut Ermert, Christian Hansen
Abb. 8.70: Beispiele für ein Limited Angle Spatial Compunding (LASC) mit konventionellen Ultra-
schallgeräten. (a) Konventionelles B-Bild der Schilddrüse, (b) LASC-Ultraschallbild gleicher Schnit-
tebene. Man erkennt eine Speckle-Reduktion (Kreis) und die zusammenhängende Darstellung von
echogenen Faszien (Pfeile). Randschatten werden nicht vollständig unterdrückt (Kreuze). Die Ul-
traschallbilder wurden mit einem Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer
Mittenfrequenz von 7,5 MHz und unter Verwendung des Features SieClear aufgenommen. (c) Pan-
oramabild derselben Schilddrüse in ähnlicher Schnittebene. Das Ultraschallbild wurde mit einem
Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz und
unter Verwendung des Features SieScape aufgenommen.
12
14
16
Objekt
18
20
(a) (b) cm –6 –4 –2 0 2 4
Abb. 8.71: 360°-Echo-Tomographie: Full Angle Spatial Compounding (FASC): Scan-Konzept (a), In-
vivo-Aufnahme einer gesunden weiblichen Brust, 72 Aspektwinkel, THI-Modus, Mittenfrequenz
2,5 MHz (b).
Zusätzlich zu der beschriebenen Art des LASC wird bei kommerziellen Ultraschall-
geräten häufig die Möglichkeit geboten, den Schallwandler während des Betriebs
in der Schnittebene lateral zu verschieben und zu verkippen, um durch die Kombi-
nation mehrerer benachbarter Einzelbilder ein Panoramabild zu generieren [Ho-
fer 2002]. Ein Beispiel für eine solche Panoramabildgebung ist das Produkt SieS-
cape der Firma Siemens, das als optionales Softwarefeature für einige Ultraschall-
geräte erhältlich ist. Abb. 8.70 (c) zeigt ein Beispiel hierzu. Die Kombination von
zusammengehörigen Bildbereichen erfolgt hierbei ohne Positionserfassung des
8 Ultraschall | 303
Limited Angle Spatial Compounding (LASC; dt. Zusammensetzung über einen begrenzten Raum-
winkelbereich): Compounding über einen begrenzten Aspektwinkelbereich (< 360°).
Full Angle Spatial Compounding (FASC; dt. Zusammensetzung über den gesamten Raumwinkel-
bereich): Compounding über einen Aspektwinkelbereich von 360°.
8.7.2 Elastographie
Kompression
Abb. 8.72: Das Konzept der Elastographie: unterschiedliche Verformung nach Kompression unter-
schiedlich harter Areale.
Tiefe z
A-Scan
unkomprimiert
ΔI = c · τ(z₁) ΔI = c · τ(z₂)
A-Scan
komprimiert
Phasen-Nullstellen-
Suche
Verschiebung
Abb. 8.73: Bestim-
mung der lokalen
Differentiation
Dehnung aus den
A-Scan-Signalen vor
Dehnung und nach der Kom-
pression.
Wandler
F hart
0,3 cm
1 cm Agar-
Agar
1,5 cm Schaumstoff
7 cm (b) weich
(a) 4 cm (c)
Abb. 8.74: Elastographie. (a) Experiment: Mit dem Ultraschallwandler wird ein Objekt komprimiert,
das ein kreiszylindrisches Areal mit größerer Härte enthält. (b) B-Bild des Objektes, das Areal ist
nicht sichtbar, weil sich die Echogenität nach Kompression nicht geändert hat. (c) Dehnungsbild.
Abb. 8.75: B-Bild (links), Elastogramm (Mitte) und Histologie (rechts) einer Prostata mit Karzinom
(PCa).
306 | Helmut Ermert, Christian Hansen
Acoustic Radiation Force Impulse Imaging (ARFI-Imaging): spezielle Version der Elastographie,
bei der die Gewebedeformation durch akustisch induzierte Strahlungsdrücke hervorgerufen wird.
Welche Effekte bei der Zerstörung tatsächlich auftreten und wie viele Bläschen über-
haupt zerstört werden, ist abhängig von den gesamten Randbedingungen der Welle-
Bläschen-Interaktion. In den meisten Fällen kommt es aber bei der Zerstörung der
Bläschen zu kurzzeitigen Emission eines relativ starken akustischen Signals (stimu-
lierte akustische Emission). Weiterhin ist häufig zu beobachten, dass die wandlernah
liegenden Mikrobläschen bei einer Zerstörung viel Schallenergie absorbieren und
somit wandlerferne Bläschen zunächst nicht zerstört werden.
308 | Helmut Ermert, Christian Hansen
Qualitative Kontrastmittelabbildung
Bei der qualitativen Kontrastmittelabbildung wird die zeitvariante, räumliche Vertei-
lung des Kontrastmittels anhand einer Ultraschall-Bildserie bewertet, ohne Kennzah-
len abzuleiten und so die Abbildung zu quantifizieren. Im einfachsten Fall werden rein
visuell die dynamischen Veränderungen in der Kontrastmittelverteilung am Monitor
des Ultraschallgerätes beobachtet. Die folgenden Anwendungen sind möglich:
– Angiographie: Eine Darstellung des Verlaufs von einzelnen Gefäßen (Angiogra-
phie) gelingt in zwei Fällen: Zum einen ist es möglich, Gefäße darzustellen, die
groß genug sind, um vom Ultraschallabbildungssystem aufgelöst zu werden. Zum
anderen kann aber auch der Verlauf von Gefäßen dargestellt werden, die zwar zu
klein sind, um im nativen Ultraschallbild (ohne Kontrastmittel) abgebildet zu wer-
den (< 1. . .3 mm), aber räumlich separiert von anderen Gefäßen verlaufen. Solche
Gefäße sind üblicherweise innerhalb des Speckle-Musters des nativen Ultraschall-
bildes nicht sichtbar, können aber über das starke Echo des Kontrastmittels im
kontrastmittelspezifischen Bild detektiert werden.
– Perfusionsabbildung: Liegen hingegen die feinen Gefäße zu dicht beieinander,
um einzeln dargestellt zu werden, kann nur eine generelle Intensitätszunahme
des rückgestreuten Echos im gesamten Gewebe beobachtet werden. In diesem Fall
kann die Gewebeperfusion (Blutversorgung durch das mikroskopische Kapillar-
system) über die dynamische Intensitätsänderung bei der Kontrastmittelapplika-
tion abgebildet werden.
Abb. 8.76 zeigt Beispiele einer angiographischen Abbildung und einer Perfusions-
abbildung [Engelhardt et al. 2007]. Die kontrastmittelspezifische Abbildung der Blut-
versorgung des Gewebes kann klinisch genutzt werden, um Gefäßanomalien darzu-
stellen oder eine Hypo-bzw. Hyperperfusion zu beobachten und somit pathologische
Veränderungen im Gewebe zu detektieren. Perfusionsunterschiede zum gesunden Ge-
webe zeigen zum Beispiel ischämische Prozesse wie den Herzinfarkt und den Schlag-
anfall, die über eine Hypoperfusion erkannt werden können. Ein weiteres Beispiel
sind pathologische Gewebeneubildungen (Neoplasien bzw. Tumoren), die sowohl als
hypo- als auch als hyperperfundierte Läsionen zu erkennen sein können [Hohmann
et al. 2003].
Ultraschallkontrastmittel verfügen in ihrer Eigenschaft als Marker (Targeted Imaging)
bei der sonographischen Bildgebung neben der Anwendung zur Darstellung von Blut-
fluss und Perfusion (Durchblutung von Gewebebereichen über kleine Gefäße, auch
Mikrozirkulation) über ein hohes diagnostisches und therapeutisches Anwendungs-
potential [Wei 2011]. Sie sind insbesondere im Zusammenhang mit verschiedenen An-
sätzen der Molekularen Bildgebung [Behm et al. 2008, Voigt 2009] und der ultra-
schallgesteuerten, gezielten Medikamentengabe (drug delivery) [Ferrara et al. 2007,
Pitt et al. 2004] von großem Interesse.
8 Ultraschall | 309
(a) (b)
(c) (d)
Semiquantitative Perfusionsabbildung
Das Ziel der semiquantitativen Auswertung von kontrastmittelspezifischen Bildserien
ist es, aus dem zeitlichen Verlauf der Kontrastmittelkonzentration physiologisch aus-
sagekräftige Kennzahlen zu bestimmen. Während angiographische Verfahren meist
nur qualitativ arbeiten, besteht bei der Perfusionsabbildung die Möglichkeit, die Per-
fusionsdynamik zu quantifizieren und voneinander möglichst unabhängige perfusi-
onsbeschreibende Parameter zu extrahieren. Relevante Parameter sind beispielswei-
se die Blutmenge, die sich innerhalb eines betrachteten Gewebebereiches befindet,
und die Perfusionsrate, mit der Blut in den Gewebebereich eindringt. Da die Art der
Quantifizierung intraindividuell zwar den quantitativen Vergleich verschiedener Ge-
webetypen zulässt, aber für verschiedene Patienten interindividuell unterschiedliche
Werte liefert, wird sie häufig als semiquantitativ bezeichnet. Es existieren unterschied-
liche Methoden zur semiquantitativen Perfusionsabbildung: die Bolus-Methode, die
Wiederanreicherungsmethode und die Verarmungsmethode, die in der Literatur nä-
her beschrieben werden [Hansen 2009].
310 | Helmut Ermert, Christian Hansen
Bolus: Intravenöse Schnellinjektion eines Kontrastmittels. So entsteht ein mit Kontrastmittel an-
gereicherter Abschnitt im Blut.
8.7.4 Hochfrequenz-Ultraschall
Die räumliche Auflösung bei der Ultraschallabbildung kann durch eine Erhöhung der
Mittenfrequenz und der Bandbreite der verwendeten Ultraschallsignale gegenüber
den allgemein üblichen Frequenzen beträchtlich gesteigert werden [Foster et al. 2000,
Vogt et al. 2010]. Allerdings verringert sich die Reichweite der Abbildungssysteme we-
gen der mit der Frequenz ansteigenden Dämpfung des Ultraschalls im biologischen
Gewebe (siehe Gl. (8.30)) bei hohen Frequenzen erheblich. Hochfrequenz-Ultra-
schall-Systeme sind erforderlich und können vorteilhaft (a) bei „nahen“ Objekten
mit geringer Ausdehnung und (b) bei Objekten mit geringer akustischer Dämpfung
eingesetzt werden. Zur Gruppe (a) gehören die Haut mit ihren pathologischen Verän-
derungen, Gefäßwände bei intravaskulärer Diagnostik sowie Schleimhäute innerer
Organe bei der endoskopischen Anwendung von Ultraschall. Auch Kleintiere und
Organe von Kleintieren (z. B. Mäuse), bei denen im Rahmen präklinischer Forschung
hochfrequenter Ultraschall angewandt wird, gehören zu dieser Kategorie. Zur Grup-
pe (b) gehört das Auge.
In der Dermatologie werden z. B. Ultraschallfrequenzen im Bereich von 20 bis
150 MHz verwendet [Ermert et al. 1997]. Da bei Frequenzen oberhalb von 30 MHz die
Arraytechnologie noch nicht sehr hoch entwickelt ist, werden hier vielfach fokus-
sierende Einzelwandler in mechanisch scannenden Systemen verwendet. Außerdem
können wegen besonderer Anforderungen an die Verarbeitung der hochfrequenten
mm mm
0,0 1,0 0,0 1,0
20 MHz 100 MHz
0,2 0,2
0,8 0,8
0,4 0,4
0,6 0,6
0,6 0,6
0,8 0,8
1,2 1,2
0,2 0,2
1,4 1,4
Abb. 8.77: HF-Ultraschall: Aufnahme eines Hauttumors (malignes Melanom) bei verschiedenen Fre-
quenzen.
8 Ultraschall | 311
8.7.5 Sonohistologie
In Abb. 8.79 wird ein Beispiel aus einer klinischen Studie gezeigt, in der die So-
nohistologie [Scheipers et al. 2008] bei der Diagnostik des Prostatakarzinoms er-
probt wurde. Neben den üblichen, mit Rektalsonden gewonnenen Ultraschallbildern
(„B-Bilder“) wurden u. a. Malignitätskarten basierend auf dem Konzept der Sonohis-
tologie berechnet und dargestellt. Die Sonohistologie wurde auch erfolgreich in der
Hals-Nasen-Ohren-Heilkunde [Siebers et al. 2010] und in der Gefäßdiagnostik [Nair et
al. 2001] angewandt.
PCa
Abb. 8.79: B-Bild (links), Sono-Histologie (Mitte) und Histologie (rechts) einer Prostata mit Karzi-
nom.
8 Ultraschall | 313
Hybride Abbildung: Abbildung, bei der mehrere unterschiedliche Strahlungs- oder Wellenarten,
die auch in Wechselwirkung miteinander stehen können, genutzt werden (z. B. photo-akustische
Bildgebung).
Beim Ultraschall handelt es sich um mechanische Wellen, die das biologische Gewe-
be wegen der auftretenden Absorption thermisch und wegen der lokalen und transi-
enten Druckschwankungen und Bewegungsvorgänge mechanisch belasten können.
Aus diesem Grunde sind diese beiden Belastungsarten zu unterscheiden und auf mög-
liche schädigende Einwirkungen auf das Gewebe zu untersuchen. Bei der Definition
von Betriebsparametern, welche die thermische und mechanische Belastung des bio-
logischen Gewebes beschreiben, sind neben den Ultraschallfrequenzen die Kenngrö-
ßen des Pulsbetriebs und des Scanbetriebs sowie der Fokussierungsgrad der Schall-
wandler zu beachten.
Zur Bewertung möglicher Gefährdungen [Duck 2008, ter Haar 2010] ist neben
einem Kennwert für die Schallintensitäten, aus denen sich Erwärmungseffekte im
Gewebe ableiten lassen, auch ein Kennwert, der für mechanische Wirkungen, ins-
besondere Kavitationsbildung, verantwortlich ist, definiert worden. Zur Abschätzung
314 | Helmut Ermert, Christian Hansen
Der Pegel für das Auftreten von Kavitation ist frequenzabhängig. Die Schwellwerte für
das Auftreten von Kavitation wachsen mit steigender Frequenz, steigendem statischen
Druck und mit dem Grad der Viskosität eines fluiden Mediums, sie sinken mit steigen-
dem Gasgehalt und steigender Temperatur. Für Wasser gibt es Abschätzungen zum
Schwellwert für das Auftreten von Kavitation [Kuttruff 1988], siehe Abb. 8.80.
Im biologischen Gewebe tritt Kavitation bevorzugt an Grenzschichten zwischen
Materialien unterschiedlicher Konsistenz auf, insbesondere an Grenzschichten zwi-
schen gasgefüllten Arealen und Weichgewebe. Ein Schwellwert lässt sich wegen der
Komplexität der Gewebestrukturen und ihrer Grenzbereiche nicht angeben.
10⁸
negativer Druck in Pa
10⁷
10⁶
10⁵
10⁴
10³ 10⁴ 10⁵ 10⁶ 10⁷ Abb. 8.80: Schwellwerte für das Auftreten von
Frequenz in Hz Kavitation in Wasser.
Kavitation: Bildung von stabilen oder transienten Hohlräumen in fluiden Medien durch die Einwir-
kung akustischer Wellenfelder.
8.8.3 Grenzwerte
Für die thermische Wirkung des Ultraschalls wäre es eigentlich sinnvoll, Temperatur-
grenzwerte festzulegen. Da Temperaturerhöhungen aber nicht zuverlässig bestimmt
werden können, werden die Leistungsdichtewerte des Ultraschallwellenfeldes be-
nutzt.
Es gibt eine Aussage der Weltgesundheitsorganisation (WHO) von 1977, wonach
es im unteren Megahertzbereich (< 5 MHz) keine von unabhängigen Stellen bestä-
tigten, signifikanten Effekte in biologischem Gewebe von Säugetieren gibt, das einer
unfokussierten In-vivo-Beschallung von Ultraschall mit Intensitäten unterhalb von
100 mW/cm2 ausgesetzt wird. Darüber hinaus sollen auch bei fokussiertem Ultraschall
mit höheren Intensitäten entsprechende Effekte nicht nachweisbar sein, wenn die Ein-
wirkungsdauer des Ultraschalls zwischen 1 Sekunde und 500 Sekunden liegt und das
Produkt aus Intensität und Einwirkungsdauer kleiner als 50 Ws/cm2 ist [Hill, 1977].
Diese Zusammenhänge sind in Abb. 8.81 graphisch dargestellt.
Es gibt eine Empfehlung [US Department of Health and Human Services 2008],
wonach bei Ultraschalluntersuchungen Ultraschallwellen mit Druckamplituden
unterhalb von 1 MPa eingesetzt werden sollen. Die Schallintensität J (räumliche Leis-
tungsdichte) liegt hierbei unter 720 mW/cm2 . Dieser Wert wird in B-Bild-Systemen
nicht erreicht. Er kann aber in Farb-Doppler-Systemen auftreten. Hier wird aller-
dings die Einhaltung des Grenzwertes durch die Steuersoftware der Geräte und eine
geeignete Gestaltung der Bedienungskonsole sichergestellt [AIUM/NEMA 2004].
Nach Aussagen der Strahlenschutzkommission (SSK) der Bundesregierung kön-
nen thermische Schäden bei Patienten ohne Fieber oberhalb einer lokalen Tempe-
raturerhöhung von 2°C über der normalen Körpertemperatur von 37°C nicht ausge-
schlossen werden. Für das embryonale oder fetale Gewebe empfiehlt die SSK einen
8 Ultraschall | 317
sicherer Bereich:
10 Sz < 100 mW cm–2
oder
Sz/(W cm–2)
0,1
0,01
0 10 10² 10³ 10⁴
1h
t/s
Abb. 8.81: Definition sicherer und möglicherweise schädigender Betriebsbereiche von Ultraschall-
geräten (Sz = Intensität, t = Einwirkungsdauer).
8.8.4 Qualitätsmanagement
Quellenverzeichnis
Albrecht T., Blomley M., Bolondi L., Claudon M., Correas J. M., Cosgrove D., et al.: Guidelines for the
use of contrast agents in ultrasound. Ultraschall in Med 2004; 25: 249–256.
Barkmann R., Laugier P., Moser U., Dencks S., Padilla F., Haïat G., Heller M., Glüer C.-C.: A method for
the estimation of femoral bone mineral density from variables of ultrasound transmission
through the human femur. Bone 2007; 40 (1): 37–44.
Bauer D. C., Glüer C. C., Cauley J. A., Vogt T. M., Ensrud K. E., Genant H. K., Black M. D.: Broadband
ultrasound attenuation predicts fractures strongly and independently of densitometry in older
women. A prospective study. Study of Osteoporotic Fractures Research Group. Arch Intern Med
1997; 157 (6): 629–634.
Behm C. Z., Lindner J. R.: Cellular and molecular imaging with targeted contrast ultrasound.
Ultrasound Q 2006; 22 (1): 67–72.
Bercoff J., Tanter M., Fink M.: Supersonic shear imaging: a new technique for soft tissue elasticity
mapping. IEEE Trans Ultrason Ferroelectr Freq Control 2004; 51 (4): 396–409.
Berson M., Roncin A., Pourcelot L.: Compound scanning with an electrically steered beam. Ultrason
Imaging 1981; 3: 303–308.
Bogdahn U., Becker G., Schlachetzki G. (Hrsg.): Echoenhancers and transcranial color duplex
sonography. 4. Aufl. Berlin u. a.: Blackwell Science, 1998.
Bom N., Carlier S. G., van der Steen A. F. W., Lancee C. T.: Intravascular scanners. Ultrasound Med
Biol 2000: 26 (1), S6–S9.
Bouakaz A., Verslius M., de Jong N.: High-speed optical observations of contrast agent destruction.
Ultras Med Biol 2005; 31 (3): 391–399.
Burkhardt C.: Speckle in Ultrasound B-mode Scans. IEEE Trans Sonics Ultrason 1978; 25: 1–6.
Buzug T. M.: Einführung in die Computertomographie. Berlin: Springer, 2004.
Chapman C., Lazenby J.: Ultrasound imaging system employing phase inversion substraction to
enhance the image. US Patent: No. 5.632.2777, 1997.
Chaussy C., Brendel W., Schmiedt E.: Extracorporeally induces destruction of kidney stones by shock
waves. Lancet 1980; 316: 1265–1258.
Dausch D., Castellucci J., Chou D., von Ramm O.: Theory and operation of 2-D array piezoelectric
micromachined ultrasound transducers. IEEE Transactions on Ultrasonics, Ferroelectrics and
Frequency Control 2008; 55: 2484–2492.
Duck F. A.: Physical properties of tissue. London: Academic Press, 1990.
Duck F. A.: Hazards, risks and safety of diagnostic ultrasound. Medical Engineering and Physics
2008: 30: 1338–1348.
8 Ultraschall | 319
Duric N., Littrup P., Poulo L., Babkin A., Pevzner R., Holsapple E., et al.: Detection of breast cancer
with ultrasound tomography: first results with the computerized ultrasound risk evaluation
(CURE) prototype. Med Phys 2007; 34 (2): 773–785.
Duric N., Littrup P., Rama O., Holsapple E. T.: Computerized ultrasound risk evaluation (CURE): first
clinical results. Acoustical Imaging 2007; 28: 177–185.
Dussik K. T.: Über die Möglichkeit hochfrequente mechanische Schwingungen als diagnostische
Hilfsmittel zu verwenden. Z Ges Neurol Psychat 1942; 174: 153–168.
Eggert T., Khaled W., Wenske S., Ermert H., Noldus J.: Impact of elastography in clinical diagnosis of
prostate cancer. A comparison of cancer detection between B-mode sonography and
elastography-guided 10-core biopsies. Urologe 2008; 47 (9): 1212–1217.
Einighammer H. J.: Ultrasonic rotational compound scans of the breast. Diagn Imag Clin Med 1985;
54: 223–228.
Engelhardt M., Hansen C., Eyding J., Wilkening W., Brenke C., Krogias C., et al.: Feasibility of
contrast-enhanced sonography during resection of cerebral tumours – initial results of a
prospective study. Ultrasound Med Biol 2007; 33 (4): 571–575.
Ermert H., Röhrlein G.: Ultrasound reflection-mode computerized tomography for in-vivo imaging of
small organs. Proceedings: IEEE Intern Ultrason Symp 1986; 2: 825–828.
Ermert H., Hiltawsky K. M., Khaled W., Lorenz A., Perrey C., Pesavento A., et al.: Prinicple,
applications and limitations of ultrasound based elastography. Acoustical Imaging 2003; 27:
503–510.
Ermert H., Vogt M., Paßmann C., el Gammal S., Kaspar K., Hoffmann K., Altmeyer P.: High frequency
ultrasound (50–150 MHz) in dermatology. In: Altmeyer P., Hoffmann K., Stücker M. (Hrsg.): Skin
cancer and UV radiation. Berlin, Heidelberg, New York: Springer, 1997: 1023–1051.
Ermert H., Keitmann O., Oppelt R., Granz B., Pesavento A., Vester M., Tillig B., Sander V.: A new
concept for a real-time ultrasound transmission camera. IEEE 2000 Ultrasonics Symposium
Proceedings 2000; 2: 1611–1614.
Ferrara K., Pollard R., Borden M.: Ultrasound microbubble contrast agents: fundamentals and
application to gene and drug delivery. Annu Rev Biomed Eng 2007; 9: 415–447.
Fettweis A.: Elemente nachrichtentechnischer Systeme. 2. Aufl. Stuttgart: BG Teubner, 1996.
Foster F. S., Pavlin C. J., Harasiewicz K. A., Christopher D. A., Turnbull D. H.: Advances in ultrasound
biomicroscopy. Ultrasound Med Biol 2000; 26 (1): 1–27.
Gambichler T., Moussa G., Bahrenberg K., Vogt M., Ermert H., Weyhe D., et al.: Preoperative
ultrasonic assessment of thin melanocytic skin lesions using a 100-MHz ultrasound transducer:
a comparative study. Dermatol Surg 2007; 33 (7): 818–824.
Geier B., Barbera L., Muth-Werthmann D., Siebers S., Ermert H., Philippou S., Mumme A.: Ultrasound
elastography for the age determination of venous thrombi. Evaluation in an animal model of
venous thrombosis. Thromb Haemost 2005; 93 (2): 368–374.
Gill T. P.: The Doppler-effect: An introduction to the theory of the effect. London: Logos-Press, 1965.
Glide C., Duric N., Littrup P.: A novel approach to evaluating breast density utilizing ultrasound
tomography. Med Phys 2007; 34 (2): 744–753.
Goldberg G. G., Raichlen J. S., Forsberg F.: Ultrasound contrast agents: basic principles and clinical
applications. 2. Aufl. London: Martin Dunitz, 2001.
Halliwell M., Curtis S.: Ultrasound breast imaging: a 3-dimensional approach, work-in-process.
Toshiba Medical Systems: Visions 2008; 12: 67–75.
Hansen C., Hollenhorst M., Hüttebräuker N., Wilkening W., Heuser L., Schulte-Altedorneburg G.,
Ermert H.: Ultrasound breast imaging using full angle spatial compounding: in-vivo results.
Proceedings: IEEE Intern Ultrason Symp 2008; 54–57.
Hansen C.: Kontrastmittelspezifische Ultraschall-Computertomographie. Dissertation Ruhr-
Universität Bochum, 2009.
320 | Helmut Ermert, Christian Hansen
Hansen C., Hüttebräuker N., Wilkening W., Ermert H.: A method to expedite data acquisition for
multiple spatial-temporal analyses of tissue perfusion by contrast-enhanced ultrasound. IEEE
Transactions on Ultrasonics, Ferroelectrics and Frequency Control 2009; 56: 507–519.
Henderson J., Willson K., Jago J. R., Whittingham T. A.: A survey of the acoustic outputs of diagnostic
ultrasound equipment in current clinical use. Ultrasound Med Biol 1995; 21 (5): 699–705.
Hill C. R.: Manual on health aspects exposure to non ionizing radiation. Chapter: Ultrasound. WHO
Regional Office for Europe, 1977.
Hiller D., Ermert H.: Tomographic reconstruction of B-scan images. Acoustical Imaging 1982; 10:
347–364.
Hiller D., Ermert H.: Ultrasound computerized tomography using transmission and reflection mode:
application to medical diagnosis. Acoustical Imaging 1982; 12: 553–562.
Hiltawsky K. M.: Analyse und Optimierung von Abbildungseigenschaften der Ultraschall-
Elastographie. Dissertation Ruhr-Universität Bochum, 2005.
Hiltawsky K. M., Krüger M., Starke C., Heuser L., Ermert H., Jensen A.: Freehand ultrasound
elastography of breast lesions: clinical results. Ultrasound in Med & Biol 2001; 27 (11):
1461–1469.
Hofer M.: Sono Grundkurs: Ein Arbeitsbuch für den Einstieg. 4. Aufl. Stuttgart: Georg Thieme Verlag,
2002.
Hohmann J., Albrecht T., Hoffmann C. W., Wolf K. J.: Ultrasonographic detection of focal liver lesions:
increased sensitivity and specificity with microbubble contrast agents. Eur J Radiol 2003; 46
(2): 147–159.
Hollenhorst M., Hansen C., Hüttebräuker N., Schasse A., Heuser L., Ermert H., Schulte-
Altedorneburg G.: Ultrasound computed tomography in breast imaging: first clinical results of a
custom-made scanner. Ultraschall Med 2010; 31 (6): 604–609. Epub 7.7.2010.
Hope Simpson D., Chin C., Burns P.: Pulse inversion Doppler: a new method for detecting nonlinear
echoes from microbubble contrast agents. IEEE Trans Ultrason Ferroelect Freq Contr 1999; 46
(2): 372–382.
Hoskins P. R., Anderson T., Meagher S., MacGillivray T. J., Sharp M., McDicken W. N.: B-mode
compound imaging in mice. Ultrasound Med Biol 2006; 32 (1): 29–32.
Howry D., Bliss W.: Ultrasonic visualization of soft tissue structures of the body. J Lab Clin Med 1952;
40 (4): 579–592.
Jago J.: An automated method for determining the centre of rotation of a mechanically scanned
reflection UCT system. Phys Med Biol 1994; 39: 2367–2371.
Jiang P., Mao Z., Lazenby J. C.: A new tissue harmonic imaging scheme with better fundamental
frequency cancellation and higher signal-to-noise ratio. IEEE International Ultrasonics
Symposium Proceedings 1998; 2: 1589–1594.
Kalender W. A.: Computertomographie: Grundlagen, Gerätetechnologie, Bildqualität, Anwendungen.
2. Aufl. Erlangen: Public Corporate Publishing, 2006.
Kasai C., Namekawa K., Koyano A., Omoto R.: Real-time two-dimensional blood flow imaging using
an autocorrelation technique. IEEE Transactions on Sonics and Ultrasonics 1985; 32: 458–464.
Kennedy J. E., ter Haar G. R., Cranston D.: High intensity focused ultrasound: surgery of the future?
British Journal of Radiology 2003; 76: 590–599.
Khaled W., Reichling S., Bruhns O. T., Ermert H.: Ultrasonic strain imaging and reconstructive
elastography for biological tissue. Ultrasonics 2006; 44: E199–E202.
König K., Scheipers U., Pesavento A., Lorenz A., Ermert H., Senge T.: Initial experiences with
real-time elastography guided biopsies of the prostate. J Urol 2005; 174 (1): 115–117.
Kremkau F. W.: Cancer therapy with ultrasound: a historical review. J Clin Ultrasound 1979; 7:
287–300.
8 Ultraschall | 321
Lang M., Ermert H.: Linear synthetic aperture modes for ultrasonic pulse-echo imaging.
Biomedizinische Technik 1997; 42 (5): 108–115.
Laugier P., Padilla F., Camus E., Chaffai S., Chappard C., Peyrin F., Talmant M., Berger G.: Quantitative
ultrasound for bone status assessment. Ultrasonics Symposium 2000 IEEE; 2 (2): 1341–1350.
Lehmann T., Oberschelp W., Pelikan E., Repges R.: Bildverarbeitung für die Medizin. Berlin: Springer,
1997.
Leighton T. G.: An introduction to acoustic cavitation. In: Duck F. A., Baker A. C., Starritt H. C. (Hrsg.):
Ultrasound in medicine. Bristol: Institute of Physics Publishing, 1998: 199–233.
Lindner J. R.: Microbubbles in medical imaging: current applications and future directions. Nat Rev
Drug Discov 2004; 3 (6): 527–532.
Nair A., Kuban B. D., Obuchowski N., Vince D. G.: Assessing spectral algorithms to predict
atherosclerotic plaque composition with normalized and raw intravascular ultrasound data.
Ultrasound Med Biol 2001; 27 (10): 1319–1331.
Neumann T., Ermert H.: Schlieren visualization of ultrasonic wave fields with high spatial resolution.
Ultrasonics 2006; 44 (Suppl 1): e1561–1566. Epub 15.6.2006.
Niederhauser J. J., Jaeger M., Lemor R., Weber P., Frenz M.: Combined ultrasound and optoacoustic
system for real-time high-contrast vascular imaging in vivo. IEEE Trans Med Imaging 2005; 24
(4): 436–440.
Nightingale K., Soo M. S., Nightingale R., Trahey G.: Acoustic radiation force impulse imaging: in
vivo demonstration of clinical feasibility. Ultrasound Med Biol 2002; 28 (2): 227–235.
Ophir J., Alam S. K., Garra B., Kallel F., Konofagou E., Krouskop T., Varghese T.: Elastography:
ultrasonic estimation and imaging of the elastic properties of tissues. Proc Inst Mech Eng H
1999; 213 (3): 203–233.
Opretzka J., Vogt M., Ermert H.: A high-frequency ultrasound imaging system combining
limited-angle spatial compounding and model-based synthetic aperture focusing. IEEE Trans
Ultrason Ferroelectr Freq Control 2011; 58 (7): 1355–1365.
Paßmann C., Ermert H.: A 100 MHz ultrasound imaging system for dermatologic and ophthalmologic
diagnostics. IEEE Trans Ultras Ferr Freq Contr 1996; 43 (4): 545–552.
Pavlin C. J., Foster F. S.: Ultrasound biomicroscopy of the eye. New York: Springer, 1995.
Perrey C., Neumann T., Bojara W., Holt S., Ermert H.: Real time intravascular ultrasound elastography
with rotating single element transducers. IEEE Ultrasonics Symposium Proceedings 2002; 2:
1913–1916.
Pesavento A., Lorenz A., Ermert H.: System for real-time elastography. Electronics Letters 1999; 35
(11): 941–942.
Pesavento A., Lorenz A., Siebers S., Ermert H.: New real-time strain imaging concepts using
diagnostic ultrasound. Phys Med Biol 2000; 45: 1423–1435.
Pitt W. G., Husseini G. A., Staples B. J.: Ultrasonic drug delivery – a general review. Expert Opin Drug
Deliv 2004; 1 (1): 37–56.
Postema M., Schmitz G.: Bubble dynamics involved in ultrasonic imaging. Expert Rev Mol Diagn
2006; 6 (3): 493–502.
Randal J.: High Intensity focused ultrasound makes its debut. Nat Cancer Inst 2002; 94: 962–964.
Rao N., Mehra S.: Medical ultrasound imaging using pulse compression. Electronics Letters 1993;
29: 649–651.
Röhrlein G., Ermert H.: Limited angle reflection mode computerized tomography. Acoustical Imaging
1985; 14: 413–424.
Röhrlein G., Ermert H.: Speckle in ultrasound computerized reflection mode tomography. Acoustical
Imaging 1987; 15: 341–357.
322 | Helmut Ermert, Christian Hansen
Rychak J. J., Graba J., Cheung A. M., Mystry B. S., Lindner J. R., Kerbel R. S., Foster F. S.:
Microultrasound molecular imaging of vascular endothelial growth factor receptor 2 in a mouse
model of tumor angiogenesis. Mol Imaging 2007; 6 (5): 289–296.
Satomura S.: Ultrasonic Doppler method for the inspection of cardiac functions. J Acoust Soc Am
1957; 29: 1181–1185.
Satrapa J., Doblhoff G., Schultz H. J.: Automatisierte Qualitätsprüfung von diagnostischen
Ultraschallgeräten. Ultraschall in Med 2002; 23: 123–128.
Satrapa J., Schultz H.-J., Doblhoff G.: Automatisierte Qualitätskontrolle von
Ultraschall-B-Mode-Scanner in Kliniken und Praxen mithilfe von gewebeäquivalentem
3D-Zystenphantom.Ultraschall in Med 2006; 27: 262–272.
Scheipers U., König K., Sommerfeld H. J., Garcia-Schürmann M., Senge T., Ermert H.: Sonohistology
– ultrasonic tissue characterization for prostate cancer diagnostics. Cancer Biomark 2008; 4
(4–5): 227–250.
Schmitz G., Ermert H., Senge T.: Tissue-characterization of the prostate using radio frequency
ultrasonic signals. IEEE Trans Ultrason Ferroelectr Freq Control 1999; 46 (1): 126–138.
Shankar P. M., Newhouse V. L.: Specificity and sensitivity of lesion detection by spatial compounding
of B-mode images. Proceedings: IEEE Intern Ultrason Symp 1984; 2: 739–742.
Shipley J. A., Duck F. A., Goddard D. A., Hillman M. R., Halliwell M., Jones M. G., Thomas B. T.:
Automated quantitative volumetric breast ultrasound data-acqusition system. Ultrasound Med
Biol 2005; 31 (7): 905–917.
Siebers S., Zenk J., Bozzato A., Klintworth N., Iro H., Ermert H.: Computer aided diagnosis of parotid
gland lesions using ultrasonic multi-feature tissue characterization. Ultrasound Med Biol 2010;
36 (9): 1525–1534.
Siebers S., Scheipers U., Welp C., Werner J., Ermert H.: Ultrasound based methods for monitoring of
thermal therapies. In: Arnold W (Hrsg.): Acoustical Imaging, Vol. 27. New York: Kluwer
Academic/Plenum Publisher, 2003: 643–650.
Sobotta J.: Atlas der Anatomie des Menschen. 21. Aufl. München: Elsevier (Urban & Fischer), 2002.
Sommerfeld H. J., Garcia-Schurmann J. M., Schewe J., Kuhne K., Cubick F., Berges RR., et al.: Prostate
cancer diagnosis using ultrasound elastography. Introduction of a novel technique and first
clinical results. Urologe A 2003; 42 (7): 941–945.
ter Haar G., Duck F. A. (Hrsg.): The safe use of ultrasound in medical diagnosis. London: British
Institute of Radiology, 2000.
ter Haar G.: Ultrasound bioeffects and safety. Proc Inst Mech Eng H 2010; 224 (2): 363–373.
Trahey G. E., Smith S., Ramm O.: Speckle pattern correlation with lateral aperture translation:
experimental results and implications for spatial compounding. IEEE Trans Ultrason Ferroelect
Freq Contr 1986; 33 (3): 257–264.
Treece G. M., Gee A. H., Prager R. W.: Ultrasound compounding with automatic attenuation
compensation using paired angle scans. Ultrasound Med Biol 2007; 33 (4): 630–642.
Vogt M., Ermert H.: Development and evaluation of a high-frequency ultrasound-based system for in
vivo strain imaging of the skin. IEEE Trans Ultrason Ferroelectr Freq Control 2005; 52 (3):
375–385.
Vogt M., Opretzka J., Perrey C., Ermert H.: Ultrasonic microscanning. Proceedings of the Institution
of Mechanical Engineers Part H – Journal of Engineering In Medicine 2010; 224 (H2): 225–240.
Voigt J. U.: Ultrasound molecular imaging. Methods 2009; 48 (2): 92–97. Epub 24.3.2009.
Wagner R. F., Smith S. W., Sandrik J. M., Lopez H.: Statistics of speckle in ultrasound B-scans. IEEE
Trans Sonics Ultrason 1983; 30 (3): 156–163.
Wang L. V.: Ultrasound-mediated biophotonic imaging: a review of acousto-optical tomography and
photo-acoustic tomography. Dis Markers 2003–2004; 19 (2–3): 123–138.
Wei K.: Future applications of contrast ultrasound. J Cardiovasc Ultrasound 2011; 19 (3): 107–114.
8 Ultraschall | 323
Wilbert D. M., Reichenberger H., Noske E., Hohenfellner R.: New generation shock wave lithotripsy.
The Journal of Urology 1987; 138: 563–565.
Wilbert D. M.: A comparative study of extracorporeal shock wave generation. BJU International 2002;
90: 507–511.
Wild J. J.: The use of ultrasonic pulses for the measurement of biologic tissues and the detection of
tissue density changes. Surgery 1950; 27 (2): 183–188.
Wöhrle N. K., Hellerhoff K., Notohamiprodjo M., Reiser M. F., Clevert D. A.: Automated breast volume
scanner (ABVS): a new approach for breast imaging. Radiologe 2010; 50 (11): 973–981.
Xu M. W., Lihong V.: Photoacoustic imaging in biomedicine. Review of Scientific Instruments 2006;
77 (4): 041101–041122.
Xu S., Ermert H.: Modelle zur Beschreibung der Ultraschallstreuung in Blut. Biomedizinische Technik
1997; 42 (5): 123–131.
Xu S.: Zweidimensional Abbildungsverfahren zur quantitativen Rekonstruktion der
Blutströmungsgeschwindigkeit mittels Ultraschall-Doppler-Technik in der medizinischen
Diagnostik. Düsseldorf: VDE-Verlag, Reihe 17 (Biotechnik), Nr. 122, 1995.
Weiterführende Literatur
AIUMINEMA UD3: Standard for real-time display of thermal and mechanical acoustic output indices
on diagnostic ultrasound equipment. UD 3-2004 rev. 2. American Institute for Ultrasound in
Medicine I National EIectrical Manufacturers Association, USA, 2004.
Angelsen B. A. J.: Ultrasound imaging. Vol. I. + vol. 2. Trondheim: Emantec AS., 2000/2001.
Azhari H.: Basics of biomedical ultrasound for engineers. Hoboken: John Wiley & Sons, 2010.
Bundesamt für Strahlenschutz, Salzgitter.
http://www.bfs.de/de/ion/medizin/diagnostik/alternative_schnittbildverfahren/sono.html.
Zugriff: 1.4.2010.
Cobbold R. S. C.: Foundations of biomedical ultrasound. Oxford: Oxford University Press, 2007.
DIN EN 61161: 2011–11 Ultraschall – Leistungsmessung – Schallfeldkraft-Waagen und Anforderungen
an ihre Funktionseigenschaften (IEC 87/483/CDV: 2011); Deutsche Fassung FprEN 61161: 2011.
DIN EN 62359: 2011–11 Ultraschall – Charakterisierung von Feldern – Prüfverfahren für die
Ermittlung des thermischen und des mechanischen Indexes bezogen auf medizinische
Ultraschalldiagnostikfelder (IEC 62359: 2010 + Cor.: 2011); Deutsche Fassung EN 62359: 2011.
Dössel O.: Bildgebende Verfahren in der Medizin: Von Technik zur Anwendung. Berlin: Springer,
1999.
Empfehlungen zur Patientensicherheit bei Anwendungen der Ultraschalldiagnostik in der Medizin
(Empfehlung der Strahlenschutzkommission einschließlich wissenschaftlicher Begründung).
Berichte der Strahlenschutzkommission 1998; Heft 14.
Empfehlungen zur Patientensicherheit bei Anwendungen der Ultraschalldiagnostik in der Medizin
(Empfehlung der Strahlenschutzkommission, Verabschiedet auf der 150. Sitzung der SSK am
11./12.12.1997). Veröffentlicht im BAnz Nr. 145a vom 7.8.1998.
European Communities: Council Directive 931421 EEC of 14 June 1993 concerning medical devices.
Official Journal of the European Communities 1993; 169: 12.7.1993.
Haerten R., Mück M.: Doppler- und Farbdoppler-Sonographie. Erlangen: Siemens, 1992.
Hamilton M. F., Blackstock D. T.: Nonlinear acoustics. San Diego: Academic Press, 1998.
Hill C. R., Bamber J. C., ter Haar G. R.: Physical principles of medical ultrasonics. 2. Aufl. Chichester:
John Wiley, 2004.
324 | Helmut Ermert, Christian Hansen
Hoskins P., Martin K., Thrush A. (Hrsg.): Diagnostic ultrasound – physics and equipment. Cambridge:
Cambridge University Press, 2010.
IEC 60601-2-37, Medical electrical equipment – Part 2-37: Particular requirements for the basic
safely and essential performance of ultrasonic medical diagnostic and monitoring equipment,
EN 60601-2–37.
IEC 61157, Standard means for the reporting of the acoustic output of medical diagnostic ultrasonic
equipment, EN 61157, 2007.
IEC 61161, Ultrasonics – Power measurement – Radiation force balances and performance
requirements, EN 61 161, 2007.
IEC 61828, Ultrasonics – Focusing transducers – Definitions and measurement methods for the
transmitted fields, EN 61828, 2001.
IEC 62127-1, Ultrasonics – Hydrophones – Part 1: Measurement and characterization of medical
ultrasonic fields up to 40 MHz, EN 62127-1, 2007.
IEC 62127-2, Ultrasonics – Hydrophones – Part 2: Calibration of hydrophones to be used in
ultrasonic fields up to 40 MHz, EN 62127-2, 2007.
IEC 62127-3, Ultrasonics – Hydrophones – Part 3: Properties of hydrophones for ultrasonic fields up
to 40 MHz, EN 62127-3, 2007.
IEC 62306, Ultrasonics – Field characterization – Test objects for determining temperature elevation
in medical diagnostic ultrasonic fields. Geneva: International Electrotechnical Commission,
2005.
IEC 62359, Ultrasonics – Field characterization – Test methods for the determination of thermal and
mechanical indices related to medical diagnostic ultrasonic fields. Geneva: International
Electrotechnical Commission, 2005.
Jensen J. A.: Estimation of blood velocities using ultrasound. A signal processing approach.
Cambridge: Cambridge University Press, 1996.
Kremkau F. W.: Sonography principles and instruments. St. Louis: Elsevier Saunders, 2011.
Krestel E. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. Berlin: Siemens AG, 1988.
Kuttruff H.: Physik und Technik des Ultraschalls. Stuttgart: S. Hirzel Verlag, 1988.
Lerch R., Sessler G., Wolf D.: Technische Akustik. Berin: Springer-Verlag, 2009.
Macovski A.: Medical imaging systems. Englewood Cliffs: Prentice-Hall, 1983.
Meyer E., Neumann E. G.: Physikalische und Technische Akustik. 3. Aufl. Braunschweig: Vieweg,
1979.
Millner R. (Hrsg.): Ultraschalltechnik. Weinheim: Physik Verlag, 1987.
Morneburg H. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis
MCD Verlag, 1995.
Oppelt A. (Hrsg.): Imaging systems for medical diagnostics. Erlangen: Publicis Corp. Publ., 2005.
Pierce A. D.: Acoustics: an introduction to its physical principles and applications. New York:
Acoustical Society of America, 1989.
Shung K. K., Smith M. B., Tsui B.: Principles of medical imaging. San Diego: Academic Press, 1992.
Shung K. K: Diagnostic ultrasound, imaging and blood flow measurements. Boca Raton: Taylor &
Francis Group, 2006.
Sicherheitsaspekte der Sonographie/Sachverständigenanhörung der Strahlenschutzkommission,
2./3. März 1995). Veröffentlichungen der Strahlenschutzkommission 1998; Band 35.
Stenzel H., Brosze O.: Leitfaden zur Berechnung von Schallvorgängen. Berlin: Springer, 1958.
Suslick K. S. (Hrsg.): Ultrasound – its chemical, physical, and biological effects. New York: VCH
Publishers, 1988.
Sutilov V. A.: Physik des Ultraschalls – Grundlagen. Wien: Springer, 1984.
Szabo T. L.: Diagnostic ultrasound imaging – inside out. Amsterdam: Elsevier Inc, 2004.
8 Ultraschall | 325
US Department of Health and Human Services, Food and Drug Administration, Center for Devices
and Radiological Health: Guidance for Industry and FDA Staff: Information for Manufacturers
Seeking Marketing Clearance of Diagnostic Ultrasound Systems and Transducers. Silver Spring,
2008. www.fda.gov, document ucm070911.pdf. Zugriff: 1.4.2010.
Webb S. (Hrsg.): The physics of medical imaging. Bristol: IOP Publishing Ltd, 1988.
Wells P. N. T.: Biomedical ultrasonics. London: Academic Press, 1977.
Wells P. N. T. (Hrsg.): Special issue on ultrasonic imaging and therapy. Journal of Engineering in
Medicine 2010; 224 (H2): 127–391.
326 | Helmut Ermert, Christian Hansen
Testfragen
1. Welche Art von Schallwellen kann sich in einem idealen fluiden Medium ausbreiten (nur Longi-
tudinalwellen, nur Scherwellen, beide?)?
2. In welchem der genannten Frequenzbereiche (20...1000 kHz, 1...100 MHz, 0,1...1 GHz) wird der
diagnostische Ultraschall betrieben?
3. In welchem der genannten Bereiche (1...50 μm, 50...1000 μm, 10...100 mm) liegen die Wellen-
längen des diagnostischen Ultraschalls?
4. Bei welcher der genannten biologischen Gewebearten (Fett, Muskel, Blut, Knochen) ist die Aus-
breitung des diagnostischen Ultraschalls stark eingeschränkt und was ist der Grund dafür?
5. Für eines der genannten Organe (Herz, Leber, Lunge, Niere) ist die Ultraschalldiagnostik nicht
gut geeignet. Welches ist dieses Organ und was ist der Grund dafür?
6. Warum benutzt man zur Ankopplung eines Schallwandlers an die Haut ein Ankopplungsmittel
(„Ultraschallgel“)?
7. Was ist der Unterschied zwischen der Schallschnelle und der Schallgeschwindigkeit?
8. Mit welchen beiden Schallfeldgrößen lässt sich die von einer Schallwelle transportierte Leistung
beschreiben?
9. Aus welchen Materialeigenschaften lässt sich die Schallgeschwindigkeit (für homogene ebene
Wellen) berechnen?
10. Aus welcher Beziehung zwischen den Schallfeldgrößen einer homogenen ebenen Welle resul-
tiert der akustische Wellenwiderstand?
11. Aus welchen Materialeigenschaften lässt sich der akustische Wellenwiderstand (für homogene
ebene Wellen) berechnen?
12. Wie lässt sich bei der Schallwellenausbreitung der Unterschied zwischen Absorption und Dämp-
fung beschreiben?
13. Was versteht man unter dem piezoelektrischen Effekt?
14. Mit welcher physikalischen Größe wird der „direkte“ piezoelektrische Effekt beschreiben?
15. Mit welcher physikalischen Größe wird der „reziproke“ piezoelektrische Effekt beschrieben?
16. Welche piezoelektrischen Materialien sind für die Anwendung in Ultraschallwandlern von Inter-
esse?
17. Welchem der genannten technischen Systeme (Radar-Anlage, Röntgengerät, Photoapparat) ent-
spricht das Funktionsprinzip eines Ultraschallgerätes am ehesten?
18. Welche Betriebsparameter (Signal: Frequenz, Wellenlänge, Amplitude, Dauer; Schallwandler:
Apertur, Bandbreite; Medium: Schallgeschwindigkeit, Wellenwiderstand) bestimmen bei der B-
Bild-Technik die axiale Auflösung und welche Betriebsparameter bestimmen die laterale Auflö-
sung?
19. Für welche Ultraschall-Bildgebungsmodalität lässt sich das nichtlineare Verhalten des biologi-
schen Gewebes nutzen?
20. Was sind die Vorteile des „Harmonic Imaging“ gegenüber der klassischen B-Bild-Technik?
21. Welchen Einfluss haben bei der Nutzung des Doppler-Effektes in der Ultraschalldiagnostik die
Geschwindigkeit des Blutflusses und die Geschwindigkeit der Wellenausbreitung (Schallge-
schwindigkeit) auf die Frequenzverschiebung der Echosignale?
22. Welche Betriebsparameter (Signal: Frequenz, Wellenlänge, Amplitude, Dauer; Schallwandler:
Apertur, Bandbreite; Medium: Schallgeschwindigkeit, Wellenwiderstand) bestimmen bei der
Puls-Doppler-Technik die Doppler-Auflösung (Genauigkeit der Geschwindigkeitsmessung)?
23. Warum lassen sich bei Anwendung der Puls-Doppler-Technik bei größeren Entfernungen zwi-
schen Blutgefäß und Schallwandler größere Flussgeschwindigkeiten nicht messen?
24. Welcher Grenzwert muss zur Vermeidung thermischer Schäden im Gewebe beachtet werden?
25. Welcher Grenzwert muss zur Vermeidung mechanischer Schäden im Gewebe beachtet werden?
Tobias Schaeffter
9 Magnetische Resonanztomographie
Zusammenfassung: 1973 hätte kein Mensch ahnen können, dass aus einer „unbedeu-
tenden“ Entdeckung¹ von Paul Lauterbur eines der wichtigsten abbildenden Verfah-
ren der Medizin werden könnte. Die MRT ist ein nichtinvasives Verfahren zur Charak-
terisierung der Anatomie, der Physiologie und des Stoffwechsels. Aufgrund ihres her-
vorragenden Weichteilkontrastes ohne Verwendung von ionisierender Strahlung ist
sie eine Methode der Wahl für viele klinische Anwendungen. In diesem Kapitel wer-
den zunächst die physikalischen Grundlagen der MRT beschrieben, danach werden
der Aufbau eines MR-Tomographen sowie ausgewählte Messverfahren und deren An-
wendungen besprochen.
1 Kommentar eines Gutachters zur ersten von Paul Lauterbur bei Nature eingereichten Publikation,
der zur Ablehnung des Beitrags führte.
2 A referee’s comment on Paul Lauterbur’s first submission to Nature that led to the rejection of the
publication.
328 | Tobias Schaeffter
9.1 Einleitung
Die ersten Experimente zum Nachweis der kernmagnetischen Resonanz (engl. Nuclear
Magnetic Resonance, NMR) wurden bereits im Jahre 1937 von Isidor Rabi und Mitar-
beitern durchgeführt. Dabei konnten sie Resonanzen von Atomkernen in einem Mo-
lekülstrahl (Moleküle in der Gasphase) nachweisen und die magnetischen Momente
der Kerne sehr präzise bestimmen. Im Jahre 1946 entdeckten unabhängig voneinan-
der zwei Arbeitsgruppen um F. Bloch an der Stanford Universität und E. Purcell an
der Harvard University die kernmagnetische Resonanz in kondensierter Materie, d. h.
im Festkörper und in Flüssigkeiten. Dabei führte Bloch seine Experimente mit Wasser
durch, während Purcell den NMR-Effekt im festen Paraffin nachwies. Für diese Arbei-
ten wurden F. Bloch und E. Purcell 1952 gemeinsam mit dem Nobelpreis für Physik
ausgezeichnet. Anfang der 1950er-Jahre konnte durch W. Procter bzw. W. Dickin-
son gezeigt werden, dass die Resonanzfrequenz nicht nur vom Kern selbst, sondern
auch von seiner chemischen Umgebung abhängig ist. Mit dieser Entdeckung war die
NMR-Spektroskopie geboren, welche den Nachweis von Molekülen in einer Probe er-
möglicht. In den 1960er-Jahren entwickelte die Arbeitsgruppe um R. Ernst die ge-
pulste NMR-Anregung in Kombination mit der Fourier-Transformationsanalyse, die
eine empfindliche Strukturaufklärung von Molekülen ermöglicht. Für diese Entwick-
lung erhielt R. Ernst 1991 den Nobelpreis in Chemie. Anfang der 1970er-Jahre wurde
durch R. Damadian nachgewiesen, dass sich die NMR-Relaxation von Tumorgewebe
von gesunden Gewebeproben unterscheidet. Mit dieser Entdeckung wurde die Basis
für die kernmagnetische Resonanz als medizinisches Diagnoseverfahren gelegt. 1973
zeigte P. Lauterbur, dass die Verwendung eines ortsabhängigen Magnetfeldes eine
räumliche Zuordnung der NMR-Signale erlaubt, die zur Bildgebung (engl. Magnetic
Resonance Imaging, MRI) genutzt werden kann. Die technischen Entwicklungen der
folgenden Jahre machten die NMR-Bildgebung zu einem wichtigen medizinischen Dia-
gnoseverfahren. Insbesondere die Arbeiten der Arbeitsgruppe um P. Mansfield zur
schnellen NMR-Bildgebung führten zu einer verbreiteten Anwendung. 2003 erhielten
P. Lauterbur und P. Mansfield gemeinsam den Nobelpreis für Medizin. Im Allge-
meinen wird in der medizinischen Anwendung der Magnetresonanz (MR) ein tomo-
graphisches Verfahren verwendet. Diese tomographische Bildgebung bietet neben der
Darstellung der Anatomie mit hervorragendem Weichteilkontrast auch die Möglich-
keit zur Messung einer Vielzahl anderer diagnostischer Parameter, wie Blutfluss, Per-
fusion, Diffusion oder Blutoxygenierung. Daher ist die MR-Tomographie in den letz-
ten Jahrzehnten zu einem der wichtigsten bildgebenden Verfahren in der klinischen
Praxis und biomedizinischen Forschung geworden. Im Folgenden sollen zunächst die
physikalischen Grundlagen der kernmagnetischen Resonanz und der Ortsauflösung
beschrieben werden.
9 Magnetische Resonanztomographie | 329
Kernmagnetische Resonanz: physikalischer Effekt, der die Grundlage für die Magnetresonanzto-
mographie bildet. Dabei treten Atomkerne mit einem Kernspin in Wechselwirkung mit einem mag-
netischen Wechselfeld.
Abb. 9.1: Atommodell, das aus einem Kern mit Protonen und
Neutronen und einer Hülle mit Elektronen besteht.
330 | Tobias Schaeffter
→
Masse besitzen einen Eigendrehimpuls J , der auch Kernspin genannt wird. Der Ei-
gendrehimpuls kann nur diskrete Werte annehmen („gequantelt“) und wird durch
die Spinquantenzahl I bestimmt:
J = ℏ√I(I + 1) (9.1)
wobei ℏ das Plancksche Wirkungsquantum (h/2𝜋 = 1,05510−34 Ws2 ) ist. Die Spin-
quantenzahl hängt von der Ordnungs- und Massenzahl ab und kann nur ganzzahlige
oder halbzahlige Werte annehmen:
1 3 5
I = 0, , 1, , 2, , 3, . . . (9.2)
2 2 2
Bei Kernen mit einer ungeraden Massenzahl nimmt die Spinquantenzahl den Wert
I = 1/2 an. Zum Beispiel besteht der Kern des Wasserstoffatoms nur aus einem Proton
und besitzt daher einen Kernspin, der durch die Spinquantenzahl I = 1/2 bestimmt
wird. Andere typische Atome mit einem Kernspin sind Kohlenstoff (13 C), Fluor (19 F)
oder Phosphor (31 P). Es ist zu beachten, dass nur das seltene Kohlenstoffisotop 13 C
einen Kernspin aufweist, während das häufig vorkommende Isotop 12 C (gerade Ord-
nungszahl) keines besitzt. Alle genannten Kerne 1 H, 13 C, 19 F, 31 P haben eine ungerade
Massenzahl und damit eine Spinquantenzahl von I = 1/2. Diese Kerne werden auch
als Spin-1/2-Systeme bezeichnet und stellen den Großteil der Kerne für die biomedi-
zinische Anwendung dar. Der Einfachheit halber beschränken wir uns im Folgenden
auf diese Spin-1/2-Systeme. Der Betrag des Kernspins ist dabei durch
⃗ 1 1 3
J = ℏ√ ( + 1) = ℏ√ (9.3)
2 2 4
gegeben. Aufgrund quantenmechanischer Gesetze ist mit dem Kernspin ein magneti-
sches Moment verbunden. Kernspin und magnetisches Moment zeigen immer in die
gleiche Richtung:
→ →
𝜇 =𝛾⋅ J (9.4)
Tab. 9.1: Natürliche Häufigkeit verschiedener Kerne mit Kernspin und gyromagnetisches Verhältnis.
J, μ μ
Dieses Markieren („Label“) erlaubt den gezielten Nachweis der markierten Moleküle
(„Tracer“) oder deren Stoffwechselprodukte im Körper.
Obwohl der Kernspin und das dazugehörende magnetische Moment eine quan-
tenmechanische Eigenschaft des Kernes ist, können beide Größen durch die Betrach-
tungsweise der klassischen Mechanik veranschaulicht werden. Dabei führt der Eigen-
drehimpuls zur Rotation des Kerns. Da der Kern eine oder mehrere verteilte positive
Ladungen trägt, führt die Rotation der Ladungen zu einem Kreisstrom, welcher wie-
derum ein lokales Magnetfeld erzeugt (Abb. 9.2).
Der Betrag des magnetischen Momentes hat aufgrund von Gl. (9.3) und
Gl. (9.4) einen festen diskreten Wert und nimmt für ein Spin-1/2-System folgenden
Wert an
3
𝜇⃗ = 𝛾ℏ√ (9.6)
4
Unter normalen Bedingungen sind die individuellen magnetischen Momente aller
Atome im Messobjekt wegen der thermischen Bewegung willkürlich ausgerichtet, so
dass außerhalb der Probe keine Magnetisierung messbar ist. Um eine makroskopi-
sche Magnetisierung im Objekt zu erzeugen, wird ein externes statisches Magnetfeld
benötigt (dieses Magnetfeld ist die zweite Voraussetzung zum Nachweis der kern-
magnetischen Resonanz) (Abb. 9.3). Nach einer Konvention legt das externe stati-
sche Magnetfeld die Richtung des Koordinatensystems fest, d. h., das externe Feld
mit der Stärke B0 zeigt in z-Richtung:³
B⃗ 0 = B0 ⋅ e⃗z (9.7)
Abb. 9.3: Stärke des externen magnetischen Feldes im Vergleich zum Erdmagnetfeld.
⟨𝜇z ⟩ = mI 𝛾ℏ (9.8)
Dabei ist mI die Magnetquantenzahl, die für ein Spin-1/2-System die beiden Werte
±1/2 annimmt. Dadurch, dass sich der Erwartungswert der z-Komponente und der Be-
trag des magnetischen Momentes unterscheiden, muss sich der Erwartungswert des
magnetischen Momentes unter einem Winkel zum externen Magnetfeld ausrichten.
Für ein Spin-1/2-System ergibt sich:
⟨𝜇z ⟩ ±1 1
cos 𝛩 = = 2 =± ; (9.9)
⟨𝜇⟩ √4
3 √ 3
9 Magnetische Resonanztomographie | 333
B₀ B₀
ω₀
μ T
Daher kann der Erwartungswert des magnetischen Momentes nur zwei Einstellwinkel
von 𝛩 = ±54.7° zum externen Magnetfeld einnehmen, d. h. entweder entlang oder ent-
gegengesetzt zum externen Magnetfeld (Abb. 9.4). In der semiklassischen Beschrei-
bung wirkt wegen des Winkels ein Drehmoment T⃗ auf die Erwartungswerte des Mo-
ments, welches sich durch das Kreuzprodukt beschreiben lässt:
T⃗ = ⟨𝜇⟩⃗ × B⃗ 0 (9.10)
Das Drehmoment zeigt aus der Zeichnungsebene heraus und führt zu einer Dreh-
bewegung des Erwartungswertes des magnetischen Momentes um das externe Mag-
netfeld. Diese Drehbewegung wird auch als Präzession bezeichnet. Nach dem Dreh-
impulserhaltungssatz ist das Drehmoment gleich der zeitlichen Ableitung des Ei-
gendrehimpulses:
dJ ⃗
= T⃗ = ⟨𝜇⟩⃗ × B⃗ 0 (9.11)
dt
Der Eigendrehimpuls kann nach Gl. (9.4) durch das magnetische Moment ersetzt
werden, so dass sich folgende Bewegungsgleichung ergibt:
d ⟨𝜇⟩⃗
= 𝛾 ⋅ ⟨𝜇⟩⃗ × B⃗ 0 (9.12)
dt
Da das externe Magnetfeld per Definition nur eine z-Komponente aufweist, ergibt sich
nach dem Kreuzprodukt für die einzelnen Komponenten des Erwartungswertes des
magnetischen Momentes:
d ⟨𝜇x ⟩
= 𝛾 ⋅ B0 ⋅ ⟨𝜇y ⟩
dt
d ⟨𝜇y ⟩
= 𝛾 ⋅ B0 ⋅ ⟨𝜇x ⟩
dt
d ⟨𝜇z ⟩
=0 (9.13)
dt
Durch weiteres zeitliches Ableiten der ersten zwei Gleichungen und gegenseitigem
Einsetzen ergibt sich eine gekoppelte Differentialgleichung zweiter Ordnung:
d2 ⟨𝜇x ⟩ 2
= − (𝛾 ⋅ B0 ) ⋅ ⟨𝜇x ⟩
dt2
d2 ⟨𝜇y ⟩ 2
= − (𝛾 ⋅ B0 ) ⋅ ⟨𝜇y ⟩ (9.14)
dt2
334 | Tobias Schaeffter
𝜔0 = 𝛾 ⋅ B0 (9.15)
Eine weitere Möglichkeit, die Larmor-Frequenz herzuleiten, erfolgt über die Beschrei-
bung der potentiellen Energie des magnetischen Momentes im externen Magnetfeld.
Wegen des Zeeman-Effektes ergeben sich dabei zwei verschiedene Energiezustände:
(9.8) 1
E = − ⟨𝜇⟩⃗ ⋅ B⃗ 0 = − ⟨𝜇z ⟩ ⋅ B0 = ± 𝛾 ⋅ ℏ ⋅ B0 (9.17)
2
Daher ergibt sich für den Erwartungswert des magnetischen Momentes entlang des
externen Magnetfeldes ein energetisch günstiger Energiezustand:
1
E↑ = − 𝛾 ⋅ ℏ ⋅ B0 (9.18a)
2
und für den Erwartungswert des magnetischen Momentes entgegengesetzt des exter-
nen Magnetfeldes ein energetisch höherer Zustand (Abb. 9.5):
1
E↓ = 𝛾 ⋅ ℏ ⋅ B 0 (9.18b)
2
Die Energiedifferenz der beiden Zustände bestimmt die charakteristische Fre-
quenz, mit der Übergänge zwischen diesen Energiezuständen erreicht werden kön-
nen, und entspricht dem Wert aus Gl. (9.15):
!
𝛥E = E↓ − E↑ = 𝛾 ⋅ ℏ ⋅ B0 = ℏ ⋅ 𝜔0 ⇒ 𝜔0 = 𝛾 ⋅ B0 (9.19)
9 Magnetische Resonanztomographie | 335
E E
N↓
–½
I=
ΔE = —
h γ B₀
I=
+½ N↑
B=0 B = B₀ N
Abb. 9.5: Energieniveauschema der Kernspins im Magnetfeld. Dabei entstehen zwei unterschied-
liche Energieniveaus. Die Besetzung der beiden Niveaus wird durch die Boltzmann-Verteilung be-
stimmt.
9.2.2 Magnetisierung
Bisher wurde das Verhalten der Erwartungswerte der magnetischen Momente be-
schrieben. Um das kollektive Verhalten aller Momente im Messobjekt zu erfassen,
wird die makroskopische Magnetisierung M⁴ eingeführt. Diese ergibt sich aus der
Vektorsumme aller Erwartungswerte:
N
M⃗ = ∑ ⟨𝜇n⃗ ⟩ (9.20)
n=1
Wie bereits erwähnt, sind bei Fehlen eines externen magnetischen Feldes alle mag-
netischen Momente wegen der thermischen Bewegung willkürlich ausgerichtet. Da-
her mitteln sich die Magnetfelder der Momente im Messobjekt aus, und es ist keine
makroskopische Magnetisierung nach außen sichtbar. Beim Anlegen eines externen
Magnetfeldes ergeben sich für die Erwartungswerte der magnetischen Momente zwei
Einstellmöglichkeiten. Im semiklassischen Bild fangen die einzelnen Erwartungswer-
te der Momente an zu präzedieren. Durch die nichtkohärente Präzessionsbewegung
der verschiedenen Erwartungswerte mitteln sich alle transversalen Komponenten aus
und es verbleibt nur noch eine Magnetisierung entlang des externen Magnetfeldes.
N N N N
M⃗ = ( ∑ ⟨𝜇x ⟩n ) ⋅e⃗x + ( ∑ ⟨𝜇y ⟩n ) ⋅e⃗y + ( ∑ ⟨𝜇z ⟩n ) ⋅ e⃗z = ∑ ⟨𝜇z ⟩n ⋅ e⃗z (9.21)
⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
n=1 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
n=1 n=1 n=1
=0 =0
Die Magnetisierung ergibt sich aufgrund einer unterschiedlichen Besetzung der unter-
schiedlichen Energieniveaus, d. h., das energetisch günstigere Niveau wird mit einer
4 Genau genommen ist die Magnetisierung das magnetische Moment pro Volumen.
336 | Tobias Schaeffter
wobei T die absolute Temperatur, k die Boltzmann-Konstante (1,38 ⋅ 10−23 J/K) und
N = N↑ + N↓ die Anzahl der magnetischen Momente (oder Spins) ist, die entlang und
entgegengesetzt zum externen Magnetfeld ausgerichtet sind. Im Allgemeinen ist die
thermische Energie wesentlich größer als der Energieunterschied aufgrund der Zee-
man-Aufspaltung:
𝛥E 𝛥E 𝛾 ⋅ ℏ ⋅ B0
𝛥E ≪ kT ⇒ exp ( )≈1+( )=1+( ) (9.23)
kT kT kT
Für den Unterschied in der Besetzung ergibt sich mit N = N↑ − N↓ :
N ↑ − N↓ 𝛾 ⋅ ℏ ⋅ B0
≈ (9.24)
N 2kT
Da der Unterschied in der Besetzung zwischen den beiden Energieniveaus sehr ge-
ring ist, ergibt sich ein kleiner Überschuss von Spins auf dem energetisch niedrige-
ren Niveau und damit eine kleine makroskopische Magnetisierung. Beispielsweise er-
gibt sich bei Raumtemperatur (T = 300 K) und einem externen Magnetfeld der Stärke
B0 = 1T ein Unterschied von 3 ⋅ 10−6 , d. h. in einer Million Spins sind drei Spins mehr
entlang des externen Feldes ausgerichtet (Abb. 9.6).
B₀ = 0 B₀ ≠ 0
M₀ = 0 M₀
Abb. 9.6: Durch Anlegen eines externen statischen Feldes richten sich die individuellen magne-
tischen Momente entlang oder entgegengesetzt zum externen Feld aus. Da sich im Mittel mehr
Momente entlang des Feldes ausrichten, wird eine Magnetisierung entlang des externen Feldes
erzeugt.
9 Magnetische Resonanztomographie | 337
Die Stärke der Magnetisierung ergibt sich damit aus dem Überschuss der Beset-
zungen der Energieniveaus zu:
N
(9.24) 𝛾 ⋅ ℏ ⋅ B0
M⃗ = M0 ⋅ e⃗z = ( ∑ ⟨𝜇z ⟩n ) ⋅ e⃗z = (N↑ − N↓ ) ⟨𝜇z ⟩ ⋅ e⃗z ≈ N ⟨𝜇z ⟩ ⋅ e⃗z
n=1 2kT
2
(𝛾 ⋅ ℏ) ⋅ N ⋅ B0
= e⃗z (9.25)
4kT
Damit hängt die Stärke der Magnetisierung von der Anzahl aller Spins N, der Tem-
peratur T und der Stärke des externen Magnetfeldes B0 ab. Für höhere Feldstärken
entsteht im Messobjekt eine größere Magnetisierung und damit eine höhere Messemp-
findlichkeit. Gängige Feldstärken für medizinische Anwendungen liegen zwischen 1
und 3 Tesla. Bei Forschungssystemen werden aber auch Felder mit 7 Tesla und hö-
her verwendet. Die Anforderungen an das Magnetfeld sind groß, insbesondere an die
räumliche Homogenität und die zeitliche Stabilität.
Die dritte Bedingung zur Messung der kernmagnetischen Resonanz und des NMR-
Effektes ist die Verwendung eines zeitlich variierendes Magnetfeldes, das in „Reso-
nanz“, d. h. bei der Larmor-Frequenz, eingestrahlt wird. Dieses zeitlich variierende
Magnetfeld B1 (t) wird senkrecht zum statischen Magnetfeld B0 angelegt. Bei einem
statischen Magnetfeld der Stärke B0 = 1, 5 T bzw. 3 T ergeben sich nach Gl. (9.15)
charakteristische Resonanzfrequenzen von 63,9 MHz und 127,8 MHz. Da diese im Ra-
diofrequenzbereich (RF) liegen und das zeitlich variierende Feld nur kurzzeitig (d. h.
für ungefähr eine Millisekunde) eingeschaltet wird, nennt man es auch RF-Puls. Die-
ser Puls ergibt sich aus der Amplitudenpulsform B̂ 1 (t), der Trägerfrequenz 𝜔1 und der
Phase 𝜑 zu:
B⃗ 1 (t) = B̂ 1 (t) ⋅ [cos(𝜔1 t + 𝜑) ⋅ e⃗x − sin(𝜔1 t + 𝜑) ⋅ e⃗y ] (9.26)
Für einen rotierenden RF-Puls müssen daher zwei Sendespulen verwendet werden,
die senkrecht zueinander in der transversalen Ebene angeordnet sind (Abb. 9.7). Die-
se wird als Quadratur-Anordnung bezeichnet. Es ist aber auch möglich, nur eine
Spule zu verwenden, die ein linear polarisiertes RF-Feld aussendet, wobei sich jedes
linear polarisierte Feld mathematisch in zwei entgegengesetzt rotierende Felder zer-
legen lässt. Damit ergibt sich auch für eine einzelne Spule ein rotierender RF-Puls,
allerdings mit kleinerer Amplitude.
Der RF-Puls bewirkt, dass die longitudinale Magnetisierung um einen bestimmten
Winkel aus der Ruhelage herausgekippt wird. Das zeitliche Verhalten der Magnetisie-
rung ergibt sich analog zur Bewegungsgleichung des Erwartungswertes des magne-
tischen Momentes (Gl. (9.12)) aus dem Drehimpulserhaltungssatz:
dM⃗
= 𝛾 ⋅ M⃗ × B⃗ = 𝛾 ⋅ M⃗ × (B⃗ 0 + B⃗ 1 ) (9.27)
dt
338 | Tobias Schaeffter
z B₀ Resonanz-Bedingung:
ωRF = ω₀
M
B₁-Feld
RF-Coil
RF-Coil
sinus
Abb. 9.7: Zwei Sendespulen erzeugen ein rotie-
cosinus rotierendes RF-Feld B₁ rendes RF-Feld B1 in der Transversalebene.
Zur Vereinfachung wird für den RF-Puls B1 angenommen, dass die initiale Phase 𝜑 = 0
und seine Trägerfrequenz 𝜔1 konstant ist. Darüber hinaus wird zur einfacheren ma-
thematischen Beschreibung das rotierende Koordinatensystem eingeführt. In einem
solchen rotierenden Koordinatensystem bewegt sich die transversale Ebene mit der
Winkelgeschwindigkeit 𝜔, während die z-Achse konstant bleibt, d. h., für die im Uhr-
zeigersinn rotierenden Koordinaten gilt:
Der Vorteil des rotierenden Koordinatensystems besteht in der Tatsache, dass ein RF-
Puls der Frequenz 𝜔 in einem mit 𝜔-rotierendem System in eine konstante Richtung
zeigt:
B (t) cos(𝜔t) − sin(𝜔t) B1,x (t) (9.26) cos(𝜔t) − sin(𝜔t) B̂ (t) ⋅ cos(𝜔t)
[ 1,x ] = [ ][ ] = [ ] [ 1̂ ]
B1,y (t) sin(𝜔t) cos(𝜔t) B1,y (t) sin(𝜔t) cos(𝜔t) −B1 (t) ⋅ sin(𝜔t)
(9.29)
B (t) B̂ (t)
[ 1,x ] = [ 1 ] (9.30)
B1,y (t) 0
9 Magnetische Resonanztomographie | 339
Zur Beschreibung der zeitlichen Ableitung in Gl. (9.27) werden die zeitlichen Ablei-
tungen des rotierenden Koordinatensystems benötigt:
de⃗x
= −𝜔 ⋅ sin(𝜔t) ⋅ e⃗x − 𝜔 ⋅ cos(𝜔t) ⋅ e⃗y
dt
de⃗y
= 𝜔 ⋅ cos(𝜔t) ⋅ e⃗x − 𝜔 ⋅ sin(𝜔t) ⋅ e⃗y
dt
de⃗z
=0 (9.31)
dt
Da das Koordinatensystem im Uhrzeigersinn rotiert, gilt 𝜔⃗ = −𝜔 ⋅ e⃗z und damit nach
Gl. (9.27) für das Kreuzprodukt:
𝜔⃗ × e⃗x = −𝜔 ⋅ (cos(𝜔t) ⋅ e⃗z × e⃗x − sin(𝜔t) ⋅ e⃗z × e⃗y ) = −𝜔 ⋅ sin(𝜔t) ⋅ e⃗x − 𝜔 ⋅ cos(𝜔t) ⋅ e⃗y
𝜔⃗ × e⃗y = −𝜔 ⋅ (sin(𝜔t) ⋅ e⃗z × e⃗x + cos(𝜔t) ⋅ e⃗z × e⃗y ) = 𝜔 ⋅ cos(𝜔t) ⋅ e⃗x − 𝜔 ⋅ sin(𝜔t) ⋅ e⃗y
𝜔⃗ × e⃗z = 0
(9.32)
de⃗x
= 𝜔⃗ × e⃗x
dt
de⃗y
= 𝜔⃗ × e⃗y
dt
de⃗z
= 𝜔⃗ × e⃗z (9.33)
dt
Nach der Produktregel gilt damit für die zeitliche Ableitung der Magnetisierung im
rotierenden Koordinatensystem:
z B₀ z
M M Felder im
rotierenden System:
ω
B₀' = B₀ + —
γ
B₁-Feld y y'
x x'
rotierendes RF-Feld B₁ konstantes Feld B₁
im Laborsystem im rotierenden System
(Frequenz ω₀ = γB₀)
z B₀
z
M
M
y y'
x x' B₁-Feld
Laborsystem rotierendes
Koordinatensystem
Mit der Definition eines effektiven Magnetfeldes Beff erhält man (Abb. 9.8)
𝜔⃗
B⃗ eff = B⃗ +
𝛾
𝜕M⃗
= 𝛾 (M⃗ × B⃗ eff ) (9.36)
𝜕t
Diese Bewegungsgleichung besagt, dass die Magnetisierung im rotierenden Ko-
ordinatensystem ein verändertes effektives Magnetfeld Beff „sieht“. Dies ermöglicht
eine einfachere Beschreibung des Verhaltens des RF-Pulses B1 , wenn ein mit 𝜔⃗ =
−𝛾 ⋅ B0 ⋅ e⃗z = −𝜔0 ⋅ e⃗z rotierendes Koordinatensystem verwendet wird (Abb. 9.9):
𝜔⃗ 𝜔
B⃗ eff = B0 ⋅ e⃗z + B1 ⋅ e⃗x + = B0 ⋅ e⃗z + B1 ⋅ e⃗x − 0 ⋅ e⃗z = B1 ⋅ e⃗x
𝛾 𝛾
𝜕M ⃗
= 𝛾 (M⃗ × B1 ⋅ e⃗x ) (9.37)
𝜕t
9 Magnetische Resonanztomographie | 341
Dieser wird auch Kippwinkel (engl. flip-angle) genannt. Im Falle eines rechteckför-
migen RF-Pulses ergibt sich 𝛼 = 𝜔1 ⋅ Tp = 𝛾 ⋅ B1 ⋅ Tp . Beispielsweise führt ein RF-Puls mit
B1 = 12 μT und Tp = 0,5 ms Dauer zu einem Kippwinkel von 90°. Im rotierenden Ko-
ordinatensystem wird durch einen solchen RF-Puls (aus der x-Richtung) die gesamte
Magnetisierung M0 in die transversale xy-Ebene (entlang der y-Achse) gekippt. Die-
ser Vorgang wird auch als RF-Anregung bezeichnet. Verwendet man einen kleineren
Kippwinkel, so wird die longitudinale Magnetisierung nur um einen kleineren Win-
kel in die transversale Ebene gekippt (Abb. 9.10). Neben der Anregung mittels eines
rechteckförmigen RF-Pulses lassen sich auch andere Pulseinhüllende verwenden, um
eine frequenzselektive Anregung zu erreichen.
Nach dem RF-Puls rotiert die transversale Komponente im Labor-Koordinatensys-
tem um das statische Magnetfeld B0 mit der Larmor-Frequenz 𝜔0 . Die Magnetisierung
kippt aber nur, wenn die Frequenz des RF-Pulses mit der Larmor-Frequenz der Kerne
übereinstimmt. Dieses Phänomen wird als kernmagnetische Resonanz⁵ bezeichnet.
B₀
z
Mz
M
Mz longitudinale Komponente
Mxy transversale Komponente
Mxy
x
Abb. 9.10: Longitudinale und transversale Komponente der Magnetisierung nach einem RF-Puls mit
kleinem Kippwinkel.
Zur Detektion der transversalen Magnetisierung wird diese durch Verwendung ei-
ner Empfangsspule in ein elektrisches Signal gewandelt. Diese Wandlung basiert auf
dem Faradayschen Induktionsgesetz, das den Zusammenhang zwischen induzier-
ter Spannung und dem zeitlich variierenden magnetischen Fluss durch eine Leiter-
schleife beschreibt. Aufgrund der rotierenden Transversalmagnetisierung ändert sich
der magnetische Fluss durch die Empfangsspule und erzeugt in der Spule eine Wech-
selspannung ähnlich wie bei einem Dynamo. Nach dem Reziprozitätstheorem ergibt
sich der magnetische Fluss durch Multiplikation der Magnetisierung mit dem von der
Spule erzeugten magnetischen Feld B1 (r) am Ort r (hervorgerufen von einem Einheits-
strom). Die Wechselspannung ergibt sich dann aus der zeitlichen Ableitung des mag-
netischen Flusses des gesamten Messobjektes:
B₀ z
RF-Spule RF-Spule
Free Induction
Decay (FID): Das
t induzierte Signal
nimmt nach einer
Zeit ab/zerfällt über
die Zeit
Signal- induzierte
rotierende Mxy detektion rotierender Magnet Spannung
Abb. 9.11: Eine transversale Magnetisierung induziert eine Spannung in der RF-Spule.
9.2.4 Relaxation
dMz M0 − Mz − t
= ⇒ Mz (t) = M0 − (M0 − Mz (0))e T1
dt T1
dMxy Mxy − t
=− ⇒ Mxy (t) = Mxy (0)e T2 (9.43)
dt T2
Relaxation: Mechanismus in der Physik, der die Rückkehr eines angeregten Zustands in seinen
Gleichgewichtszustand beschreibt. Unterschiedliche Gewebearten haben unterschiedliche Kern-
spin-Relaxationszeiten, woraus sich u. a. der Bildkontrast zur Darstellung verschiedener Gewebe-
arten mittels MRT gewinnen lässt.
344 | Tobias Schaeffter
Mz Mxy
Fett
Muskel
Liquor
Liquor
37 %
Fett
Muskel
t t
Abb. 9.12: Längs- und Querrelaxation nach einem 90°-RF-Puls. Unterschiedliche Gewebearten ha-
ben unterschiedliche Relaxationszeiten T1 und T2 .
Für biologisches Gewebe ist diese Näherung gültig, während sie für viele Festkörper
nicht mehr zulässig ist. Insgesamt ist die T1 -Relaxationszeit immer größer oder gleich
T2 . Der Einfluss der Relaxation kann auch in die Bewegungsgleichung (im rotierenden
Koordinatensystem) integriert werden, die als Blochsche Gleichungen bezeichnet
werden:
𝜕M⃗ Mx e⃗x + My e⃗y (Mz − M0 ) e⃗z
= 𝛾 (M⃗ × B⃗ eff ) − − (9.44)
𝜕t T2 T1
Der Grund für die beiden Relaxationsprozesse liegt in mikroskopisch fluktuieren-
den Feldern [Gadian 1995]. Diese beeinflussen das Verhalten der Magnetisierung in
ähnlicher Weise wie das B0 - bzw. das B1 -Feld. Ähnlich wie bei einem RF-Puls be-
wirken fluktuierende Felder in der xy-Ebene eine Veränderung der longitudinalen
Magnetisierung, falls diese Felder Frequenzkomponenten bei der Resonanzfrequenz
aufweisen. Beispielsweise kann die thermische Bewegung der Moleküle zu fluktuie-
renden Feldern aufgrund benachbarter magnetischer Momente (Dipol-Dipol-Wech-
selwirkung) führen. Dabei hängen die resultierenden Frequenzkomponenten von der
Molekülstruktur (z. B. Größe und Bindungen) und auch von der Temperatur ab. Nur
die Frequenzkomponenten, die mit der Resonanzfrequenz übereinstimmen, sind für
die longitudinale Relaxation verantwortlich. Dadurch hängt die T1 -Relaxationszeit
sowohl vom Gewebetyp als auch von der Feldstärke B0 ab.
Bei der Querrelaxation spielen die fluktuierenden Feldkomponenten entlang der
z-Richtung eine Rolle und werden von benachbarten Spins hervorgerufen. Dies führt
insgesamt zu einer Dephasierung und damit zu einem Zerfall der transversalen Ma-
9 Magnetische Resonanztomographie | 345
Betrachtet man das Verhalten der Magnetisierungskomponenten nach einem 90° RF-
Puls, so klingt die transversale Magnetisierung exponentiell mit T2∗ ab, was zu einer
abklingenden Wechselspannung in der Empfangsspule führt. Dieses Signal wird auch
als freier Induktionszerfall (engl. Free Induction Decay, FID) bezeichnet. Während
die transversale Magnetisierung mit T2∗ zerfällt (Abb. 9.13), baut sich die longitudi-
nale Magnetisierung mit der Relaxationszeit T1 auf. Im Allgemeinen ist nach Abklin-
gen der transversalen Komponente die longitudinale Magnetisierung noch nicht beim
Wert des thermischen Gleichgewichts angekommen, da T1 > T2∗ ist.
In Tab. 9.2 sind die Relaxationszeiten für unterschiedliche Gewebe und un-
terschiedliche Feldstärken aufgeführt. Sie liegen zwischen 40 und 2000 ms. Man er-
kennt, dass die T1 -Zeiten im Allgemeinen erheblich länger als die T2 -Zeiten sind. Die
T2 -Zeiten von Flüssigkeiten (Blut, CSF) sind länger als bei Gewebe. Während sich die
T1 -Zeiten von 1,5 zu 3 Tesla verlängern, ist bei den T2 -Zeiten kaum eine Feldstärken-
abhängigkeit feststellbar. Es soll darauf hingewiesen werden, dass nach T1 bzw. T2
die Relaxation nicht abgeschlossen ist, sondern die Magnetisierung erst auf Mxy (T2 ) =
37 % zerfallen ist bzw. sich zu Mz (T1 ) = 63 % M0 erholt hat (Abb. 9.12).
346 | Tobias Schaeffter
y
x
B₀
RF-Spule FID
T₂*
Abb. 9.13: Der freie Induktionszerfall (FID) zerfällt mit T2∗ aufgrund zusätzlicher Dephasierung.
9.2.5 Kontrastmittel
Die Relaxationszeiten lassen sich durch Gabe von Kontrastmittel verändern. Die-
se bestehen aus paramagnetischen oder ferromagnetischen Materialien. Die Verwen-
dung von paramagnetischen Ionen zur Beeinflussung der Relaxation wurde bereits in
den Anfangsjahren der kernmagnetischen Resonanz beschrieben [Bloch 1946, Bloem-
bergen 1948]. Eines der am häufigsten eingesetzten paramagnetischen Kontrastmittel
ist das Gadolinium-Ion Gd3+ . Wegen der hohen Giftigkeit von freien Gadolinium-Io-
nen werden Chelatkomplexe wie z. B. DTPA (Diethylentriaminpentaessigsäure) und
DOTA (Tetraazacyclododecan-Tetraessigsäure) verwendet, welche das hochreaktive
Tab. 9.2: Relaxationszeiten T1 und T2 für unterschiedliche Gewebe bei 1,5 und 3 Tesla [Stanisz
2005].
Ion vor chemischen Reaktionen im Gewebe schützen. Dabei gibt es eine Reihe von
Kontrastmitteln mit unterschiedlichen Chelaten [Rohrer 2005].
Wird nun eine paramagnetische Substanz in den Körper eingebracht, so bewirkt
die thermische Bewegung des Kontrastmittelmoleküls zusätzlich fluktuierende Fel-
der, die zu einer verstärkten Relaxation der Magnetisierung führen. Der Einfluss vom
Kontrastmittel auf die Relaxation wird dabei besser durch die Relaxationsrate, d. h.
die Inverse der Relaxationszeit, beschrieben:
1 1
R1 = R2 =
T1 T2
R1 = R01 + r1 ⋅ C R2 = R02 + r2 ⋅ C (9.47)
Dabei ergibt sich die resultierende Relaxationsrate als Summe der ursprünglichen
Rate des Gewebes R01,2 und dem zusätzlichen Anteil durch das Kontrastmittel, der
durch die sogenannte Relaxivität r1,2 und die Konzentration C gegeben ist. Da pa-
ramagnetische Ionen magnetische Momente tragen, die 1000-mal größer sind als
die der Kernspins, werden relativ geringe Konzentrationen (z. B. 1 mMol) verwendet.
Obwohl die Relaxivität für die beiden Relaxationsprozesse für viele Kontrastmittel
ähnlich ist (z. B. r1,2 = 4 (mMs)−1 ), ist der Einfluss der paramagnetischen Kontrastmit-
tel auf die T1 -Relaxationszeiten im Allgemeinen größer als für T2 . Grund dafür sind
die Unterschiede in den T1 - und T2 -Relaxationszeiten der Gewebe. Für ein Gewebe mit
T1 = 1000 ms und T2 = 100 ms ergibt sich:
1 1
R01 = = 1 s−1 ; R02 = = 10 s−1 ; r1,2 ⋅ C = 4 s−1
T1 T2
R1,2 = R01,2 + r1,2 ⋅ C
R1 = 5s−1 ⇒ T1 = 200 ms
R2 = 14s−1 ⇒ T2 = 71 ms (9.48)
Beim Zeitpunkt TI wird zur Detektion ein 90° RF-Puls eingestrahlt, der die zu diesem
Zeitpunkt „erholte“ Magnetisierung Mz (TI ) in die transversale Ebene kippt. Dies führt
zu einem FID-Signal, dessen Amplitude ein Maß für die longitudinale Magnetisierung
zur Zeit TI ist. Durch Wiederholung dieser Sequenz und Variation der Inversionszeit TI
kann die exponentielle Kurve gemessen werden. Es ist zu beachten, dass zwischen
den Experimenten eine Wartezeit eingehalten wird, um eine Erholung der longitudi-
nalen Magnetisierung in das thermische Gleichgewicht (M0 ) für jedes Experiment zu
gewährleisten. In der Praxis reicht eine Wiederholzeit (engl. repetition time)) von ca.
TR = 4T1 aus.
180° 180°
RF
TR
Mz
+M₀
Fett Muskel
–M₀
9.2.7 Spinecho-Sequenz
Wie im vorhergehenden Abschnitt beschrieben, klingt nach einer Anregung die trans-
𝛥B
versale Magnetisierung aufgrund von Feldinhomogenitäten (vgl. T2 0 in Gl. (9.46))
schneller ab. Diese zusätzliche Dephasierung kann durch eine sogenannte Spinecho-
Sequenz zurück gedreht werden (Abb. 9.15). Dazu wird zunächst ein 90° RF-Puls
eingestrahlt, der die gesamte longitudinale Magnetisierung in die transversale Ebe-
ne kippt. Die transversale Magnetisierung klingt dabei mit der Zeitkonstanten T2∗ ab.
Dabei bewirken die Feldinhomogenitäten eine Aufspaltung der Magnetisierung in
verschiedene Isochromaten. Wie beschrieben laufen einige der Isochromaten schnel-
ler 𝜔i > 𝜔0 , während andere 𝜔i < 𝜔0 langsamer laufen. Nach der Zeit TE /2 haben die
Isochromate unterschiedliche positive oder negative Phasen 𝜑i = 𝜔i TE /2. Nach der Zeit
TE /2 wird nun ein 180° RF-Puls eingestrahlt, der eine Umkehr der Phasenlage bewirkt,
d. h., das Vorzeichen der Phase ändert sich. Nach der Zeit TE kommt es zu einer kom-
180°
Spin-Echo
90°
TE
Dephasierung Rephasierung
Abb. 9.15: Spin-Echo-Sequenz: Nach einer Anregung wird nach TE /2 ein 180° RF-Puls geschaltet, der
eine Refokussierung der Isochromaten bewirkt und zu einem Spinecho zum Zeitpunkt TE führt.
90°
Signal
Abb. 9.16: Multi-Spinecho-Sequenz: Nach einer Anregung wird eine Reihe von 180° RF-Pulsen ge-
schaltet, die eine Reihe von Spinecho-Signalen erzeugen.
350 | Tobias Schaeffter
Als Referenzsubstanz für 1 H- und 13 C-Spektren organischer Lösungen wird die Re-
sonanzfrequenz der jeweiligen Kerne in Tetramethylsilan (TMS) verwendet. Da die
Werte der chemischen Verschiebung sehr klein sind, werden sie in Millionstel der Re-
sonanzfrequenz (parts per million, ppm) angegeben. Die Veränderung der Resonanz-
frequenzen aufgrund der chemischen Verschiebung ist insbesondere im Vergleich
zur Frequenzänderung wegen des Atomkerns gering. Die Zahl und die Intensität der
bei der NMR-Spektroskopie auftretenden Frequenzlinien sind charakteristisch für
unterschiedliche Moleküle. Dazu wird ein NMR-Signal (z. B. das FID-Signal) aufge-
nommen und die unterschiedlichen Frequenzanteile werden durch eine Fourier-
Transformation berechnet. Dieses Frequenzspektrum zeigt dann die unterschiedlich
auftretenden Resonanzfrequenzen, d. h. chemischen Verschiebungen der Substan-
zen in der Probe. Der Vergleich des Spektrums mit Werten aus einer Vergleichstabelle
ermöglicht eine Zuordnung der spektralen Anteile zu bestimmten chemischen Ver-
bindungen, während die Signalstärke proportional zur Konzentration der jeweiligen
Stoffe ist. Die nachweisbaren Moleküle und die verwendeten MR-Messverfahren un-
terscheiden sich für die einzelnen Atomkerne. Die absoluten Frequenzunterschiede
wegen der chemischen Verschiebung nehmen mit zunehmender Feldstärke zu. Daher
lassen sich einzelne Linien besser bei höheren Feldern unterscheiden.
9 Magnetische Resonanztomographie | 351
9.3 Ortsauflösung
Bisher wurde die Messung der kernmagnetischen Resonanz der gesamten Magne-
tisierung in einem Objekt beschrieben. Bei der MR-Tomographie werden allerdings
Schnittbilder der transversalen Magnetisierungsverteilung gemessen. Dazu wird ei-
ne Ortskodierung benötigt, welche die Signale jedes einzelnen Volumenelementes
(Voxel) kodiert. Grundsätzlich lassen sich zwei Methoden der Ortsauflösung unter-
scheiden: selektive Anregung und örtliche Kodierung. Für beide Verfahren werden
magnetische Feldgradienten verwendet, die auch kurz Gradienten genannt wer-
den. Diese Gradienten bewirken eine örtlich lineare Veränderung der z-Komponente
des statischen Magnetfeldes. Je nach Raumrichtung lassen sich drei Gradienten
unterscheiden:
Bz (x, y, z) = B0 + Gx (t) ⋅ x + Gy (t) ⋅ y + Gz (t) ⋅ z
𝜕Bz 𝜕Bz 𝜕Bz
Gx = = const ; Gy = = const ; Gz = = const (9.51)
𝜕x 𝜕y 𝜕z
Die Stärke und Zeitdauer der unterschiedlichen Gradienten lassen sich unabhängig
voneinander steuern. Wegen Gl. (9.15) hängt die Präzessionsfrequenz somit über die
Gradienten vom Ort ab und erlaubt somit eine Ortskodierung:
Im Folgenden soll die Verwendung der einzelnen Gradienten zu Erzeugung eines zwei-
dimensionalen Schichtbildes besprochen werden.
Selektive Schichtanregung
Bei der selektiven Schichtanregung wird ein Gradient während eines frequenzselek-
tiven RF-Pulses angelegt. Der Gradient bewirkt, dass sich die Resonanzfrequenz über
den Ort linear ändert. Der frequenzselektive RF-Puls regt aber nur diejenigen magne-
tischen Momente an, welche die Resonanzbedingung erfüllen, d. h., die Frequenz der
magnetischen Momente muss mit der Frequenz des RF-Pulses übereinstimmen. Da-
mit wird nur in einer Schicht die Magnetisierung in die transversale Ebene gekippt.
Hierbei bestimmen die Mittenfrequenz und die Stärke des Gradienten (d. h. Steilheit
der Magnetfeldänderung) den Ort der Schicht, während die Schichtbreite durch die
Bandbreite des RF-Pulses und die Stärke des Gradienten bestimmt wird (Abb. 9.17).
Für eine mathematische Beschreibung der Schichtselektion müssen die Bloch-
schen Gleichungen Gl. (9.44) gelöst werden. Der Einfachheit halber soll der Einfluss
der Relaxation während des RF-Pulses vernachlässigt werden, da die Pulsdauer im
Allgemeinen sehr viel kürzer als die Relaxationszeiten ist. Ferner soll nur ein Gradi-
ent (z. B. z-Richtung) während des RF-Pulses (in x-Richtung) mit der Mittenfrequenz
352 | Tobias Schaeffter
Schicht
ω₀ = γB₀
z
Δz
Abb. 9.17: Schichtselektion: Durch gleichzeitiges Schalten eines Gradienten und eines RF-Pulses
wird die Magnetisierung nur in einer Schicht angeregt. Dabei bestimmt die Frequenz des RF-Pulses
die Position der Schicht, während die Bandbreite und die Gradientenstärke die Schichtdicke be-
stimmt.
𝜔RF angelegt werden. Damit ergibt sich für die Blochschen Gleichungen im mit -𝜔RF
rotierenden Koordinatensystem:
𝜕M⃗
= 𝛾 (M⃗ × B⃗ eff )
𝜕t
𝜔
B⃗ eff = B1 (t) ⋅ e⃗ x + (B0 + Gz z − RF ) ⋅ e⃗ z
𝛾 (9.53)
Um eine Schicht bei z0 anzuregen, muss die Mittenfrequenz des RF-Pulses zu
𝜔RF = 2𝜋fc = 𝜔0 + 𝛾Gz z0 (9.54)
gewählt werden. Damit ergibt sich für Beff und die Gl. (9.52):
B⃗ eff = B̂ 1 (t) ⋅ e⃗ x + Gz (z − z0 ) ⋅ e⃗ z
Mx Mx B̂ 1 (t)
d
(My ) = (My ) × ( 0 )
dt
Mz Mz Gz (z − z0 )
dMx (z, t)
= My (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 )
dt
dMy (z, t)
= −Mx (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + Mz (z, t) ⋅ 𝛾 ⋅ B̂ 1 (t)
dt
dMz (z, t)
= −My (z, t) ⋅ 𝛾 ⋅ B̂ 1 (t) (9.55)
dt
9 Magnetische Resonanztomographie | 353
Dieses Gleichungssystem lässt sich für kleine Kippwinkel in einer geschlossenen Form
lösen. Dafür nimmt man an, dass sich die z-Komponente der Magnetisierung für kleine
Kippwinkel nicht ändert, d. h. Mz (z, t) = M0 :
dMx (z, t)
= My (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 )
dt
dMy (z, t)
= −Mx (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + M0 ⋅ 𝛾 ⋅ B̂ 1 (t)
dt
dMz (z, t)
=0 (9.56)
dt
Für die einfachere Beschreibung wird die komplexe transversale Magnetisierung Mxy
eingeführt:
Mxy = Mx + iMy
dMxy (z, t) dMx (z, t) dMy (z, t)
= +i
dt dt dt
dMxy (z, t)
= My (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) − iMx (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + iM0 ⋅ 𝛾 ⋅ B̂ 1 (t)
dt
dMxy (z, t)
= −iMxy (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + iM0 ⋅ 𝛾 ⋅ B1 (t) (9.57)
dt
Die Lösung dieser Differentialgleichung zum Zeitpunkt T ergibt sich mit der Anfangs-
bedingung Mxy (z, 0) = 0 zu:
T T
−i ∫ 𝛾Gz ⋅(z−z0 )d𝜏∗
Mxy (z, T) = i𝛾M0 ∫ B̂ 1 (𝜏) ⋅ e 𝜏 d𝜏 (9.58)
0
Zur einfacheren Formulierung kann die Abkürzung kz eingeführt werden, die sich aus
dem zeitlichen Verlauf des Gradienten ergibt:
T
B̂ 1 (kz )
W1 (kz ) = dkz
(9.60)
dt
Zur weiteren Vereinfachung betrachtet man zunächst z0 = 0 und erweitert die Integra-
tionsgrenzen durch Einführung einer Fensterfunktion 𝛱(kz ) mit der Verschiebung ks :
∞
Mxy(z)
RF(t) RF(kz)
1 2 1 2
G(t) kz(t) z
Φ(z)
0 T t T t –Δkz 0
–Δkz z
Abb. 9.18: RF- und Gradientenpuls für die selektive Schichtanregung. Die Verwendung eines einzel-
nen Selektionsgradienten führt zu einer linearen Phase in der transversalen Magnetisierung, d. h.,
die Schicht ist dephasiert.
Mxy(z)
Abb. 9.19: RF -und Gradientenpulse für die refokussierte Schichtanregung. Die Verwendung eines
Refokussierungsgradienten bewirkt, dass die Trajektorie im k-Raum verschoben und der RF-Puls
symmetrisch um kz = 0 ausgeführt wird; damit ergibt sich eine konstante Phase über der Schicht.
(Gibbs-Ringing). Zur Reduktion dieser Artefakte wird die RF-Pulsform oft mit einer zu-
sätzlichen Fensterfunktion (z. B. Gauss oder Hamming) gewichtet.
Nach der schichtselektiven Anregung wird durch Anlegen von orthogonalen Gradi-
enten eine zweidimensionale Ortskodierung durchgeführt. Dabei werden zwei unter-
schiedliche Verfahren eingesetzt: Frequenz- und Phasenkodierung (Abb. 9.20).
Frequenzkodierung
Für eine Frequenzkodierung wird ein Gradient während des Auslesens des FID-
Signals eingeschaltet. Dadurch kommt es zu einer linearen Veränderung der Präzes-
sionsfrequenz über dem Ort. Wird z. B. ein Gradient entlang der x-Richtung angelegt,
356 | Tobias Schaeffter
RF-Puls Anregung
Gz Schichtselektion
Gy Phasenkodierung
Gx Frequenzkodierung
Signal
Aufnahme
Abb. 9.20: Pulssequenz für die Ortskodierung: Die zeitliche Reihenfolge des RF-Pulses und der
verschiedenen Gradientenpulse beschreibt die unterschiedlichen Phasen der Ortskodierung. Zu-
nächst wird durch gleichzeitiges Schalten eines RF-Pulses und eines Gradienten in einer Schicht
(z-Richtung) die Magnetisierung in die transversale Ebene gekippt. Danach wird durch Schalten
eines Gradienten (y-Richtung) eine Phasenkodierung durchgeführt. Anschließend wird ein Signal
während eines Gradienten (x-Richtung) ausgelesen. Diese Pulssequenz muss wiederholt werden,
um unterschiedliche Phasenkodierschritte durchzuführen.
wobei 𝜌 die Spindichte ist. Für eine einfachere Beschreibung werden komplexe Zah-
len verwendet:
ei𝜑 = cos 𝜑 + i sin 𝜑
e−i𝜔(x)t = cos(𝜔(x)t) − i sin(𝜔(x)t) (9.66)
Damit ergibt sich für das komplexe Signal:
Das Signal ist die Summe aller Magnetisierungskomponenten mit den charakteristi-
schen Frequenzen (Gl. (9.64)). Allerdings liegt das Signal um die Trägerfrequenz 𝜔0
verteilt. Daher wird das Signal mithilfe eines Quadraturdetektors „heruntergemischt“
(s. Kap. 9.6.4). Dieser bewirkt den Übergang ins rotierende Koordinatensystem, so
dass das Signal hinter dem Quadraturdetektor den Faktor e−i𝜔0 t nicht mehr enthält.
Die örtliche Verteilung des Bildes erhält man dann aus dem Frequenzspektrum des
Signals, da jeder Ortsbereich wegen des Gradienten Signale mit einer charakteristi-
schen Frequenz aussendet. Daher nennt man diese Form der Ortskodierung auch Fre-
quenzkodierung. Zur Berechnung des Frequenzspektrums muss das gemessene ana-
loge Signal in ein digitales Signal gewandelt werden. Nach dem Shannon-Theorem
ist ein fehlerloses Abtasten dieses Signals nur möglich, wenn das Signal bandbegrenzt
(f < fmax ) und die Samplingfrequenz (gegeben durch den zeitlichen Abstand 𝛥𝜏) min-
destens doppelt so groß ist wie maximal auftretende Frequenz maximal auftretene Frequenz ist die größte
Frequenz wo, die durch die Gradienten im
1 𝜔 𝛾 FOV 𝛾 Patienten ist
fs = ≥ 2fmax = 2 max = 2 Gx ⋅ = Gx ⋅ FOV (9.69)
𝛥𝜏 2𝜋 2𝜋 2 2𝜋
wobei die maximale Frequenz von der Gradientenstärke und der Größe des Messob-
jektes (engl. field of view, FOV) abhängt. Da der Gradient während des Signalauslesens
eingeschaltet ist, wird dieser auch Auslesegradient (engl. readout gradient) genannt.
Dieser ermöglicht eine eindimensionale Ortskodierung entlang der Gradientenrich-
tung. Zur Kodierung der zweiten Ortsdimension muss ein orthogonaler Gradient und
ein weiteres Verfahren verwendet werden, welches die Phase der Signale beeinflusst.
Phasenkodierung
Eine Phasenkodierung wird durch einen Gradienten (z. B. in y-Richtung) erreicht, der
nach der Anregung für einen Zeitraum Ty angelegt wird. Nach der schichtselektiven
Anregung präzediert die gesamte transversale Magnetisierung in der Schicht zunächst
mit der gleichen Larmorfrequenz, d. h., im rotierenden Koordinatensystem bleiben al-
le Spins in einer Richtung stehen. Schaltet man nun für eine Zeit Ty einen Gradienten
in y-Richtung ein, so präzediert die Magnetisierung während dieses Zeitintervalls Ty
mit unterschiedlicher Frequenz. Im rotierenden Koordinatensystem läuft die transver-
sale Magnetisierung entlang der y-Richtung entweder schneller oder langsamer, so
dass sich eine positive oder negative Phase aufbaut:
Nach dem Ausschalten des Gradienten präzediert die gesamte transversale Magneti-
sierung wieder mit der gleichen Frequenz, aber die relative Phase zwischen den ein-
zelnen Magnetisierungsanteilen bleibt erhalten. Dabei entspricht jedem Ort eine cha-
rakteristische Phase. Ähnlich wie bei der Beschreibung der Frequenzkodierung erhält
358 | Tobias Schaeffter
selektive Anregung
z-Gradient Gz
und
RF-Puls
Gy
Phasenkodierung
y-Gradient
Frequenzkodierung
x-Gradient
Gx
Die unterschiedlichen Phasen lassen sich nicht durch eine einzelne Messung und an-
schließende Signalanalyse bestimmen, da man nur die Summe des gesamten Messob-
jektes zu einem Zeitpunkt Ty erhält. Daher muss die Messung Ny -mal mit unterschied-
lichen Stärken des Phasenkodiergradienten wiederholt werden, wobei Ny die Anzahl
der unterschiedlichen Voxel entlang der y-Richtung ist. Dabei startet man mit einem
Gradienten, so dass sich eine lineare Phase von 360° über dem gesamten Messobjekt
(FOV) ergibt. In den weiteren Messungen wird der Gradient verdoppelt, verdreifacht
usw., bis im letzten Phasenkodierschritt eine 180° Phase zwischen benachbarten Vo-
xeln entsteht:
𝛥𝜑max (y, Ty ) = 𝛾 ⋅ Gy max ⋅ 𝛥y ⋅ Ty = 𝜋 (9.72)
wobei 𝛥y der Abstand zweier Voxel, d. h. die räumliche Auflösung ist (Abb. 9.21).
Im Folgenden wird die Proportionalitätskonstante wieder zu eins gesetzt und man er-
hält das gesamte Signal durch örtliche Integration über den Volumenbereich:
Wie zuvor besprochen, verschwindet der Faktor e−i𝜔0 t nach Quadraturdetektion durch
Demodulation mit der Resonanzfrequenz 𝜔0 und es verbleibt
6 kx und ky sind identisch mit den mit 2𝜋 multiplizierten Raumfrequenzen u und v aus Kap. 3 (CT)
und Kap. 21 (Systemtheorie).
360 | Tobias Schaeffter
ky
1 2 3
Gx
Gy 1 2 kx
t
Abb. 9.22: Das gleichzeitige Einschalten von zwei positiven Gradienten in x- und y-Richtung be-
schreibt eine Trajektorie im k-Raum entlang der kx - bzw. der ky -Richtung.
ky
1 2 3 4
Gx 1
Gy kx
t
3 4
2
Abb. 9.23: Das Schalten von drei Gradienten kann zum Auslesen einer kx -Zeile im k-Raum während
des positiven x-Gradienten genutzt werden. Um eine andere parallele Zeile auszulesen, muss der
vorausgehende y-Gradient angepasst werden.
werden, um somit alle Ny -Zeilen zu messen. Dies ist im Prinzip die Beschreibung von
einer Phasenkodierung in ky und einer Frequenzkodierung in kx -Richtung, d. h., die
Frequenzkodierung wird Ny mal mit unterschiedlichen Werten des Phasenkodiergra-
dienten wiederholt. Eine eindeutige Rekonstruktion ist nur möglich, wenn die richtige
Abtastfrequenz verwendet wird, d. h., wenn nach dem Shannon-Theorem gilt:
1
≥ 2ky,max
𝛥y
Ny 1 ky,max
≥ 2ky,max ⇒ ≥2 = 𝛥ky
FOVy FOVy Ny
1
≥ FOVy (9.79)
𝛥ky
Wird diese Bedingung nicht erfüllt, kommt es zu einer Rückfaltung (engl. aliasing)
im Bildbereich. Das Problem der Rückfaltung existiert nur entlang der Phasenkodier-
richtung, da bei der Ausleserichtung stets eine viel höhere Abtastfrequenz verwen-
det wird, und der Einsatz von Anti-Aliasing-Filtern möglich ist. Gleichung (9.79)
beschreibt die notwendige Bedingung für die Schrittweite der Phasenkodierung
(Abb. 9.24).
Neben dem zuvor besprochenen Auslesen paralleler Zeilen können auch andere
k-Raum-Trajektorien verwendet werden. Beispielsweise beschreibt das gleichzeiti-
ge Einschalten von zwei Gradienten entlang x- und y-Richtung eine diagonale Tra-
jektorie. Werden die Amplituden dieser beiden Gradienten sukzessive verändert (wie
durch eine Cosinus- und eine Sinusfunktion bestimmt), so können viele radiale Tra-
jektorien beschrieben werden (Abb. 9.25). Dies ist eine Datenerfassung ähnlich der
CT-Bildgebung; sie wurde von Lauterbur zur Rekonstruktion des ersten MR-Bildes
verwendet. Neben der Rekonstruktion mittels einer gefilterten Rückprojektion kann
auch ein „Gridding“-Verfahren angewandt werden. Dazu werden die Werte auf der ra-
362 | Tobias Schaeffter
FOVA = 1/Δk Δk
Abb. 9.24: Der Abstand der Messpunkte im k-Raum bestimmt das Messfeld (FOV). Wird der Abstand
zu groß gewählt, kommt es zu einer Rückfaltung im Bildbereich.
ky
3
1 2 3
Gx 1
kx
Gy
t
Abb. 9.25: Durch gleichzeitiges Schalten von Gradienten in zwei Richtungen kann eine diagona-
le Trajektorie im k-Raum beschrieben werden. Verändert man sukzessive die beiden Amplituden
gemäß einer Sinus- und Cosinus-Funktion, so erhält man viele radiale Trajektorien.
dialen Trajektorie auf ein äquidistantes Grid interpoliert, um anschließend eine zwei-
dimensionale schnelle Fourier-Transformation anzuwenden.
kontrast führen. Der Bildkontrast gibt an, wie gut sich zwei unterschiedliche Gewe-
be im Bild unterscheiden lassen. Im Allgemeinen kann der Kontrast durch die Diffe-
renz der Bildintensitäten bezogen auf einen Referenzwert beschrieben werden (s. auch
Kap. 21.6, Systemtheorie):
I −I
C= 1 2 (9.80)
Iref
Oft wird auch das Kontrast-Rausch-Verhältnis angegeben, da das Rauschen im Bild
mit bestimmt, ob zwei Gewebearten unterschieden werden können, d. h., die Intensi-
tätsdifferenz muss sehr viel höher sein (z. B. 3-fach) als die Standardabweichung des
Bildrauschens. In der MR-Bildgebung sind die wichtigsten kontrastbestimmenden
Gewebeeigenschaften die Spindichte sowie die Relaxationszeiten T1 , T2 und T2∗ . Der
Einfluss dieser Eigenschaften auf den Bildkontrast lässt sich durch spezifische Mess-
parameter beeinflussen. In diesem Abschnitt sollen zunächst einige Aufnahmeverfah-
ren und deren kontrastbestimmenden Parameter beschrieben werden. Danach sollen
einige Beispiele für Sequenzen gegeben werden, die eine zusätzliche Veränderung des
Bildkontrastes aufgrund weiterer Gewebeeigenschaften bewirken.
9.4.1 Spinecho-Bildgebung
Bei der Herleitung der Ortskodierungsgleichung wurde der Einfluss der Relaxationen
vernachlässigt, diese sind aber für den Bildkontrast von entscheidender Bedeutung.
Wie zuvor beschrieben, wird bei der Spinecho-Bildgebung eine Kombination eines 90°
-Anregungspulses und eines 180° -Refokussierungspulses verwendet. Dabei bestim-
men zwei Zeitintervalle, die Echozeit TE und die Wiederholzeit (engl. repetition ti-
me) TR , den Einfluss der beiden Relaxationsprozesse T1 und T2 auf den Bildkontrast.
Abb. 9.26 zeigt eine Spinecho-Bildgebungssequenz mit der schichtselektiven Anre-
gung, schichtselektiven Refokussierung, dem Auslesegradienten und den Phasenko-
diergradienten. Dabei wird durch Refokussierung ein Spinecho erzeugt und es ent-
steht ein maximales Signal bei der Echozeit TE . Durch Wahl der Auslesegradienten,
d. h. durch Kombination eines negativen und eines positiven Gradienten, wird das
Spinecho zum Zeitpunkt (t = TE ) des k-Raum-Zentrums (kx = 0) „ausgelesen“. Die-
ser Signalpunkt erfährt wegen der Querrelaxation eine exponentielle Gewichtung mit
der spezifischen Relaxationszeit T2 zum Zeitpunkt TE :
Zur Erstellung eines Bildes muss das Experiment Ny -mal mit verschiedenen Phasen-
kodiergradienten wiederholt werden. Dabei bestimmt die Wiederholzeit TR wie viel
longitudinale Magnetisierung durch T1 -Relaxtion wieder für die nächste Anregung zur
Verfügung steht. Dabei ist zu beachten, dass sich erst nach einigen Wiederholungen
ein dynamisches Gleichgewicht der longitudinalen Magnetisierung ergibt, d. h., für
364 | Tobias Schaeffter
180°
90°
RF-Puls Anregung
Gz Schichtselektion
Gy Phasenkodierung
Gx Frequenzkodierung
Signal
T2
Aufnahme
Diese Gleichung kann für verschiedene Grenzfälle betrachtet werden (Abb. 9.27):
– Für sehr kurze Echozeiten TE verschwindet die T2 -Gewichtung.
– Durch geeignete Wahl der Echozeit (z. B. TE = T2 ) erhält man eine T2 -Gewichtung.
– Für sehr lange Wiederholzeiten TR verschwindet die T1 -Gewichtung.
– Durch geeignete Wahl der Wiederholzeit TR (z. B. TR = T1 ) erhält man eine T1 -
Gewichtung.
Die Wahl der Sequenzparameter für die unterschiedlichen Kontraste (Abb. 9.28) ist
in Tab. 9.3 zusammengefasst. Dabei ist zu beachten, dass das Bild immer eine Spin-
dichte-Gewichtung aufweist. Im Allgemeinen werden Spinecho Sequenzen zur Auf-
nahme von stark T2 -gewichteten Bildern verwendet. Dazu werden normalerweise re-
lativ lange Wiederholzeiten (z. B. 3. . .4 s) verwendet. Um ein zweidimensionales Bild
mit geeigneter Auflösung zu erhalten (z. B. 256 × 256 Voxel) ergibt sich eine Messzeit
Bildkontrast TE TR
rein 𝜌-gewichtet sehr kurz sehr lang (z. B. TR = 3T1 )
T1 -gewichtet sehr kurz geeignet (z. B. TR = T1 )
T2 -gewichtet geeignet (z. B. TE = T2 ) sehr lang (z. B. TR = 3T1 )
9 Magnetische Resonanztomographie | 365
T2-gewichtet
TR
180° Mz
90° Mxy
TE
T1-gewichtet
TR
Mz
Mxy
TE
Abb. 9.27: Durch Variation der Sequenzparameter TR und TE können unterschiedliche Kontraste
erzeugt werden.
(TM = Ny ⋅ TR ) von 12. . . 17 Minuten. Eine Möglichkeit die lange Wartezeit zwischen
den Anregungen besser auszunutzen, ist die Multischicht- (engl. Multi-slice-) Aufnah-
me. Während der langen Wiederholzeit werden dabei weitere Schichten angeregt und
ausgelesen. Man versucht die einzelnen Schichten dabei so zu „verschachteln“, dass
örtlich benachbarte Schichten zeitlich weit voneinander gemessen werden.
366 | Tobias Schaeffter
9.4.2 Gradientenecho-Bildgebung
Die Idee der Gradientenecho-Sequenz ist es, keinen 180° -Refokussierungspuls zu ver-
wenden, sondern durch Gradienten in der Ausleserichtung ein Gradientenecho bei
kx = 0 zu erzeugen. Durch einen starken negativen Gradienten entlang der x-Richtung
präzediert die transversale Magnetisierung entlang der x-Richtung mit unterschiedli-
cher Frequenz. Je nach Ort nimmt die Magnetisierung im rotierenden Koordinatensys-
tem entweder eine positive oder eine negative Phase auf. Durch Umpolen des Vorzei-
chens des Gradienten ändert sich auch das Vorzeichen der Präzessionsfrequenz (im
rotierenden Koordinatensystem). Dadurch kehrt sich auch die aufgenommene Phase
um und es entsteht zum Zeitpunkt ausgeglichener Gradientenflächen ein Gradienten-
echo. Allerdings werden durch Schalten der Gradientenspule nur die externen Feld-
gradienten umgekehrt, während die Dephasierung durch die internen Feldgradienten
im Objekt unbeeinflusst bleibt. Dadurch klingt die Stärke des Signals mit T2∗ ab. Bei
der Gradientenecho-Bildgebung wird ein dynamisches Gleichgewicht (engl. stea-
dy state) der Magnetisierung ausgenutzt. Dazu wird die Wiederholzeit TR so weit ver-
kürzt, dass der folgende RF-Puls eine nicht vollständig „relaxierte“ Magnetisierung
vorfindet. Darüber hinaus wird ein kleiner Kippwinkel verwendet, um nicht die ge-
samte longitudinale Magnetisierung in die transversale Ebene zu kippen und einen
Teil entlang der z-Richtung für weitere Anregungen zu bewahren:
+ −
Mxy (n) = Mxy (n) ⋅ sin 𝛼
+ − (9.83)
Mz (n) = Mz (n) ⋅ cos 𝛼
wobei Mz− und Mz+ die longitudinale Magnetisierung vor und nach dem n-ten RF-Puls
beschreiben. Um nicht den Einfluss der RF-Pulse auf die transversale Magnetisierung
betrachten zu müssen, soll im Folgenden angenommen werden, dass die transversale
Magnetisierung bereits zum Zeitpunkt des folgenden RF-Pulses abgeklungen ist. Dies
gilt für TR ≫ T2∗ oder kann durch eine zusätzliche gewollte Zerstörung (engl. spoiling)
der transversalen Magnetisierung geschehen. Daher muss zunächst nur der Einfluss
der T1 -Relaxation während der Wiederholzeit TR betrachtet werden, der zu einer Er-
holung der longitudinalen Magnetisierung führt. Nach Gl. (9.43) ergibt sich
Mz− (n) = M0 − (M0 − Mz+ (n − 1))e−TR /T1 = M0 (1 − e−TR /T1 ) + Mz+ (n − 1) ⋅ e−TR /T1
(9.83)
Mz− (n) = M0 (1 − e−TR /T1 ) + Mz− (n − 1) ⋅ cos 𝛼 ⋅ e−TR /T1 (9.84)
Bildkontrast TE TR
rein 𝜌-gewichtet sehr kurz sehr lang (z. B. TR = 3T1 ) oder kleiner Kippwinkel
T1 -gewichtet sehr kurz geeigneter Kippwinkel
T2∗ -gewichtet geeignet (z. B. TE = T2∗ ) sehr lang (z. B. TR = 3T1 ) oder kleiner Kippwinkel
Das Signal zum Zeitpunkt des Gradientenechos erhält man durch Berechnung des Ein-
flusses des RF-Pulses und der Querrelaxation:
(1 − e−TR /T1 ) ∗
SGE (TE ) ∝ 𝜌(x, y) ⋅ ⋅ sin 𝛼 ⋅ e−TE /T2 (9.87)
1 − cos 𝛼 ⋅ e−TR /T1
Diese Gleichung zeigt, dass die T 1 -Gewichtung vom Kippwinkel abhängt. Darüber
hinaus kann ein optimaler Kippwinkel für ein maximales Signal berechnet werden.
Dazu wird die erste Ableitung zu Null gesetzt und man erhält:
Dieser optimale Winkel wird auch Ernst-Winkel genannt. Er hängt von der Wie-
derholzeit und der T1 -Relaxationszeit ab, d. h., der Kippwinkel ist nur optimal für
ein Gewebe. Der Einfluss der Sequenzparameter auf den Bildkontrast kann anhand
Gl. (9.87) für verschiedene Grenzfälle betrachtet werden:
– Für sehr kurze Echozeiten TE verschwindet die T2∗ -Gewichtung.
– Durch geeignete Wahl der Echozeit (z. B. TE = T2∗ ) erhält man eine T2∗ -Gewichtung.
– Für sehr lange Wiederholzeiten TR verschwindet die T1 -Gewichtung.
– Für sehr kleine Kippwinkel (cos 𝛼 = 1) verschwindet ebenfalls die T1 -Gewichtung.
– Durch geeignete Wahl des Kippwinkels erhält man eine T1 -Gewichtung.
Die Abhängigkeit des Signals (Gl. (9.87)) für verschiedene Kippwinkel und Relaxati-
onszeiten ist in Abb. 9.29 dargestellt. Man erkennt, dass sich für einen bestimmten
Kippwinkel Signalunterschiede zwischen Geweben mit unterschiedlichen Relaxati-
onszeiten ergeben (Tab. 9.4). Daher wird der Bildkontrast durch die T1 -Relaxation
bestimmt. Ferner ergibt sich für jede Relaxationszeit (Gewebe) ein anderer optimaler
Kippwinkel (Gl. (9.88)). Ein Vorteil der Gradientenecho- gegenüber der Spinecho-
Sequenz ist, dass man sehr kurze Wiederholzeiten (TR ≈ 5 ms) verwenden kann. Da-
durch können zweidimensionale Bilder in weniger als einer Sekunde aufgenommen
werden. Allerdings ist die Signalamplitude der Gradientenecho- gegenüber der Spin-
echo-Sequenz wesentlich kleiner, was zu einem schlechteren Signal-Rausch-Verhält-
nis führt.
Ein weiterer Nachteil der Gradientenechobildgebung ist der Einfluss von T2∗ .
Insbesondere in Bereichen zwischen Luft und Gewebe kann es zu starken Permeabi-
litätssprüngen kommen. Dies führt zu lokalen Feldgradienten und damit zu kurzen
368 | Tobias Schaeffter
0,18
0,16
0,14
0,12
T1
Mxy/M₀
0,10
100
ms
0,08
200
0,06 ms
300
ms
0,04 500
750 ms
1250 ms
0,02 ms
0,00
0 10 20 30 40 50 60 70 80 90
α
Abb. 9.29: Signalamplitude einer Gradientenecho-Sequenz (TR = 5 ms) für unterschiedliche Kipp-
winkel und verschiedene Relaxationszeiten T1 . Die Signalamplitude erhöht sich für kürzere Relaxa-
tionszeiten. Diese Abhängigkeit verschwindet für sehr kleine Kippwinkel. Für jede Relaxationszeit
ergibt sich ein optimaler Kippwinkel, bei der sich eine maximale Signalamplitude einstellt.
T2∗ -Werten. Diese treten beispielsweise am Kopf im Bereich der Stirnhöhlen oder der
Ohren bzw. im Abdomen im Bereich der Lunge und des Darms auf. Darüber hinaus
können Feldinhomogenitäten auch durch Implantate hervorgerufen werden. Die
kurzen T2∗ -Werte können zu Signalauslöschungen in den Bilder führen, so dass ei-
ne Diagnose erschwert oder gar verhindert wird. Wie besprochen, kann eine Spin-
echo-Sequenz zu Refokussierung dieser Magnetisierungsanteile verwendet werden
(Abb. 9.30, Abb. 9.31). Diese erlaubt es, die zusätzliche Dephasierung wegen der
unterschiedlichen Isochromaten zu kompensieren.
Bisher wurde eine Gradientenecho-Sequenz mit „Spoiling“ der transversalen Ma-
gnetisierung besprochen. Es ist aber möglich, auch ein dynamisches Gleichgewicht
für die transversale Magnetisierung zu gewährleisten. Dazu werden in der Gradienten-
echo-Sequenz alle Gradienten innerhalb der Wiederholzeit ausgeglichen und es ergibt
sich ein dynamisches Gleichgewicht sowohl für die transversale als auch für die lon-
gitudinale Magnetisierung. Dieses Phänomen wurde bereits 1958 von Carr als Steady
State Free Precession (SSFP) beschrieben und später für die Bildgebung verwendet.
Die Sequenz ist relativ empfindlich gegenüber Inhomogenitäten und erfordert für ei-
ne gute Signalqualität sehr kurze Wiederholzeiten [Haacke 1991]. Daher wurde ihr Ein-
satz erst durch die technische Entwicklung schneller Gradienten ermöglicht. Es soll
hier auf die Herleitung verzichtet werden und nur das Ergebnis für das dynamische
Gleichgewicht für (TR ≪ T1 , T2 ) angegeben werden:
ss− M0 sin(𝛼)
Mxy = (9.89)
1 + T1 /T2 − cos 𝛼 ⋅ (1 − T1 /T2 )
9 Magnetische Resonanztomographie | 369
90°
180°
90°
Spin-Echo
T2
Signal T2*
TE Gradienten-Echo
Abb. 9.30: Unterschiedliche Kontraste bei Spin- und Gradientenecho. Bei der Gradientenecho-
Sequenz haben nach der Echozeit TE die unterschiedlichen Isochromate eine unterschiedliche
Phase. Diese zusätzliche Dephasierung führt zu einem Signalverlust. Durch Verwendung einer Spi-
necho-Sequenz kann diese kompensiert werden, d. h., bei der Echozeit TE sind alle Isochromate
wieder in Phase und führen zu einem stärkeren Signal, dessen Amplitude durch die T2 -Relaxation
bestimmt ist.
Bei der SSFP-Sequenz werden im Allgemeinen große Kippwinkel verwendet. Für die-
sen Fall und T1 ≫ T2 ergibt sich:
ss− 1 T1 ≫T2 T2
Mxy ≈ M0 ≈ M0 (9.90)
1 + T1 /T2 T1
Die SSFP-Sequenz bewirkt daher eine T2 /T1 -Gewichtung im aufgenommenen Bild
(Abb. 9.32). Es soll insbesondere darauf hingewiesen werden, dass die Sequenz
(auch für Kippwinkel kleiner 180°) Spinecho-Anteile erzeugt und man daher T2 -
Kontrastanteile erhält.
Bisher wurde nur die Amplitude der Magnetisierung betrachtet, um den Bildkontrast
mithilfe der unterschiedlichen Relaxationszeiten zu optimieren. Neben der Amplitude
370 | Tobias Schaeffter
Gradienten-Echo Spin-Echo
Abb. 9.31: Unterschiedlicher Einfluss von Suzeptibilitätssprüngen bei der Gradientenecho-und Spin-
echo-Bildgebung. Im Bereich von Luft-Gewebe-Übergängen (Ohren, Nasenhöhle) kommt es bei
der Gradientenecho-Bildgebung zu Signalauslöschungen, welche durch die Spinecho-Bildgebung
refokussiert werden können.
wird aber auch oft die Phaseninformation der transversalen Magnetisierung genutzt.
Beispielsweise kann die Phase zur Unterscheidung von ruhenden und sich bewegen-
den Magnetisierungen (z. B. wegen Flusses) genutzt werden. Bei der phasensensiti-
ven Angiographie werden Gradienten so geschaltet, dass ein Unterschied (Kontrast)
in der Phase zwischen ruhenden und fließenden Spins entsteht (engl. Phase Contrast
Angiography). Betrachtet man beispielsweise Spins, die sich mit einer konstanten Ge-
schwindigkeit durch die Schicht (z. B. entlang der Schicht-Normalen-Richtung z) be-
wegen,
z(t) = z + Vz ⋅ (t − t0 ) . (9.91)
9 Magnetische Resonanztomographie | 371
dann ergibt sich wegen Gl. (9.77b) die Phase (unter der Annahme t0 = 0):
t
𝜑(t) = 𝛾 ∫ Gz (𝜏) ⋅ (z + Vz ⋅ 𝜏) d𝜏
0
t t
𝜑(2T) = 𝛾z ∫ Gz (𝜏)d𝜏 + 𝛾Vz ∫ Gz (𝜏) ⋅ 𝜏d𝜏 + 𝛾z ∫ −Gz (𝜏)d𝜏 + 𝛾Vz ∫ −Gz (𝜏) ⋅ 𝜏d𝜏
0 0 T T
1 1
𝜑(2T) = 𝛾Gz z ⋅ T + 𝛾Gz Vz ⋅ T 2 − 𝛾Gz z ⋅ (2T − T) − 𝛾Gz Vz ⋅ (4T 2 − T 2 ) (9.94)
2 2
Daher heben sich die Phasenanteile für eine statische Magnetisierung (erster und drit-
ter Term) auf, während sich folgende Phase für eine sich bewegende Magnetisierung
ergibt:
𝜑V (2T) = −𝛾Gz Vz T 2 (9.95)
Diese Phase ist proportional zur Geschwindigkeit und erlaubt daher eine quantitative
Messung von Fluss. Dazu wird ein bipolarer Gradient entlang der Flussrichtung in eine
Bildgebungssequenz (Gradienten- oder Spinecho) eingebaut. Die Messung der Phase
der transversalen Magnetisierung im Bild erlaubt dann eine direkte Bestimmung des
Flusses entlang des bipolaren Gradienten. Eine eindeutige Messung des Flusses ist
aber nur im Phasenbereich von ±180° möglich:
man die Fläche (Amplitude und Dauer) des bipolaren Gradienten so wählen, dass die
maximale Geschwindigkeit noch durch eine Phase von 180° abgebildet werden kann.
Wird die Messung durch Einsatz von bipolaren Gradienten in x- und y-Richtung wie-
derholt, so kann ein Geschwindigkeitsvektor berechnet werden.
Gleichung (9.93) zeigt, dass ein konstanter Gradient zu einer zusätzlichen Phase
aufgrund von Fluss führt. Man kann aber die Gradientenfolge auch so wählen, dass
keine Phase wegen der Bewegung entsteht. Solche Gradientenfolgen werden fluss-
kompensiert genannt und oft zur Phasenkodierung und zum Auslesen verwendet, da
sonst noch zusätzliche Phasenanteile wegen des Flusses entstehen könnten.
9.4.4 Diffusion
Bisher wurde nach einer Anregung nur eine einzelne k-Raum-Zeile (d. h. ein Phasen-
kodierschritt) aufgenommen. Daher musste die Aufnahmesequenz Ny -mal wiederholt
werden, was zu langen Messzeiten führt. Insbesondere sollte sich das Messobjekt
während der Aufnahme nicht bewegen, was für lange Messzeiten schwer ist und zu
Bildartefakten führt. Das Ziel schneller Aufnahmeverfahren ist, nach einer Anregung
9 Magnetische Resonanztomographie | 373
eine Reihe von (oder eventuell alle) k-Raum-Zeilen aufzunehmen. Damit kann die
Messzeit erheblich verkürzt werden. Im Folgenden sollen zwei schnelle Verfahren be-
schrieben werden, die als eine Erweiterung der Spinecho- bzw. der Gradientenecho-
Sequenz angesehen werden können.
Turbo-Spinecho (TSE)
Die Idee des Turbo-Spinecho-Verfahrens, das auch Rapid Acquisition with Relaxation
Enhancement, RARE genannt wird, besteht darin, nach einem 90° -Anregungspuls
und einer Reihe von 180° -Refokussierungspulsen mehrere Spinechos zu erzeugen.
Dabei wird jedes Spinecho unterschiedlich phasenkodiert, was die Messung mehrerer
Zeilen im k-Raum erlaubt. Um ein gesamtes Bild aufzunehmen, müssen Ny -Spinechos
erzeugt werden. Wegen der T2 -Relaxation ist dies aber aus zwei Gründen oft nicht mög-
lich. Erstens kann das Signal bereits nach einer Reihe von Spinechos zerfallen sein
und man misst nur noch Rauschen. Zweitens führt die exponentielle T2 -Gewichtung
zu einer Verringerung der Auflösung entlang der Phasenkodierrichtung. Die exakte
Beschreibung lässt sich durch die Faltung des Bildes mit der Modulationstransfer-
Funktion MTF (d. h. die Fourier-Transformierte der Gewichtungsfunktion im k-
Raum) beschreiben. Vereinfacht lässt sich die exponentielle Gewichtung auch als ein
Tiefpass auffassen, da durch sie hohe k-Raum-Zeilen bedämpft werden. Um diesen
Effekt zu verringern, wird normalerweise eine segmentierte Akquisition verwendet.
Nach einer Anregung wird dazu nur eine Reihe (z. B. 16 Echos) aufgenommen. Für den
Bildkontrast spielt dabei die Reihenfolge der Phasenkodierschritte eine wichtige Rol-
le. In Abb. 9.33 ist eine lineare und eine zentrische Reihenfolge dargestellt. Bei der
zentrischen Reihenfolge startet man mit der Aufnahme der niedrigen k-Raum-Werte.
Allerdings verwendet man eine größere Schrittweite, so dass die einzelnen Spinechos
über den gesamten k-Raum verteilt werden. Diese Reihenfolge gewährleistet, dass
nach jeder Anregung eine gleiche T2 -Gewichtung über den gesamten k-Raum durch-
geführt wird. Um destruktive Interferenzen zu vermeiden, wird nach dem Auslesen
einer jeden k-Raum-Zeile die Phasenkodierung wieder aufgehoben. Bei der linearen
Reihenfolge startet man bei negativen hohen k-Raum-Werten, erreicht die Mitte des
k-Raums nach der Hälfte der Echos und endet dann bei positiven hohen k-Raum-
Werten. Der Bildkontrast wird im Wesentlichen durch die niedrigen k-Raum-Werte
bestimmt und ist daher für die beiden Messreihenfolgen unterschiedlich. Während
für die zentrische Reihenfolge die niedrigen k-Raum-Zeilen beim ersten Echo ge-
messen werden, erfolgt dies bei der linearen Reihenfolge nach der Hälfte der Echos.
Die Zeit nach der Anregung, nach der das k-Raum-Zentrum gemessen wird, wird auch
effektive Echozeit TEeff genannt. Dabei erhält man für die zentrische Reihenfolge
eher ein Spindichte-gewichtetes Bild, während man für die lineare Reihenfolge eine
T2 -Gewichtung erhält. Bei der linearen Reihenfolge bestimmen die Anzahl der Echos
und der Abstand der 180° -Pulse die effektive Echozeit.
374 | Tobias Schaeffter
TEeff
RF
Gy
Gx
Signal
k-Raum
4
3
2
1
TEeff
RF
Gy
Gx
Signal
k-Raum
3
1
2
4
Abb. 9.33: Turbo-Spinecho-Sequenz mit unterschiedlicher Phasenkodierordnung. Dabei ist die ef-
fektive Echozeit TE eff als der Zeitpunkt definiert, bei dem die zentralen Daten im k-Raum aufgenom-
men werden. Eine lineare Ordnung führt zu einer längeren effektiven Echozeit und damit zu einem
stärkeren T2 -Kontrast, während eine zentrische Ordnung eher eine Spindichte-Gewichtung bewirkt.
Echo-Planar-Bildgebung (EPI)
Diese Bildgebung wurde vom Nobelpreisträger Peter Mansfield bereits in den 1980er-
Jahren theoretisch beschrieben, konnte aber erst durch die notwendigen technischen
Entwicklungen zehn Jahre später stabil genutzt werden. Bei der Echo-Planar-Bildge-
bung (engl. Echo Planar Imaging, EPI) wird nach einem Anregungspuls eine Reihe
von Gradientenechos erzeugt. Zur Erzeugung des ersten Gradientenechos wird ein ne-
gativer Auslesegradient mit halber Gradientenfläche und ein nachgeschalteter positi-
ver Auslesegradient angewendet. Danach werden nacheinander abwechselnd nega-
tive und positive Auslesegradienten verwendet (Abb. 9.34). Diese Sequenz erzeugt
Gradientenechos in der Mitte der jeweiligen Gradienten. In der Regel wird eine linea-
re Reihenfolge der Phasenkodierschritte verwendet. Dazu wird nach der Anregung
ein großer negativer Phasenkodiergradient geschaltet, welcher bewirkt, dass das ers-
te Echo bei negativ hohen k-Raum-Werten gemessen wird. Zwischen den einzelnen
Gradientenechos werden kleine Phasenkodiergradienten geschaltet, um nacheinan-
9 Magnetische Resonanztomographie | 375
RF
Gy
Gx
Signal
k-Raum
Abb. 9.34: Die Single-Shot-EPI-Sequenz ermöglicht die Aufnahme der gesamten k-Raum-Daten nach
einer Anregung.
Wirbelstrom: Strom, der in leitenden Medien durch ein sich zeitlich änderndes Magnetfeld indu-
ziert wird. Sie erzeugen selber ein Magnetfeld, welches der gewünschten Magnetfeldänderung
entgegenwirkt. Wirbelströme sind eine wichtige Ursache für Artefakte in der Magnetresonanzto-
mographie.
Half-Fourier
In den vorhergehenden Abschnitten wurden Aufnahmeverfahren vorgestellt, um die
Messzeit zu reduzieren. Insgesamt hängt die Aufnahmezeit von der Anzahl der Pha-
senkodierschritte ab. In diesem und dem folgenden Abschnitt soll gezeigt werden,
dass durch Weglassen bestimmter Phasenkodierschritte die Messzeit verringert wer-
den kann. Dazu sind aber spezielle Rekonstruktionsverfahren unter Verwendung be-
stimmter Nebenbedingungen (engl. constraint) notwendig. Ein häufig angewandtes
376 | Tobias Schaeffter
Abb. 9.35: Durch Ausnutzung von Symmetrie-Bedingungen, muss nur eine Hälfte (besser: 60%) der
k-Raum-Daten gemessen werden, während die andere Hälfte berechnet werden kann.
Verfahren besteht darin, nur die Hälfte der k-Raum-Daten (engl. Half-Fourier) auf-
zunehmen. Dieser Ansatz wird häufig bei EPI oder TSE verwendet und besteht in der
Annahme, dass das gemessene Objekt durch eine reelle Funktion beschrieben werden
kann. Für ein solches Objekt ergibt sich nach den Fourier-Theoremen eine hermiti-
sche Symmetrie:
S(−k) = S∗ (k) (9.97)
Daher ist es ausreichend, nur eine Hälfte der k-Raum-Daten aufzunehmen und die
zweite Hälfte durch Anwendung der Symmetriebedingung (Gl. (9.97)) zu berechnen
(Abb. 9.35). Allerdings ist in der Praxis die Annahme der reellen Objektfunktion
durch Feldinhomogenitäten verletzt und es entsteht eine zusätzliche ortsabhängige
Frequenz und damit Phasenentwicklung. Nach Gl. (9.77) (a) kann die Feldinhomo-
genität durch eine ortsabhängige Resonanzfrequenz 𝜔0 (x, y, z) beschrieben werden:
S(kx,y,z (t)) = ∭ 𝜌(x, y, z) ⋅ e−i𝜔0 (x,y,z)t ⋅ e−i2𝜋kx x e−i2𝜋ky y e−i2𝜋kz z dxdydz (9.98)
V
Parallele Bildgebung
Eine weitere Möglichkeit, die Anzahl der aufgenommenen k-Raum-Zeilen zu reduzie-
ren, ohne dass Bildinformation verloren geht, ist die Verwendung der parallelen Bild-
gebung (Abb. 9.36). Die grundlegende Idee der parallelen Bildgebung ist die gleich-
zeitige Aufnahme von Daten mit mehreren Empfangsspulen. Bei den heutigen Sys-
temen werden dazu Spulenanordnungen (engl. array) bestehend aus bis zu 32 (und
mehr) einzelner Spulenelemente verwendet. Die Messempfindlichkeit (engl. sensitivi-
ty) eines einzelnen Spulenelements nimmt mit dem Abstand von dessen Position ab.
Daher haben Empfangsspulenelemente, die an verschiedenen Positionen über dem
Messobjekt angebracht sind, in einem Voxel eine unterschiedliche Empfindlichkeit.
Diese Information wird in der parallelen Bildgebung zur zusätzlichen Raumkodierung
genutzt. Anders als beim Half-Fourier-Ansatz werden in der parallelen Bildgebung
die einzelnen Linien während der Aufnahme in einem größeren Abstand Δk gemes-
sen. Durch die Aufnahme von nur jeder zweiten, dritten oder bis achten k-Raum-Zeile
verdoppelt, verdreifacht oder verachtfacht sich der Abstand gemessener Datenlinien
im k-Raum. Dementsprechend wird das Sampling-Theorem (Gl. (9.79)) verletzt und es
kommt zu einer Rückfaltung im Bildbereich. Auf der anderen Seite wird die Messzeit
um den Reduktionsfaktor zwei bis acht beschleunigt. Um die starke Unterabtastung
entlang der Phasenkodierung zu kompensieren, wird die zusätzliche räumliche In-
formation der Spulenempfindlichkeiten während der Rekonstruktion genutzt. Man
unterscheidet grundsätzlich zwei verschiedene Ansätze, je nach dem, ob die Zusatzin-
formation der Spulenempfindlichkeit im Bild (z. B. SENSE) oder k-Raum (z. B. SMASH,
GRAPPA) verwendet wird [Pruessmann 2006]. Im Folgenden soll kurz der Ansatz im
Bildraum beschrieben werden.
Bei der SENSE-Technik, die 1999 von Pruessmann vorgestellt wurde, wird die
Unterabtastung durch Lösen eines linearen Gleichungssystems unter Berücksichti-
gung der räumlich abhängigen Spulenempfindlichkeiten kompensiert. Dabei kann
die Empfindlichkeit Ci (x, y, z) der i-ten Spule in die Signalgleichung Gl. (9.77) (b) auf-
genommen werden:
Für diskrete Werte kann das Integral auch als Summe bzw. als Gleichungssystem mit
der Kodiermatrix E beschrieben werden:
S⃗ = E ⋅ 𝜌 ⃗
E(i,k),r = Ci,r ⋅ eik⋅r (9.100)
Dabei enthält der Vektor S alle Messdaten im k-Raum, die Kodiermatrix E die ver-
schiedenen Phasenfaktoren aufgrund der Phasenkodierschritte als auch die Empfind-
lichkeit der i-ten Spule und der Vektor 𝜌 das zu errechnende Bild. Zur Berechnung
des Bildes muss die Kodiermatrix invertiert werden. Die Inversion ist nur möglich,
378 | Tobias Schaeffter
Spule 1 Spule 1
Spule 2 Spule 2
Spule 1
Verwendung der Empfindlichkeiten
ermöglicht Rekonstruktion der Amplitude A und B.
Messung der halben Daten SignalSpule1 = 0,85 A + 0,25 B
bewirkt Rückfaltung SignalSpule2 = 0,15 A + 0,75 B
A und B
Spule 2
9.4.6 Kontrastpräparation
Bisher wurde beschrieben, dass der Bildkontrast durch Wahl der Sequenzparame-
ter verändert werden kann. Eine weitere Möglichkeit ist die Verwendung sogenannter
Präparationssequenzen, mit denen der Kontrast gezielt verändert werden kann. Da-
bei wird durch einen solchen Vorpuls vor der Bildgebungssequenz die zur Verfügung
stehende longitudinale Magnetisierung verändert. Es gibt eine Vielzahl von Vorpul-
sen, die im Grunde genommen mit allen unterschiedlichen Bildgebungssequenzen
kombiniert werden können. Aus Platzgründen sollen hier nur einige Beispiele gege-
ben werden.
9 Magnetische Resonanztomographie | 379
180°
Bildgebung
RF
Mz TI
+M₀
graue
Hirnsubstanz
Gehirn
Rückenmarksflüssigkeit
–M₀
Abb. 9.37: Die Bildgebung mit einer Inversion-Recovery-Präparation erzeugt einen starken T1 -
Kontrast. Die Inversionszeit ist so gewählt, dass das Signal des Liquors unterdrückt wird (fluid
attenuated inversion recovery, FLAIR).
T2 -Prep
Zur Verbesserung des T2 -Kontrastes wird oft ein T2 -Präparationspuls eingesetzt. Da-
zu wird eine erweiterte Spinecho-Sequenz verwendet, d. h. eine Kombination aus ei-
nem 90° -Anregungspuls, einer Reihe von 180° -Refokussierungspulsen und einem
90° -Restaurationspuls. Die ersten Pulse erzeugen eine Reihe von Spinecho-Signalen,
bis schließlich das letzte Spinecho durch den -90° -Restaurationspuls in die longitudi-
nale Richtung zurückgekippt wird. Diese longitudinale Magnetisierung ist aber stark
T2 -gewichtet. Damit ist es möglich, auch eine T2 -Gewichtung für solche Sequenzen
zu verwenden, die wenig oder keinen intrinsischen T2 -Kontrast aufweisen (z. B. Gra-
dientenechos). Die T2 -Präparation wird oft zur Kontrastverstärkung von arteriellem
Blut verwendet. Beispielsweise wird sie in der MR-Koronarangiographie eingesetzt,
da die Herzkranzgefäße durch das umliegende Herzmuskelgewebe manchmal schwer
zu erkennen sind. Die T2 -Präparation unterdrückt dann das Muskelgewebe (kurzes
T2 ), während das Signal des arteriellen Blutes (langes T2 ) wenig beeinflusst wird und
dadurch ein stärkerer Kontrast entsteht (Abb. 9.38).
380 | Tobias Schaeffter
ohne T2prep
TE
RF
180° 180° 180°
90° –90°
Blut
Muskel
mit T2prep
Abb. 9.38: Die Anwendung einer T2 -Präparation führt zu einem verbesserten Kontrast zwischen
arteriellem Blut und Muskelgewebe.
Fettunterdrückung
Zur Unterdrückung des Fettanteils im MR-Signal wird ein frequenzselektiver RF-Puls
gefolgt von einem Dephasiergradienten eingesetzt (Abb. 9.39). Die Frequenzen
der Protonen im Fett liegen 3,5 ppm (chemische Verschiebung) entfernt zum Wasser-
signal. Beispielsweise muss bei 1 Tesla der frequenzselektive RF-Puls 150 Hz entfernt
von der Resonanzfrequenz des Wassers eingestrahlt werden. Ein solcher 90° -RF-
Puls kippt nur die Magnetisierung des Fetts in die transversale Ebene. Er sollte dazu
besonders schmalbandig sein und dauert damit vergleichsweise lang, z. B. einige Mil-
lisekunden. Der anschließende Gradient dephasiert das Fettsignal so stark, dass es
nicht mehr gemessen werden kann. Man spricht dabei auch von einer Fettsättigung.
In manchen Fällen wird auch ein etwas größerer Kippwinkel als 90° verwendet. Dieser
verhindert, dass sich zwischen Fettunterdrückung und Bildgebungssequenz longi-
tudinale Fettmagnetisierung aufgrund der T1 -Relaxation gebildet hat. Eine spezielle
Ausführung dieses Prinzips ist die Spectral Presaturation Inversion Recovery-(SPIR-)
Sequenz. Dabei wird ein frequenzselektiver Inversions-RF-Puls verwendet und das
Bildgebungsexperiment erfolgt nach der Inversionszeit TI , bei der das Fettsignal
einen Nulldurchgang in der T1 -Relaxation hat.
9 Magnetische Resonanztomographie | 381
Fett unterdrückt
Frequenz-selektiver
RF-Puls (Fett)
90° Dephasier-
gradient
Bildgebung
Abb. 9.39: Fettunterdrückung. Zur Unterdrückung von Fettsignalen kann ein Sättigungsverfahren
angewendet werden. Dabei wird ein frequenzselektiver RF-Puls eingesetzt, welcher nur Fettresonan-
zen anregt. Danach wird ein Dephasierungsgradient zur Zerstörung der angeregten transversalen
Fett-Magnetisierung geschaltet. Die Sequenz bewirkt, dass keine longitudinale Magnetisierung der
Fettresonanzen für eine folgende Bildgebung vorhanden ist, während die longitudinale Magnetisie-
rung des Wassersignals nicht beeinflusst wurde.
Regionale Vorsättigung
Die regionale Vorsättigung reduziert das Signal von unerwünschtem Gewebe im Bild.
Dieses Präparationsexperiment wird eingesetzt, um so künstlich das Objekt zu ver-
kleinern, beispielsweise um eine Rückfaltung zu vermeiden. Darüber hinaus kön-
nen durch Unterdrückung von sich bewegenden Gebieten (z. B. atmender Brustkorb)
Bewegungsartefakte (s. u.) verringert werden. Dazu wird ein schichtselektiver An-
regungspuls in Kombination mit einem Dephasierungsgradienten verwendet. Hier-
bei erfolgt die Schichtselektion entlang der Auslese- oder Phasenkodierrichtung des
nachfolgenden Bildgebungsexperiments. Der Anregungspuls kippt dann die Magne-
tisierung in einem Gebiet in die transversal Ebene und der anschließende Dephasie-
rungsgradient zerstört die gesamte transversale Magnetisierung (Sättigung) vor Aus-
führung der Bildgebung. Der gesättigte Bereich gibt kein Signal ab und sieht auf dem
Bild dunkel aus. Die regionale Vorsättigung kann aber auch zur Unterdrückung von in
die Schicht einfließendem Blut genutzt werden. Dazu wird die Vorsättigungsschicht
parallel zur Bildgebungsschicht geplant. Die gesamte Magnetisierung (auch die des
Blutes) in der Vorsättigungsschicht wird zerstört, so dass nur noch „schwarzes“ Blut
in die Bildgebungsschicht fließt. Auf dem Bild sind daher solche Adern dunkel. In
manchen Bereichen, z. B. in den Beinen, kann durch eine Vorsättigung eine selekti-
ve Unterdrückung von Arterien bzw. von Venen geschehen. Da das Blut in Beinarte-
rien nach unten fließt, führt eine Vorsättigung oberhalb der Bildgebungsschicht zu
dunklen Arterien, während eine Vorsättigung unterhalb der Bildgebungsschicht zu
dunklen Venen führt.
9.5 Artefakte
Wie auch bei anderen bildgebenden Verfahren gibt es bei der MRT eine Reihe von Ab-
bildungsfehlern unterschiedlicher Ursache. Es lassen sich grob zwei Klassen unter-
382 | Tobias Schaeffter
scheiden: Artefakte, die wegen zu weniger Daten, und solche, die wegen inkonsis-
tenter Daten entstehen. Die ersten Artefakte treten aufgrund der physikalischen und
zeitlichen Einschränkungen der Messung auf. Typischerweise entstehen sogenannte
Gibbs-Ringing-Artefakte durch eine zeitlich begrenzte Aufnahme und die anschlie-
ßende Fourier-Transformation. Der k-Raum wird daher nur bis kxmax und ky max aufge-
nommen und das Bild hat dadurch eine begrenzte räumliche Auflösung. Zur genauen
Darstellung von Kanten (Rechteckfunktion) sind aber auch sehr hohe Raumfrequen-
zen notwendig. Ein Abschneiden (engl. truncation) führt daher zu einer unscharfen
Darstellung der Kante und es kommt zu Über- und Unterschwingern (Gibbs-Ringing)
im Bild. In der zweiten Klasse entstehen Artefakte aufgrund von System-Imperfektio-
nen (z. B. Wirbelströme) oder aufgrund des Messobjektes (z. B. Permeabilitätsunter-
schiede, chemische Zusammensetzung oder Bewegung). Im Folgenden sollen einige
wichtige Beispiele gegeben werden. Eine ausführliche Beschreibung findet man in
[Bronskill 1987].
Wie zuvor beschrieben, hängt die Resonanzfrequenz der Protonen von der che-
mischen Umgebung ab. Beispielsweise hat Fett eine chemische Verschiebung von
3,5 ppm in Bezug auf das Wassersignal und damit eine andere Resonanzfrequenz.
Dies führt zu einem Abbildungsfehler in der Ausleserichtung, da die unterschiedliche
Frequenz von Fett als Ortskodierung interpretiert wird. Nach Gl. (9.64) ergibt sich
für den Frequenzunterschied wegen des Feldgradienten, der gleich dem Frequenzun-
terschied der chemischen Verschiebung gesetzt wird:
𝛥f (x) Gx ⋅ 𝛥x !
= =𝛿
f0 B0
B
𝛥x = 0 𝛿 (9.101)
Gx
Für eine Feldstärke von 1 Tesla und bei einem schwachen Auslesegradienten von
1 mT/m ergibt sich eine örtliche Verschiebung von 3,5 mm, d. h., ein Fett-Voxel wird
um 3,5 mm entlang der Ausleserichtung verschoben. Wie aus Gl. (9.101) ersichtlich,
ist die Verschiebung bei höheren Feldstärken größer und kann durch Verwendung
stärkerer Auslesegradienten verringert werden. In vielen Fällen wird der Einfluss der
chemischen Verschiebung durch die verwendete Pixelbandbreite beschrieben. Diese
Größe beschreibt den Frequenzunterschied zwischen jedem Pixel, der typischerweise
zwischen 100 Hz und 1 kHz liegt. Bei 1 Tesla liegt der Frequenzunterschied wegen der
chemischen Verschiebung bei 150 Hz. Wählt man den Auslesegradienten so, dass die
Pixelbandbreite 100 Hz beträgt, werden Voxel mit Fett um 1,5 Pixel verschoben.
Bei den meisten Sequenzen treten die Artefakte wegen der chemischen Verschie-
bung nur entlang der Ausleserichtung auf. Eine Ausnahme bildet EPI, bei der sehr
9 Magnetische Resonanztomographie | 383
starke Artefakte entlang der Phasenkodierung entstehen. Der Grund liegt daran, dass
die Auslesezeit entlang der Phasenkodierrichtung sehr viel länger (ca. 100 ms) als
entlang der Ausleserichtung (ca. 1 ms) ist. Daher ist bei EPI die Pixelbandbreite ent-
lang der Phasenkodierung sehr viel kleiner (ca. 10 Hz) als entlang der Ausleserichtung
(ca. 1 kHz). Da der Effekt mit höherer Feldstärke zunimmt, versucht man, die Ausle-
sezeit z. B. mithilfe der parallelen Bildgebung zu verringern (d. h. weniger Phasenko-
dierschritte). Darüber hinaus kann eine Fettunterdrückung eingesetzt werden.
Es soll darauf hingewiesen werden, dass ähnliche Artefakte auch durch so-
genannte Suszeptibilitätssprünge entstehen können. Jede lokale Änderung der
Permeabilität führt zu einer Verzerrung des statischen Grundfeldes und damit auch
zu lokalen Änderungen der Resonanzfrequenz. Diese treten insbesondere an Grenz-
flächen Gewebe/Luft und Gewebe/Metall/Keramik (Implantante) auf.
9.5.2 Bewegung
Die MR-Bildgebung ist ein relativ langsames Aufnahmeverfahren, daher ist Bewegung
während der Aufnahmen eine der häufigsten Ursachen für Bildartefakte. Diese entste-
hen durch Herzbewegung, Verdauung, Atmung oder unwillkürliche Bewegung wäh-
rend der Aufnahme. Da die verschiedenen k-Raum-Zeilen nach verschiedenen Anre-
gungen (Wiederholzeiten) gemessen werden, können durch Bewegung unterschiedli-
che Amplituden oder Phasen im k-Raum entstehen.
Amplitudenänderungen ergeben sich beispielsweise durch pulsierenden Fluss
senkrecht zur Bildgebungsschicht. Dabei kann während der Aufnahme Magnetisie-
rung in oder aus der Bildgebungsschicht fließen und damit in den Adern zu unter-
schiedlichen Intensitäten führen. Wenn die Pulsation des Blutflusses (d. h. Herzfre-
quenz) nicht mit der Aufnahme synchronisiert wird, ergeben sich unterschiedliche
Amplitudenwerte entlang der Phasenkodierrichtung. Diese Intensitätsmodulation
lässt sich als Multiplikation mit einer periodischen Funktion im k-Raum beschrei-
ben. Nach dem Faltungstheorem kommt es im Bildbereich zu einer Faltung mit der
Fourier-Transformierten der Modulationsfunktion. Da die Fourier-Transformation
einer periodischen Funktion als eine Reihe von Peak-Funktionen dargestellt werden
kann, kommt es nach Faltung zur Replikation des Bildes an verschiedenen Stellen des
Bildbereiches entlang der Phasenkodierrichtung, die auch als „Geisterbilder“ (engl.
ghosts) bezeichnet werden. Diese Art von Flussartefakten lässt sich durch Synchroni-
sation mit der Herzfrequenz (EKG-Triggerung) vermeiden. Darüber hinaus kann auch
eine regionale Vorsättigung parallel zur Bildgebungsschicht eingesetzt werden.
Phasenänderungen ergeben sich auch aufgrund von Bewegung entlang der Gradi-
entenrichtungen. Der Einfachheit halber soll sich hier das Messobjekt mit konstanter
Geschwindigkeit entlang der x-Richtung bewegen. Die gleichen Aussagen gelten aber
384 | Tobias Schaeffter
x(t) = x + Vx ⋅ (t − t0 ) (9.102)
Der Einfluss der Bewegung auf die Phase ergibt sich ähnlich wie bei der quantitativen
Flussmessung (Gl. (9.92)) mit t0 = 0 zu:
t
𝜑(t) = 𝛾 ∫ Gx (𝜏) ⋅ (x + Vx ⋅ 𝜏) d𝜏
0
t t
Damit hängt die von der Bewegung induzierte Phase (zweiter Term) von der Zeitfunk-
tion des Gradienten ab. Für einen konstanten negativen Gradienten ergibt sich:
1
𝜑V (t) = − 𝛾Vx Gx t2 (9.104)
2
Betrachtet man einen Auslesegradienten als Kombination eines negativen Gradien-
ten der Länge T und eines anschließenden positiven Gradienten gleicher Amplitude
der Länge 2T, so ergibt sich für den zeitlichen Phasenverlauf während des positiven
Gradienten (d. h. während des Auslesens):
t
1
𝜑V (t) = − 𝛾Vx Gx T 2 + 𝛾Vx ∫ Gx (𝜏) ⋅ 𝜏d𝜏
2
T
1
𝜑V (t) = 𝛾Vx Gx (t2 − 2T 2 ) (9.105)
2
Um den Einfluss der durch die Bewegung induzierten Phase zu beschreiben, kann
man das Bild eines punktförmigen Objektes, d. h. die Punktbildfunktion h(x) (engl.
Point Spread Function, PSF), berechnen. Diese ergibt sich nach [Liang 2000] zu
9.6.1 Magnet
Der größte Teil eines MR-Tomographen ist der Magnet zur Erzeugung des statischen
Magnetfeldes. Typische Feldstärken klinischer Systeme liegen bei 1, 1,5 und 3 Tes-
la. Solche hohen Feldstärken lassen sich nur noch mit supraleitenden Magneten
(wirtschaftlich vertretbar) erreichen. Als Supraleiter wird eine Niob-Titan- (Nb-Ti-) Le-
gierung verwendet, deren Fasern in eine Matrix aus Kupfer eingebettet werden. Wird
der Draht auf Werte unterhalb der Sprungtemperatur abgekühlt, so wird Nb-Ti supra-
leitend, d. h., der Draht hat einen vernachlässigbaren Widerstand. Dadurch fließt ein
einmal eingespeister Strom unverändert weiter und erzeugt in der Magnetfeldspule
ein statisches Magnetfeld. Der Vorteil ist, dass durch den Supraleiter sehr hohe Ströme
(mehrere 100 A) fließen und damit sehr große Magnetfelder erreicht werden können.
Die Verwendung von Supraleitung bedeutet aber auch, dass das statische Mag-
386 | Tobias Schaeffter
netfeld immer eingeschaltet ist. Dies birgt eine hohe Gefahrenquelle, da das „un-
sichtbare“ Feld magnetische Gegenstände anzieht (s. Kap. 9.8, Sicherheitsaspekte).
Durch den hohen Strom ergibt sich eine sehr große Feldenergie von einigen Mega-
Joule. Supraleitende Magnete werden in flüssigem Helium in einem Dewargefäß auf
tiefe Temperatur (4,2 K) gekühlt. Dieser Kryostat besteht aus Aluminium und besitzt
zusätzliche Kälteschirme, um ein zu schnelles Verdampfen des teuren Heliums zu
vermeiden. Dazu wird meist eine aktive Kühlmaschine verwendet, die durch Entspan-
nen eines Gases (Joule-Thomson-Effekt) eine sehr tiefe Temperatur generiert (z. B.
70 K). Damit kann die von außen eindringende Wärmestrahlung sehr gut abgeschirmt
und ein Verdampfen des Heliums reduziert werden. Bei den heutigen Systemen muss
der MR-Tomograph höchstens einmal pro Jahr nachgefüllt werden. Muss das mag-
netische Feld bei einem Unfall schnell abgeschaltet werden oder kommt es durch
einen technischen Defekt zu einer plötzlichen Normalleitung in der Spule (quench),
so muss die hohe magnetische Feldenergie in Wärme übersetzt und abgeführt werden
und das Helium verdampft. Damit das gasförmige Helium bei einem Unfall nicht den
Untersuchungsraum füllt, werden spezielle Quench-Leitungen verwendet, um das
Helium nach außen zu führen.
Eine wichtige Voraussetzung für eine gute spektrale Auflösung und Bildqualität
ist eine hohe räumliche Homogenität des statischen Magnetfeldes, die meist in ppm
(engl. parts per million) angegeben wird. Diese liegt bei klinischen Systemen in der
Größenordnung von 1 ppm innerhalb eines kugelförmigen Volumens von 20 cm. Für
Gradienten- Magnet
verstärker
Steuerungs-
computer
RF-Verstärker
25 kW Sende-/Empfangs- Gradienten-
RF-Spule spulen
TR/XR
Verstärker
Multiempfangs-
Mischer RF-Spule
Filter
ADC
Konsolen-
computer Rekonstruktions-
computer
einen Magneten mit einer Feldstärke von 1 Tesla (d. h. 42,6 MHz) variiert das Magnet-
feld in einem Volumen von 20 cm maximal um 1 μT (d. h. 42,6 Hz). Zum Erreichen die-
ser hohen Homogenität werden bei der Installation vor Ort zusätzliche dünne Eisen-
stäbe in den Magneten eingebracht, um den Einfluss der magnetischen Umgebung
(z. B. Stahlbeton) zu kompensieren (engl. shimming). Um den Einfluss des Magnet-
feldes auf die Umgebung gering zu halten, werden heutzutage selbstabgeschirmte
Magnete verwendet, bei denen die Feldstärke rasch mit dem Abstand abfällt.
Zusätzlich können auch Gradientenspulen verwendet werden, um den Einfluss
des Messobjektes auf die Feldhomogenität zu kompensieren. Bei höheren Feldstärken
werden oft zusätzliche Magnetfeldspulen (shim-coils) eingesetzt, um einen verbesser-
ten Shim zu erreichen (d. h. höhere Ordnungen der Kompensation).
9.6.2 Gradientenspulen
Mit den Gradientenspulen soll eine lineare räumliche Änderung der z-Komponente
des Magnetfeldes entlang der drei Raumrichtungen erreicht werden. Zur Erzeugung
der Abhängigkeit entlang der z-Richtung wird eine entgegengesetzte Helmholtz-
Anordnung gewählt, während entlang der x- und y-Richtungen eine Sattelspulenkon-
figuration verwendet wird (Abb. 9.41).
Die heutigen Gradienten in klinischen Systemen erreichen Stärken von
40. . . 80 mT/m (d. h. lineare Änderungen des Magnetfeldes). Diese können mit hoher
Geschwindigkeit ein- und ausgeschaltet werden: 100. . . 200 mT/m/ms (engl. slew ra-
te). Um diese schnellen Schaltzeiten zu erreichen, muss die Induktivität der Spule
möglichst klein sein und es müssen sehr starke Verstärker verwendet werden. Durch
das schnelle Schalten der Gradienten werden relativ große Wirbelströme im Kryo-
staten induziert, die zu einer Störung der Feldhomogenität führen. Daher werden
meistens selbstabgeschirmte Gradientenspulen verwendet.
9.6.3 Radiofrequenzspulen
Bei der MRT werden in der Regel unterschiedliche Sende- und Empfangsspulen ver-
wendet, da sich die Anforderungen für die beiden Phasen unterscheiden. Während
des Sendens soll ein rotierendes transversales Magnetfeld B1 erzeugt werden, des-
388 | Tobias Schaeffter
B₁
x
z
B₀
y Abb. 9.42: Typische Birdcage-Spule.
sen Vektor (Amplitude und Phase) möglichst räumlich homogen ist, um überall den
gleichen Kippwinkel zu erzielen. Daher wird zur Anregung ein großer Resonator ver-
wendet. Dieser besteht aus einer zylindrischen Anordnung von Stäben (engl. birdcage
resonator), auf denen eine sinusförmige Stromverteilung generiert wird (Abb. 9.42).
Im Allgemeinen wird eine sogenannte Quadratur-Anordnung verwendet, dabei wird
gleichzeitig eine sinus- und um 90° versetzt eine cosinusförmige Stromverteilung
eingespeist. Diese Anordnung gewährleistet eine räumlich homogene Anregung über
einen großen Bereich des Körpers (z. B. Kopf und Thorax). Diese Spule ist in die
Magnetöffnung des Kryostaten integriert und wird auch Ganzkörperspule genannt.
Die Anregung erfolgt durch Einspeisen eines RF-Signals in die Sendespule. Typische
RF-Pulse haben eine Amplitude von bis zu 20 𝜇T und eine Pulsdauer von ca. 1 ms.
Zum Senden sind Hochfrequenzverstärker von ca. 10 kW Leistung nötig.
Während des Empfangs werden in der Regel kreisförmige Spulen verwendet, die
auf die Oberfläche des Patienten gelegt und daher auch Oberflächenspulen genannt
werden. Der Vorteil ist ein geringeres Rauschen im Vergleich zu einer Ganzkörperspu-
le. Grund dafür ist, dass das Rauschen bei klinischen Feldstärken fast ausschließ-
lich durch das Rauschen des Körpers des Patienten bestimmt wird. Dabei wirkt ein
leitfähiges Objekt wie ein ohmscher Serienwiderstand zur Spuleninduktivität und be-
stimmt damit das Rauschen während des Empfangs. Die Größe dieses Rauschwider-
standes hängt von der Größe des Teils vom Körper ab, in dem die Spule empfindlich
ist. Die Empfindlichkeit der Spule ist auch für die Stärke des Empfangssignals wich-
tig. Dabei bestimmt insbesondere die Größe (Radius) die Empfindlichkeit entlang der
zentralen Achse, d. h., je größer die Spule, desto tiefer können Signale aus dem Körper
empfangen werden. Allerdings nimmt bei größeren Spulen auch der Rauschbeitrag
des Körpers zu, so dass für jede Anwendung eine bestimmte Kombination von Spulen
verwendet wird. In den letzten Jahren wurden vermehrt kombinierte Empfangsspulen
verwendet. Diese sogenannten Phased array-Spulen decken einen Bereich des Körpers
mit einer Vielzahl von einzelnen Spulenelementen ab. Dabei können gleichzeitig bis
zu 32 einzelne Spulenelemente (und mehr) verwendet werden. Für jede Anwendung
lassen sich dann die entsprechenden Spulenelemente auswählen. Verteilte Empfangs-
9 Magnetische Resonanztomographie | 389
spulen spielen auch eine entscheidende Rolle für die parallele Bildgebung. Dabei ist
insbesondere die räumliche Änderung (Betrag und Phase) der Spulenempfindlichkeit
für die räumliche Kodierung von hoher Bedeutung. Diese bestimmt, wie viele Pha-
senkodierschritte während der Aufnahme weggelassen und durch Kodierung über die
Spulenempfindlichkeit ersetzt werden können.
Üblicherweise wird das Signal zur weiteren Verarbeitung demoduliert, d. h., man
multipliziert das Signal mit einem Referenzsignal. Bei diesem „Mischen“ entsteht ein
Summen- und ein Differenzsignal:
verloren, d. h., man weiß nicht, ob der entsprechende Isochromat am Ort r mit oder
entgegengesetzt zum Uhrzeigersinn rotiert. Daher wird ein sogenannter Quadraturde-
tektor eingesetzt. Dazu multipliziert man das induzierte Signal zusätzlich mit einem
um 90° versetzten Signal:
9.7 Signal-Rausch-Verhältnis
Wie besprochen, ist die Messempfindlichkeit der MR-Bildgebung relativ gering und
benötigt daher eine hohe Konzentration von signalgebenden magnetischen Momen-
ten (Spins). Die ersten Arbeiten zur NMR von Bloembergen, Purcell und Pound
(1948) schätzten, dass man bei 1,5 Tesla mindestens 1018 Spins/Voxel benötigt. In
der biomedizinischen Anwendung werden allerdings wesentlich höhere Konzentra-
tionen benötigt, um Bilder bzw. Spektren in akzeptabler Zeit aufzunehmen. In der
MR-Spektroskopie liegen diese in der Größenordnung von einigen mMol, während
für die MR-Bildgebung in wasserreichem Gewebe ca. 100 Mol Wasserstoffatomen zu
Verfügung stehen. Eine wichtige Größe für die Bildqualität ist das Signal-Rausch-
Verhältnis, engl. Signal-to-Noise Ratio, SNR). Diese hängt sowohl von der Hardwa-
re (z. B. Feldstärke, Empfangsspule) als auch von der Bildaufnahme (Voxelgröße,
Messzeit) ab [Macovski 1996]. Im Folgenden soll grob eine Formel mit den wichtigs-
ten Einflussgrößen abgeleitet werden. Nach Gl. (9.107) induziert die transversale
Magnetisierung im Volumenelement dV einen Spannungsanteil:
→
→
dU(t) = i𝜔0 B1 (r) ⋅ M xy (r)e−i𝜔0 t dV (9.112)
Bei Verwendung eines 90° -Kippwinkels wird die gesamte Magnetisierung M0 (r) in die
transversale Ebene gekippt. Die Gleichgewichtsmagnetisierung hängt nach Gl. (9.25)
von der Feldstärke B0 sowie von der Anzahl der Spins N(r) am Ort r ab. Damit ergibt
9 Magnetische Resonanztomographie | 391
UR = √4kT ⋅ R ⋅ 𝛥f (9.114)
Dabei setzt sich der Widerstand aus dem Spulenwiderstand RS und dem effektiven
Widerstand des Körpers RK zusammen. Damit ergibt sich als Beitrag eines Volumen-
elementes zum Signal-Rausch-Verhältnis (SNR):
→
𝛾 ⋅ ℏ2 ⋅ N(r) B 1 (r) ⋅ 𝜔02
SNRdV ∝ ⋅ dV (9.115)
(4kT)3/2 √(RS + RK ) ⋅ 𝛥f
Im Allgemeinen kann das SNR durch Mittelungen um √NA erhöht werden. Bei einer
Bildaufnahme werden wiederholt Messungen durchgeführt, um alle Zeilen im k-Raum
aufzunehmen. Für einen dreidimensionalen Datensatz müssen dann Ny Nz viele Wie-
derholungen durchgeführt werden, was auch zu einer zusätzlichen Mittellung führt.
Damit ergibt sich:
→
𝛾 ⋅ ℏ2 ⋅ N(r) B 1 (r) ⋅ 𝜔02
SNRdV ∝ ⋅ √NA ⋅ Ny ⋅ Nz ⋅ dV (9.116)
(4kT) 3/2
√(RS + RK ) ⋅ 𝛥f
Es lassen sich nach Gl. (9.116) folgende Schlussfolgerungen ziehen:
– Das SNR ist proportional zum Volumen des Voxels dV.
– Das SNR nimmt mit zunehmender Feldstärke zu.
– Das SNR nimmt mit der Wurzel der Anzahl der Phasenkodierschritte zu.
– Das SNR verringert sich mit der Wurzel der Messbandbreite, daher führen kleine
Auslesegradienten zu einem verbesserten SNR.
– Das SNR hängt von der Empfangsspule (Empfindlichkeit und Rauschwiderstän-
de) ab. Genau genommen muss dazu die Güte und das effektive Spulenvolumen
betrachtet werden.
9.8 Sicherheitsaspekte
Die Sicherheit bei einer MR-Untersuchung wird im Wesentlichen durch die oben
genannten Komponenten des MR-Tomographen bestimmt. Insgesamt unterscheidet
man zwischen den potentiellen Einflüssen der verschiedenen magnetischen Felder
auf den Körper und Unfallgefahrenquellen. Letztere stellen die größere Gefahr dar
und erfordern eine regelmäßige Schulung des Personals.
392 | Tobias Schaeffter
Die größte Gefahr bei einer MR-Untersuchung geht von magnetischen Teilen aus, die
unachtsam in den Untersuchungsraum gebracht werden. Gelangen solche Gegenstän-
de in die Nähe des starken Magnetfeldes, so werden sie so stark angezogen, dass sie
mit großer Geschwindigkeit in den Magneten fliegen. Leider wurden bereits solche
Unfälle mit tödlichem Ausgang dokumentiert. Um das Risiko zu minimieren, sind jeg-
liche ferromagnetischen Gegenstände im Untersuchungsraum verboten. Dazu werden
alle Patienten nach metallischen Gegenständen und Implantaten untersucht und be-
fragt. Oft werden dazu auch Schleusen mit Metalldetektoren eingesetzt. Es soll darauf
hingewiesen werden, dass die Kraft auf einen magnetischen Gegenstand nicht von
der Stärke, sondern von der örtlichen Änderung (d. h. Ableitung) des Magnetfeldes
abhängt. Der Einsatz selbstabgeschirmter Magneten erhöht damit in gewisser Weise
auch die potentielle Unfallgefahr. Bei solchen Magneten fällt das Magnetfeld rasch
mit dem Abstand ab, was zu einer Erhöhung der Kraft führt.
Eine weitere Gefahrenquelle stellt bei supraleitenden Magneten das flüssige Heli-
um dar, das zum Kühlen der Supraleiter benötigt wird. Obwohl Helium nicht toxisch
ist, birgt es Gefahren bei einem Not-Abschalten (quench). Bei diesem Vorgang wird
der größte Teil der großen magnetischen Feldenergie in Wärme umgesetzt. Dies führt
zum schnellen Verdampfen des Heliums. Dabei kommt es zu einer fast explosionsar-
tigen Expansion des Gases. Im Normalfall wird das gasförmige Helium über eine Lei-
tung nach außen geführt. Kommt es allerdings zum Platzen dieser Leitung, so strömt
Helium in den Untersuchungsraum und verdrängt den Sauerstoff. Um ein potentielles
Ersticken zu vermeiden, sind normalerweise starke Ventilatoren im Untersuchungs-
raum eingebaut.
Neben der Unfallgefahr hat das statische Magnetfeld keine weiteren Einflüsse
auf die Sicherheit. Insbesondere wurde bisher keine schädliche Wirkung des hohen
Magnetfeldes auf biologische Prozesse nachgewiesen.
9.8.2 RF-Feld
9.8.3 Gradienten
Durch das schnelle Schalten der Gradientenfelder werden im leitenden Körper kur-
zeitige elektrische Felder und Wirbelströme induziert. Diese können zu einer unge-
wollten Nervenstimulation führen. Probanden haben von Zucken der peripheren Ex-
tremitäten (vor allem der Beine) berichtet, wenn sie mit Sequenzen mit sehr schnellen
Gradientenschaltzeiten untersucht wurden. Der Grund, dass vor allem periphere Ner-
ven stimuliert werden, ist, dass die Amplitude des induzierten elektrischen Feldes mit
dem Abstand vom Zentrum der Gradientenspule zunimmt. Erst die technischen Ent-
wicklungen schneller Gradienten im letzten Jahrzehnt haben die periphere Nerven-
stimulation (PNS) möglich gemacht. Daher wurden sogenannte dB/dt-Grenzwerte
(d. h. eine maximale zeitliche Änderung des Magnetfeldes) von den europäischen und
amerikanischen Behörden festgelegt. Aus diesem Grund werden in vielen Fällen die
technischen Möglichkeiten der Gradienten nicht ausgefahren.
Eine meist unangenehme Begleiterscheinung schneller Gradienten ist die Ent-
stehung von akustischem Schall. Das Schalten der Gradienten bewirkt im statischen
Magnetfeld eine Lorentz-Kraft auf die Leiterbahnen. Dies führt zu einem schnellen
Wechsel von Expansion und Kontraktion der gesamten Gradientenspule. Die Gradien-
tenpulse liegen im Bereich von ein bis einigen Millisekunden, so dass Schall im kHz
Bereich entsteht. Die Schallstärke hängt von den Gradienten und der Feldstärke ab
und kann bis zu 120 dB(A) betragen. Daher ist die Verwendung eines Gehörschutzes
unabdingbar für jede MR-Untersuchung.
9.8.4 Kontraindikationen
Patienten mit medizinischen Implantaten dürfen in der Regel nicht mit der MRT unter-
sucht werden. Dies betrifft insbesondere implantierte medizinische Geräte wie Herz-
schrittmacher, Nervenstimulatoren, Herzdefibrillatoren, Insulinpumpen oder Gehirn-
394 | Tobias Schaeffter
stimulatoren. In den letzten Jahren kamen verstärkt MR-sichere Implantate auf den
Markt, die eine Untersuchung ermöglichen. Andere Implantate wie chirurgische Pro-
thesen und Clips, künstliche Herzklappen und vaskuläre Stents schließen normaler-
weise eine MR-Untersuchung ebenfalls aus. Auch hier kommen vermehrt Implanta-
te auf den Markt, die eine Untersuchung erlauben. Dazu wurde von der internatio-
nalen Standardisierungsorganisation ATSM ein Klassifikationssystem entwickelt, das
drei Klassen unterscheidet. Dieser Standard wird mittlerweile auch von der amerika-
nischen Gesundheitsbehörde (US Food and Drug Administration, FDA) unterstützt.
– MR-sicher (engl. MR-safe): Das Implantat oder Gerät ist völlig unmagnetisch,
nicht elektrisch leitend und nicht RF-resonant.
– Bedingt MR-sicher (engl. MR-conditional): Das Implantat oder Gerät hat mögli-
cherweise magnetische, elektrisch leitende oder RF-resonante Teile, erlaubt aber
trotzdem eine sichere Verwendung in der Nähe des MRT.
– MR-unsicher (engl. MR-unsafe): Diese selbsterklärende Kategorie beschreibt alle
Gegenstände mit magnetischen, elektrisch leitenden oder RF-resonanten Kompo-
nenten, die eine direkte Gefahr für Personen und Geräte im MR-Raum darstellen.
9.8.5 Kontrastmittel
9.9.1 Neurologie
Die Hauptanwendung der MRT liegt im Bereich des Kopfes und der Halswirbelsäule.
Der gute Weichteilkontrast erlaubt eine gute Diagnose von Hirntumoren, neurodege-
nerativen Erkrankungen (z. B. Alzheimer), multiple Sklerose oder Schlaganfall. Dazu
werden Bilder mit unterschiedlichen Kontrasten aufgenommen (Abb. 9.43). Oft wird
durch Gabe von Kontrastmittel überprüft, ob die Blut-Hirn-Schranke gestört ist und
das Kontrastmittel in das Hirngewebe eindringen kann.
Abb. 9.43: Patient mit einem Glioblastom. Vor (links) und nach (rechts) Gabe von einem Gd-
basierten Kontrastmittel kann der Bereich des Tumors im T1 -gewichteten Spinecho-Bild abgegrenzt
werden.
396 | Tobias Schaeffter
„2-Back”-Test:
Ruhe (Kontrolle):
A–L–R–G–X
Stimulation:
E–S–M–R–M
Abb. 9.44: Aktiviere Hirnareale eines Patienten mit Schizophrenie. Dabei wurde während der funk-
tionellen MRT ein „2-Back“-Gedächtnistest durchgeführt. Dem Patienten wird eine Abfolge von Rei-
zen (z. B. Buchstaben) präsentiert. Die Aufgabe besteht darin, anzuzeigen, wenn der gegenwärtige
Reiz mit dem Reiz übereinstimmt, der in der Reihe zwei Schritte vorher vorkam. Dieser Test aktiviert
im „gesunden” Probanden Areale im frontalen Kortex, während bei psychiatrischen Krankheiten
dort keine Aktivitäten nachzuweisen sind.
Funktionelle MR-Tomographie
Die funktionelle MR-Tomographie (fMRT) erlaubt die Darstellung aktivierter Hirn-
areale basierend auf einer lokalen Durchblutungsänderung. Hierbei werden die
unterschiedlichen magnetischen Eigenschaften von oxygeniertem und desoxyge-
niertem Blut ausgenutzt (engl. blood oxygen level dependent, BOLD-Contrast). Des-
oxygeniertes ist im Gegensatz zu oxygeniertem Hämoglobin paramagnetisch. Bei
der Aktivierung von Gehirnarealen kommt es zu einer Steigerung des Stoffwechsels,
wodurch das aktivierte Areal mit einer überproportionalen Erhöhung der lokalen
Durchblutung reagiert. Als Folge erhöht sich die Konzentration von oxygeniertem
relativ zu desoxygeniertem Blut, was zu einer Veränderung der effektiven transver-
salen Relaxationszeit führt. Diese lokalen Änderungen lassen sich am besten mit
schnellen Gradientenecho-Sequenzen (z. B. EPI) messen. Im Allgemeinen wird dazu
das Magnetresonanzsignal des Gewebes zu zwei Zeitpunkten verglichen, d. h. im
stimulierten und im Ruhezustand. Dazu werden oft wiederholte Aufnahmen durch-
geführt und durch statistische Testverfahren miteinander verglichen. Die statistische
Auswertung erfolgt meist pro Bildpunkt, und statistisch signifikante Unterschiede
werden räumlich als die stimulierten Areale dargestellt.
Die fMRT findet vor allem Einsatz in der Neuropsychologie, um psychische Störun-
gen wie z. B. Schizophrenie, Depressionen oder Angstzustände nachzuweisen sowie
den Einfluss von Medikamenten zu untersuchen (Abb. 9.44). Darüber hinaus wird
die Lokalisation von wichtigen sensomotorischen Arealen zur Planung einer Hirn-
Operation genutzt.
9 Magnetische Resonanztomographie | 397
Abb. 9.45: Patient mit einer leichten Aortenstenose. Die kontrastmittelunterstützte 3D-MR-
Angiographie erlaubt die Darstellung der Aorta während der ersten Phase nach Kontrastmittelga-
be (engl. first pass), da sich das Kontrastmittel noch in den Gefäßen befindet und zu einem hohen
Kontrast führt.
9.9.2 MR-Angiographie
Die MRT erlaubt eine gute Darstellung der Blutgefäße. Eine wesentliche Verbesserung
wurde durch die schnelle dreidimensionale MRT unter Verwendung von Kontrastmit-
teln erreicht. Dazu wird nach Injektion eines Gd-basierten Kontrastmittels ein dreidi-
mensionales Bild mittels schneller Bildgebung aufgenommen. Es wird meistens eine
T1 -gewichtete Gradientenecho-Sequenz unter Verwendung der parallelen Bildgebung
gewählt, die es erlaubt, ein großes Volumen (z. B. Thorax) innerhalb weniger Sekun-
den aufzunehmen. Da das Kontrastmittel nur während der ersten Zeit (< 1 min) in
den Gefäßen verbleibt, muss der optimale Untersuchungszeitpunkt für die eigentli-
che Gefäßdarstellung bestimmt werden. Mithilfe dieser Techniken gelingt die anato-
mische Darstellung der gesamten thorakalen Aorta, z. B. bei chronischen Stenosen,
Dissektionen oder Aneurysmen (Abb. 9.45). Ein weiteres wichtiges Indikationsgebiet
der kontrastmittelunterstützten 3D-MR-Angiographie sind die peripheren Verschluss-
krankheiten der Becken- und Beinarterien.
(a) (b)
Abb. 9.46: Quantitative Analyse der Phasenkontrast-Messung (a) in einem Patienten mit einer leich-
ten Aortenstenose. Die Messung des zeitlichen Verlaufs der unterschiedlichen Flussrichtungen (4D-
Fluss) in einem Volumen erlaubt die Darstellung des komplexen Flussverhaltens in der Aorta (b).
Synchronisation mit dem Herzschlag erlaubt eine zeitliche Auflösung der verschie-
denen Flussphasen. Die Amplitude und Form der Flussgeschwindigkeit erlaubt eine
quantitative Diagnose. Die Entwicklung schneller Aufnahmeverfahren ermöglicht
die Messung des zeitlichen Verlaufs von Flussvektoren (4D-Fluss). Damit kann das
komplexe Strömungsverhalten in Gefäßen und im Herzen genauer untersucht werden
(Abb. 9.46).
9.9.4 Herzbildgebung
Die technischen Entwicklungen der MRT in den letzten zehn Jahren haben neue We-
ge in der Untersuchung von Herzkrankheiten eröffnet. Insbesondere haben neue Me-
thoden zur Kompensation der Herz- und Atembewegung eine breitere Anwendung der
MR-Herzbildgebung ermöglicht (Abb. 9.47). Aufgrund des nichtinvasiven Charakters
(d. h. keine ionisierende Strahlung, keine Katheter) ist die MRT inzwischen ein eta-
bliertes Verfahren in der Diagnose von angeborenen Herzfehlern. Dabei kann die MRT
bereits wichtige Informationen über Anatomie, Funktion und Fluss von Patienten im
Kindesalter liefern, die zur Therapieentscheidung genutzt werden. Darüber hinaus be-
nötigen diese Patienten eine ständige Kontrolle im Verlauf ihres Lebens. Ein weiteres
wichtiges Anwendungsfeld ist die nichtinvasive Diagnose von Herzinfarkten. Durch
Kontrastmittelgabe können die Regionen reversibler und irreversibler Myokardschä-
digung unterschieden werden. Schnelle Gradientenecho-Sequenzen in Kombination
mit der parallelen Bildgebung erlauben die Messung der myokardialen Perfusion mit
einer hohen räumlichen Auflösung (1 mm). Darüber hinaus bildet die Zone mit rela-
9 Magnetische Resonanztomographie | 399
(a) (b)
(c) (d)
Abb. 9.47: Die MR-Herzuntersuchung erlaubt unter anderem die Charakterisierung der Anatomie
und Funktion ((a) diastolisch, (b) systolisch), Perfusion (c) bzw. Nekrose (d).
tiv hoher Signalintensität nach einer Wartezeit von 10 bis 15 min nach Gabe des Kon-
trastmittels den Bereich der Nekrose innerhalb des Herzinfarktbereichs ab (engl. late
Gadolinium enhancement).
In der klinischen Praxis erfolgt die Diagnose weitestgehend durch Begutachtung von
gewichteten Bildern. Dabei werden pathologische Änderungen durch Kontrastände-
rungen in den Bildern erfasst, d. h. aufgrund von Unterschieden in den Signalinten-
sitäten. Wie beschrieben, hängen diese stark von den Sequenzparametern ab, was
eine absolute Quantifizierung erschwert. Daher wurde in den letzten Jahren verstärkt
an MR-Methoden gearbeitet, welche die Messung von physikalischen Parametern
erlauben. Neben der Flussgeschwindigkeit und dem Diffusionskoeffizienten wur-
de versucht, auch andere Eigenschaften quantitativ zu erfassen. Wie beschrieben,
können die Relaxationszeiten durch geeignete Verfahren gemessen werden. Eine
Erweiterung dieser Verfahren erlaubt die Messung der Relaxationszeiten an jedem
Ort. Solche Relaxationskarten beschreiben dann die Verteilung der intrinsischen
Relaxationseigenschaften des Gewebes. Darüber hinaus können sie zur quantitativen
Analyse der Kontrastmittelanreicherung genutzt werden [Blume 2009]. Wie beschrie-
400 | Tobias Schaeffter
Abb. 9.49: Die Verwendung eines Fibrin-bindenden Kontrastmittels erlaubt die frühzeitige Detektion
von Blutthromben im linken Herzventrikel eines Patienten.
MR-Spektroskopie
Wie beschrieben, wurde die MR-Spektroskopie als Analysemethode zur Strukturauf-
klärung von Substanzen lange vor der MR-Tomographie eingesetzt. Die Methoden
der Ortsauflösung können genutzt werden, um MR-Spektren aus definierten Volu-
mina aufzunehmen. Dabei wird im Allgemeinen zwischen Spektren aus einzelnen
Volumina (engl. Single Voxel Spektroscopy) und der spektroskopischen Bildgebung
(engl. Spectroscopic Imaging) unterschieden. Diese Methoden erlauben den Nach-
weis von Stoffwechselprodukten und deren krankhaften Veränderungen im Körper.
Insbesondere liefert die Messung verschiedener Kerne unterschiedliche Information.
1
H-Spektroskopie
Wasserstoff (1 H) ist für Messungen des NMR-Effektes der empfindlichste Kern, da die-
ser das größte gyromagnetische Verhältnis von allen Kernen (Tab. 9.1) besitzt. Ob-
wohl die hohe Konzentration von Wasserstoff im Wasseranteil des Gewebes sehr hoch
ist (100 Mol) und in der NMR-Bildgebung ausgenutzt wird, ist die Gewebekonzentrati-
on von Wasserstoff in Stoffwechselprodukten eher gering (10 mMol). Daher wird nor-
malerweise durch spezielle RF-Pulssequenzen das starke Wassersignal unterdrückt,
um die wesentlich schwächeren Signale der Stoffwechselprodukte sichtbar zu machen
402 | Tobias Schaeffter
NAA
Cr
Cr
Cho
ml
Glx Glx
Lip ?
(Abb. 9.50). Die 1 H-Spektroskopie besitzt klinisch eine relativ große Aufmerksam-
keit, da die diagnostischen Bildgebungsgeräte mit vergleichsweise wenig Aufwand
auch 1 H-MR-Spektren aus relativ kleinen Volumina (1. . . 5 ml) aufnehmen können.
Typischerweise werden dabei neben anderen Signalen folgende Moleküle identi-
fiziert:
– N-Acetylaspartat (NAA): Obwohl die genaue biochemische Bedeutung dieses
Moleküls noch nicht vollständig geklärt ist, wird NAA im Gehirn aufgrund der
Lokalisation in den Neuronen die Bedeutung eines neuronalen Markers zuge-
sprochen [Miller 1991]. Dabei konnte mithilfe der 1 H Spektroskopie ein Rückgang
des NAA-Signals bei Pathologien gemessen werden, die mit einem Verlust von
Neuronen verbunden sind.
– Cholin (Cho): Zu diesem Signal tragen verschiedene Anteile des Stoffwechsels
und insbesondere Anteile der Zellmembran bei. Beispielsweise kann in vielen Tu-
moren ein erhöhtes Cholin-Signal gemessen werden. Ferner kann die Signalstärke
auch zur Strahlentherapiekontrolle eingesetzt werden.
– Glukose (Glx) und Laktat (Lac): Glukose spielt eine zentrale Rolle im Energie-
stoffwechsel. Die direkte Messung von Glukose mithilfe der 1 H-Spektroskopie ist
kaum möglich und bleibt daher die Domäne der 31 P-Spektroskopie. Laktat ist End-
produkt des anaeroben Stoffwechsels und spielt daher bei der Diagnose von In-
farktgebieten und Hypoxie eine wichtige Rolle.
– Kreatin/Kreatinphosphat (Cr/PCr): Kreatinphosphat ist am Energiestoffwech-
sel beteiligt. Allerdings ist in der In-vivo-1 H-Spektroskopie kein getrennter Nach-
weis von Kreatin (Cr) und Phosphokreatin (PCr) möglich, so dass man von dem
gemeinsamen Signal nicht auf den Stoffwechsel schließen kann. Das Signal wird
wenig von Pathologien beeinflusst und wird daher oft als Kontrollwert verwendet.
– Myo-Inosytol (mI): Dieses Signal konnte durch In-vivo-Messungen des Gehirns
und der Nieren nachgewiesen werden. Myo-Inositol spielt eine wichtige Rolle bei
der Ausbildung des menschlichen Gehirns, so dass ein erhöhter Wert bei Kindern
gegenüber Erwachsenen nachgewiesen werden kann.
– Lipide: In vielen Fällen stören Signale aufgrund von Lipiden die exakte Messung
anderer Stofwechselprodukte (z. B. Laktat). Allerdings erlaubt die 1 H-Spektro-
9 Magnetische Resonanztomographie | 403
skopie auch die Messung des Fettstoffwechsels, was zur Charakterisierung von
Leber- und Muskelkrankheiten genutzt wird.
31
P-Spektroskopie
Neben der In-vivo-NMR-Spektroskopie von Wasserstoff ist die Messung von Phosphor
(31 P) die am häufigsten verwendete Methode für die biomedizinische Anwendung. Die
In-vivo-31 P-Spektroskopie erlaubt eine Messung des Energiestoffwechsels. Dabei wird
die Phosphatgruppe des Kreatinphosphats (PCr) auf eine Adenosindiphosphat-Grup-
pe (ADP) übertragen, wodurch Adenosintriphosphat (ATP) und Kreatin (Cr) gebildet
werden. Eine Charakterisierung des Energiestoffwechsels ermöglicht eine verbesserte
Diagnose von vielen Krankheiten in unterschiedlichen Organen, z. B. Gehirn, Leber,
Skelett- und Herzmuskel. Aufgrund der geringeren Empfindlichkeit müssen allerdings
relativ große Volumina (ca. 40 ml) gemessen werden. Insgesamt zeigen sich in einem
Spektrum nur die Atome innerhalb kleiner beweglicher Moleküle und Phosphoratome
aus den Membranproteinen tragen nicht zum Signal bei. In Abb. 9.51 sind Adenosin-
triphosphat (ATP), Kreatinphosphat (PCr), das anorganische Phosphat (Pi), Phospho-
monoester (PE), Phosphorylcholin (PC), Glycerophosphorylcholin (GPC) und Glycero-
phosphorylethanolamin (GPE) sichtbar. Darüber hinaus ist die chemische Verschie-
bung bestimmter 31 P-Signale vom pH-Wert abhängig, was eine nichtinvasive Messung
des pH-Wertes ermöglicht [Moon 1973].
13
C- und 19 F-Spektroskopie
Die Konzentration der Isotope Kohlenstoff 13 C und Fluor 19 F ist im Körpergewebe sehr
gering. Daher werden biologische Moleküle mit diesen seltenen Kernen angereichert
und als exogene Tracer in den Körper eingebracht. Vorteil ist dabei, dass die Konzen-
tration des Tracers direkt anhand des empfangenen Signals bestimmt werden kann.
Die 13 C-Spektroskopie erlaubt zwar die Messung von endogenen Substanzen
(z. B. freie Fettsäuren), aufgrund der geringen natürlichen Häufigkeit von 13 C führt
dies aber zu langen Messzeiten. Daher werden in den meisten Fällen Tracer mit einer
spezifischen Isotopenanreicherung verwendet, die aber sehr teuer sind. In den letzten
Jahren wurde eine spezielle Polarisationstransfertechnik entwickelt, die zu einer bis
zu 100 000-fachen Verstärkung des 13 C-Signals führt [Golman 2003]. Allerdings liegt
die Lebensdauer dieser hyperpolarisierten Stoffe unterhalb einer Minute, so dass nur
schnelle Stoffwechselvorgänge (z. B. Pyruvat) gemessen werden können.
Neben Wasserstoff hat 19 F wegen des großen gyromagnetischen Verhältnisses ei-
ne ähnliche Messempfindlichkeit. Allerdings ist die physiologische Konzentration von
frei beweglichem Fluor sehr gering, da Fluor im Körper weitestgehend fest (z. B. in den
Zähnen) gebunden ist. Daher werden 19 F-markierte Substanzen gemessen. Beispiels-
weise enthalten bestimmte klinisch zugelassene Medikamente Fluor, so dass man mit
der 19 F Spektroskopie deren Aufnahme in Organe (Pharmakokinetik) messen kann
404 | Tobias Schaeffter
PCr
PE
GPE GPC
Pi γ-ATP α-ATP
β-ATP
Quellenverzeichnis
Bloch F.: Nuclear induction. Physical Review 1946; 70: 460–473.
Blume U., Lockie T., Stehning C., Sinclair S., Uribe S., Razavi R., Schaeffter T.: Blume Interleaved T(1)
and T(2) relaxation time mapping for cardiac applications. J Magn Reson Imaging 2009; 29 (2):
480–487.
Bottomley P., Hardy C., Argersinger R., Allen-Moore G.: A review of 1H nuclear magnetic resonance
relaxation in pathology: Are T1 and T2 diagnostic? Medical Physics 1987; 14: 1–37.
Bloembergen N., Purcell E. M., Pound R. V.: Relaxation effects in nuclear magnetic resonance
absorption. Phys Rev 1948; 73 (7): 679–712.
Carr H. Y.: Steady state free precession in nuclear magnetic resonance. Phys Rev 1958; 112:
1693–1701.
Damadian R.: Tumor detection by nuclear magnetic resonance. Science 1971; 171: 1151–1153.
Cohen M. S., Weisskoff R. M.: Ultra-fast imaging. Magn Reson Imaging 1991; 9 (1): 1–37.
Ernst R. R., Anderson W. A.: Application of Fourier transform spectroscopy tomagnetic resonance.
Rev Sci Instrum 1966; 37: 93–102.
9 Magnetische Resonanztomographie | 405
Golman K., Ardenkjaer-Larsen J. H., Petersson J. S., Mansson S., Leunbach I.: Molecular imaging with
endogenous substances. Proc Natl Acad Sci USA 2003; 100: 10435–10439.
Haacke E. M., Wielopolski P. A., Tkach J. A.: A comprehensive technical review of short TR, fast,
magnetic resonance imaging. Rev Magn Reson Imag 1991; 3: 53–170.
Haacke E. M., Brown R. W., Thomson M. R., Venkatesan R: Magnetic resonance imaging: physical
principles and sequence design. New York: John Wiley and Sons, 1996.
Haase A.: Snapshot FLASH MRI. Applications to T1, T2, and chemical-shift imaging. Magnetic
Resonance in Medicine 1990; 13 (1): 77–89.
Hahn E.: Spin echoes. Physical Review 1950; 80: 580–594.
Hennig J., Nauerth A., Friedburg H.: RARE imaging: a fast imaging method for clinical MR. Magnetic
Resonance in Medicine 1986; 3: 823–833.
Hoult D. I.: Rotating frame zeugmatography. J Magn Reson 1979; 33: 183–197.
Kumar A., Welti D., Ernst R. R.: NMR Fourier zeugmatography. Journal of Magnetic Resonance 1975;
18: 69–83.
Kemp G. J., Radda G. K.: Quantitative interpretation of bioenergetic data from 31P and 1H magnetic
resonance spectroscopic studies of skeletal muscle: an analytical review. Magn Reson Q 1994;
10 (1): 43–63.
Lauterbur P.: Image formation by induced local interactions: Examples employing nuclear magnetic
resonance. Nature 1973; 242: 190–191.
Lanza G. M., Winter P., Caruthers S., Schmeider A., Crowder K., Morawski A., et al.: Novel
paramagnetic contrast agents for molecular imaging and targeted drug delivery. Curr Pharm
Biotechnol 2004; 5: 495–507.
Macovski, A.: Noise in MRI. Magnetic Resonance in Medicine 1996; 36 (3): 494–497.
Mansfield P.: Multi-planar image formation using NMR spin echoes. Journal of Physics C 1977; 10:
55–58.
Miller B. L.: A review of chemical issues in 1H NMR spectroscopy: N-acetyl-L-aspartate, creatine and
choline. NMR Biomed 1991; 4: 47–52.
Moon R. B., Richards J. H.: Determination of Intracellular pH by 31P magnetic resonance. J Biol Chem
1973; 248: 7276–7278.
Nyquist H.: Thermal agitation of electric charge in conductors. Phys Rev 1928; 32: 110–113.
Presant C. A., Wolf W., Waluch V., Wiseman C., Kennedy P., Blayney D., Brechner R. R.: Association of
intratumoral pharmacokinetics of fluorouracil with clinical response. Lancet 1994; 343:
1184–1187.
Pruessmann K. P., Weiger M., Scheidegger M. B., et al.: SENSE: sensitivity encoding for fast MRI.
Magn Reson Med 1999; 42 (5): 952–962.
Pruessmann K. P.: Encoding and reconstruction in parallel MRI. NMR Biomed 2006; 19 (3): 288–299.
Procter W. G., Yu F. C.: The dependence of a nuclear magnetic resonance frequency upon chemical
compound. Phys Rev 1950; 77: 717.
Purcell E., Torrey H., Pound R.: Resonance absorption by nuclear magnetic moments in a solid. Phys
Rev 1946; 69: 37–38.
Rohrer M., et al.: Comparison of magnetic properties of MRI contrast media solutions at different
magnetic field strengths. Investigative Radiology 2005; 40 (11): 715–724.
Ross B., Kreis R., Ernst T.: Clinical tools for the 90s: magnetic resonance spectroscopy and
metabolite imaging. Eur J Radiol 1992; 14: 128–140.
Spuentrup E., Botnar R. M., Wiethoff A. J., Ibrahim T., Kelle S., Katoh M., et al.: MR imaging of thrombi
using EP-2104R, a fibrin-specific contrast agent: initial results in patients. Eur Radiol 2008; 18
(9): 1995–2005.
406 | Tobias Schaeffter
Stanisz G. J., Odrobina E. E., Pun J., Escaravage M., Graham S. J., Bronskill M. J., Henkelman R. M.: T1,
T2 relaxation and magnetization transfer in tissue at 3T. Magnetic Resonance in Medicine 2005;
54 (3): 507–512.
Twieg D. B.: The k-trajectory formulation of the NMR imaging process with applications in analysis
and synthesis of imaging methods. Medical Physics 1983; 10 (5): 610.
Wolf W., Presant C. A., Waluch V.: 19F-MRS studies of fluorinated drugs in humans. Adv Drug Deliv
Rev 2000: 15: 55–74.
Weiterführende Literatur
Abragam A.: Principles of Nuclear Magnetism. New York: Oxford University Press, 1989.
Bracewell R.: The Fourier transform & its Applications. 3. Aufl. New York: McGraw-Hill, 1999.
Gadian D. G.: NMR and its applications to living systems. 2. Aufl. New York: Oxford University Press,
1995.
Henkelman M., Bronskill M.: Artifacts in magnetic resonance imaging. Reviews of Magnetic
Resonance in Medicine 1987; 2 (1): 1–126.
Liang Z.-P., Lauterbur P.: Principles of magnetic resonance imaging. A signal processing perspective.
IEEE Press Series, New York, 2000.
Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik. 3. Aufl. München: Publicis
Publishing, 1995.
Vlaardingerbroek M. T., den Boer J. A.: Magnetic resonance imaging, theory and practice. 3. Aufl.
Berlin: Springer Verlag, 2002.
Testfragen
1. Welche physikalische Eigenschaft des Atomkerns wird bei der Magnetresonanztomographie
(MRT) ausgenutzt und durch welche physikalischen Größen wird sie beschrieben?
2. Warum ist MRT ein bildgebendes Verfahren mit einer relativ geringen Messempfindlichkeit?
3. Was ist die primäre Funktion des oszillierenden B1 -Feldes?
4. Was ist die Resonanzbedingung?
5. Welche Prozesse beschreiben die Rückkehr der Magnetisierung (nach Anregung) in das thermi-
sche Gleichgewicht?
6. Warum hängt die Resonanzfrequenz nicht nur von der Art des Kerns, sondern auch von der Mo-
lekülstruktur ab?
7. Welche Größen bestimmen die Dicke und Position einer angeregten Schicht?
8. Warum benötigt man einen Schichtrefokussierungsgradienten?
9. Was ist der k-Raum und wie hängt die k-Raum-Trajektorie vom Gradienten ab?
10. Was ist der Unterschied zwischen einer Gradienten und einer Spin-Echo-Bildgebung und wie
hängt der Bildkontrast von den Sequenzparametern ab?
11. Wie lange dauert eine MR-Bildaufnahme und wie kann die MR-Bildgebung beschleunigt werden?
12. Was sind die Haupteinflussgrößen des Signal-Rausch-Verhältnisses?
13. Welche Einflüsse führen zu Artefakten in der MR-Bildgebung?
14. Aus welchen Hauptkomponenten besteht ein MR-Tomograph und welche Sicherheitsaspekte
werden durch diese Komponenten bestimmt?
15. Welche klinischen Anwendungsgebiete können durch welche MR-Verfahren unterstützt werden?
Olaf Dössel
10 Abbildung bioelektrischer Quellen
Zusammenfassung: Der Körper des Menschen steuert viele Funktionen mit Hilfe von
elektrischen Signalen. Wäre es nicht großartig, wenn man diese elektrophysiologi-
schen Prozesse abbilden könnte? Die Grundlagen der Entstehung bioelektrischer Si-
gnale vom Gehirn (EEG/MEG) und vom Herzen (EKG/MKG) werden erläutert. Wie kann
man die kleinen elektrischen und magnetischen Signale an möglichst vielen Stellen
gleichzeitig messen? In welchen Bereichen kann die Bildgebung bioelektrischer Quel-
len die konventionelle Diagnostik mit bioelektrischen Signalen erweitern? Das Kon-
zept der „lead fields“ ermöglicht die Berechnung der Signale, die aus Stromdipolen
folgen. Die Lösung des sogenannten „inversen Problems“ erfordert mathematische
Regularisierungstechniken. Schließlich werden einige Applikationen in der Neurolo-
gie und Kardiologie beschrieben.
Abstract: The human body controls many of its functions using electric signals.
Wouldn’t it be great if it was possible to image such electrophysiological processes?
This chapter explains the basics of the origin of bioelectric signals of the brain
(EEG/MEG) and heart (ECG/MCG). How can these weak electric and magnetic signals
be measured at multiple positions simultaneously? What can imaging of bioelectric
sources contribute to expand the value of conventional bioelectric signal analysis?
The “lead field” concept allows for the calculation of signals from bioelectric sources.
Solving the “inverse problem” demands mathematical regularization techniques.
Finally some medical applications in neurology and cardiology are outlined.
408 | Olaf Dössel
Zunächst soll die Elektrophysiologie von Neuronen und Nervenzellen ein wenig ge-
nauer betrachtet werden. Die Pyramidenzellen der Hirnrinde sind in eine Richtung
senkrecht zur Oberfläche der Hirnrinde ausgerichtet (Abb. 10.2). Wenn ca. 10 000
10 Abbildung bioelektrischer Quellen | 409
50 50
Vm in mV
Vm in mV
0 0
–50 –50
–100 –100
0 0,5 1,0 0 0,5 1,0 1,5 2,0 2,5
(a) Zeit in ms (b) Zeit in s
Abb. 10.1: (a) Aktionspotential einer neuronalen Zelle und (b) einer Zelle des Herzmuskels (Ventri-
kel).
Hirnrinde
Synapse
Axon Dendrit
Abb. 10.2: Stromdipol beim Einströmen von Ionen in die Zelle am synaptischen Spalt und Anord-
nung der Pyramidenzellen in der Hirnrinde.
P T
QS
QRS 0,07 s ST T
Abb. 10.3: Depolarisierung und Repolarisierung der Atrien und der Ventrikel (nach [Schmidt 2005]).
(Abb. 10.3). Über den Atrioventrikular-Knoten gelangt die Depolarisierung mit einer
gewissen Verzögerung in die Ventrikel des Herzens. Die Depolarisierung der Ventrikel
verursacht den QRS-Komplex im EKG an der Körperoberfläche. Die Repolarisierung
der Ventrikel ist in Form der T-Welle im EKG zu erkennen. Der QRS-Komplex weist
Spannungsamplituden im Bereich von 1 mV und Magnetfelder im Bereich von 10 pT
auf. Die Depolarisierung des Herzens „triggert“ zunächst in den Vorhöfen und dann
in den Ventrikeln die Kontraktion des Herzmuskels. Für mehr Details wird hier auf die
Bücher von Malmivuo und Plonsey [Malmivuo 1995] und Gulrajani [Gulrajani 1998]
verwiesen.
(a) (b)
Abb. 10.4: (a) Elektrodenkappe für die Vielkanal-Elektroenzephalographie [Quelle: Easycap GmbH]
und (b) Streifenelektroden für das Body-Surface-Potential-Mapping [Quelle: W. Schulze, IBT am KIT].
Elektro- und Magnetokardiographie (EKG/MKG): Messung der elektrischen Spannungen und der
Magnetfelder am Körper, die durch elektrophysiologische Quellen im Herzen verursacht werden.
Body Surface Potential Mapping (BSPM; dt. Darstellung der Potentialverteilung auf der Körper-
oberfläche): Messung und Kartierung der elektrophysiologisch erzeugten Potentialverteilung auf
der Körperoberfläche.
EEG-Mapping (dt. Abbildung, Kartierung, räumliche Zuordnung des EEGs): Messung und Kartie-
rung der elektrophysiologisch erzeugten Potentialverteilung auf der Kopfhaut.
Zur Messung der sehr kleinen Magnetfelder des menschlichen Körpers werden meis-
tens supraleitende Quanten-Interferenz-Detekoren (SQUIDs) eingesetzt. Diese
Sensoren müssen unterhalb der Sprungtemperatur des verwendeten Supraleiters
betrieben werden. Das bedeutet, dass SQUIDs aus Niob bei 4,2 K im flüssigen Helium
412 | Olaf Dössel
störungen lassen sich hervorragend mithilfe des EKG bestimmen. Wiederum wird nur
der zeitliche Verlauf der Signale an verschiedenen Elektrodenpositionen betrachtet
[Schuster 2001].
Der Wunsch, die bioelektrischen Quellen auch zu lokalisieren und abzubilden,
kommt insbesondere aus dem Bereich der Rhythmusstörungen. Ektope Zentren
(von denen zusätzliche Herzschläge ausgehen und die der Ursprung von gefährli-
chen Rhythmusstörungen sein können) und zusätzliche Leitungsbahnen (wie beim
Wolf-Parkinson-White-Syndrom, WPW) sollten im Kontext mit der Anatomie des
Herzens abgebildet werden. Für eine Vorbereitung einer Ablation von Vorhofflimmern
ist eine genaue elektrophysiologische Charakterisierung des Vorhofs vom Patienten
sehr wichtig. Auch bei der Bewertung der elektrophysiologischen Konsequenzen
eines Herzinfarktes ist die Abbildung der Ausbreitung der Depolarisationsfront um
das Infarktgebiet herum von großem diagnostischem Wert [Dössel 2000, Macfarlane
2010, He 2010].
Stromdipol: kurzer Strompfad, der eine Stromquelle mit einer gleich großen Stromsenke verbin-
det.
wobei 𝜅 der Leitfähigkeitstensor ist und Ji die eingeprägte Stromdichte (englisch: im-
pressed current density). Die eingeprägte Stromdichte wird leider in den meisten Lehr-
büchern zur Feldtheorie vergessen. Berücksichtigt man die eingeprägte Stromdichte
Ji , so passt diese Gleichung gut zu den zwei anderen Materialgleichungen der Feld-
theorie, welche zum einen die magnetische Induktion B, die magnetische Feldstärke
H und die Magnetisierung M miteinander verknüpft und zum anderen die elektrische
Verschiebungsdichte D, die elektrische Feldstärke E und die Polarisierbarkeit P in Be-
ziehung setzt:
B = 𝜇0 (H + M) D = 𝜀0 E + P (10.2)
So wie die Magnetisierung M eine Dichte von magnetischen Dipolen m und die Polari-
sierbarkeit P eine Dichte von elektrischen Dipolen darstellt, so ist auch die eingeprägte
Stromdichte Ji eine Dichte von Stromdipolen pi :
dp⃗ i
Ji⃗ = (10.3)
dv
414 | Olaf Dössel
Volumenstrom
Strom-
dipol
Kochsalzlösung
isolierter Draht
I
(a) (b)
Abb. 10.5: Vereinfachtes Bild eines Stromdipols (a) und dazugehörige Potentialverteilung (b).
wobei dv ein Volumenelement ist. Das Bild, das hinter dem Begriff „Stromdipol“ steht,
ist Folgendes: In einem leitenden Medium befinden sich sehr dicht nebeneinander ei-
ne Quelle von Strom und eine gleichgroße Senke von Strom (Abb. 10.5). Multipliziert
man den Strom I mit der Länge des Pfades zwischen Quelle und Senke d, erhält man
den Wert des Stromdipols; die Richtung ist gleich der Richtung von d.
p⃗ i = I ⋅ d⃗ (10.4)
Die Einheit des Stromdipols ist damit Ampere mal Meter. Berechnet man die Potenti-
alverteilung in einem homogenen leitenden Medium um einen Stromdipol herum, so
ergibt sich exakt das gleiche Bild wie bei einem elektrischen Dipol (Abb. 10.5).
In den Neuronen des Gehirns fließt – wie Abb. 10.2 zeigt – an einer Stelle Strom
aus dem Extra- in den Intrazellulärraum und an einer dicht benachbarten Stelle fließt
der gleiche Strom wieder aus dem Intra- in den Extrazellulärraum; das Bild des Strom-
dipols passt also genau. Kleine Flächen („patches“) aus parallelen Stromdipolen füh-
ren zu messbaren Signalen an der Kopfoberfläche [Nunez 2006].
Auch im Muskelgewebe des Herzens fließt Strom aus dem Extra- in den Intrazel-
lulärraum und umgekehrt (Abb. 10.6). Auch hier bildet sich immer eine flächenhafte
Front von vielen parallelen Stromdipolen aus. Man kann zeigen, dass die eingeprägte
Stromdichte (Stromdipoldichte) proportional zum räumlichen Gradienten der Trans-
membranspannung Vm ist [Geselowitz 1989].
In einem Gebiet (z. B. im Herzen), das gleichmäßig depolarisiert ist, herrscht überall
die gleiche Transmembranspannung; damit befinden sich dort keine aktiven Stromdi-
pole. Das Gleiche gilt für ein Gebiet, das gleichmäßig repolarisiert ist. Nur an der Depo-
larisierungsfront, die sich z. B. beim QRS-Komplex durch das Ventrikelgewebe bewegt
10 Abbildung bioelektrischer Quellen | 415
Richtung der
Wellenbewegung
ruhend depolarisierend aktiviert
Abb. 10.6: Depolarisationsfront im Herzmuskel und „uniform double layer“ [nach Malmivuo und
Plonsey, 1995].
(siehe Abb. 10.3), befinden sich Stromdipole und damit die Quellen für die elektri-
schen Signale an der Körperoberfläche (das EKG). Bei einer Depolarisationsfront in
einem homogenen Gewebe spricht man auch vom „uniform double layer“ aus Strom-
quellen und Stromsenken.
Uniform Double Layer (dt. einheitliche Doppelschicht): Depolarisierungsfront, die sich bei der
Aktivierung des Herzmuskels durch das Herz bewegt. Es handelt sich dabei um eine Näherung, da
diese Front in Wirklichkeit nicht zwingend „uniform“ ist.
Es lässt sich zeigen, dass sich jede bioelektrische Aktivität des Körpers als eine Überla-
gerung von vielen Stromdipolen darstellen lässt. Viele Aktivitäten des Gehirns lassen
sich als eine Serie von einzelnen Stromdipol-Patches beschreiben, die nacheinander
an verschiedenen Stellen der Hirnrinde an- und wieder ausgehen („moving dipoles“).
Für das Herz ist oft die Beschreibung durch eine homogene und fortschreitende Front
von Stromdipolen zutreffend. Ein mögliches Ziel bei der Abbildung bioelektrischer
Quellen ist es also, diese „moving dipoles“ oder die Stromdipolverteilung als Funktion
von Raum und Zeit darzustellen Ji (x, y, z, t). Hierzu äquivalent kann auch die Trans-
membranspannung als Funktion von Raum und Zeit abgebildet werden: Vm (x, y, z, t).
Neben diesem Ansatz zur Abbildung von bioelektrischen Quellen gibt es noch
zwei andere Methoden: Man kann versuchen, die Potentiale auf der Hirnrinde auszu-
rechnen, die man messen würde, wenn man dort Elektroden platzieren würde („de-
blurring“). Ebenso kann man versuchen, die epi- und endokardialen Potentiale dar-
zustellen, die man messen würde, wenn man Elektroden auf die Herzoberfläche legen
würde. Der Vorteil: Der Rekonstruktionsalgorithmus muss nur Signale außerhalb des
416 | Olaf Dössel
Gebietes berechnen, in dem sich die eingeprägten Ströme befinden. Es lässt sich zei-
gen, dass hierdurch die Lösung eindeutiger wird. Dafür wird aber die Interpretation
schwieriger: Es ist nicht immer richtig, dass unter dem Gebiet mit großen elektrischen
Potentialen auch die Quellen liegen (siehe auch Abb. 10.7). Manchmal liegt die Quel-
le direkt unter dem Nulldurchgang der elektrischen Potentialverteilung. (Man beachte
auch das willkürlich festgelegte Referenzpotential.)
Ein dritter Ansatz wird bei der Darstellung der bioelektrischen Quellen im Her-
zen relativ oft gewählt: Es wird die Ankunftszeit der Depolarisationsfront berechnet,
man spricht auch von der „Aktivierungszeit“ 𝜏(x, y, z). Statt eines 4D-Vektorfeldes
Ji (x, y, z, t) ist hierbei nur eine einzige skalare Funktion des Ortes zu berechnen, und
das ist deutlich einfacher. Der Ansatz geht aber von einem „uniform double layer“ aus.
Wenn diese Annahme nicht zutreffend ist, kann es zu Artefakten kommen.
Nun machen wir das Gleiche mit einem Stromdipol in y- und in z-Richtung und er-
halten Empfindlichkeitsfaktoren ax , ay und az . Da wir jeden Stromdipol als Summe
aus drei Stromdipolen in x-, y- und z-Richtung auffassen können, erhalten wir das
messbare Signal im Sensor 1 für jeden beliebigen Stromdipol auf folgende Art:
V1 = ax1 (x, y, z) ⋅ px1 (x, y, z) + ay1 (x, y, z) ⋅ py1 (x, y, z) + az1 (x, y, z) ⋅ pz1 (x, y, z)
V1 = a⃗ 1 (x, y, z) ⋅ p⃗ 1 (x, y, z) (10.7)
10 Abbildung bioelektrischer Quellen | 417
Lead Field (dt. Ableitungsfeld): Vektorfeld, mit dessen Hilfe man das Signal in einem Detektor
(Spannung oder Magnetfeld) ausrechnen kann, indem das lead field an einem Punkt mit dem
Stromdipol an diesem Punkt skalar multipliziert wird.
Gehen wir nun weiter zu einem Vielkanal-System. Jeder der M Sensoren (Elektroden-
paare oder Magnetometer) hat sein eigenes lead field.
Und schließlich gehen wir weiter zu N Dipolen, die gleichzeitig „eingeschaltet“ sind.
Ihre Beiträge addieren sich nach dem Überlagerungssatz:
V1
⃗ .
V = ( .. ) (10.9)
VM
px (r1 )
py (r1 )
ax1 (r1 ) ay1 (r1 ) az1 (r1 ) ... ax1 (rN ) ay1 (rN ) az1 (rN ) ( p (r ) )
( z 1 )
=( .. .. .. .. .. .. ) ⋅ ( .. )
. . . ... . . . ( . )
( )
( )
axM (r1 ) ayM (r1 ) azM (r1 ) ... axM (rN ) ayM (rN ) azM (rN ) px (rN )
py (rN )
(pz (rN ))
⇀
V⃗ = A ⋅ P
r = 10 mm
Volumen der halben
Empfindlichkeit Abstand = 20 mm
100 60° 100
1A 1A 10⁴ 10⁴
5000 5000
4000 4000
3000 3000
50 2000 2000
40
30
1000 80 mm 1000
20
85
mm
JLE in A/m²
92
m
500 500
m
10
400 400
minimale
7,61 300 300
Empfindlichkeit
200 200 J in A/m²
100 100 LE
0
(a) (b) „Null-Empfindlichkeitslinie”
Abb. 10.7: Die lead fields von einem Elektrodenpaar (a) und einem Magnetometer (b) am Beispiel
eines kugelförmigen Volumenleiters (vergleichbar mit dem Kopf) (nach Malmivuo und Plonsey [Mal-
mivuo 1995]).
sieht man, dass Stromdipole, die direkt unter einem Magnetometer liegen, kein Sig-
nal hervorrufen, wenn sie radial nach außen zeigen, aber ein großes Signal erzeugen,
wenn sie tangential auf einem Ring unterhalb des Magnetometers angeordnet sind.
So liefern die elektrischen und die magnetischen Messungen in gewisser Weise „or-
thogonale“ Informationen [Babiloni 2004, Malmivuo 2012].
Reziprozitätstheorem: allgemeines Prinzip der Elektrotechnik. Es besagt, dass man bei passiven
linearen Vierpolen die Quelle auf der einen Seite des Vierpols mit dem Messgerät auf der anderen
Seite des Vierpols vertauschen kann. Es wird dabei immer der gleiche Faktor zwischen Ursache
und Wirkung ermittelt.
Mit dem Reziprozitätstheorem lässt sich beweisen, dass das lead field eines Elek-
trodenpaares bis auf einen konstanten Faktor identisch ist mit der Stromdichtevertei-
lung, die sich ergeben würde, wenn in die beiden Elektroden ein Strom eingespeist
würde. Entsprechend ist das lead field des Magnetometers identisch mit der Vertei-
lung der Wirbelströme im Körper, die sich ergeben würden, wenn in die Spule des
Magnetometers ein Wechselstrom eingespeist würde.
10 Abbildung bioelektrischer Quellen | 419
Dipole fit (dt. Dipol-Anpassung): Verfahren, bei dem ein Stromdipol so lange im Körper bewegt
und verändert wird, bis die gewonnenen Messsignale am besten zu den berechneten Signalen
passen.
Inverses Problem: Aufgabe, aus den messbaren Signalen die zugrunde liegende Quelle der Signa-
le zu bestimmen.
Schlecht gestelltes inverses Problem: mathematisches Problem, bei dem kleine Fehler bei den
Messsignalen zu sehr großen Fehlern bei den rekonstruierten Quellen führen.
In der Mathematik gibt es einen Zweig, der sich intensiv mit schlecht gestellten Proble-
men beschäftigt. Von den Ergebnissen dieser Forschung kann man bei der Lösung die-
ses inversen Problems profitieren. Aus der Mathematik lernt man zunächst, dass eine
420 | Olaf Dössel
w1 0 0
. .. .. T
A = U ⋅ ( .. . . )⋅V (10.11)
0 0 wN
wobei U und V orthonormale Matrizen und wi die Singulärwerte der Matrix A sind. Sie
werden immer der Größe nach sortiert, angefangen mit dem größten Singulärwert. Je
schneller die Singulärwerte abfallen, desto schlechter ist das Problem gestellt. Leider
fallen die Singulärwerte bei dem hier vorliegenden inversen Problem vergleichswei-
se schnell, es handelt sich also um ein ziemlich schlecht gestelltes Problem. Das gilt
leider auch noch, wenn man die Elektroden- bzw. Magnetometeranordnung optimiert
oder die Zahl der Sensoren weiter erhöht.
Regularisieren: Technik zum Umgang mit Singularitäten bzw. schlecht konditionierten Problemen.
Ist ein inverses Problem „schlecht gestellt“, so kann man äußere Bedingungen an die Lösung stel-
len, die zu einer stabilen Lösung führen. Die Lösung ist nur dann richtig, wenn diese Bedingungen
auch zutreffend sind.
Der Ausweg aus dem Dilemma: Man macht Annahmen über die Lösung, die in der Re-
gel erfüllt sind. Das nennt man „Regularisieren“. Eine besonders häufig verwendete
Annahme ist die Folgende: Man sucht die Lösung mit der kleinsten Norm:
In ähnlicher Weise kann man eine Lösung suchen, die besonders glatt ist, z. B. indem
man fordert, dass der Laplace-Operator angewendet auf die Lösung einen besonders
kleinen Beitrag liefert. Beide Regularisierungsmethoden gehören zur Klasse der soge-
nannten Tikhonov-Regularisierer, deren Zielgröße folgendermaßen definiert ist:
Nehme die Lösung, bei der F minimal ist:
F = V⃗ − A ⋅ P⃗ + 𝜆 L ⋅ P⃗ (10.13)
wobei P für die Quellverteilung steht und L für einen linearen Operator (z. B. die
Einheitsmatrix, was zur Lösung mit der kleinsten Norm führt, oder der Laplace-
Operator). Damit sucht man eine Lösung, die einerseits so gut wie möglich zu den
Messdaten passt (der erste Term der Summe) und gleichzeitig eine Bedingung erfüllt
(zweiter Teil der Summe), wobei das Gewicht zwischen den beiden Summanden durch
den Regularisierungsparameter 𝜆 eingestellt wird. Tikhonov konnte zeigen, dass die
Lösung dieser Aufgabe immer folgendermaßen berechnet werden kann:
̃ −1
P⃗ = (AT ⋅ A + 𝜆LT L) ⋅ AT ⋅ V⃗ (10.14)
10 Abbildung bioelektrischer Quellen | 421
Die Matrix, mit der man die Messwerte multiplizieren muss, um eine Schätzung der
Quellen zu erhalten, wird auch „Pseudoinverse“ genannt.
In der aktuellen Forschung werden viele andere Regularisierungsmethoden
ausprobiert. Einen Überblick über die vielfältigen Algorithmen für die EEG-Quellen-
lokalisierung gibt der Artikel von [Michel 2004], einen entsprechenden Überblick für
das inverse Problem der Elektrokardiographie findet man bei [Dössel 2000].
Bei der Quellenrekonstruktion im Gehirn ist der Vergleich mit Bildern der funktio-
nellen Magnetresonanztomographie fMRI (s. Kap. 9.9.1) besonders interessant. Die
Methode der fMRI bildet Veränderungen in der Versorgung von Hirngebieten mit sau-
erstoffreichem Blut ab. Die Abbildung bioelektrischer Quellen zeigt elektrophysiolo-
gische Aktivitäten. Beides geht oft, aber nicht immer Hand in Hand.
LV LV
RV
Aktivierungszeit in ms Aktivierungszeit in ms
100 100
0 123 0 123
LV
RV
–50 50
Abb. 10.8: Durch Lösen des inversen Problems rekonstruierte epikardiale Aktivierungszeit (oben
rechts, grau: ohne signifikante Aktivierung) und rekonstruierte Transmembranspannungen (TMV,
unten rechts). Gemessene endokardiale Aktivierungszeiten (oben links) und ein einzelner EKG-
Kanal, der die ventrikuläre Tachykardie zusammen mit der Aufnahme des Body Surface Potential
Map zeigt (unten links). In den gemessenen und rekonstruierten Aktivierungszeiten ist der Austritts-
punkt der Depolarisierung als Gebiet der frühesten Aktivierung rot zu erkennen [Schulze 2012].
10 Abbildung bioelektrischer Quellen | 423
Quellenverzeichnis
Babiloni F., Babiloni C., Carducci F., Romani G. L., Rossini P. M., Angelone L. M., Cincotti F.:
Multimodal integration of EEG and MEG data: a simulation study with variable signal-to-noise
ratio and number of sensors. Human Brain Mapping 2004; 22: 52–62.
Dössel O.: Inverse problem of electro- and magnetocardiography: Review and recent progress. Int J
Bioelectromagnetism 2000; 2: number 2.
Geselowitz D.: On the theory of the electrocardiogram. Proceedings of the IEEE 1989; 77: 857–876.
Hämäläinen M.: Functional localization basesd on measurements with a whole-head magnetometer
system. Brain Topography 1995; 7: 283–289.
Koch H.: Recent Advances in Magnetocardiography. Journal of Electrocardiology 2004; 37:117–122.
Malmivuo J.: Comparison of the properties of EEG and MEG in detecting the electric activity of the
brain. Brain Topogr 2012; 25: 1–19.
Michel C. M., Murray M. M., Lantz G., Gonzalez S., Spinelli L., Grave de Peralte R: EEG source
imaging. Clinical Neurophysiology 2004; 115: 2195–2222.
Schulze W. H. W., Chen Z., Dössel O., Relan J., Karim R., Sohal M., et al.: unpublished results.
EUHeart Projekt 2012.
Wang Y., Cuculich P. S., Zhang J., Desouza K. A., Vijayakumar R., Chen J., et al.: Noninvasive
electroanatomical mapping of the human ventricular arrhythmias with electrocardiographic
imaging (ECGI). Sci Transl Med 2011; 3: 98ra84.
Weiterführende Literatur
Gulrajani R. M.: Bioelectricity and biomagnetism. New York: John Wiley & Sons, 1998.
He B.: Modeling and imaging of bioelectrical activity. New York: Kluwer Academic Publishers, 2010:
Macfarlane P., van Oosterom A., Pahlm O., Kligfield P., Janse M., Camm J.: Comprehensive
electrocardiology, Vol. 1. London: Springer, 2010.
Malmivuo J., Plonsey R.: Bioelectromagnetism. New York: Oxford University Press, 1995.
Niedermeyer E., Lopes da Silva F.: Electroencephalography. Philadelphia: Lippincott Williams &
Wilkins, 2005.
Nunez P. L., Srinivasan R.: Electric fields of the brain – the neurophysics of EEG. New York: Oxford
University Press, 2006.
Schmidt R. F., Lang F., Thews G.: Physiologie des Menschen. Heidelberg: Springer, Medizin Verlag,
2005.
Schuster H. P., Trappe H. J.: EKG-Kurs für Isabel. Stuttgart, New York: Thieme, 2001.
424 | Olaf Dössel
Testfragen
1. Was ist die Transmembranspannung einer Zelle? Welchen Wert hat sie typisch (in Ruhe)?
2. Was versteht man unter einem Aktionspotential? Zeichnen Sie den typischen Verlauf des Akti-
onspotentials einer Nerven- und einer Herzmuskelzelle.
3. Skizzieren Sie ein typisches Elektrokardiogramm eines gesunden Probanden, beschriften Sie
die Achsen und bezeichnen Sie die verschiedenen Komponenten des Signals.
4. Was ist ein Stromdipol und in welcher Einheit wird er gemessen? Welche elektrische Potential-
verteilung erzeugt ein einzelner Stromdipol in einem homogenen großen Volumenleiter (Skizze
und Vergleich)?
5. Was versteht man unter einem „uniform double layer“?
6. Was versteht man unter dem „lead field“? Wie kann man mithilfe des Reziprozitätstheorems das
lead field eines Elektrodenpaars berechnen?
7. Was ist ein schlecht gestelltes inverses Problem? Was versteht man unter der Regularisierung?
Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert
11 Magnetic Particle Imaging
11.1 Einführung
Magnetic Particle Imaging (MPI) ist eine quantitative Bildgebungsmethode, die das
nichtlineare Magnetisierungsverhalten magnetischer Nanopartikel nutzt, um deren
lokale Konzentration zu bestimmen. Hierfür eignen sich superparamagnetische Ei-
senoxidpartikel (SPIO). SPIOs sind als klinisch geprüfte Kontrastmittel für Leber-
untersuchungen durch die Magnetresonanztomographie (MRT) problemlos erhältlich
und werden normalerweise über intravenöse Injektionen in die Blutbahn eingebracht.
Im Vergleich zu den etablierten Methoden für die medizinische Bildgebung ist
MPI recht jung. MPI wurde 2001 von Bernhard Gleich und Jürgen Weizenecker
erfunden, die 2005 erstmalig über dieses neue Verfahren berichteten [Gleich und
Weizenecker 2005]. Die Methode bietet eine einzigartige Kombination von Merkma-
len:
– Die MPI-Messung ist inhärent quantitativ: Sie misst direkt, wie viel Material an
einem bestimmten Ort vorhanden ist. Die Korrelation von Bildsignal und Materi-
alkonzentration ist aus Verfahren der Nuklearmedizin wie PET und SPECT gut be-
kannt. Diese Ähnlichkeit ist der Grund dafür, dass Kontrastmittel im MPI-Kontext
ebenfalls als Tracer bezeichnet werden.
– Darüber hinaus verspricht MPI gute räumliche und zeitliche Auflösungen. Im
Vergleich zur MRT weist MPI eine etwa zehnfach höhere Voxel-Rate auf (Zahl
der vermessenen Volumenelemente pro Sekunde). Dieser Vorteil kann für die
3D-Echtzeit-Darstellung genutzt werden.
– MPI realisiert die direkte Bildgebung der Partikel über die Messung der magneti-
schen Eigenschaften. So kann die Empfindlichkeit von MPI beim Erfassen von Ei-
senoxid die Empfindlichkeit der Magnetresonanztomographie (MRT) um mehrere
Zehnerpotenzen übertreffen, da die MRT nur ein indirektes Verfahren zur Bestim-
mung der Eisenoxidkonzentration nutzt, bei dem der Einfluss der Partikel auf das
Relaxationsverhalten von Protonen bestimmt wird.
– Da MPI verschiedene statische und oszillierende magnetische Felder für die Mes-
sung nutzt, kommt sie – anders als die Computertomographie (CT) oder andere
auf Röntgen- oder Gammastrahlen basierende Methoden – völlig ohne ionisieren-
de Strahlung und auch ohne die Strahlungsquellen aus, die für PET und SPECT
erforderlich sind.
Nach einem kurzen Überblick über die Geschichte der Erfindung und der weiterfüh-
renden Forschungsarbeiten an MPI sollen hier vor allem die grundlegenden techni-
schen Konzepte vorgestellt werden. Neben der Erfassung der Magnetisierungsmessda-
ten wird schwerpunktmäßig darauf eingegangen, aus den Daten Bilder zu erzeugen.
11 Magnetic Particle Imaging | 427
Eines der magnetischen Materialien, die für MPI geeignet sind, ist das Eisenoxid, das
normalerweise in Form von Nanopartikeln verfügbar gemacht wird. Eine grundlegen-
de Theorie zur Beschreibung der Magnetisierung kleiner Monodomänen-Partikel ist
die Langevin-Theorie, die zur Voraussetzung macht, dass sich die Partikel jeder-
zeit im thermischen Gleichgewicht befinden. Die Beziehung zwischen dem externen
Magnetfeld und der Magnetisierung des Partikels ist nicht durchgehend linear, son-
dern sie hat, wie in Abb. 11.1 dargestellt, nichtlineare Bereiche. Wenn das externe
Feld vom Wert Null aus ansteigt, zeigt die Magnetisierung einen starken Anstieg, bis
sie schnell in die Sättigung gerät. Im thermischen Gleichgewicht gibt es dabei keine
Hystereseeffekte.
In seiner Grundform nutzt MPI Sendespulen, um durch ein zeitabhängiges ex-
ternes Feld die Magnetisierung der Nanopartikel zu ändern. Gleichzeitig wird diese
Änderung der Magnetisierung über die in den Empfangsspulen induzierte Spannung
erfasst. Wenn man für einen Moment annimmt, dass die Beziehung zwischen dem
externen Feld und der Magnetisierung der Partikel linear wäre, würde die induzierte
Spannung tatsächlich dem Amplitudenverlauf des externen Feldes ähneln. Im Fre-
11 Magnetic Particle Imaging | 429
M(H)
Partikel nicht
im Sättigungsbereich Partikel im
Sättigungsbereich
Partikel im externes
Sättigungsbereich magnetisches Feld
Abb. 11.1: Die Beziehung zwischen dem externen magnetischen Feld (normalerweise gemessen in
A/m oder mT/𝜇0 ) und der Partikel-Magnetisierung. Ist das externe Feld klein, befinden sich die Par-
tikel noch nicht im Bereich der magnetischen Sättigung, entsprechend zeigt die Magnetisierung
einen steilen Anstieg. Bei stärkeren externen Feldern gelangen die Partikel in den Sättigungsbe-
reich und eine weitere Steigerung der Feldstärke führt kaum noch zu einer Steigerung der Magneti-
sierung.
quenzbereich würde das gesendete ebenso wie das empfangene Signal als singulärer
Peak bei der Anregungsfrequenz erscheinen, die als Grundfrequenz bezeichnet wird.
Da die Beziehung aber nicht linear ist, kommen im Spektrum des Empfangssignals
Komponenten mit höherer Frequenz hinzu, die Harmonischen, deren Frequenzen ein
Vielfaches der Grundfrequenz sind. Das Vorhandensein dieser Harmonischen ist ein
Anzeichen für das Vorhandensein von magnetischem Material. Der gesamte Satz aller
Harmonischen stellt das spezifische MPI-Signal dar.
Das zeitabhängige externe Feld, das periodisch die Magnetisierung der Nanopar-
tikel ändert, wird Modulationsfeld genannt. Seine Frequenz liegt normalerweise im
Bereich von mehreren zehn bis zu über hundert Kilohertz, wobei die ersten veröffent-
lichten Ergebnisse eine Frequenz von 25 kHz nennen [Gleich und Weizenecker 2005].
Diese Frequenzen sind für das menschliche Ohr normalerweise nicht wahrnehmbar,
der Betrieb eines entsprechenden Scanners ist deshalb kaum hörbar. Die Nutzung hö-
herer Frequenzen kann insofern vorteilhaft sein, als dass das Rauschen der Empfän-
gerelektronik in vielen Fällen durch ein 1/f -Verhalten dominiert ist. Andererseits gibt
es physiologische Grenzen dafür, den menschlichen Körper elektromagnetischen Fel-
dern auszusetzen. Eine dieser Grenzen ist die Energieaufnahme. Sie ist proportional
zum Quadrat der Amplitude und der Frequenz des Feldes und setzt dadurch der Ver-
wendung höherer Frequenzen für das Modulationsfeld Grenzen.
Für eine ausreichende Nutzbarkeit muss die Amplitude des Modulationsfeldes
groß genug sein, um sicherzustellen, dass die Magnetisierungsstärke in die nichtli-
nearen Bereiche vordringt, bestenfalls bis fast in die Sättigung. Je größer die Amplitu-
de, umso deutlicher werden die höheren Harmonischen im Empfangsspektrum, also
430 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert
Wenn eine Anordnung der oben beschriebenen Art genutzt wird, bei der ein Modula-
tionsfeld mit ausreichender Amplitude den Untersuchungsbereich durchdringt, lässt
sich leicht angeben, ob magnetisches Material vorhanden ist oder nicht. Dabei ist es
allerdings nicht möglich festzustellen, wo genau sich das magnetische Material befin-
det und wie viel Material an einem bestimmten Ort vorhanden ist. Was bislang noch
fehlt, ist ein Weg, die räumliche Verteilung des magnetischen Materials zu ermitteln.
Erreicht wird dies durch die Einführung eines Wechselwirkungsfeldes, das so ge-
staltet ist, dass eine Eingrenzung des Ortes der Signalquelle möglich wird, der Ur-
sprung des MPI-Signals also auf einen sehr kleinen Bereich limitiert wird. Im Zusam-
menhang mit MPI wird dieses Feld als Selektionsfeld bezeichnet. Bei einer Realisie-
rung mit Spulen müssen die Spulenströme hierfür einfach eine gegenläufige Richtung
aufweisen. Bei der Verwendung von Permanentmagneten müssen gleiche Pole ein-
ander gegenüber stehen. Im Gegensatz zum Modulationsfeld, das überall etwa den
gleichen Feldvektor hat, hat das Selektionsfeld positionsabhängige Feldvektoren. Im
Feld gibt es darüber hinaus einen besonderen Punkt, den feldfreien Punkt (FFP),
der sich dadurch auszeichnet, dass die Feldstärke bzw. der Feldvektor hier gleich Null
ist (Abb. 11.2). Bei Entfernung vom feldfreien Punkt FFP steigt die Feldstärke schnell
auf von Null abweichende Werte an. Indem entweder ausreichend hohe Ströme oder
ausreichend starke Permanentmagnete verwendet werden, lässt sich das Selektions-
feld so gestalten, dass die Magnetisierung der Nanopartikel mit wachsender Entfer-
nung vom FFP schnell in den Sättigungsbereich gelangt. In diesem Fall führt das auf
die Partikel einwirkende Modulationsfeld nicht zu einer hinreichenden Änderung der
Magnetisierung (Abb. 11.3). Folglich ist fast überhaupt kein MPI-Signal messbar und
das entsprechende Spektrum zeigt nur die Grundfrequenz des Modulationsfeldes.
Magnet
S
Spule
N
FFP
magnetisches FFP-
Material Bewegungs-
bahn
FFP FFP
magnetisches
Material
(a) (b)
tisierung „wechse
agne lt“
Z-M
al in Z-Speicherspule
Sign
Projektion Projektion
zur Z-Achse zur Z-Achse
(c) (d)
Abb. 11.3: Signalerzeugung durch magnetisches Material, das nicht direkt auf dem Weg des feldfrei-
en Punktes (FFP) liegt. Wenn sich der FFP am magnetischen Material vorbeibewegt, ändert sich die
Richtung der Magnetisierung (A zu B). Wenn die Beobachtung auf die z-Komponente der Magneti-
sierung beschränkt wird, kann geschlossen werden, dass die Magnetisierung wechselt (von C zu D),
und dies sogar bei Partikeln, die nicht direkt auf der Bahn des FFP liegen.
432 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert
Durch Bewegung des Objektes im Verhältnis zum FFP, also durch Abtasten des Un-
tersuchungsbereiches und Messung des Anteils der höheren Harmonischen an jedem
Messpunkt, kann so das gesamte interessierende Volumen untersucht werden. In die-
ser überaus einfachen Umsetzung eines MPI-Systems wird angenommen, dass ein
Signal ausschließlich auf Partikel zurückgeht, die sich in oder sehr nahe beim feld-
freien Punkt aufhalten, sich daher nicht in Sättigung befinden und deshalb auf das
Modulationsfeld durch eine messbare Änderung ihrer Magnetisierung reagieren. Alle
anderen Partikel reagieren aufgrund ihres magnetischen Sättigungszustandes nicht.
Die Relativbewegung kann problemlos auch in drei Dimensionen erfolgen, was
die einfache Realisierung von MPI-Scannern ermöglicht. Die erste Veröffentlichung zu
MPI [Gleich 2005] zeigt zweidimensionale Bilder, die auf diese Weise erfasst wurden,
die aktuellen Arbeiten von Goodwill et al. [Goodwill 2009] zeigen erste dreidimen-
sionale Bilder. Der größte Nachteil des Verfahrens ist seine geringe Geschwindigkeit.
Die Relativbewegung zwischen Objekt und Feld muss mechanisch umgesetzt werden.
Dies verzögert den gesamten Messvorgang erheblich, was entweder auch bei Messob-
jekten von sehr geringen Maßen zu Messzeiten von mehreren Minuten führt oder aber
zu einer sehr groben räumlichen Auflösung der Messung. Die Folge ist, dass die erfass-
ten Messdaten niemals dafür ausreichen werden, In-vivo-Untersuchungen mit einer
zufriedenstellenden räumlichen und zeitlichen Auflösung durchzuführen. Dies gilt in
besonderem Maße für lebende Messobjekte oder Strukturen, die sich relativ schnell
bewegen, etwa für die Gefäße des Herz-Kreislauf-Systems.
Der grundlegende MPI-Aufbau, der in Kap. 11.3.2 beschrieben wurde, beruht auf der
mechanischen Bewegung des Messobjektes im Verhältnis zum feldfreien Punkt (FFP),
wobei das MPI-Signal vom Modulationsfeld erzeugt wird. Dies führt zu einer sehr lang-
samen Bilderfassung. Um den gesamten Prozess zu beschleunigen, kann man auch
elektromagnetische Felder verwenden, um anstelle des Messobjektes den FFP zu be-
wegen. Dies wurde zunächst für die zweidimensionale Bildgebung in [Gleich 2008]
und schließlich für die dreidimensionale Bildgebung [Weizenecker 2009] eingeführt.
Wenn man die besondere Form des Selektionsfeldes nach Abb. 11.2 betrachtet,
wird klar, dass sich die Magnetisierungsrichtung einer Probe magnetischer Nanopar-
tikel verändert, wenn der FFP über die Probe geführt wird. Eine solche Änderung
vollzieht sich aber auch, wenn der FFP mit einem gewissen Abstand am Material vor-
beizieht. Der Wechsel der Magnetisierung hängt also von der relativen Position und
Bewegung des Objektes im Verhältnis zum FFP ab. Da dieser Wechsel in der Magneti-
sierung von der Aufnahmespule genauso erfasst wird wie eine durch das Anregungs-
feld induzierte Änderung, kann die explizite Verwendung des Modulationsfeldes un-
terlassen werden. Dieses neue, den FFP bewegende Feld wird als Anregungsfeld, im
Englischen als drive field, bezeichnet und ersetzt das Modulationsfeld. Tatsächlich
11 Magnetic Particle Imaging | 433
bewegt ein Modulationsfeld hinreichender Feldstärke den FFP bereits erheblich und
kann daher wie ein Anregungsfeld betrachtet werden. Bereits in der ersten Veröffentli-
chung über MPI wurde die Verwendung eines Anregungsfeldes als effizienzsteigernde
Möglichkeit für das bildgebende Verfahren vorgeschlagen. Spätere Varianten des MPI,
z. B. die in [Sattel 2009] vorgestellte einseitige MPI, arbeiten mit einem Anregungsfeld,
das den FFP bewegt und die Magnetisierung des Nanopartikel ändert, ohne dass hier
die langsame und aufwendige mechanische Bewegung des Messobjektes überhaupt
in Betracht gezogen wurde.
Aus dem Vergleich des Gradienten der Feldstärke des Selektionsfeldes im feldfrei-
en Punkt mit den maximalen Feldstärkewerten des Anregungsfeldes, wie sie in der
Literatur [Gleich und Weizenecker 2005] angegeben sind, kann geschlossen werden,
dass der durch eine elektromagnetische FFP-Bewegung abgedeckte Bereich einige we-
nige Zentimeter nicht überschreiten kann. Eine derartige Beschränkung des Untersu-
chungsbereiches ist für medizinische Anwendungen in der allgemeinen Diagnostik
offensichtlich nicht akzeptabel. Hier erwartet man Systeme, die einen ausreichenden
Ausschnitt aus dem menschlichen Körper abdecken, wie dies bei der Magnetresonanz-
tomographie (MRT) oder der Computertomographie (CT) der Fall ist.
Aufgrund der Natur der Maxwell-Gleichungen kann kein Feld mit einem FFP
aufgebaut werden, das in allen drei räumlichen Richtungen den gleichen Gradien-
ten aufweist. Nach Abb. 11.2 hat ein Feld, das durch eine Maxwell-Konfiguration
von Spulen oder Permanentmagneten aufgebaut wird, in Längsrichtung einen hohen
Gradienten, z. B. 3 T/m, wenn man beim obigen Beispiel bleibt, und damit in den Axi-
alrichtungen einen Gradienten von 1,5 T/m. Damit ist der Untersuchungsbereich in der
Achse des hohen Gradienten nur halb so groß wie der in den anderen beiden Richtun-
gen. Dies führt zu nichtkubischen Volumenpixeln. Anders gesagt: Basierend auf der
Maxwell-Konfiguration ist die räumliche Auflösung, die vom Gradienten der Feld-
stärke des Selektionsfeldes abhängt, in der Achse des hohen Gradienten doppelt so
hoch wie in der Achse der beiden niedrigeren Feldstärkegradienten.
Amplitude durch eine Reduzierung der Frequenz kompensiert werden muss. Deshalb
wird neben dem Anregungsfeld, dessen Feldstärke auf ca. 20 mT/𝜇0 beschränkt ist,
ein weiterer Satz orthogonaler, homogener Felder aufgebaut, die sogenannten Fokus-
felder. Bei einer Stärke des Fokusfeldes im Bereich von 300 mT/𝜇0 ist das Aufnah-
mefeld in der Achse des stärkeren Feldgradienten von 3 T/m/𝜇0 etwa 20 cm groß, in
Richtung der niedrigen Feldgradienten etwa 40 cm. Die Frequenz des Fokusfeldes ist
jedoch im Vergleich zum Anregungsfeld niedrig. Sie liegt im Bereich von einigen weni-
gen Hertz. Damit kann das Feld nicht für die Bewegung des FFP im gesamten Bereich
der Bildgebung genutzt werden, was zu schlechten Ergebnissen führen würde. Statt-
dessen wird die Bewegung des FFP durch eine Kombination der Wirkung von Fokus-
und Anregungsfeld gesteuert. Dies kann im Multipositionsmodus erfolgen, bei dem
das Fokusfeld die Steuerung des gesamten vom Anregungsfeld abgedeckten quader-
förmigen Volumens an eine bestimmte Stelle im Aufnahmebereich übernimmt und es
dort fixiert, während das Anregungsfeld seine Aufgabe erfüllt.
Das Ergebnis ist die Abdeckung des Untersuchungsbereiches durch einzelne Un-
terbereiche, die jeweils kleine, eigenständige 3D-Bilder darstellen und zu einem kom-
pletten 3D-Datensatz zusammengefügt werden können. Eine weitere Möglichkeit liegt
in der Kombination einer gleichzeitigen Änderung von Fokus- und Anregungsfeld, um
so eine kontinuierliche Bewegung des FFP zu erhalten – den Kontinuitätsmodus. Im
Unterschied zum Multipositionsmodus ist das akquirierte Bild vollständig. Es umfasst
den gesamten Untersuchungsbereich, ist also keine Kombination kleiner Quader.
Neben der reinen Abdeckung des gesamten Untersuchungsbereiches kann das
Fokusfeld auch noch für die Realisierung eines anderen, überaus effektiven Bildge-
bungsmodus genutzt werden. Wenn der Untersuchungsbereich nur ein Teilvolumen
des gesamten Bildfeldes einnimmt und dieses Teilvolumen zudem nicht rechteckig,
sondern Teil einer eher unregelmäßigen 3D-Form ist, kann das Fokusfeld dazu ver-
wendet werden, nur genau jene Quader abzubilden, die im betreffenden Teilvolumens
enthalten sind. So muss ein wesentlich kleinerer Bereich gescannt werden, was die Ef-
fizienz der Bilderfassung steigert.
Fokusfeld: MPI-Verfahren zur räumlichen Verschiebung eines feldfreien Punktes für einen vergrö-
ßerten Erfassungsbereich.
schreiben. Diese Werte werden auf eine Rechteck-Gitterstruktur übertragen und stel-
len im Falle eines 3D-Scans ein Volumen, bei einem 2D-Scan ein Bild dar.
Wenn MPI in seiner einfachsten Form ausgeführt wird, wie es im ersten Teil des
vorhergehenden Unterkapitels beschrieben wurde, ist die Rekonstruktion einfach. Die
Position jedes einzelnen Voxels wird zusammen mit den entsprechenden Konzentra-
tionswerten erfasst, die Daten lassen sich problemlos in einem Volumen bzw. einem
Bild darstellen, abhängig davon, ob die Bahn des feldfreien Punktes zwei- oder drei-
dimensional war.
Wenn MPI unter Berücksichtigung der Aspekte Leistung und Effektivität verwen-
det wird, etwa bei Nutzung eines Anregungsfeldes zur Bewegung des feldfreien Punk-
tes über das Objekt, dann wird ein spezifischer Rekonstruktionsalgorithmus benötigt.
Hauptgrund ist, dass, während der FFP über die Verteilung des magnetischen Mate-
rials bewegt wird, die Aufnahmespulen nicht nur das Signal von dem Material emp-
fangen, das sich direkt am feldfreien Punkt befindet, sondern auch von Material, das
außerhalb des FFP vorliegt.
Zum Verständnis genügt eine genaue Betrachtung des zweidimensionalen Fal-
les: Nimmt man die Geometrie des Selektionsfeldes aus Abb. 11.2 wieder auf, kann
man leicht erkennen, dass sich die Feldrichtung des Selektionsfeldes abhängig davon
ändert, ob die beobachtete Position über oder unter einer horizontalen Linie durch
den FFP liegt. Die Einschränkung der Beobachtung auf die z-Komponente des Fel-
des legt darüber hinaus nahe, dass diese Komponente von einem negativen Wert (ge-
gen die Achsenrichtung) zu einem positiven Wert (in Achsrichtung) wechselt. Damit
entspricht der Wechsel der Position von oben nach unten effektiv dem Wechsel des
feldfreien Punktes von unten nach oben. Das Ergebnis des sich bewegenden FFP ist,
dass sich die z-Komponente der Magnetisierung entlang des externen Feldes ausrich-
tet, vorausgesetzt, dass dieses Feld stark genug ist und sich die Magnetisierung selbst
ändert, wie in Abb. 11.3 dargestellt. Diese Änderung in der Magnetisierung wird na-
türlich von der z-Empfangsspule erfasst und liefert ein MPI-Signal. Es ist offensicht-
lich, dass ein solches Signal von jedem magnetischen Nanopartikel ausgehen kann,
das sich auf einer Linie befindet, die senkrecht zum Weg des FFP steht, auch wenn
das Signal schwächer wird, je weiter das Material von der FFP-Trajektorie entfernt ist.
Tatsächlich geht also das Signal, das während der Bewegung des FFP aufgezeichnet
wird, auf das gesamte magnetische Material auf dieser Linie zurück.
Um dies in die Rekonstruktion einzubeziehen, muss man sich auf die Tatsache
stützen, dass die MPI-Bildgebung mit einem approximativen linearen Bildgebungs-
modell beschrieben werden kann. Dies impliziert, dass der Einfluss einer Menge
magnetischen Materials auf das resultierende MPI-Signal proportional zu seiner Kon-
zentration ist, also die doppelte Menge zu einem doppelt so großen Signal führt. Dies
ist gerechtfertigt, solange die von der Magnetisierungsänderung im Messobjekt er-
zeugten Felder im Verhältnis zu den äußeren Feldern als klein angenommen werden
können. Die Wirkung eines einzelnen Depots magnetischen Materials auf das Signal
muss also bekannt und proportional zur Konzentration sein. In diesem Fall bildet
436 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert
das Gesamtsignal eine Überlagerung aller Signale durch kleine Depots magnetischen
Materials auf der Bahn, die entsprechend ihrer lokalen Konzentration gewichtet sind.
Wenn man dies einen Schritt weiterführt, kann die Kenntnis des Signals, das von
kleinen Depots magnetischen Materials überall innerhalb des Untersuchungsvolu-
mens oder zumindest an Punkten auf einem geeigneten Gitter, welches das Volumen
abdeckt, dazu genutzt werden, für ein unbekanntes Objekt die Konzentrationswerte
auf diesem Gitter zu berechnen. Die hierfür erforderlichen Informationen werden bei
der Kalibrierung mithilfe einer kleinen Sonde aus magnetischem Material gewonnen,
die an geeigneten Punkten innerhalb des Untersuchungsbereiches positioniert wird.
Die Daten, die bei einer einzelnen Messung n von N Gesamtmessungen ermittelt wer-
den, ergeben eine zeitliche Abfolge von K Messwerten, die während der Bewegung des
FFP entlang einer bestimmten Trajektorie gemessen werden. Die Aufnahme bei allen
N Positionen führt zu K × N Werten, die eine Matrix Gkn mit K × N bilden, und die
üblicherweise als Systemfunktion oder Systemmatrix bezeichnet wird.
Ein Objekt kann durch die unbekannten Konzentrationen Cn an allen N Positionen
dargestellt werden, und die Messung dieses unbekannten Objektes, das eine Zeitfol-
ge Uk von K Werten ist, kann als eine Entwicklung der Einträge der Systemfunktion Gkn
wie folgt ausgedrückt werden:
Ukmeasured = ∑ Gkn ⋅ Cn . (11.1)
n
Wenn die Cn so bestimmt werden können, dass die rechte Seite die gemessenen Werte
widerspiegelt, wurde die unbekannte Verteilung von Cn Konzentrationen rekonstru-
iert. Technisch wird dies durch die Minimierung der folgenden Terme im Hinblick auf
Cn im Sinne der kleinsten Quadrate erreicht. Es wird also
2
measured
Uk − ∑ G ⋅ C n = min (11.2)
kn
n
bestimmt, was der Lösung eines Satzes linearer Gleichungen Ax = b durch die Inver-
sion von A zu x = A−1 b entspricht.
Abhängig von der Anzahl rekonstruierter Voxel kann das beschriebene mathe-
matische Problem überbestimmt sein, da Gkn aufgrund der großen Anzahl an Mes-
sungen, die während der Erfassung der Systemfunktion zusammengetragen wurden,
mehr Information als nötig enthält – normalerweise ist Gkn keine quadratische Ma-
trix. Die Aufgabe fällt in die Kategorie schlecht gestellter inverser Probleme, daher
ist die Inversion nicht unproblematisch, und es ist nicht sicher, dass ein numerisches
Verfahren auf die eine Lösung hin konvergiert, welche der Verteilung von Cn tatsäch-
lich ähnelt, da Gkn systematische Fehler und Rauschen enthält. Um die Konvergenz
zur gewünschten Lösung sicherzustellen, d. h., das numerische Problem zu stabilisie-
ren, kann die Tikhonov-Regularisierung durch die Hinzufügung eines zusätzlichen
Terms angewandt werden [Press 1992], also die erweiterte Aufgabe
2 2
measured
Uk − ∑ G ⋅ C + 𝜆2 ∑ 𝛤kn ⋅ Cn = min (11.3)
n
kn n
n
11 Magnetic Particle Imaging | 437
formuliert werden. Die übliche Wahl für 𝛤 ist die Identitätsmatrix, die zu einer Lö-
sung führt, die im Sinne der Norm von Cn minimal ist und sich so in diesem Fall mit
einer Lösung mit der kleinstmöglichen Gesamtkonzentration deckt. Die Tikhonov-
Regularisierung (vgl. Kap. 10.6) und vor allem die Wahl der Identitätsmatrix für 𝛤
wird manchmal im Sinne von Bayes verstanden, indem argumentiert wird, dass sie die
Konvergenz hin zu der wahrscheinlichsten Lösung sicherstellt, vorausgesetzt, dass
die in Gkn enthaltenen Fehler und der reale Messvorgang bestimmten statistischen
Regeln unterliegen. Um die Minimierung der letzten Gleichung und damit die Rekon-
struktion umzusetzen, wurden verschiedene Algorithmen wie das Konjugierten-Gra-
dienten-Verfahren sowie algebraische Rekonstruktionsmethoden vorgeschlagen und
analysiert, so beispielsweise in [Weizenecker 2009] und [Knopp 2009].¹
Quellenverzeichnis
Biederer S., Knopp T., Sattel T. F., Lüdtke-Buzug K., Gleich B., Weizenecker J., et al.: Magnetization
response spectroscopy of superparamagnetic nanoparticles for magnetic particle imaging.
Journal of Physics D: Applied Physics 2009; 42 (20): 1–7.
Biederer S., Sattel T. F., Knopp T., Lüdtke-Buzug K., Gleich B., Weizenecker J., et al.: A spectrometer
for magnetic particle imaging. Proc. 4th European Congress for Medical and Biomedical
Engineering. Springer IFMBE Series 2008; 22: 2313–2316.
Bohnert J., Gleich B., Weizenecker J., Borgert J., Dössel O.: Evaluation of induced current densities
and SAR in the human body by strong magnetic fields around 100 kHz. IFMBE Proceedings
2008; 2532–2535.
Bohnert J., Gleich B., Weizenecker J., Borgert J., Dössel O.: Optimizing coil currents for reduced SAR
in magnetic particle imaging. IFMBE Proceedings 2009; 249–252.
Bulte J. W. M., Gleich B., Weizenecker J., Bernard S., Walczak P., Markov D. E., et al.: Developing
cellular MPI: Initial Experience. ISMRM, Proceedings of the International Society for Magnetic
Resonance in Medicine 2008; 16: 1675.
Ferguson M. R., Minard K., Krishnan K. M.: Optimization of nanoparticle core size for magnetic
particle imaging; Journal of Magnetism and Magnetic Materials 2009; 10: 1548–1551.
Gleich B., Weizenecker J., Borgert J.: Experimental results on fast 2D-encoded magnetic particle
imaging. Phys Med Biol 2008; 53: N81–N84.
Gleich B., Weizenecker J.: Tomographic imaging using the nonlinear response of magnetic particles.
Nature 2005; 435: 1214–1217.
Gleich B.: German Patent No. DE-10151778-A1, 2001.
1 Danksagung: Die Autoren danken Sven Biederer, Maren Bobek, Claas Bontus, Marlitt Erbe, Jürgen
Kanzenbach, Tobias Knopp, Michael Kuhn, Kerstin Lüdtke-Buzug, Jürgen Rahmer, Timo Sattel, Ingo
Schmale, Joachim D. Schmidt, Jürgen Weizenecker und Oliver Woywode für wichtige Gespräche und
Hinweise. Die Autoren danken insbesondere für die finanzielle Unterstützung durch das Bundesmi-
nisterium für Bildung und Forschung (BMBF-Förderkennzeichen: 01EZ0912, 13N11086, 13N11090 In-
novationswettbewerb Medizintechnik), der Europäischen Union sowie dem Land Schleswig-Holstein
(Zukunftsprogramm Wirtschaft Förderkennzeichen: 122-10-004).
438 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert
Goodwill P., Lee G. C., Scott G., Stang P., Conolly S.: Direct imaging of ferumoxides using magnetic
particle imaging: sensitivity, and instrument construction. Proceedings 17th Scientific Meeting,
International Society for Magnetic Resonance in Medicine 2009; 1217: 3153.
Goodwill P., Scott C., Stang P., Conolly S.: Narrowband magnetic particle imaging. IEEE Transactions
on Medical Imaging 2009; 28 (8): 1231–1237.
Goodwill P., Scott G., Stang P., Lee G. C., Morris D., Conolly S.: Direct imaging of SPIOs in mice using
magnetic particle imaging: instrument construction and 3D imaging. Proceedings 17th
Scientific Meeting, International Society for Magnetic Resonance in Medicine 2009; 1217: 3153.
Knopp T., Biederer S., Sattel TF., Weizenecker J., Gleich B., Borgert J., Buzug T. M.: Trajectory analysis
for magnetic particle imaging. Phys Med Biol 2009; 54 (2): 385–397.
Knopp T., Sattel T. F., Biederer S., Rahmer J., Weizenecker J., Gleich B., Borgert J., Buzug T. M.:
Model-based reconstruction for magnetic particle imaging. IEEE Trans Med Imag 2010; 29 (1):
12–18.
Knopp T., Sattel T. F., Biederer S., Weizenecker J., Gleich B., Borgert J., Buzug T. M.: 2D model-based
reconstruction for magnetic particle imaging. Medical Physics 2010; 37: 485–491.
Lüdtke-Buzug K., Biederer S., Sattel T. F., Knopp T., Buzug T. M.: Particle-size distribution of dextran-
and carboxydextan-coated superparamagnetic nanoparticles for magnetic particle imaging.
World Congress on Medical Physics and Biomedical Engineering, Springer IFMBE Series 2009;
25/VIII: 226–229.
Markov D. E., Haex N. P. M., van Zanten J., Grull H., Boeve H. M. B.: Magnetic particle imaging:
quantitative assessment of tracer performance. 7th Int. Conf. on the Scientific and Clinical
Applications of Magnetic Carriers, Vancouver 2008.
Moreland J., Eckstein J., Lin Y., Liou S.-H., Ruggiero S.: Magnetic particle imaging with a cantilever
torque magnetometer; 2007 APS March Meeting,
meetings.aps.org/Meeting/MAR07/Event/62054, 2007, abstract #U38.010. Zugriff:
19.06.2012.
Press W., Teukolsky S., Saul W., Flannery B.: Numerical recepies in C: the art of scientific computing.
Cambridge, New York: Cambridge University Press, 1992.
Sattel T. F., Knopp T., Biederer S., Gleich B., Weizenecker J., Borgert J., Buzug T. M.: Single-sided
device for magnetic particle imaging. Journal of Physics D: Applied Physics 2009; 42 (2): 1–5.
Waever J. B., Rauwerdink A. M., Sullivan C. R., Baker I.: Signal dependence on frequency in magnetic
particle imaging. Med Phys 2007; 34 (6): 2361.
Weaver J. B., Hansen E. W., Rauwerdink A. M.: Estimating temperature from the magnetic
nanoparticle magnetization. Med Phys 2008; 35 (6): 2907–2908.
Weaver J. B., Rauwerdink A. M., Sullivan C. R., Baker I.: Frequency distribution of the nanoparticle
magnetization in the presence of a static as well as a harmonic magnetic field. Med Phys 2008;
35 (5): 1988–1995.
Weaver J. B., Rauwerdink A. M.: An alternative spatial encoding method for magnetic nanoparticle
imaging. Med Phys 2008; 35 (6): 2642.
Weizenecker J., Borgert J., Gleich B.: A simulation study on the resolution and sensitivity of magnetic
particle imaging. Phys Med Biol 2007; 52: 6363–6374.
Weizenecker J., Gleich B., Borgert J.: Magnetic particle imaging using a field free line. J Phys D: Appl
Phys 2008; 41: 105009.
Weizenecker J., Gleich B., Dahnke H., Rahmer J., Borgert J.: Three-dimensional real-time in vivo
magnetic particle imaging. Phys Med Biol 2009; 54: L1–L10.
11 Magnetic Particle Imaging | 439
Testfragen
1. Skizzieren Sie eine typische Magnetisierungskurve von magnetischen Nanopartikeln.
2. Wozu wird ein „feldfreier Punkt“ benötigt und wie wird er erzeugt?
3. Wozu benötigt man ein „Modulationsfeld“ und wozu benötigt man ein „Anregungsfeld“ (drive
field)? Warum kann man auf das Modulationsfeld auch verzichten?
4. Welche Trajektorien des feldfreien Punktes sind vorteilhaft?
5. Wie erreicht man eine quantitative Darstellung der Konzentration von Nanopartikeln? Was ist die
Systemfunktion und wie kann man sie bestimmen?
Olaf Dössel
12 Impedanztomographie
Zusammenfassung: Der Körper des Menschen ist eine Leiter für elektrischen Strom. Je-
der Gewebetyp hat eine etwas andere Leitfähigkeit. Auch unterscheidet sich die Leit-
fähigkeit von gesundem und krankem Gewebe oft. Daraus resultiert die Motivation,
Bilder der Impedanz vom Körper zu erstellen. Die elektrische Impedanz von Körper-
gewebe und deren Frequenzabhängigkeit wird vorgestellt. Mit welchen Messverfahren
und Messsystemen arbeitet man bei der Impedanztomographie und was sind die wich-
tigsten Rekonstruktionsalgorithmen? Neuerdings werden auch alternative Verfahren
wie z. B. induktive Messsysteme untersucht. Das Kapitel endet mit den wichtigsten
Anwendungen der Impedanztomographie in der Medizin.
Abstract: The human body is a conductor for electric currents. Every type of tissue
has its own conductivity, and healthy tissue often shows different conductivities
from diseased tissue. Consequently depicting images of the electrical impedance of
the body can be used for diagnosis. Here, the electrical impedance of tissue and its
frequency dependence are presented. What methods and systems are employed to
measure in impedance tomography, and what are the most important reconstruction
algorithms? Lately, alternative techniques such as inductive measuring systems are
also being investigated. Finally the most important applications of impedance tomo-
graphy in medicine are shown in this chapter.
442 | Olaf Dössel
Dispersion: bezogen auf die Impedanz die charakteristische Änderung der Impedanz von Gewebe
als Funktion der Frequenz.
20
R∞ R0
Im(Z) in kΩ
Rm Cm 0
Ri Re 2 Hz
–20
Rm Cm 200 Hz 20 Hz
0 20 40 60 80 100
Abb. 12.1: Schematisches Bild der Zellen mit einem vereinfachten Ersatzschaltbild von Körpergewe-
be (a) und eine typische Ortskurve (b).
12 Impedanztomographie | 443
1,E+02
1,E+01
γ-Dispersion
elektrische Leitfähigkeit in S/m
1,E+00
1,E–01
Spongiosa
1,E–02 Gehirn-Rückenmark-
β-Dispersion
Flüssigkeit
graue Substanz
1,E–03 Muskel
Rückenmarknerven
(Spinalnerven)
1,E–04
Haut (trocken)
1,E–05
1,E+01 1,E+02 1,E+03 1,E+04 1,E+05 1,E+06 1,E+07 1,E+08 1,E+09 1,E+10 1,E+11
(a) Frequenz in Hz
1E+08
Spongiosa
1E+07 Gehirn-Rückenmark-
Flüssigkeit
1E+06 Muskel
Rückenmarknerven
relative Permittivität
(Spinalnerven)
1E+05
Haut (trocken)
Fettgewebe (infiltiriert)
1E+04
1E+03
γ-Dispersion
1E+02
β-Dispersion
1E+01
1E+00
1E+01 1E+02 1E+03 1E+04 1E+05 1E+06 1E+07 1E+08 1E+09 1E+10 1E+11
(b) Frequenz in Hz
Abb. 12.2: Leitfähigkeit (a) und Dielektrizitätskonstante (b) einiger ausgewählter Körpergewebear-
ten über der Messfrequenz [Gabriel & Gabriel 1996].
444 | Olaf Dössel
Impedanztomographie: Messung und Darstellung von Bildern der elektrischen Impedanz des Kör-
pers.
Es ist naheliegend, dass erkranktes Gewebe eine andere Impedanz aufweisen wird als
gesundes Gewebe. Explizit nachgewiesen wurde dies bereits für Tumorgewebe z. B.
in der Mamma (weibliche Brust), für ischämisches Gewebe und für Lungengewebe,
welches nicht bei der Atmung belüftet wird. Dies ist die Motivation für die Impedanz-
tomographie (Electrical Impedance Tomography, EIT), deren Ziel es ist, Bilder der Im-
pedanz vom Körper zu erzeugen, um damit die Diagnose von krankhaften Gewebever-
änderungen zu unterstützen [Holder 2004].
DAC Konstantstrom
ADC Spannung
MUX
Objekt
Computer Monitor
Lock-in-Verstärker: Messtechnik, bei der der Verstärker nur eine Frequenz (sehr schmalbandig)
verstärkt und Signale mit anderen Frequenzen effektiv unterdrückt. In einer erweiterten Variante
kann auch die Phasenlage des Wechselsignals, das verstärkt werden soll, festgelegt werden.
Für die Stromeinspeisung gibt es zwei Strategien: Man kann den Strom über ge-
genüberliegende oder über benachbarte Elektroden einspeisen (natürlich sind auch
noch viele andere Varianten vorstellbar). Am verbreitetsten ist die Einspeisung über
benachbarte Elektroden. Betrachtet man alle möglichen Stromeinspeisungen und
Spannungsmessungen, so stellt man fest, dass nicht alle Messungen linear unabhän-
gig sind: Nach dem Reziprozitätstheorem muss sich das gleiche Ergebnis herausstel-
len, wenn man Stromeinspeisungselektroden und Spannungsmessungselektroden
vertauscht. So erhält man bei 16 Elektroden jeweils 13 und nach einem „Umlauf“
insgesamt 208 Spannungsmessungen, davon sind 104 linear unabhängig. Bei einer
Frequenz von z. B. 100 kHz kann man jede einzelne Messung gut in 1 ms abschließen,
so dass die 208 Messungen in ca. 0,2 Sekunden beendet sind. Damit ist es möglich,
auch relativ schnelle dynamische Vorgänge zu beobachten.
Ein Impedanztomographie-System dieser Art ist sehr preiswert, klein und mobil.
Es kann auch am Krankenbett für ein kontinuierliches Monitoring eingesetzt werden.
446 | Olaf Dössel
12.3 Bildrekonstruktion
12.3.1 Äquipotentiallinien im homogenen Zylinder
12.3.2 Rückprojektion
0,5
–0,5
–1
–1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1
0,5
–0,5
–1
–1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1
Abb. 12.4: Potentialverteilung im homogenen Zylinder bei Stromeinspeisung über benachbarte oder
gegenüberliegende Elektroden.
Rückprojektion: Rekonstruktionsmethode von Bildern aus Messdaten. Dabei werden eventuell ge-
filterte Messwerte in ein bestimmtes Gebiet des Bildes eingeschrieben.
Vr
rr
P
ter, mit dem die Daten schon vor dem Zurückprojizieren so modifiziert werden können,
dass man eine mathematisch einwandfreie Lösung erhält. Weiterhin geht das Verfah-
ren von einem kreisförmigen Umfang des Patienten aus, was in der Regel nicht zutrifft.
Schließlich wird bei diesem Verfahren von einem 2D-Objekt ausgegangen, aber weder
der Körper des Patienten noch die angebrachten Elektroden sind 2D-Objekte. Trotz-
dem liefert das Verfahren erstaunlich gute Bilder und ist einfach und schnell.
Die Methode lässt sich auch auf andere relative Messgrößen anwenden. Beispiels-
weise kann man die Messwerte im eingeatmeten Zustand von den Messwerten im aus-
geatmeten Zustand abziehen und normieren:
(Veingeatmet − Vausgeatmet )
Vr = (12.6)
Veingeatmet
So erhält man Bilder der Impedanzänderung durch das Atmen („dynamic imaging“).
Schließlich können die Werte bei einer Messfrequenz von den Wertenbei einer ande-
ren Messfrequenz abgezogen und normiert werden:
(VFrequenz1 − VFrequenz2 )
Vr = (12.7)
VFrequenz1
So erhält man Bilder der „Dispersion“ der Impedanz (siehe Kap. 12.1).
Mathematisch einwandfrei ist eine Methode, bei welcher der Körper in sehr viele klei-
ne Volumenelemente (würfelförmig oder tetraederförmig) aufgeteilt wird und die Leit-
fähigkeiten in allen Volumenelementen so lange verändert werden, bis die Messdaten
zu den berechneten Daten passen. Das funktioniert aber leider nicht so einfach, da
12 Impedanztomographie | 449
man für eine halbwegs gute Ortsauflösung einige tausend Volumenelemente in den
Körper legen muss. Man hat aber nur 104 linear unabhängige Messwerte (bei 16 Elek-
troden). Außerdem ist das Problem „schlecht gestellt“: Kleine Messungenauigkeiten
verursachen insbesondere im Inneren des Körpers große Fehler bei den rekonstruier-
ten Leitfähigkeiten. Schließlich benötigt man sehr lange Rechenzeiten, da jede Hy-
pothese für eine Leitfähigkeitsverteilung eine neue Lösung mithilfe der numerischen
Feldtheorie erfordert.
Das Abbildungsproblem ist nicht linear und nicht verschiebungsinvariant (vgl.
Kap. 21, Systemtheorie). Eine Änderung der Leitfähigkeit in einem Volumenelement
wirkt sich nicht linear auf die Potentialverteilung aus und die Änderung hängt stark
vom Ort der Leitfähigkeitsänderung ab. Geht man von kleinen Änderungen der Leit-
fähigkeit um den „normalen“ Wert herum aus, so kann man das Problem näherungs-
weise linearisieren (Taylor-Entwicklung). So erhält man eine Abbildungsmatrix A,
die von den Änderungen der Leitfähigkeiten x zu den Änderungen der gemessenen
Spannungen b führt.
A⋅x=b (12.8)
Der für eine Impedanzmessung notwendige Messstrom kann auch über Spulen, die
mit hochfrequenten Strömen angesteuert werden, erzeugt werden. Das dabei entste-
hende sich schnell ändernde Magnetfeld bewirkt Wirbelströme im Körper des Patien-
ten. Die durch diese Wirbelströme verursachten Spannungen an der Körperoberfläche
können dann gemessen werden (Induced Current Electrical Impedance Tomography,
ICEIT). Ebenso ist es möglich, mit weiteren Spulenanordnungen das von den Wirbel-
strömen im Körper erzeugte Magnetfeld auszumessen (Magnetic Induction Tomogra-
phy, MIT). Diese Messspulen müssen durch geschickte Gradiometerschaltungen un-
empfindlich gegenüber dem anregenden Magnetfeld gemacht werden [Gürsoy 2011].
Der Vorteil: Das Anbringen von Elektroden an den Körper entfällt und es sind andere
Strommuster möglich als mit der Stromeinspeisung durch Elektroden.
kann nur die Leitfähigkeit bei der Larmorfrequenz des verwendeten Tomographen be-
stimmt werden; das sind z. B. bei einem 1T-System 42,6 MHz.
Schlagvolumen: Blutvolumen, das bei jedem Herzschlag aus dem Herz in den Blutkreislauf ge-
pumpt wird.
Quellenverzeichnis
Assenheimer M., et al.: The T-scan technology: electrical impedance as a diagnostic tool for breast
cancer detection. Phys Meas 2001; 22 (1): 1–8.
Barber D. C., Brown B. H.: Applied Potential Tomography APT. J Phys E: Sci Instrum 1984; 17 (9):
723–733.
Cheney M., Isaacson D., Newell J. C.: Electrical Impedance Tomography. SIAM Review 1999; 41:
85–101.
Gabriel S., Lau R. W., Gabriel C.: The dielectric properties of biological tissues. Phys Med Biol 1996;
41: 2251–2269.
Gürsoy D., Mamatjan Y., Adler A., Scharfetter H.: Enhancing impedance imaging through multimodal
tomography. IEEE Trans Biomed Eng 2011; 58 (11): 3215–3224.
Katscher U., Voigt T., Findeklee C., Vernickel P., Nehrke K., Dössel O.: Determination of electrical
conductivity ans local SAR via B1 mapping. IEEE Trans Medical Imaging 2009; 28 (9): 1365–1374.
Lee C. O., Jeon K., Ahn S., Kim H. J., Woo E. J.: Ramp-preserving denoising for conductivity image
reconstruction in Magnetic Resonance Electrical Impedance Tomography. IEEE Trans Biomed
Eng 2011; 58 (7): 2038–2050.
Nissinen A., Kolehmainen V. P., Kaipio J. P.: Compensation of modelling errors due to unknown
domain boundary in electrical impedance tomography. IEEE Trans Med Imaging 2011; 30:
231–242.
Teschner E., Imhoff M.: Elektrische Impedanztomographie: von der Idee zur Anwendung des
regionalen Beatmungsmonitoring. Lübeck: Dräger Medical GmbH, 2011.
Vonk-Nordegraaf A., et al.: Determination of stroke volume by means of electrical impedance
tomography. Physiol Meas 2000; 21: 285–293.
Weiterführende Literatur
Holder D. S.: Electrical Impedance Tomography: Methods, History and Applications. London: Taylor
& Francis Physics, 2004
Eine Web-Seite mit vielen Beschreibungen und eine Liste der Forschungsprojekte und EIT-Systeme
findet man unter: www.eit.org.uk.
12 Impedanztomographie | 453
Testfragen
1. Skizzieren Sie qualitativ die Ortskurve der Impedanz von Körpergewebe und erklären Sie den
Verlauf.
2. Was versteht man unter der Beta-Dispersion? In welchem Frequenzbereich liegt sie?
3. Welche Strategien für die Stromeinspeisung und die Spannungsmessung für die Impedanztomo-
graphie kennen Sie (zwei Beispiele)?
4. Was versteht man unter einem Lock-in-Verstärker? Worin besteht der Vorteil?
5. Skizzieren Sie die Potentialverteilung bei einer Messung für die Impedanztomographie in einem
Zylinder mit homogener Leitfähigkeit.
6. Erläutern Sie die Bildrekonstruktion bei der Impedanztomographie, die den Namen „Rückpro-
jektion“ trägt.
7. Beschreiben Sie ein induktives Messsystem für die Impedanztomographie. Welchen Vorteil ver-
spricht man sich von induktiven Messsystemen?
Thomas Wittenberg
13 Endoskopie
13.1 Einführung
Der Begriff „𝜀𝜈𝛿o𝜎𝜅ó𝜋𝜂𝜎𝜂“ entstammt dem Griechischen und bedeutet wörtlich über-
setzt „hineinsehen“. Geprägt wurde dieses Wort von dem Französischen Urologen An-
tonin Jean Desormeaux (1815. . . 1894), der den Begriff der „l’endoscopie“ am 20. Juli
1853 erstmalig bei der Vorstellung eines solchen Gerätes vor der Französischen Akade-
mie der Wissenschaften verwendete. Um Gewebe und Organe des Körperinneren mit
optischen Mitteln (im Gegensatz zu radiologischen Modalitäten) zu betrachten, wird
bei der Endoskopie entweder ein starres Rohr oder ein semistarrer Schlauch durch
natürliche Körperöffnungen (wie Mund, Nase oder Anus) oder durch kleine Schnitte
(beispielsweise auf der Bauchdecke für die Laparoskopie) in den Körper eingeführt.
Über dieses Rohr oder diesen Schlauch wird Licht in den Körper hinein projiziert, eine
optische Abbildung des untersuchten Gewebes oder Organs aus dem Körper erzeugt
und nach außen übertragen. Zur Beleuchtung der Hohlräume im Körperinneren wer-
den seit Mitte des 20. Jahrhunderts weitestgehend Glasfaserbündel verwendet, mit-
tels derer das Licht von einer extern stehenden sogenannte „Kaltlichtquelle“ in den
Körper hineingeleitet wird. Das im Körper erfasste Bild wird am distalen (dem Benut-
zer abgewandten) Ende des Endoskops über eine Objektivlinse erfasst und nach au-
ßen transportiert. Dieser Transport eines Bildes aus dem Körperinneren zurück in die
Außenwelt kann unterschiedlich realisiert werden. Bis heute haben sich dazu unter-
schiedliche Varianten etabliert, durch die auch die gängigen Typen von Endoskopen
geprägt werden [Litynski 1996]:
– starre optische Endoskope: optische Übertragung der Bildinformation über ein
System von sogenannte „Stablinsen“ (s. Kap. 13.3),
– flexible Faserendoskope: optische Übertragung der Bildinformation über ein ko-
härentes Bündel von Glasfasern (s. Kap. 13.4),
– flexible Videoendoskope: kabelgebundene elektronische Übertragung der von
einem Bildsensor erfassten Information (s. Kap. 13.5) durch den Schlauch eines
flexibles Endoskops,
– Kapselendoskopie: kabellose elektronische Übermittelung der von einem Bild-
sensor erfassten Bildinformation über Funk an einen Satz von Empfängeranten-
nen (s. Kap. 13.6.).
Während die ersten beiden Bauarten von Endoskopen eine rein optische Übertragung
von Bildern aus dem Körperinneren realisieren, sind die letztgenannten eng verwoben
mit elektronischen Bildsensoren, die direkt in das Endoskop eingebaut sind. Aller-
dings sind die überwiegende Anzahl der heute in der klinischen Routine verwendeten
optisch übertragenden Endoskope zusätzlich mit externen (am proximalen, dem Be-
nutzer zugewandten Ende der Endoskope montierten) Kamerasystemen ausgestattet,
deren Bilddaten auf einen oder mehrere Monitore übertragen und dargestellt werden.
Diese technologische Ergänzung erlaubt nicht nur ein ergonomischeres Arbeiten des
Endoskopikers, da das Auge nicht mehr an das Okular des Endoskops gehalten wer-
13 Endoskopie | 457
den muss, sondern unterstützt gleichermaßen die Betrachtung und Interpretation der
übertragenen Szene durch mehrere Beobachter. Zudem kann die Untersuchung bzw.
Intervention aufgezeichnet und damit dokumentiert werden.
Eng verbunden mit den drei erstgenannten Typen von Endoskopen sind auch die
Möglichkeiten, über die in den Endoskopschaft oder Endoskopschlauch integrierten
Arbeitskanäle starre oder biegsame Instrumente in das Körperinnere einzuführen, um
damit Biopsie-Proben von suspektem Gewebe für eine erweiterte Diagnostik zu ent-
nehmen. Gleichermaßen sind mit solchen Instrumenten auch therapeutische Eingriffe
möglich, z. B. eine Koagulation (Blutstillung) von Gewebe, eine Absaugung von Flüs-
sigkeiten, Laserbehandlungen, Unterspritzung von Gewebe zur besseren Betrachtung
oder eine schlingenbasierte Entfernung von Polypen. Speziell für die sogenannte mi-
nimalinvasive Chirurgie (MIC, auch als „Schlüssellochchirurgie“ bezeichnet) bil-
det die Endoskopie sowohl für die Bildgebung als auch für die schonende Intervention
ein unverzichtbares Werkzeug. Prominente Beispiele für MIC-Eingriffe unter Zuhilfe-
nahme starrer Endoskope sind die Laparoskopie (Eingriffe im Bauchraum), die robo-
tergestützte Prostatektomie (Entfernung der Prostata) oder transnasale Eingriffe an
der Hypophysendrüse.
Endoskopie: visuelle Untersuchung von Hohlorganen und Körperhohlräumen durch starre oder
schlauchartige optische Geräte (Endoskope) zwecks Diagnose und Intervention.
(a) (b)
(c)
Abb. 13.1: (a) Erstes starres medizinisches Endoskop (1807) mit verschiedenen Spekula (den Körper-
öffnungen entsprechend), konstruiert von Philipp Bozzini; (b) Philipp Bozzini (1773–1809); (c) Be-
leuchtungsprinzip von Bozzinis „Lichtleiter“ bestehend aus einem Beleuchtungsapparat, einer
Wachskerze und einem Konkavspiegel.
13 Endoskopie | 459
Basierend auf der Erfindung der Glühbirne in 1879 durch Thomas Alva Edison
entwickelten der in Berlin gebürtige Arzt Maximilian Nitze (1848. . . 1906) zusammen
mit dem Wiener Instrumentenbauer Josef Leiter (1830. . . 1892) ein erstes starres En-
doskop. Dieses Instrument besaß eine am distalen Ende integrierte elektrische Licht-
quelle in Form eines Platindrahtes sowie ein Multi-Linsensystem zur optischen Über-
tragung des erfassten Bildes [Nitze 1879]. Allerdings war die in den Körper eingeführte
Lichtquelle mit einer hohen Hitzeentwicklung verbunden, so dass in das Endoskop
eine Wasserzirkulation zur Kühlung eingebaut war. Die Experimente von Nitze wa-
ren überwiegend im Bereich der Urologie angesiedelt, wurden aber von interessierten
Kollegen bald auf diagnostische Fragestellungen an anderen Organen wie Kehlkopf,
Enddarm oder Speiseröhre übertragen.
Objekt O
ca. 70° in
Wasser
O₁ O₂ O₃
(b)
Abb. 13.2: Prinzip der Bildübertragung in einem starren Endoskop mittels dünner Linsen (a) und mit
Stablinsen (b).
Videokamera
Greifer
Licht-
quelle
CO2
Laparoskop
5 mm
Trokar 10 mm Trokar
Abb. 13.3: Prinzip eines laparoskopischen Eingriffs. (a) Schematische Darstellung einer Laparosko-
pie. (b) Der Chirurg betätigt langstielige chirurgische Instrumente zur Manipulation des Gewebes im
Körperinneren, die durch Trokare in den Bauchraum geschoben werden, und beobachtet dabei das
Bild aus dem Bauchraum (c), das über eine Kamera am Ende des Laparoskops aufgenommen und
auf einen Monitor übertragen wird.
Laparoskopie: endoskopische Untersuchung und Behandlung der Bauchhöhle und der darin ent-
haltenen Organe mithilfe eines Laparoskops.
gelangt (s. dazu auch Kap. 13.4). Als Lichtquellen werden überwiegend Halogen-
und Xenon-Hochdrucklampen eingesetzt, neuerdings werden auch sehr lichtstarke
Leuchtdioden (Light Emitting Diodes, LEDs) verwendet. Eine moderne Alternative da-
zu bilden LEDs, die direkt an der Spitze des Endoskops befestigt sind und mit in den
Körper geschoben werden.
Zusammenfassend lassen sich starre Endoskope im Wesentlichen durch folgende
Parameter charakterisieren:
– Außendurchmesser
– Nutzlänge
– Blickrichtung
– Blickwinkel
– integrierter Arbeitskanal
– Bildweiterleitungssystem
– Anzahl und Art der Lichtleitfasern
Glasfaser: optischer Übertragungsleiter (auch Lichtwellenleiter genannt) aus einem dünnen, bieg-
samen Glasfaden mit hoher Lichtbrechung, ummantelt mit einem schwachen lichtbrechenden Ma-
terial.
13 Endoskopie | 463
Beschichtung
Mantel
n₂
θ
n₁
Kern
Abb. 13.4: Prinzip der Lichtleitung in einer Glasfaser. Die wichtigsten Eigenschaften zur Charakteri-
sierung von Glasfasern sind deren Durchmesser, die numerische Apertur (NA) und die Transmission
[Winter 2008].
Für optische Bildbündel werden Glasfasern mit Durchmessern von 6. . .15 μm verwen-
det, wobei die Ummantelung eine minimale Wandstärke von 2 μm aufweisen sollte.
Die Effizienz der Lichtübertragung kann durch Vergrößerung des Kernradius gestei-
gert werden, wirkt sich aber nachteilig auf die Biegsamkeit des Faserbündels aus.
Die numerische Apertur einer Glasfaser wird mit NA = n0 sin 𝜃 = (n21 − n22 )1/2
angegeben, wobei n1 und n2 die Brechungsindizes von Faserkern und -mantel und
n0 die Brechungszahl des Umgebungsmediums bezeichnen. Der Winkel 𝜃 wird auch
als Akzeptanzwinkel bezeichnet; das ist der maximale Winkel, unter dem Licht auf
das polierte Ende der Glasfaser treffen kann, um im Faserkern mittels Totalreflexion
propagiert zu werden. Alle Strahlen, die unter einem größeren Winkel auf das Fase-
rende treffen, können nicht durch die Glasfaser weitergeleitet werden und verlassen
den Kern. Typische Werte für die Brechungsindizes für Fasern aus Quarzglas sind z. B.
n1 = 1,475; n2 = 1,460; NA = 0,098; 𝜃 = 12°.
Die spektrale Transmission T(𝜆) einer Glasfaser beschreibt den Intensitätsverlust
eines Lichtstrahls (Lichtschwächung) mit der Wellenlänge 𝜆, ist abhängig von den
Absorbtionsverlusten im Faserkern und wird weiter bestimmt durch die nichtideale
Totalreflexion zwischen Faserkern und -mantel sowie durch Verluste beim Ein- und
Auskoppeln des Lichtes am Faserein- und -ausgang [Winter 2008].
Die Glasfasern werden zum Transport des Lichtes bzw. des Bildes zu Faserbündeln
zusammengefasst. Flexible Faserendoskope besitzen zwei Arten von Faserbündeln:
eines, um Licht von einer extern stehenden Lichtquelle in das Körperinnere hinein-
zuleiten, und ein weiteres Faserbündel, um das am distalen Ende durch eine Objek-
tivlinse aufgenommene Bild aus dem Inneren des Körpers an ein Okular (und ggf. an
eine daran angeschlossene Kamera) herauszuleiten. Die Fasern zum Einkoppeln des
Lichtes werden auch als „Lichtleiter“ bezeichnet und werden i. d. R. durch ein unge-
ordnetes Faserbündel realisiert. Lichtleiterbündel besitzen ca. 5000. . .10 000 Licht-
leitfasern mit einem Durchmesser von ca. 20. . .30 μm. Im Gegensatz dazu muss das
Faserbündel zum Transport des Bildes aus dem Körper heraus als kohärentes Faser-
464 | Thomas Wittenberg
bündel realisiert werden (dem sogenannten „Bildleiter“), damit die erfasste räumliche
Information des Bildes entlang des Übertragungsweges erhalten bleibt (Abb. 13.5).
Bildleiterbündel können aus bis zu 100 000 Fasern mit einem Durchmessern zwischen
5 und 15 μm bestehen.
Flexible Faserendoskope bestehen aus einer beweglichen Spitze, einem flexiblen
Schlauch/Schaft sowie einem Handgriff. Die starre Endoskopspitze mit der darin ent-
haltenen Objektivlinse besitzt eine Länge von ca. 25. . .30 mm und kann vom Hand-
griff aus mittels im Endoskopieschaft laufender Bowdenzüge abgewinkelt werden. Je
nach Ausführung besitzen flexible Faserendoskope entweder ein Paar Bowdenzüge
(Abwinkelung der Spitze in einer Ebene) oder zwei Paare von Bowdenzügen (Abwinke-
lung in zwei Ebenen). Je nach Steifigkeit und Bauform des Endoskops kann die Spitze
zwischen 90° und 180° (retrograder Blick, „Inversum“) mechanisch abgewinkelt wer-
den.
Wird ein Fiberskop in einen röhrenartigen Hohlraum wie z. B. in die Lunge oder
transnasal bis zum Kehlkopf eingeführt, ergeben sich damit bis zu vier Freiheitsgrade
für den Endoskopiker, das Instrument in den Hohlräumen zu bewegen und zum Si-
tus zu navigieren: Schieben und Ziehen entlang der Hauptachse des Endoskops, eine
vollständige (360°) Rotation um diese Hauptachse sowie die Abwinkelung der Endo-
skopspitze nach rechts und links bzw. oben und unten mittels der Bowdenzüge.
Typische Anwendungsgebiete für Fiberskope sind die Untersuchung des Nasen-
Rachenraums in der HNO-Heilkunde und Phoniatrie, bei der das Endoskop transna-
sal bis oberhalb des Kehlkopfs vorgeschoben wird, sowie die Bronchoskopie, d. h.
die Untersuchung der Lunge und Bronchien im Kontext einer Lungenuntersuchung
und in der Anästhesiologie. In jüngster Zeit lassen sich auch Gallen- und Pankreas-
gänge mittels sehr dünner faseroptischer Endoskopiesysteme untersuchen. Im Falle
der Pankreatiskoskopie wird ein Faserendoskop durch den Arbeitskanal eines gastro-
skopischen Videoendoskops (vgl. Kap. 13.5) geschoben, um von dort aus in den we-
sentlich dünneren Pankreasgang eingeführt zu werden (sogenannte „Mutter-Toch-
ter-Endoskopie“).
Zusammenfassend lassen sich Fiberskope im Wesentlichen durch folgende Para-
meter charakterisieren:
– Außendurchmesser
– Arbeitslänge
– Arbeitskanal
– Abwinkelebenen
13 Endoskopie | 465
– Abwinkelbereich
– Blickwinkel
– Anzahl und Art der Lichtleitfasern
– Anzahl und Art der Bildleitfasern
13.5 Videoendoskope
Videoendoskope sind eine Weiterentwicklung der flexiblen Faserendoskope, bei
denen die optische Übertragungsstrecke anstatt über Glasfasern durch eine elek-
tronische Übertragung ersetzt wird (Abb. 13.6). In diesem Fall wird das von
einer Objektivlinse am distalen Ende erfasste Bild auf einen elektronischen CCD-
oder CMOS-Bildsensor abgebildet und dann kabelgebunden an ein elektronisches
Aufzeichnungs- und Wiedergabesystem übertragen. Mittels CCD- oder CMOS-Bildsen-
soren wird das einfallende Licht durch einer Matrix von Sensorelementen (Bildpunk-
ten, Pixeln) erfasst. Die räumliche Auflösung des erfassten Bildes hängt sowohl von
der Objektivlinse als auch von der Bildauflösung des Bildsensors ab und liegt heute
je nach System und verwendeten Bildsensoren zwischen 480 × 576 (PAL) bis zu ca.
1920 × 1080 (HDTV) Bildpunkten. Die Aufnahmegeschwindigkeit von Videoendosko-
pen entspricht üblicherweise der des verwendeten Fernseh-/Videoformats, d. h. in
Europa (PAL/SECAM) 25 Voll- bzw. 50 Halbbilder pro Sekunde, in den USA (NTSC)
30 Voll- bzw. 60 Halbbilder (sogenannte Frames). Bei den traditionellen Videosys-
temen sind die Aufnahmen daher auch mit sogenannten „Interlacing-Artefakten“
verbunden, da die Halbbilder zeitlich versetzt aufgenommen, aber dann zusammen
angezeigt werden. Durch die Entwicklung volldigitaler elektronischer Sensorsysteme
werden alternativ auch sogenannte „progressive scans“ realisiert, d. h., das Bild wird
nicht – wie früher in der Fernsehtechnik üblich – in zwei zeitlich versetzte Halbbilder
aufgespalten, sondern jedes Bild wird direkt blockweise aufgezeichnet.
Gastroskopie: Untersuchung von Speiseröhre, Magen und Zwölffingerdarm mithilfe eines Gastro-
skops.
(a) (b)
Abb. 13.6: (a) Videoendoskopie am Beispiel der Gastroenteroskopie: Der Untersucher navigiert
mittels Bowdenzüge im Handstück die Spitze des Endoskops und unter visueller Kontrolle (Übertra-
gung der Szene vom Bildsensor am distalen Ende) zum Situs, hier eine Läsion (auffälliges Gewebe)
in der Speiseröhre (b).
13.6 Schluckkapselendoskope
Etwa seit Ende des zweiten Jahrtausends werden verschluckbare Einweg-Kame-
ras, die sogenannten „Pillcams“ oder „Kapselendoskope“, in der klinischen Routine
verwendet und seit 2010 auch von den Krankenkassen nicht nur als private Zusatzleis-
tung, sondern bei einer entsprechenden Indikation auch regulär abgerechnet. Diese
„Endoskopiekapseln“ sind Endoskope in Tablettengröße. Sie sind ca. 30. . . 40 mm
lang mit einem Durchmesser von 8. . .12 mm und beinhalten neben einem kleinen
Bildsensor und einigen LEDs auch Batterien mit einer Laufzeit von bis zu 8 Stunden
sowie einen Sender, der die Bilder ca. alle 250. . .500 ms auf einer Frequenz von ca.
434 MHz zu einem am Körper getragenen Antennensystem aus dem Körper heraus
sendet (Abb. 13.7). Die Bilder mit einer Auflösung von ca. 640 × 480 Bildpunkten
(VGA-Auflösung) werden von einem Antennensystem empfangen, das der Patient
auf Bauch und Rücken trägt, und auf einer am Gürtel getragenen Speichereinheit
13 Endoskopie | 467
optisches
Fenster
Linse
Antenne
Beleuchtungs- CMOS- Batterien Sender
LED Kamera
(a) (b)
Abb. 13.7: Schemazeichnung einer Endoskopkapsel (a) sowie ein damit erfasstes Bild (b). Das rech-
te Bild zeigt eine aktive Blutung aus dem Dünndarm rechts unten im Bild. Oben normale Dünndarm-
schleimhaut mit regelrechten Zotten. (Bildquelle PD Dr. Uwe Seitz, Kreiskrankenhaus Bergstraße,
Heppenheim).
archiviert. Eine exakte externe Navigation der Kapsel in Magen und Darm durch den
Endoskopiker ist aktuell nicht möglich; der Transport bzw. die Fortbewegung der Kap-
sel von Mund zu Anus geschieht ausschließlich durch die Peristaltik der Hohlorgane
(s. auch Chen und Lee, 2012).
Eingesetzt werden diese Endoskopiekapseln sowohl für die Untersuchung des
Dünndarms (Endoskopkapseln mit einer Kamera), der mit konventionellen Videoen-
doskopen nur schwer zugänglich ist, als auch in jüngster Zeit vermehrt im Dickdarm.
Wegen des größeren Lumens des Dickdarms werden dort auch Kapselendoskope mit
Kameras und LEDs an beiden Enden und mit einem größeren Durchmesser eingesetzt.
Für die Diagnostik werden die im Körperinneren erfassten und abgespeicherten
Bildsequenzen im Nachhinein von Experten an Rechnern mit einer Wiedergabe- und
Analysesoftware angesehen und auf mögliche Auffälligkeiten hin untersucht. Wird
eine Läsion, z. B. ein Polyp, in den Bildsequenzen gefunden, muss dieser allerdings
unter zu Hilfenahme eines Videoendoskops (s. Kap. 13.5) wiedergefunden und abge-
tragen werden.
Jüngste Forschungs- und Entwicklungstrends im Bereich der Kapselendoskopie
gehen in die Richtung von „steuerbaren“ Systemen, d. h., die Kapseln werden nicht
allein über die Peristaltik transportiert, sondern lassen sich aktiv von außen z. B. über
Magnete manuell (oder maschinell) steuern. Futuristische Szenarien beschreiben hier
auch Kapselendoskope mit steuerbaren Antrieben, unterschiedlichen Aktuatoren zur
Behandlung von Läsionen sowie kooperative „intelligente Kapselschwärme“.
Kapselendoskope lassen sich u. a. durch folgende Parameter charakterisieren:
– Außendurchmesser
– Länge
– Anzahl und Auflösung der Kameras
– Anzahl und Art der LEDs
468 | Thomas Wittenberg
Quellenverzeichnis
Chen Y., Lee J.: A Review of Machine-Vision-Based Analysis of Wireless Capsule Endoscopy Video.
Hindawi Publishing Corporation Diagnostic and Therapeutic Endoscopy Volume 2012, Article ID
418037, 9 pages doi:10.1155/2012/418037.
Covi D., Cavallotti C., Vatteroni M., Clementel L., Valdastri P., Menciassi A., Dario P., Sartoria A.:
Miniaturized digital camera system for disposable endoscopic applications. Sensors and
Actuators A 162 (2010) 291–296.
Halliday D., Resnick R.: Fundamentals of Physics, John Wiley & Sons, New York, 1991, 2nd Edition.
Liang R.: Optical Design for Biomedical Imaging, 2010.
Litynski G. S.: Highlights in the history of laparoscopy: the development of laparoscopic techniques
– a cumulative effort of internists, gynecologists, and surgeons. Frankfurt/Main: Barbara
Bernert Verlag, 1996.
Munz Y., Moorthy K., Dosis A., Hernandez J. D., Bann S., Bello F., et al.: The benefits of stereoscopic
vision in robotic-assisted performance on bench models. Surg Endosc 2004; 18: 611–616.
Nitze M.: Eine neue Beobachtungs- und Untersuchungsmethode für Harnröhre, Harnblase und
Rectum. Wiener Medizinische Wochenschrift 1879; 29: 24.
Reling J., Flögel H. H., Werschy M.: Technische Endoskopie: Grundlagen und Praxis endoskopischer
Untersuchungen. Renningen: Expert-Verlag, 2001.
Winter V.: Automatische Bildrestaurierung für faseroptische Systeme am Beispiel von Fiberskopen.
Dissertation, Univ. Erlangen. Stuttgart: Fraunhofer IRB-Verlag, 2008.
Weiterführende Literatur
Feußner H., Schneider A., Meining A.: Endoskopie, minimal-invasive Chirurgie und navigierte
Systeme. In: Wintermantel E., Suk-Woo H. (Hrsg.): Medizintechnik: Life Science Engineering.
Berlin, Heidelberg: Springer, 2009: 915–955.
Irion K. M., Leonhardt M.: Endoskopie. In: Kramme R. (Hrsg.): Medizintechnik. 5. Aufl. Berlin:
Springer, 2011: 379–401.
Testfragen
1. Skizzieren Sie die vier Übertragungsmöglichkeiten, um Bilddaten aus dem Inneren des Körpers
nach außen zu leiten.
2. Auf welchem Prinzip basiert die Lichtübertragung von Glasfasern?
3. Was versteht man unter einem Hopkins-Endoskop?
4. Was versteht man unter Chromoendoskopie?
5. Welche Rolle spielt die Endoskope bei der Schlüssellochchirurgie?
Julia Walther, Edmund Koch
14 Optische Kohärenztomographie
Weißlichtinterferometrie: Methode, die die Interferenz von Proben- und Referenzstrahl einer breit-
bandigen Lichtquelle mit entsprechend kurzer Kohärenzlänge ausnutzt, um Weglängenunter-
schiede zu detektieren.
Die wichtigste Anwendung der OCT im klinischen Alltag liegt in der Ophthalmologie
zur Diagnostik von Schäden an der Retina. Der Durchbruch, den die OCT in diesem
Bereich erlangte, ist zum einen darauf zurückzuführen, dass es keine anderen bild-
gebenden Methoden gibt, die Detailinformationen über die Retina liefern, und zum
anderen, dass aufgrund der hohen Transparenz des Glaskörpers die Eindringtiefe der
OCT hier nicht auf einzelne Millimeter limitiert ist, sondern Informationen aus Gewe-
be hinter der RPE-Schicht (RPE: retinales Pigmentepithel) gewonnen werden können.
Die Diagnose von Netzhautablösungen, Löchern in der Netzhaut und den verschie-
denen Formen der altersbedingten Makuladegeneration (AMD) ist durch den Ein-
satz der OCT erheblich vereinfacht worden. Daneben wird die OCT auch zur Bildge-
bung am vorderen Augenabschnitt (anterior segment) eingesetzt, um beispielsweise
die Ursachen für einen erhöhten Augeninnendruck zu finden. Weiter wird die OCT
klinisch eingesetzt, um Plaques in Herzkranzgefäßen zu diagnostizieren. Andere An-
wendungen der OCT, auf die im späteren Abschnitt eingegangen wird, haben noch
keinen Eingang in den klinischen Alltag gefunden und liefern in Forschungsprojek-
ten neue Erkenntnisse für ein besseres Verständnis von Vorgängen im Körper. Neben
diesen Anwendungen in der Medizin und der biomedizinischen Forschung findet die
OCT auch immer mehr Anwendungen im industriellen Umfeld, insbesondere in der
zerstörungsfreien Materialanalyse.
14 Optische Kohärenztomographie | 473
Monomodefaser: Lichtleitfaser mit einem so dünnen Kern, dass sich mit der gewünschten Wellen-
länge nur ein Wellentyp ausbreiten kann.
Das Signal am Detektor IG setzt sich zusammen aus der Intensität des Strahls aus dem
Referenzarm IR und der Intensität des Signals aus dem Probenarm IP und dem Interfe-
renzterm 2𝛾√IR IP cos(𝜙). Der Interferenzterm ist über die Phase 𝜙 moduliert, die von
dem Gangunterschied zwischen Proben- und Referenzstrahl verursacht wird. Die Ab-
hängigkeit von der spektralen Verteilung der Lichtquelle kann durch die Kohärenz-
funktion 𝛾(𝜏), die vom Zeitversatz 𝜏 der interferierenden Strahlen abhängt, beschrie-
ben werden [Born 1999].
Wie man Gl. (14.1) entnimmt, hängt der Interferenzterm im Detektorsignal von der
Amplitude (Wurzel der Intensität) der Welle im Probenarm ab. Dies ist der Grund da-
für, dass sich mittels OCT auch sehr geringe Probensignale detektieren lassen. Die
Empfindlichkeit (SNR) eines Systems wird in der OCT als die Reflektivität einer ebe-
nen Platte angegeben, die ein dem Rauschen äquivalentes Signal erzeugt. Typische
Werte liegen im Bereich von 10−10 , was einem SNR von 100 dB entspricht. Aufgrund
474 | Julia Walther, Edmund Koch
Referenzarm
L1
SLD
beweglicher
Faserschmelz- Spiegel
koppler
Probe
L3 L2
Detektor
(a) Probenarm
demoduliertes Signal
Detektorsignal
Position z Tiefe z
(b)
Abb. 14.1: Schema eines Time Domain OCT-Systems aufbauend auf einem faseroptischen 2 × 2-Faser-
schmelzkoppler. Das Licht einer Superlumineszenzdiode (SLD) wird durch den Koppler in Referenz-
und Probenstrahl aufgespalten. Im Probenarm wird von mehreren Grenzschichten Licht rückre-
flektiert. Im Referenzarm wird das Licht durch einen axial bewegten Spiegel zurückreflektiert und
interferiert im Strahlteiler. Als Funktion der Position des Spiegels im Referenzarm erhält man In-
terferenzen, aus denen man durch Demodulation das Signal gewinnt. L1 bis L3 sind verschiedene
Linsen bzw. Linsensysteme.
von Absorption und starker Streuung der meisten Gewebe erreicht die OCT trotz dieser
hohen Empfindlichkeit nur im sogenannten optischen Fenster von ca. 700 bis 1400 nm
eine Eindringtiefe im Bereich von 1. . .2 mm. Die kurzwellige Grenze wird durch Streu-
ung und Absorption von Hämoglobin und Melanin verursacht. Am langwelligen Ende
begrenzt die Absorption von Wasser die Eindringtiefe. Da die Wasserabsorption bei
1700 nm ein weiteres Minimum hat, wurde auch dieser Bereich für die OCT verwen-
det [Sharma 2008], was sich aber bis heute nicht durchsetzen konnte. Übliche OCT-
Systeme verwenden entweder den Bereich um 800 nm, da Silizium dort als Detektor-
element verwendet werden kann, oder den Bereich um 1300 nm, in dem Komponenten
aus der Telekommunikation verwendet werden können. In letzter Zeit gewinnt insbe-
sondere der Bereich um 1000 nm an Bedeutung [Povazay 2007; Unterhuber 2005], da
dieser aufgrund der langen Strecke durch den Glaskörper (dominierend aus Wasser
bestehend) für Untersuchungen am Augenhintergrund besser geeignet ist. Um eine
14 Optische Kohärenztomographie | 475
Femtosekundenlaser: Laser, der extrem kurze Lichtpulse mit hoher Energiedichte aussendet, die
eine Dauer im Bereich von Femtosekunden (10−15 s) haben.
Superkontinuumlichtquelle: sehr breitbandige Lichtquelle, die auch als weißer Laser bezeichnet
wird und auf nichtlinearen optischen Prozessen, angeregt durch einen Kurzpulslaser, basiert.
Superlumineszenzdiode (SLD): Lichtquelle mit großer spektraler Breite und hoher Ausgangsleis-
tung, die sich ähnlich einem Laserstrahl fokussieren lässt.
Die erste Generation von OCT-Systemen wird heute als Time Domain OCT (TD OCT)
bezeichnet. Wie Abb. 14.1 zu entnehmen, wird das Licht einer breitbandigen Licht-
quelle in Proben- und Referenzlicht aufgeteilt und nach Streuung im Probenarm bzw.
Reflexion am Spiegel im Referenzarm wieder zusammengeführt und auf den Detektor
geführt. Durch axiale Bewegung des Spiegels werden Interferenzen am Detektor nur
dann erzeugt, wenn sich die optische Länge zwischen Proben- und Referenzstrahl um
nicht mehr als die Kohärenzlänge lc der Lichtquelle unterscheidet. Bei vielen Refle-
xionen oder Streuern im Probenarm erhält man entsprechend viele Interferenzbursts.
Zur Aufnahme eines A-Scans wird die Position des Spiegels möglichst dreieckförmig
oder sägezahnförmig variiert. Die Modulationsfrequenz ergibt sich aus dem Quoti-
ent von doppelter Spiegelgeschwindigkeit und der Zentralwellenlänge der Lichtquel-
le und kann zur rauscharmen Demodulation verwendet werden. 2D- und 3D-Bilder
können parallel erfasst werden, wenn die Probe großflächig beleuchtet wird und das
Licht statt auf einem Einzeldetektor auf einen Zeilen- bzw. Array-Detektor abgebil-
det wird. Nachteil der großflächigen Systeme ist die geringe Quantumwellkapazität
der schnellen Detektoren, die zu einem geringen SNR führt. Zusätzlich kann sich die
transversale Auflösung reduzieren, da die Systeme nicht mehr konfokal sind und es so
zu einem Übersprechen durch Mehrfachstreuung kommen kann. Weiterhin sind sol-
che Systeme empfindlich auf Bewegung, da das Auslesen der Detektorzeile bzw. des
Array-Detektors (mindestens ein Datenpunkt pro 𝜆/4) die Verfahrgeschwindigkeit des
Spiegels stark limitiert.
Ein wichtiger Vorteil der TD OCT ist die Möglichkeit, den Fokus mit der Spiegel-
bewegung zu synchronisieren und damit eine hohe transversale Auflösung über den
gesamten Bereich zu erhalten [Qi 2004]. Hierbei muss jedoch berücksichtigt werden,
dass sich die optische Länge aus n ⋅ d berechnet, wobei n der Brechungsindex (Grup-
pengeschwindigkeit) des Mediums und d die Tiefe des Fokus ist, wogegen sich die
Fokusposition aufgrund der Bildhebung mit d/n ändert. Dies führt dazu, dass die
Geschwindigkeit der Spiegelverschiebung um den Faktor n2 größer sein muss als die
14 Optische Kohärenztomographie | 477
Ein Durchbruch in der Geschwindigkeit von OCT-Systemen wurde durch die Einfüh-
rung des Konzepts der Fourier Domain OCT (FD OCT) erreicht. Dieses Konzept wird
auch als spektrale Interferometrie [Fercher 1995], Kohärenz-Radar oder Spektral-
Radar bezeichnet [Bail 1996; Hausler 1998]. FD OCT basiert darauf, dass für jede
Wellenlänge in einem Interferometer bei jedem Gangunterschied Interferenzen zu
beobachten sind. Für einen definierten Weglängenunterschied zwischen Referenz-
und Probenarm wird das Interferenzsignal als Funktion der Wellenzahl (Kehrwert
478 | Julia Walther, Edmund Koch
der Wellenlänge) sinusförmig mit einer Frequenz oszillieren, die proportional zum
Weglängenunterschied ist. Kommt das Licht im Probenarm aus unterschiedlicher
Tiefe, so wird jeder Lichtanteil zu einer sinusförmigen Oszillation des Spektrums bei-
tragen. Damit ergibt eine Fourier-Transformation des Spektrums die Streuamplitude
als Funktion der Tiefe. Natürlich interferiert auch das Licht aus dem Probenarm mit
sich selbst, so dass im Spektrum auch Frequenzen auftreten, die dem Abstand von
verschiedenen Streuzentren entsprechen. Abhängig von der Stärke der Reflexionen
kann dies zu störenden Signalen im Bild führen und ist ein Nachteil dieses Verfahrens
gegenüber der TD OCT.
Das Interferenzspektrum kann auf zwei unterschiedliche Weisen erfasst wer-
den. In der Spektral-Domänen-OCT (SD OCT) wird das interferierende Signal mit
einem Spektrometer analysiert (Abb. 14.2). Verändert man die monochromatische
Eingangswellenlänge für das Interferometer als Funktion der Zeit und zeichnet die
Ausgangsintensität als Funktion der Wellenzahl auf, spricht man von Swept Source
OCT (SS OCT) oder „Optical Frequency Domain Imaging“ (OFDI) (Abb. 14.3). Die
Geschwindigkeit dieser Systeme ist nur durch die Ausleserate der Zeilenkameras
zur Erfassung des Spektrums bzw. durch die Durchstimmfrequenz der Laserquellen
limitiert. Wie eine Analyse ergibt, ist das erreichbare SNR bei gleicher Leistung und
Messzeit bei FD OCT um einen Faktor größer der mit der Wurzel aus Datenpunkten
pro A-Scan geht [Choma 2003; de Boer 2003; Leitgeb 2003a]. In Praxis ist dies ein um
20. . .30 dB besseres SNR bei gleicher Messzeit. Heute erreicht die SD OCT Geschwin-
digkeiten über 200 000 A-Scans pro Sekunde, und die Steigerung verläuft ähnlich wie
die der Rechenleistung von Computern. OFDI hat mit neuen Konzepten für schnell
durchstimmbare Laser bereits mehr als 20 Millionen A-Scans pro Sekunde erreicht
[Wieser 2010].
Referenzarm
L1
SLD
Spiegel
Faserschmelz-
koppler
Probe
L3 L2
G
L4 Probenarm
Zeilenkamera
(a)
Signalamplitude
Kamerasignal
FFT
Pixelnummer Tiefe z
(b)
Abb. 14.2: Schematische Darstellung eines Aufbaus für ein spektrometerbasiertes OCT-System.
Das Licht der SLD wird im Faserschmelzkoppler in Referenz- und Probenlicht aufgespalten. Im Refe-
renzarm befindet sich ein Spiegel. Das Licht aus dem Probenarm interferiert mit dem Licht aus dem
Referenzarm im Faserkoppler. Das Interferenzspektrum wird mittels Gitter (G) auf eine Zeilenkamera
abgebildet. Aus dem Signal der Zeilenkamera wird mittels FFT das tiefenabhängige Rückstreusignal
ermittelt. L1...L4 sind verschiedene Linsen bzw. Linsensysteme.
die Zeilenkamera fokussiert. Es kommen sowohl CCD- als auch CMOS-Kameras zum
Einsatz, wobei heute die CMOS-Kameras die höhere Geschwindigkeit bieten. Für den
Einsatz bei Wellenlängen zwischen 1000 nm und 1400 nm gibt es auch Zeilenkame-
ras aus InGaAs mit maximaler Zeilenfrequenz über 90 kHz. Leider sind diese Kame-
ras immer noch deutlich teurer im Vergleich zu ähnlich schnellen Kameras aus Sili-
zium. Jedes Auslesen der Zeilenkamera führt zu einem A-Scan. Dazu wird zunächst
vom Kamerasignal der Untergrund abgezogen, dann spektral gefiltert und die Daten
auf äquidistante Punkte in Wellenzahl umgerechnet. Die Skalierung auf Wellenzahl k
kann durch einfache Interpolation erfolgen [Bower 2007].
Deutlich bessere Ergebnisse werden jedoch durch ausgeklügelte Interpolati-
onsalgorithmen erreicht [Vergnole 2010]. Auf diese Transformation kann verzichtet
werden, wenn durch eine Kombination aus Gitter und Prisma, die von manchen
480 | Julia Walther, Edmund Koch
Autoren als „Grism“ [Hu 2007; Traub 1990] bezeichnet wird, das Spektrometer ei-
ne in k lineare Dispersion aufweist. Abschließend erhält man durch eine schnelle
Fourier-Transformation (FFT) die Streuamplitude als Funktion der Tiefe. In der
FD OCT hängt die Auflösung von der Breite und Form des Interferenzspektrums ab.
Bei SD OCT gilt darüber hinaus, dass das Verhältnis zwischen Auflösung und Messbe-
reich durch die Anzahl der Detektorelemente N begrenzt ist. Für ein Spektrum in der
Form eines Hanning- oder Hann-Fensters [Eigenwillig 2009], das eine gute Unter-
drückung von Nebenmaxima zeigt, ergibt sich das Verhältnis zu N/4. Es gibt zwar
Zeilendetektoren mit mehr als 10 000 Detektorelementen, doch weisen die schnellen
Kameras meist nur 1024 oder 2048 Elemente auf, so dass das Verhältnis hier auf 256
bzw. 512 begrenzt ist [Hauger 2003]. Zur Verbesserung dieses Verhältnisses wurden
deshalb Techniken entwickelt, die durch Kombination von zwei aufeinanderfolgen-
den A-Scans mit entsprechender Phasenverschiebung den Messbereich verdoppeln
[Jungwirth 2009]. Aufgrund der Ausdehnung der Einzeldetektoren, Übersprechen
zwischen benachbarten Detektorelementen, endlicher Auflösung der Spektrometer-
optik und nicht zuletzt durch die Skalierung auf Wellenzahl fällt die Empfindlichkeit
der SD OCT typischerweise um 10 bis 20 dB zum Ende des Messbereichs ab [Bajras-
zewski 2008].
Referenzarm
L1
durchstimmbarer Spiegel
Faserschmelz-
Laser koppler
Probe
L3 L2
Detektor
(a) Probenarm
Signalamplitude
Detektorsignal
FFT
Zeit Tiefe z
(b)
Abb. 14.3: Prinzip eines OFDI-Systems. Das Licht einer durchstimmbaren Laserquelle wird auf
Proben- und Referenzarm aufgeteilt. Das rückreflektierte Licht interferiert im Faserschmelzkoppler.
Am Detektor wird das Interferenzsignal als Funktion der Zeit erfasst. Durch eine Fourier-Transfor-
mation wird daraus die Amplitude des tiefenabhängigen Rückstreusignals gewonnen. L1...L3 sind
unterschiedliche Linsen bzw. Linsensysteme.
Polygon-Scanner: rotierendes System von Spiegeln für die Auslenkung von Lichtwellen.
Normalbefund Sehnerv
(blinder Fleck)
Fovea (gelber Fleck)
(a) (b)
retinale Nervenfaserschicht
Ganglienzellschicht
innere plexiforme Schicht
innere Körnerschicht
äußere plexiforme Schicht
äußere Körnerschicht
externe limitierende Membran
Schnittstelle Photorezeptorsegmente
retinales Pigmentepithel
(c) Aderhaut (Choroid)
Abb. 14.4: Bildgebung des Augenhintergrundes mittels Autofluoreszenz-Funduskopie (a) und inver-
tierte Schnittansicht der retinalen Mikrostruktur mittels OCT (b, c) unter Normalbedingungen. Mit
freundlicher Genehmigung der Heidelberg Engineering GmbH.
14 Optische Kohärenztomographie | 483
geographische Atrophie
(a)
Drusen
(b)
choroidale Neovaskularisation
(c)
Abb. 14.5: Bildgebung des Augenhintergrundes mit verschiedenen Formen der Makuladegeneration.
Autofluoreszenz-Funduskopie (links) und OCT (rechts). Mit freundlicher Genehmigung der Heidel-
berg Engineering GmbH.
Brechkraft von Hornhaut und Augenlinse auf die Netzhaut fokussiert. Durch fächer-
förmige Ablenkung des Probenstrahls mittels Galvanometerspiegel können so Linien
oder Flächen auf der Netzhaut abgerastert und somit Schnittbilder beziehungsweise
Volumenscans generiert werden. Das laterale Auflösungsvermögen auf der Netzhaut
ist folglich durch den Pupillendurchmesser und die Brennweite des Auges begrenzt
und wird in der Praxis durch Abbildungsfehler der Augenoptik weiter reduziert.
Um diese Einschränkung zu überwinden, haben adaptive Optiken, die in der
Astronomie breite Anwendung finden, Einzug in die Forschung und Entwicklung
der OCT gehalten. Diese Systeme erfassen die durch die Abbildungsfehler des Auges
hervorgerufenen Verzerrungen der Wellenfronten und korrigieren diese mithilfe de-
formierbarer Spiegel oder Phasenmodulatoren auf Basis von Flüssigkeitskristallen.
Durch den Einsatz adaptiver Optiken kann das laterale Auflösungsvermögen signi-
fikant auf 2. . . 3 μm, verglichen zu erreichbaren 15. . . 20 μm in der konventionellen
14 Optische Kohärenztomographie | 485
zur seitlichen Ablenkung des OCT-Probenstrahls. Demnach eignet sich diese Variante
vorwiegend zur Untersuchung von röhrenförmigen Organen. Ein großer Vorteil ist,
dass diese flexiblen Optiken mit einem sehr geringen Durchmesser realisiert werden
können – aus der Literatur sind Durchmesser bis zu 400 μm bekannt – und sich somit
für den Einsatz in kleinen Blutgefäßen nutzen lassen. Die besten Spezifikationen, die
mit unterschiedlichen Systemen erreicht werden, sind laterale Auflösungen bis unge-
fähr 8 μm, axiale Auflösungen bis 2,4 μm, Arbeitsabstände von 9. . . 12 mm und ein 360°
Bildfeld [Fu 2008; Herz 2004; Li 2000; Tumlinson 2006; Xi 2009]. Für die 2D- bzw.
3D-Bildgebung werden allerdings zusätzliche Motoren benötigt, die den endosko-
pischen OCT-Katheter innerhalb des Untersuchungsobjektes rotieren lassen und
zurückziehen können.
Endoskopische Systeme zur Bildgebung an der Vorderseite werden prinzipiell zur
Orientierung während operativer Eingriffe genutzt oder um Gewebe am Ende eines
Hohlraumes, der nur über einen schmalen Zugang erreicht werden kann, darstellen
zu können. Ein Vorteil dieser Optiken in Kombination mit der OCT ist, dass sich die
2D- bzw. 3D-OCT-Darstellung beispielsweise über die Probenstrahlablenkung mittels
Galvanometern am proximalen Ende der Endoskopoptik ermöglichen lässt und somit
keine elektronischen Komponenten mit in das Untersuchungsgebiet geführt werden
müssen. Die Entwicklungen dieser Optiken sind generell vielfältiger. Es existieren
OCT-Systeme bestehend aus Gradientenindexlinsen, faseroptischen Bildleitungs-
bündeln oder kommerziellen Linsen. Zurzeit sind diese Optiken allerdings noch recht
groß dimensioniert und benötigen weitere Optimierungen. Aus der Literatur sind
derzeit minimale Durchmesser von ungefähr 1,65 mm bekannt. Hier werden laterale
Auflösungen von etwa 10 μm, axiale Auflösungen von 9,3 μm, Arbeitsabstände bis
7,5 mm und Bildfelder bis 6 mm erreicht [Pan 2003; Wu 2006; Xie 2006]. Die auf einer
Faseroptik basierenden Systeme sind allerdings aufgrund ihrer optischen Eigenschaf-
ten beispielsweise durch ein schlechtes Signal-Rausch-Verhältnis gekennzeichnet,
welches mit zunehmender Faserlänge und steigendem Dämpfungskoeffizienten der
Fasern abnimmt [Wang 2009].
Gradientenindexlinse (GRIN-Linse): Linse, bei der die Brechzahl eine radiale oder axiale Funktion
des Ortes ist.
Darstellungen der Gefäße erzeugen und Störquellen innerhalb dieser Gefäße detek-
tieren. Jüngste Untersuchungen zeigen zudem, dass die OCT eine vielversprechende
Technologie sein könnte, um präoperativ den Grad von oberflächigem Speiseröhren-
plattenepithelkarzinom festzustellen. Die exakte Differenzierung zwischen malignen
Krebszellen und benignen Entzündungszellen ist allerdings noch nicht möglich, le-
diglich eine Veränderung der Schichtstruktur kann aufgezeigt werden [Hatta 2010].
Durch die fortwährende Weiterentwicklung der OCT-Bildgebungssysteme hinsichtlich
Bildaufnahmegeschwindigkeit und räumlicher Auflösung ist eine Verbesserung der
Klassifizierung einzelner Krankheitsbilder in naher Zukunft denkbar.
Chromophor: Teil eines Moleküls, der für die Farbigkeit verantwortlich ist.
(a) (b)
Schweißdrüsenkanal
Str. corneum
Str. granulosum
Str. basale Blutgefäße
Stratum papillare
0,3 mm 0,3 mm
(c) (d)
0,3 mm
Abb. 14.6: Schnittbilddarstellung der Haut bei 800 nm (a) und 1250 nm (b) sowie die berechnete
Differenzansicht 2D (c) und 3D (d) kodiert in den Farben blau und orange für die Darstellung der
erhöhten Streuung bei 800 nm bzw. 1250 nm.
können anhand der OCT-Darstellung sehr gut differenziert werden. So stellt die Horn-
schicht (Stratum corneum) eine homogen und gering streuende Gewebeschicht dar,
die stark streuende und spiralförmig verlaufende Schweißdrüsen enthält. Die angren-
zende stärker streuende Körnerzellenschicht (Stratum granulosum) und sehr gering
reflektierende Basalschicht (Stratum basale) können ebenfalls hochaufgelöst und
differenziert dargestellt werden. Die darunter liegende Papillarenschicht (Stratum
papillare) der Dermis besteht vorwiegend aus inhomogen erscheinenden Bindege-
websfasern, wie Elastin- und Kollagenfasern, mit eingelagerten signalschwachen
Blutgefäßen.
Nachdem die OCT für die Bildgebung gesunder Haut geeignet ist, haben klini-
sche Hautstudien gezeigt, dass die OCT durchaus Potential für die in vivo nichtinvasive
Diagnose und Therapiekontrolle pathologischer Hautveränderungen besitzt [Gladko-
va 2000; Welzel 2001] und damit eine Alternative zur invasiven Gewebebiopsie dar-
stellt. Da das Streuvermögen der Epidermis maßgeblich durch die enthaltenen horn-
bildenden Keratinozyten bestimmt wird, können Störungen der Keratinisierung, wie
beispielsweise die Hyper- bzw. die Parakeratose mit einhergehender Verdickung des
Stratum corneum, mit OCT dargestellt und differenziert werden. Im Falle der Hyperke-
ratose weist die äußere Hornschicht eine verstärkte Rückstreuung im Vergleich zu dar-
unterliegenden Zellschichten des Stratum corneum auf. Bei der Parakeratose kann die
unvollständige Differenzierung der Epithelzellen als geringes Rückstreusignal umge-
14 Optische Kohärenztomographie | 489
ben von hochstreuenden Keratinozyten mit OCT detektiert werden. Ebenfalls können
Entzündungen der Haut, wie Infiltration und Ödembildung, sowie Nekrosen (frühzei-
tiger, pathologischer Tod einer Zelle im lebenden Gewebe innerhalb der Dermis) über
das veränderte Rückstreuverhalten bzw. anhand der aufgehobenen Grenzen zwischen
Epidermis und Dermis mit OCT diagnostiziert werden. So zeigen Ödeme in der OCT
eine verminderte Streuung im Vergleich zur gesunden Dermis und verschwommene
Grenzen zum umliegenden Gewebe.
Die hochaufgelöste Darstellung der mit OCT differenzierbaren Hautschichten fand
darüber hinaus für die Bestimmung des Einflusses der epidermalen Verdickung als
wesentliche Komponente des natürlichen Sonnenschutzes der menschlichen Haut ge-
gen UV-Strahlung Verwendung und stellt damit eine nichtinvasive Alternative zur Me-
thodik der Erythemschwellendosis dar, die Hautrötungen bis hin zu Sonnenbrand
verursacht. Die für diese Studien entwickelten automatischen Algorithmen zur Seg-
mentierung und Schichtdickenbestimmung der Epidermis basieren auf der Detektion
der Luft-Haut-Grenze, als erster signifikanter Reflex im A-Scan, und der Epidermis-
Dermis-Grenze, die durch die signalarme Basalschicht gut detektierbar ist [Gambich-
ler 2005; Krüger 2007; Welzel 2004]. Die Erweiterung der Polarisationssensitiven OCT
(PS OCT, vgl. Kap. 14.4.2) für die kontrastreiche Darstellung von gerichteten, doppel-
brechenden Strukturen, wie die beispielsweise in der Dermis enthaltenen Kollagenfa-
sern und -faserbündeln, wurde in dermatologischen Studien zur Bestimmung der Re-
lation von dermaler Doppelbrechung und Hautelastizität/morphologie im Falle der
extrinsischen Hautalterung eingesetzt [Sakai 2008; Sakai 2009]. Ferner findet man Ar-
beiten, in denen die PS OCT Aussagen über Wundheilung, Verbrennungen und Narben
der Haut anhand der veränderten Kollagenstruktur der Dermis liefert [Oh 2011; Park
2001; Pierce 2004].
Auch wenn der erfahrene Dermatologe viele Hautkrankheiten bereits mit bloßem
Auge erkennt, zeichnet sich die OCT als nützliches nichtinvasives Werkzeug mit der
Möglichkeit zur frühzeitigen dynamischen Bildgebung von aufflammenden patholo-
gischen Veränderungen ab. Für die frühzeitige Diagnose von malignem Gewebe stellt
jedoch die konventionelle Biopsie in Kombination mit einem erfahrenen Histologen
nach wie vor den Goldstandard dar. Fortgeschrittene Tumoren der Dermis können
durch ihr abgegrenztes homogenes Erscheinungsbild gut mit der OCT abgebildet wer-
den [Gambichler 2007] und eignen sich demnach für die intraoperative Überwachung
mit OCT.
Doppler-OCT
In Ergänzung zu den vorangegangenen klinischen Anwendungen der OCT, welche
weitestgehend auf der unspezifischen Rückstreuung von Gewebe basieren, wird
die Integration zusätzlicher Algorithmen und Optiken angestrebt, um neben den
490 | Julia Walther, Edmund Koch
Während die strukturelle Bildgebung direkt auf Basis der Amplituden des Rückstreu-
signals erfolgt, wird die Bewegungs- bzw. Flussinformation über die Berechnung der
Phasendifferenz Δ𝜙(z) zwischen Positionen gleicher Tiefe benachbarter A-Scans er-
halten. Für die erfolgreiche Doppler-Prozessierung müssen jedoch zwei Bedingungen
vonseiten der Signaldetektion erfüllt werden. Die erste Maßgabe ist die Phasenstabi-
lität des Spektrums des OCT-Systems. Der zweite Punkt beinhaltet die Korrelation der
rückgestreuten Signale, die zur Berechnung der Phasenverschiebung herangezogen
werden. Um diese zweite Bedingung zu erfüllen, darf einerseits die transversale Ge-
14 Optische Kohärenztomographie | 491
schwindigkeit der Streuzentren nicht zu hoch sein und andererseits der Probenstrahl
nicht zu schnell über die Probe abgelenkt werden. Letzteres wird entweder durch die
Aufnahme zweier aufeinanderfolgender A-Scans an identischer lateraler Position der
Probenoberfläche [Zhang 2005] oder durch die Separierung der beiden A-Scans um ei-
ne Distanz kleiner der Halbwertsbreite (engl. Full Width Half Maximum, FWHM) des
OCT-Probenstrahls durch ein sogenanntes Überabtasten in transversaler Richtung
erfüllt. Damit werden für die Doppler-OCT deutlich mehr Daten benötigt.
Die Messgeometrie des auf die Probe einfallenden Probenstrahls und die Ori-
entierung des Geschwindigkeitsvektors werden in Abb. 14.7 (a) gezeigt. Das zur
Vereinfachung einzeln dargestellte, bewegte Streupartikel befindet sich während der
Detektion zweier zeitlich aufeinanderfolgender A-Scans im Probenstrahl und wird
demzufolge sowohl im Zeitintervall T1 als auch T2 , welche jeweils der Belichtungszeit
der Detektorzeilen im Spektrometer entsprechen, detektiert. Die axiale Bewegungs-
komponente Δz zwischen beiden benachbarten A-Scans resultiert in der in Gl. (14.4)
dargestellten Doppler-Phasenverschiebung Δ𝜙(z). Unter Berücksichtigung des mitt-
leren zeitlichen Abstands beider A-Scans TA-Scan ergibt sich Gl. (14.5), in der n den
Brechungsindex und vz die axiale Geschwindigkeit der Probe darstellt.
4𝜋n ⋅ Δz
Δ𝜙 (z) = (14.4)
𝜆
4𝜋n ⋅ vz TA-Scan
Δ𝜙 (z) = (14.5)
𝜆
Mit bekanntem Winkel 𝛽 zwischen der Bewegungs- und horizontalen Richtung kann
dann die absolute Probengeschwindigkeit v ermittelt werden. Die Berechnung der
Phasendifferenz Δ𝜙(z) erfolgt durch die Multiplikation eines komplexen A-Scans
𝛤j+1 (z) mit dem benachbarten konjugiert komplexen Signal 𝛤j∗ (z) nach Gl. (14.6),
in der 𝜙i (z) der Phase von 𝛤j (z) und j dem Laufindex der detektierten A-Scans ent-
sprechen. Da einzelne Phasendifferenzen stark streuen, werden meist mehrere Da-
tenpunkte gemittelt. Eine rauscharme Ermittlung von Δ𝜙(z) erfolgt durch die Mittel-
wertbildung der Produkte von 𝛤j+1 (z) und 𝛤j∗ (z) nach Gl. (14.6) und anschließender
Phasenberechnung.
𝛤j+1 (z) ⋅ 𝛤j ∗ (z) = Aj+1 (z) Aj (z) ei[𝜙j+1 (z)−𝜙j (z)] (14.6)
In den letzen Jahren konnte gezeigt werden, dass eine wesentliche Ursache für das
Phasenrauschen in der Doppler-OCT die transversale Geschwindigkeit von Pro-
benbewegung und Probenstrahlgeschwindigkeit ist [Vakoc 2005; Walther 2009a].
Darüber hinaus gilt bei hohen transversalen Geschwindigkeiten in der SD OCT nicht
mehr der lineare Zusammenhang zwischen axialer Geschwindigkeit und Phasen-
verschiebung [Koch 2009b]. In Abb. 14.7 (b) werden exemplarisch Ergebnisse zur
phasenaufgelösten DOCT im In-vitro-Flussphantom sowie im In-vivo-Rattenmodell
aufgezeigt. Die Farbdarstellung der Geschwindigkeitsverteilung des Intralipid- bzw.
Blutflusses wird durch die Multiplikation der Geschwindigkeitsfarb- und der Ampli-
tudengrauwertskala berechnet.
492 | Julia Walther, Edmund Koch
fokussierter
Probenstrahl 100 μm
β
Δz v vz
vx
(a)
50 dB 48 mm/s Geschwindigkeit v
in mm/s
0 15 30 45
0
Geschwindigkeit
log. Amplitude
Tiefe z in μm
160
320
0 dB 0 mm/s (c)
(b)
Abb. 14.7: (a) Orientierung des Geschwindigkeitsvektors der Probenbewegung relativ zum Proben-
strahl mit dem dazwischenliegenden Doppler-Winkel 𝛽. (b) OCT- und DOCT-Schnittbild der innerhalb
einer 320-μm-Glaskapillare fließenden 1 % Intralipid-Emulsion. Der Doppler-Winkel dieser Messung
beträgt 3° und die mittlere Flussgeschwindigkeit 17,2 mm/s. (c) Schnittbilddarstellung einzelner,
gegenläufiger, retinaler Gefäße detektiert in einer Studie zur Retinadegeneration im Rattenmodell.
Polarisationssensitive OCT
Bei der Standard-OCT kann eine Differenzierung unterschiedlicher Gewebe nur an-
hand des Streuverhaltens und der sichtbaren strukturellen Unterschiede erfolgen.
Mit der Polarisationssensitiven OCT (PS OCT) ist es möglich, durch die Visualisie-
rung optischer Eigenschaften der Probe einen zusätzlichen Kontrast zu erreichen.
Beispielsweise sind gerichtete Strukturen wie Muskeln, Sehnen, Fasern doppelbre-
chend und verändern die Polarisation des Lichtes, welches das Gewebe bei der
OCT-Bildgebung durchläuft. Diese Polarisationsänderungen werden mit der PS OCT
detektiert und erlauben eine tiefenaufgelöste Darstellung der polarisationsändernden
Eigenschaften. Die meisten PS OCT-Systeme detektieren simultan zwei orthogonale
Polarisationszustände, vertikal und horizontal polarisiertes Licht. Dabei wird linear
polarisiertes Licht in das Interferometer geleitet. Durch Anordnung einer 𝜆/4-Platte
im Referenzarm wird die Intensität in beiden Detektionskanälen angeglichen. Eine
im Winkel von 45° angeordnete 𝜆/4-Platte im Probenarm gewährleistet die zirkulare
Polarisation des auf die Probe einfallenden Lichtes. Die Doppelbrechung [de Boer
1997; Hee 1992] und die Orientierung der optischen Achse [Hitzenberger 2001] kann
aus dem Amplitudenverhältnis bzw. der Phasendifferenz der beiden Interferenzsigna-
le berechnet werden. Die Integration in FD-OCT-Systeme erlaubt dabei einen direkten
Zugang zur Phaseninformation nach der Fourier-Transformation unter Nutzung der
SNR- und Geschwindigkeitsvorteile. Die Realisierung der PS OCT mit Bulkoptiken
ermöglicht eine unproblematische Justierung der einzelnen Komponenten und repro-
duzierbare Polarisationszustände, allerdings mit dem Nachteil einer eingeschränkten
Flexibilität. Gerade für Anwendungen in der biomedizinischen Forschung oder bei
endoskopischen Applikationen steht deshalb gegenwärtig die Entwicklung von fa-
sergekoppelten PS-OCT-Systemen im Vordergrund [Al-Qaisi 2010; Götzinger 2009;
Yamanari 2008], die eine einfache Anordnung des Messkopfes über der Probe er-
möglichen. Durch die Bewegung der Fasern wird allerdings der Polarisationszustand
verändert und macht damit die Verwendung von polarisationserhaltenden Lichtleit-
fasern erforderlich. Ohne die Verwendung dieser Fasern kann man zwar nicht die
Lage der optischen Achse, jedoch Informationen über die Stärke der Doppelbrechung
und Depolarisation der Probe erhalten.
494 | Julia Walther, Edmund Koch
Die Hauptanwendung der PS OCT ergibt sich in der Ophthalmologie zur Darstel-
lung der retinalen Schichtstrukturen [Baumann 2010; Götzinger 2009]. Besonderes
Interesse gilt dabei der Segmentierung der depolarisierenden RPE-Schicht, da diese
gerade bei AMD-Patienten zurückgebildet oder stark verworfen erscheint und deshalb
mit der Standard-OCT schwer zu identifizieren ist. Die PS OCT bietet hier den Vorteil
der Visualisierung der Homogenität der Polarisation, der sogenannten DOPU (engl.
degree of polarization uniformity), und ermöglicht damit einen zusätzlichen Kontrast.
Weitere Anwendungen nutzen ebenfalls die Vorteile der PS OCT zur Differenzierung
unterschiedlicher Gewebe, zum Beispiel zur Visualisierung von Karzinomen.
50 μm
(a)
50 μm
(c) (b)
Abb. 14.8: Kombinierte OCT- und Fluoreszenzbildgebung des fixierten Lungengewebes eines Kanin-
chens ex vivo. (a) 2D-OCT-Darstellung der subpleuralen Alveolen. (b) 3D-Bildgebung der geometri-
schen Struktur des fixierten subpleuralen Lungengewebes mittels OCT in der Grauwertdarstellung
mit überlagerter 3D-Information des Elastinfasernetzwerkes detektiert mithilfe der SRB-Fluoreszenz
in grün. (c) Aus dem kombinierten 3D-Datenstapel erzeugte En-face-Ansicht der subpleuralen Alveo-
len.
OCT-B-Scan des fixierten Lungengewebes gezeigt, in dem die Geometrie der Alveolen
dargestellt wird. Der detektierte OCT-Volumenscan mit der graphisch überlagerten
SRB-Fluoreszenz und die aus diesem 3D-Datenstapel erzeugte En-face-Ansicht sind
in Abb. 14.8 (b) und (c) dargestellt. Wie an diesem Beispiel zu erkennen ist, wird
die geometrische Information der OCT durch die Bildgebung der Lokalisation der
Elastinfasern durch die konfokale Fluoreszenzmikroskopie erweitert.
Ein zweites Beispiel für die multimodale optische Bildgebung ist die simultane
Durchführung der ICG-Angiographie, der Scanning-Laser-Ophthalmologie (SLO) und
der retinalen OCT [Rosen 2009] in Kombination mit der Fluorescein-Angiographie
(FAG) und der Fundus-Augenfluoreszenz (FAF) [Helb 2009; Issa 2010] in der Augen-
heilkunde. Diese Funktionen sind bereits im System Spectralis® HRA+OCT von
Heidelberg Engineering als Hilfsmittel für die Diagnose von Krankheiten wie der
Makuladegeneration und dem akuten Arterienverschluss der Netzhaut [Helb 2009]
integriert. Neben der Ophthalmologie als Hauptanwendungsgebiet für die Kombina-
tion der OCT mit anderen Bildgebungsverfahren, sind auch Veröffentlichungen auf
dem Forschungsgebiet der frühzeitigen Detektion von malignen Geweben zu finden.
Als ein weiteres repräsentatives Beispiel zeigten J. A. Jo et al. kürzlich oberflächenna-
496 | Julia Walther, Edmund Koch
14.6 Nebenwirkungen/Grenzwerte
OCT-Geräte senden einen gut fokussierten Lichtstrahl auf die Probe. Auch wenn es
sich dabei nicht immer um Laserstrahlung handelt, müssen zum Schutz des Patienten
die Grenzwerte der Laserschutzverordnung auch für Strahlung aus SLDs oder anderen
breitbandigen Lichtquellen sinngemäß eingehalten werden. Nahinfrarot-Strahlung
ist nicht ionisierend, solange die Pulsleistungen nicht für eine Mehrphotonenanre-
gung ausreichen. Es ist zwar bisher nicht gelungen, hierfür Grenzwerte anzugeben, da
keine allgemeinen Grenzwerte für die Nichtlinearität von Gewebe angegeben werden
können, doch besteht bei der schwachen Fokussierung der Lichtstrahlen, die in der
OCT allgemein angewendet wird, bis hinunter zu ps-Pulsen kein Gefährdungspoten-
tial. Insofern beruht das Schädigungspotential der Infrarot-Strahlung der OCT auf
der Erwärmung des Gewebes. Hierbei ist zu unterscheiden zwischen Systemen für
den Augenhintergrund, die den Strahl auf die Netzhaut fokussieren, und Systemen,
die für anderes Gewebe vorgesehen sind, da die Empfindlichkeit der Retina durch die
stark absorbierende RPE-Schicht besonders hoch ist. Für die Bestrahlung des Auges
mit Laserstrahlung beträgt die maximal zulässige Bestrahlung (MZB) ca. 0,8 mW für
860 nm und ca. 15 mW bei 1300 nm. Ist bei OCT-Systemen eine Ortsmodulation des
Lichtstrahls sichergestellt, so können abhängig vom Scanmuster auch größere Licht-
leistungen appliziert werden. Die entsprechenden MZB-Werte für die Haut betragen
40 mW und nahezu 100 mW, jedoch sollte berücksichtigt werden, dass auch diese
Strahlung unbeabsichtigt ins Auge des Untersuchers oder des Patienten treffen kann.
Da das Auge eines Erwachsenen nicht auf Entfernungen unter 100 mm fokussieren
14 Optische Kohärenztomographie | 497
kann und die Iris einen maximalen Durchmesser von 7 mm aufweist, wird diese Geo-
metrie zur Festlegung des Grenzwertes der fokussierten Laserstrahlung berücksichtigt
[BGV B2 2007].
Quellenverzeichnis
Al-Qaisi M. K., Akkin T.: Swept-source polarization-sensitive optical coherence tomography based on
polarization-maintaining fiber. Opt Express 2010; 18: 3392–3403.
Bachmann A. H., Villiger M. L., Blatter C., Lasser T., Leitgeb R. A.: Resonant Doppler flow imaging and
optical vivisection of retinal blood vessels. Opt Express 2007; 15: 408–422.
Bail M. A., Haeusler G., Herrmann J. M., Lindner M. W., Ringler R.: Optical coherence tomography with
the “spectral radar”: fast optical analysis in volume scatterers by short-coherence
interferometry. In: Benaron D. A., Chance B., Mueller G. J. (Eds.): Photon Propagation in Tissues
II. Wien: SPIE 1996: 298–303.
Bajraszewski T., Wojtkowski M., Szkulmowski M., Szkulmowska A., Huber R., Kowalczyk A.:
Improved spectral optical coherence tomography using optical frequency comb. Opt Express
2008; 16: 4163–4176.
Baumann B., Gotzinger E., Pircher M., Sattmann H., Schutze C., Schlanitz F., et al.: Segmentation
and quantification of retinal lesions in age-related macular degeneration using polarization-
sensitive optical coherence tomography. J Biomed Opt 2010; 15: 061704–061709.
Beaurepaire E., Moreaux L., Amblard F., Mertz J.: Combined scanning optical coherence and
two-photon-excited fluorescence microscopy. Opt Lett 1999; 24: 969–971.
Bezerra H. G., Costa M. A., Guagliumi G., Rollins A. M., Simon D. I.: Intracoronary optical coherence
tomography: a vomprehensive review: clinical and research applications. J Am Coll Cardiol Intv
2009; 2: 1035–1046.
BGV B2. Durchführungsanweisungen zur BG-Vorschrift Laserstrahlung. Köln: Carl Heymanns Verlag,
2007.
Biedermann B. R., Wieser W., Eigenwillig C. M., Klein T., Huber R.: Dispersion, coherence and noise of
Fourier domain mode locked lasers. Opt Express 2009; 17: 9947–9961.
Born M., Wolf E.: Principles of optics: electromagnetic theory of propagation, interference and
diffraction of light; 7th ed. Cambridge University Press, 1999.
Bower B. A., Zhao M., Zawadzki R. J., Izatt J. A.: Real-time spectral domain Doppler optical coherence
tomography and investigation of human retinal vessel autoregulation. J Biomed Opt 2007; 12:
041214.
Changho C., Morosawa A., Sakai T.: High-speed wavelength-swept laser source with high-linearity
sweep for optical coherence tomography. IEEE J Quantum Electron 2008; 14: 235–242.
Chen Z., Milner T. E., Dave D., Nelson J. S.: Optical Doppler tomographic imaging of fluid flow velocity
in highly scattering media. Opt Lett 1997a; 22: 64–66.
Chen Z., Milner T. E., Srinivas S., Wang X., Malekafzali A., van Gemert M. J. C., et al.: Noninvasive
imaging of in vivo blood flow velocity using optical Doppler tomography. Opt Lett 1997b; 22:
1119–1121.
Choma M., Sarunic M., Yang C., Izatt J.: Sensitivity advantage of swept source and Fourier domain
optical coherence tomography. Opt Express 2003; 11: 2183–2199.
Cimalla P., Walther J., Mehner M., Cuevas M., Koch E.: Simultaneous dual-band optical coherence
tomography in the spectral domain for high resolution in vivo imaging. Opt Express 2009; 17:
19486–19500.
498 | Julia Walther, Edmund Koch
de Boer J. F., Cense B., Park B. H., Pierce M. C., Tearney G. J., Bouma B. E.: Improved signal-to-noise
ratio in spectral-domain compared with time-domain optical coherence tomography. Opt Lett
2003; 28: 2067–2069.
de Boer J. F., Milner T. E., van Gemert M. J. C., Nelson J. S.: Two-dimensional birefringence imaging in
biological tissue by polarization-sensitive optical coherence tomography. Opt Lett 1997; 22:
934–936.
Drexler W., Morgner U., Kärtner F. X., Pitris C., Boppart S. A., Li X. D., et al.: In vivo ultrahigh-
resolution optical coherence tomography. Opt Lett 1999; 24: 1221–1223.
Drexler W., Fujimoto J. G.: State-of-the-art retinal optical coherence tomography. Prog Retin Eye Res
2008; 27: 45–88.
Eigenwillig C. M., Biedermann B. R., Wieser W., Huber R.: Wavelength swept amplified spontaneous
emission source. Opt Express 2009; 17: 18794–18807.
Fercher A. F., Hitzenberger C. K., Kamp G., El-Zaiat S. Y.: Measurement of intraocular distances by
backscattering spectral interferometry. Opt Commun 1995; 117: 43–48.
Fercher A. F., Mengedoht K., Werner W.: Eye-length measurement by interferometry with partially
coherent light. Opt Lett 1988; 13: 186–188.
Fernández E. J., Hermann B., Povazay B., Unterhuber A., Sattmann H., Hofer B., et al.: Ultrahigh
resolution optical coherence tomography and pancorrection for cellular imaging of the living
human retina. Opt Express 2008; 16: 11083–11094.
Fu H. L., Leng Y., Cobb M. J., Hsu K., Hwang J. H., Li X.: Flexible miniature compound lens design for
high-resolution optical coherence tomography balloon imaging catheter. J Biomed Opt 2008;
13: 060502–060503.
Gambichler T., Känzlberger B., Paech V., Kreuter A., Boms S., Bader A., et al.: UVA1 and UVB
irradiated skin investigated by optical coherence tomography in vivo: a preliminary study.
Clinical and Experimental Dermatology 2005; 30: 79–82.
Gambichler T., Orlikov A., Vasa R., Moussa G., Hoffmann K., Stücker M., et al.: In vivo optical
coherence tomography of basal cell carcinoma. J Dermatol Sci 2007; 45: 167–173.
Gao W.: Dispersion properties of grating-based rapid scanning optical delay lines. Appl Opt 2007;
46: 986–992.
Gladkova N. D., Petrova G. A., Nikulin N. K., Radenska-Lopovok S. G., Snopova L. B., Chumakov Y., et
al.: In vivo optical coherence tomography imaging of human skin: norm and pathology. Skin
Research and Technology 2000; 6: 6–16.
Götzinger E., Baumann B., Pircher M., Hitzenberger C. K.: Polarization maintaining fiber based
ultra-high resolution spectral domain polarization sensitive optical coherence tomography. Opt
Express 2009; 17: 22704–22717.
Hatta W., Uno K., Koike T., Yokosawa S., Iijima K., Imatani A., Shimosegawa T.: Optical coherence
tomography for the staging of tumor infiltration in superficial esophageal squamous cell
carcinoma. Gastrointest Endosc 2010; 71: 899–906.
Hauger C., Wörz M., Hellmuth T.: Interferometer for optical coherence tomography. Appl Opt 2003;
42: 3896–3902.
Hausler G., Lindner M. W.: “Coherence Radar” and “Spectral Radar” – new tools for dermatological
diagnosis. J Biomed Opt 1998; 3: 21–31.
Hee M. R., Huang D., Swanson E. A., Fujimoto J. G.: Polarization-sensitive low-coherence
reflectometer for birefringence characterization and ranging. J Opt Soc Am B 1992; 9: 903–908.
14 Optische Kohärenztomographie | 499
Helb H. M., Issa P. C., Fleckenstein M., Schmitz-Valckenberg S., Scholl H. P. N., Meyer C. H., et al.:
Clinical evaluation of simultaneous confocal scanning laser ophthalmoscopy imaging
combined with high-resolution, spectral-domain optical coherence tomography. Acta
Ophthalmol 2009; 88: 842–849.
Herz P. R., Chen Y., Aguirre A. D., Schneider K., Hsiung P., Fujimoto J. G., et al.: Micromotor endoscope
catheter for in vivo, ultrahigh-resolutionoptical coherence tomography. Opt Lett 2004; 29:
2261–2263.
Hitzenberger C. K.: Optical measurement of the axial eye length by laser Doppler interferometry.
Invest Ophthalmol Vis Sci 1991; 32: 616–624.
Hitzenberger C., Goetzinger E., Sticker M., Pircher M., Fercher A.: Measurement and imaging of
birefringence and optic axis orientation by phase resolved polarization sensitive optical
coherence tomography. Opt Express 2001; 9: 780–790.
Hoffmann C., Hofer B., Unterhuber A., Poavzay B., Morgner U., Drexler W.: Combined OCT and CARS
using a single ultrashort pulse Ti:Sapphire laser. In: Azar FS., Intes X (Eds.): Multimodal
Biomedical Imaging VI. San Francisco: SPIE, 2011: 78920B.
Hu Z., Rollins A. M.: Fourier domain optical coherence tomography with a linear-in-wavenumber
spectrometer. Opt Lett 2007; 32: 3525–3527.
Huang D., Swanson E. A., Lin C. P., Schuman J. S., Stinson W. G., Chang W., et al.: Optical coherence
tomography. Science 1991; 254: 1178–1181.
Huber R., Wojtkowski M., Fujimoto J. G.: Fourier Domain Mode Locking (FDML): A new laser operating
regime and applications for optical coherence tomography. Opt Express 2006; 14: 3225–3237.
Hughes M., Spring M., Podoleanu A.: Speckle noise reduction in optical coherence tomography of
paint layers. Appl Opt 2010; 49: 99–107.
Issa P. C., Fleckenstein M., Helb H. M., Scholl H. P. N., Schmitz-Valckenberg S., Holz F. G.:
Simultaneous SD-OCT and confocal SLO-imaging. In: Holz F. G., Spaide R. (Eds): Medical retina.
Berlin, Heidelberg: Springer, 2010: 11–18.
Izatt J. A., Kulkarni M. D., Yazdanfar S., Barton J. K., Welch A. J.: In vivo bidirectional color Doppler
flow imaging of picoliter blood volumes using optical coherence tomography. Opt Lett 1997; 22:
1439–1441.
Jo J. A., Applegate B. E., Park J., Shrestha S., Pande P., Gimenez-Conti I. B., Brandon J. L.: In vivo
simultaneous morphological and biochemical optical imaging of oral epithelial cancer. IEEE
Trans Biomed Eng 2010; 57: 2596–2599.
Jungwirth J., Baumann B., Pircher M., Götzinger E., Hitzenberger C. K.: Imaging of the whole anterior
eye segment with full-range complex spectral domain optical coherence tomography. In:
Anderson P. A. B. (Ed.): Optical coherence tomography and coherence techniques IV. Optical
Society of America 2009: 7372.
Kang J. U., Han J. H., Liu X., Zhang K.: Common-path optical coherence tomography for biomedical
imaging and sensing. J Opt Soc Korea 2010; 14: 1–13.
Kim Y. K., Kim Y. P.: High-speed time-domain optical coherence tomography with an imaging speed of
ten frames per second with 2000 A-scan. Opt Eng 2010; 49: 055601.
Ko T., Adler D., Fujimoto J., Mamedov D., Prokhorov V., Shidlovski V., Yakubovich S.: Ultrahigh
resolution optical coherence tomography imaging with a broadband superluminescent diode
light source. Opt Express 2004; 12: 2112–2119.
Koch E., Hammer D., Wang S., Cuevas M., Walther J.: Resonant Doppler imaging with common path
OCT. In: Andersen P. E., Bouma B. E. (Eds.): Optical Coherence Tomography and Coherence
Techniques IV. München: SPIE, 2009a: 737220.
Koch E., Walther J., Cuevas M.: Limits of Fourier domain Doppler-OCT at high velocities. Sens
Actuator A-Phys 2009b; 156: 8–13.
500 | Julia Walther, Edmund Koch
Koch P., Hellemanns V., Hüttmann G.: Linear optical coherence tomography system with extended
measurement range. Opt Lett 2006; 31: 2882–2884.
Koch P., Hüttmann G., Schleiermacher H., Eichholz J., Koch E.: Linear optical coherence tomography
system with a downconverted fringepattern. Opt Lett 2004; 29: 1644–1646.
Krüger A., Schwabe T., Cuevas M., Knuschke P., Koch E.: Measurement of the epidermal thickness
with Fourier domain optical coherence tomography in an occupational health study on natural
sun protection of the human skin. In: Buzug TM., Holz D., Weber S., Bongartz J., Kohl-Bareis M.,
Hartmann U. (Eds.): Proceedings in Physics 114: Advances in Medical Engineering. Berlin:
Springer, 2007: 349–354.
Leitgeb R., Hitzenberger C., Fercher A.: Performance of fourier domain vs. time domain optical
coherence tomography. Opt Express 2003a; 11: 889–894.
Leitgeb R., Schmetterer L., Drexler W., Fercher A., Zawadzki R., Bajraszewski T.: Real-time
assessment of retinal blood flow with ultrafast acquisition by color Doppler Fourier domain
optical coherence tomography. Opt Express 2003b; 11: 3116–3121.
Li X., Chudoba C., Ko T., Pitris C., Fujimoto J. G.: Imaging needle for optical coherence tomography.
Opt Lett 2000; 25: 1520–1522.
Liu B., Brezinski M. E.: Theoretical and practical considerations on detection performance of time
domain, Fourier domain, swept source optical coherence tomography. J Biomed Opt 2007; 12:
044007.
Makita S., Hong Y., Yamanari M., Yatagai T., Yasuno Y.: Optical coherence angiography. Opt Express
2006; 14: 7821–7840.
Mariampillai A., Standish B. A., Munce N. R., Randall C., Liu G., Jiang J. Y., et al.: Doppler optical
cardiogram gated 2D color flow imaging at 1000 fps and 4D in vivo visualization of embryonic
heart at 45 fps on a swept source OCT system. Opt Express 2007; 15: 1627–1638.
Michelson A. A.: The relative motion of the earth and the lumniferous ether. Am J Sci 1881; 22:
120–129.
Oh J.-T., Lee S.-W., Kim Y.-S., Suhr K.-B., Kim B.-M.: Quantification of the wound healing using
polarization-sensitive optical coherence tomography. J Biomed Opt 2011; 11: 041124.
Pan Y., Li Z., Xie T., Chu C. R.: Hand-held arthroscopic optical coherence tomography for in vivo high-
resolution imaging of articular cartilage. J Biomed Opt 2003; 8: 648–654.
Park B. H., Saxer C., Srinivas S. M., Nelson J. S., de Boer J. F.: In vivo burn depth determination by
high-speed fiber-based polarization sensitive optical coherence tomography. J Biomed Opt
2001; 6: 474–479.
Pierce M. C., Sheridan R. L., Hyle Park B., Cense B., de Boer J. F.: Collagen denaturation can be
quantified in burned human skin using polarization-sensitive optical coherence tomography.
Burns 2004; 30: 511–517.
Potsaid B., Baumann B., Huang D., Barry S., Cable A. E., Schuman J. S., et al.: Ultrahigh speed
1050nm swept source / Fourier domain OCT retinal and anterior segment imaging at 100,000 to
400,000 axial scans per second. Opt Express 2010; 18: 20029–20048.
Povazay B., Bizheva K., Hermann B., Unterhuber A., Sattmann H., Fercher A., et al.: Enhanced
visualization of choroidal vessels using ultrahigh resolution ophthalmic OCT at 1050 nm. Opt
Express 2003; 11: 1980–1986.
Povazay B., Hofer B., Torti C., Hermann B., Tumlinson A. R., Esmaeelpour M., et al.: Impact of
enhanced resolution, speed and penetration on three-dimensional retinal optical coherence
tomography. Opt Express 2009; 17: 4134–4150.
Povazay B., Hermann B., Unterhuber A., Hofer B., Sattmann H., Zeiler F., et al.: Three-dimensional
optical coherence tomography at 1050 nm versus 800 nm in retinal pathologies: enhanced
performance and choroidal penetration in cataract patients. J Biomed Opt 2007; 12: 041211.
14 Optische Kohärenztomographie | 501
Qi B., Himmer A. P., Gordon L. M., Yang X. D. V., Dickensheets L. D., Vitkin I. A.: Dynamic focus control
in high-speed optical coherence tomography based on a microelectromechanical mirror. Opt
Commun 2004; 232: 123–128.
Roggan A., Beuthan J., Schründer S., Müller G.: Diagnostik und Therapie mit dem Laser.
Physikalische Blätter 1999; 55: 25–30.
Rollins A. M., Kulkarni M. D., Yazdanfar S., Ung-arunyawee R., Izatt J. A.: In vivo video rate optical
coherence tomography. Opt Express 1998; 3: 219–229.
Rosen R. B., Hathaway M., Rogers J., Pedro J., Garcia P., Dobre G. M., Podoleanu A. G.: Simultaneous
OCT/SLO/ICG Imaging. Invest Ophth Vis Sci 2009; 50: 851–860.
Sakai S., Nakagawa N., Yamanari M., Miyazawa A., Yasuno Y., Matsumoto M.: Relationship between
dermal birefringence and the skin surface roughness of photoaged human skin. J Biomed Opt
2009; 14: 044032.
Sakai S., Yamanari M., Miyazawa A., Matsumoto M., Nakagawa N., Sugawara T., et al.: In vivo three-
dimensional birefringence analysis shows collagen differences between young and old
photo-aged human skin. J Invest Dermatol 2008; 128: 1641–1647.
Schmitt J. M., Lee S. L., Yung K. M.: An optical coherence microscope with enhanced resolving power
in thick tissue. Opt Commun 1997; 142: 203–207.
Schmoll T., Kolbitsch C., Leitgeb R. A.: Ultra-high-speed volumetric tomography of human retinal
blood flow. Opt Express 2009; 17: 4166–41676.
Sharma U., Chang E. W., Yun S. H.: Long-wavelength optical coherence tomography at 1.7 μm for
enhanced imaging depth. Opt Express 2008; 16: 19712–19723.
Spöler F., Kray S., Grychtol P., Hermes B., Bornemann J., Först M., Kurz H.: Simultaneous dual-band
ultra-high resolution optical coherence tomography. Opt Express 2007; 15: 10832–10841.
Szkulmowski M., Wojtkowski M., Bajraszewski T., Gorczynska I., Targowski P., Wasilewski W., et al.:
Quality improvement for high resolution in vivo images by spectral domain optical coherence
tomography with supercontinuum source. Opt Commun 2005; 246: 569–578.
Traub W. A.: Constant-dispersion grism spectrometer for channeled spectra. J Opt Soc Am A 1990; 7:
1779–1791.
Tumlinson A. R., Povazay B., Hariri L. P., McNally J., Unterhuber A., Hermann B., et al.: In vivo
ultrahigh-resolution optical coherence tomography of mouse colon with an achromatized
endoscope. J Biomed Opt 2006; 11: 064003–064008.
Unterhuber A., Povazay B., Hermann B., Sattmann H., Chavez-Pirson A., Drexler W.: In vivo retinal
optical coherence tomography at 1040 nm – enhanced penetration into the choroid. Opt
Express 2005; 13: 3252–3258.
Vakoc B., Yun S., de Boer J., Tearney G., Bouma B.: Phase-resolved optical frequency domain
imaging. Opt Express 2005; 13: 5483–5493.
Vergnole S., Levesque D., Lamouche G.: Experimental validation of an optimized signal processing
method to handle non-linearity in swept-source optical coherence tomography. Opt Express
2010; 18: 10446–10461.
Walther J., Koch E.: Transverse motion as a source of noise and reduced correlation of the Doppler
phase shift in spectral domain OCT. Opt Express 2009a; 17: 19698–196713.
Walther J., Krüger A., Cuevas M., Koch E.: Effects of axial, transverse, oblique sample motion in FD
OCT in systems with global or rolling shutter line detector. J Opt Soc Am A 2008; 25: 2791–2802.
Walther J., Mueller G., Morawietz H., Koch E.: Analysis of in vitro and in vivo bidirectional flow
velocities by phase-resolved Doppler Fourier-domain OCT. Sens Actuator A-Phys 2009b; 156:
14–21.
Walther J., Mueller G., Morawietz H., Koch E.: Signal power decrease due to fringe washout as an
extension of the limited Doppler flow measurement range in spectral domain optical coherence
tomography. J Biomed Opt 2010; 15: 041511.
502 | Julia Walther, Edmund Koch
Wang R. K., Jacques S. L., Ma Z., Hurst S., Hanson S. R., Gruber A.: Three dimensional optical
angiography. Opt Express 2007; 15: 4083–4097.
Wang W., Zhang K., Ren Q., Kang J. U.: Comparison of different focusing systems for common-path
optical coherence tomography with fiber-optic bundle as endoscopic probe. Opt Eng 2009; 48:
103001–103008.
Wang X. J., Milner T. E., Nelson J. S.: Characterization of fluid flow velocity by optical Doppler
tomography. Opt Lett 1995; 20: 1337–1339.
Watanabe Y., Sajima F., Itagaki T., Watanabe K., Shuto Y.: High-speed linear detection time domain
optical coherence tomography with reflective grating-generated spatial reference delay. Appl
Opt 2009; 48: 3401–3406.
Welzel J., Reinhardt C., Lankenau E., Winter C., Wolff H. H.: Changes in function and morphology of
normal human skin: evaluation using optical coherence tomography. Br J Dermatol 2004; 150:
220–225.
Welzel J.: Optical coherence tomography in dermatology: a review. Skin Research and Technology
2001; 7: 1–9.
White B., Pierce M., Nassif N., Cense B., Park B., Tearney G., et al.: In vivo dynamic human retinal
blood flow imaging using ultra-high-speed spectral domain optical coherence tomography. Opt
Express 2003; 11: 3490–3497.
Wieser W., Biedermann B. R., Klein T., Eigenwillig C. M., Huber R.: Multi-Megahertz OCT.: High quality
3D imaging at 20 million A-scans and 4.5 GVoxels per second. Opt Express 2010; 18:
14685–14704.
Wojtkowski M., Srinivasan V., Ko T., Fujimoto J., Kowalczyk A., Duker J.: Ultrahigh-resolution,
high-speed, Fourier domain optical coherence tomography and methods for dispersion
compensation. Opt Express 2004; 12: 2404–2422.
Wolf-Schnurrbusch U. E. K., Ceklic L., Brinkmann C. K., Iliev M. E., Frey M., Rothenbuehler S. P., et al.:
Macular thickness measurements in healthy eyes using six different optical coherence
tomography instruments. Invest Ophthalmol Vis Sci 2009; 50: 3432–3437.
Wu J., Conry M., Gu C., Wang F., Yaqoob Z., Yang C.: Paired-angle-rotation scanning optical
coherence tomography forward-imaging probe. Opt Lett 2006; 31: 1265–1267.
Xi J., Huo L., Wu Y., Cobb M. J., Hwang J. H., Li X.: High-resolution OCT balloon imaging catheter with
astigmatism correction. Opt Lett 2009; 34: 1943–1945.
Xie T., Guo S., Chen Z., Mukai D., Brenner M.: GRIN lens rod based probe for endoscopic spectral
domain optical coherence tomography with fast dynamic focus tracking. Opt Express 2006; 14:
3238–3246.
Xu Z., Carrion L., Maciejko R.: A zero-crossing detection method applied toDoppler OCT. Opt Express
2008; 16: 4394–4412.
Yamanari M., Makita S., Yasuno Y.: Polarization-sensitive swept-source optical coherence
tomography with continuous source polarization modulation. Opt Express 2008; 16:
5892–5906.
Yasuno Y., Hong Y., Makita S., Yamanari M., Akiba M., Miura M., et al.: In vivo high-contrast imaging
of deep posterior eye by 1-um swept source optical coherence tomography andscattering
optical coherence angiography. Opt Express 2007; 15: 6121–6139.
Yazdanfar S., Chen Y. Y., So P. T. C., Laiho L. H.: Multifunctional imaging of endogenous contrast by
simultaneous nonlinear and optical coherence microscopy of thick tissues. Microsc Res Tech
2007; 70: 628–633.
Yuan S., Roney C. A., Wierwille J., Chen C. W., Xu B., Griffiths G., et al.: Co-registered optical
coherence tomography and fluorescence molecular imaging for simultaneous morphological
and molecular imaging. Phys Med Biol 2010; 55: 191–206.
14 Optische Kohärenztomographie | 503
Zhang J., Chen Z.: In vivo blood flow imaging by a swept laser source based Fourier domain optical
Doppler tomography. Opt Express 2005; 13: 7449–7457.
Zhang Y., Cense B., Rha J., Jonnal R. S., Gao W., Zawadzki R. J., Werner J. S., et al.: High-speed
volumetric imaging of cone photoreceptors with adaptive optics spectral-domain optical
coherence tomography. Opt Express 2006; 14: 4380–4394.
Testfragen
1. Skizzieren und erläutern Sie den Aufbau eines Time-Domain-OCT-Systems. Beschreiben Sie die
Entstehung des Interferenzsignals am Detektor.
2. Skizzieren Sie das Konzept der Fourier-Domain-OCT und beschreiben Sie dabei den wesentli-
chen Unterschied zur OCT in der Zeitdomäne. Welche Vorteile bieten die Systeme im Vergleich
zueinander?
3. Beschreiben Sie die zwei Möglichkeiten der Detektion des Interferenzspektrums in der Fourier-
Domäne. Zeigen Sie die Vorteile der jeweiligen Verfahren auf. Welche Detektionsgeschwindig-
keiten werden derzeit für einen Tiefenscan (A-Scan) erreicht.
4. Welcher Wellenlängenbereich wird vorzugsweise für die OCT verwendet und warum? Benennen
Sie den Zusammenhang zwischen der axialen Auflösung eines OCT-Systems und der verwen-
deten Lichtquelle. Welcher Kompromiss entsteht zwischen axialer Auflösung und Messtiefe für
OCT-Systeme in der Fourier-Domäne?
5. Benennen Sie die Vor- und Nachteile der OCT gegenüber anderen konventionellen Bildgebungs-
verfahren.
6. In welchem Teilgebiet der Medizin findet die OCT ihre Hauptanwendung? Welche Zentralwellen-
länge wird dabei neben den 800-nm-Systemen alternativ verwendet? Benennen Sie die Vorzüge
beider Wellenlängenbereiche.
7. Mit welcher Erweiterung können Blutflussgeschwindigkeiten in der OCT bildlich dargestellt und
quantifiziert werden? Welche Bedingungen müssen dafür bei der Bildaufnahme erfüllt werden?
Beschreiben Sie den Zusammenhang zwischen der axialen Geschwindigkeitskomponente der
Probe und der Doppler-Phasenverschiebung.
Dirk Grosenick, Rainer Macdonald
15 Diffuse optische Bildgebung
Zusammenfassung: Bilder vom Inneren des Körpers mit Licht – geht das? Der Kör-
per ist doch undurchsichtig! Wer einmal einen roten Laser-Pointer auf die eine Seite
seiner Hand hält erkennt, dass doch ein messbarer Anteil Licht auf der anderen Sei-
te der Hand wieder austritt. In der diffus optischen Bildgebung wird Gewebe mithilfe
von nahinfrarotem Licht durchleuchtet, um daraus wichtige diagnostische Informa-
tionen abzuleiten. In diesem Kapitel werden die Grundlagen der Lichtausbreitung in
Gewebe erläutert. Anhand der optischen Mammographie werden die Transilluminati-
onsbildgebung, die diffuse optische Tomographie und die optische Tomosynthese als
Beispiele für Untersuchungsmethoden zur Charakterisierung der Hämoglobinvertei-
lung und zur Bestimmung der Anreicherung eines fluoreszierenden Kontrastmittels
in Läsionen vorgestellt.
Abstract: Using light to obtain images from the inside of the body – is this possible?
Isn’t the human body optically opaque?! Anybody who has directed a red laser pointer
to his or her hand before will have noticed that a considerable amount of light is in-
deed transmitted through the hand. In Diffuse Optical Imaging tissue is transillumi-
nated by near-infrared light in order to obtain images of diagnostic value. This chapter
discusses the basics of light propagation in tissue. Optical Mammography is discussed
as an example to illustrate several methods such as Two-dimensional Transillumina-
tion Imaging, diffuse Optical Tomography, and Optical Tomosynthesis. The methods
are applied to characterize the hemoglobin concentration or the enrichment of a flu-
orescent contrast agent in lesions of the breast.
506 | Dirk Grosenick, Rainer Macdonald
15.1 Einleitung
Mithilfe einer Taschenlampe lässt sich ohne Weiteres feststellen, dass rotes Licht mü-
helos zentimeterdicke Gewebeschichten, z. B. die Finger, durchdringt. Bereits dieses
einfache Experiment legt nahe, dass es bei Verwendung bestimmter Wellenlängen
des Lichtes möglich sein sollte, ein Stück weit in den menschlichen Körper hinein-
zusehen und somit optische Bildgebungsverfahren in vivo realisieren zu können.
Bei genauerer Betrachtung fällt jedoch ebenfalls auf, dass die durchleuchteten Finger
das eingestrahlte Licht auch seitlich wieder abgeben und in Transmission recht ver-
schwommen oder „diffus“ leuchten. Dies liegt daran, dass optische Photonen an den
Zellen und Zellbestandteilen des Gewebes stark gestreut werden. Da die Wahrschein-
lichkeit für Streuvorgänge bei rotem und nahinfrarotem Licht sehr viel größer ist als
für die Absorption, wird die Lichtausbreitung in ausgedehnten Gewebeschichten oft
als „diffusionsartig“ beschrieben [Ishimaru 1989].
Diffusion (lat. diffundere – ausgießen, verstreuen, ausbreiten): physikalischer Prozess, der bei
ungleichmäßiger Verteilung von Teilchen zu einem Transport der Teilchen bis zu ihrer gleichmä-
ßigen Durchmischung führt.
Vorteilhaft ist die Verwendung von Licht im Spektralbereich mit Wellenlängen zwi-
schen etwa 650 und 900 nm. Dieser Bereich wird aus den genannten Gründen auch
als gewebeoptisches Fenster bezeichnet. Je nach Gewebe sind damit Eindringtie-
fen von einigen Zentimetern mit effektiven Weglängen von mehreren 10 cm (bedingt
durch die Streuung) möglich. Die Energie der Photonen ist dabei so gering, dass kei-
ne ionisierende Wirkung auftritt. Die vergleichsweise starke Lichtstreuung in Gewe-
be führt allerdings dazu, dass das räumliche Auflösungsvermögen optischer In-vivo-
Mess- und Bildgebungsverfahren in der Regel deutlich geringer ausfällt als bei den
meisten anderen medizinischen Bildgebungsverfahren (typisch nicht besser als 5 bis
10 mm). Die medizinisch-optische Bildgebung ist deshalb vornehmlich für die funk-
tionelle Diagnose, jedoch nicht für die Diagnose krankhafter Veränderungen anhand
morphologischer Eigenschaften prädestiniert.
Optische Bildgebungsverfahren bieten vielfältige neue Anwendungsmöglichkei-
ten für die medizinische Diagnostik und Therapiekontrolle. Durch Ausnutzung op-
tisch-spektroskopischer Messsignale können unter anderem Informationen über den
biochemischen metabolischen Zustand von Gewebe nichtinvasiv erfasst und darge-
stellt werden, was mit vielen anderen Bildgebungsverfahren nicht möglich ist. Durch
den Einsatz fluoreszierender Kontrastmittel lassen sich darüber hinaus sehr empfind-
lich und nahezu untergrundfrei pathologische Veränderungen der Durchblutung (Per-
fusion) von Gewebe optisch darstellen und für die Erkennung von Tumoren oder ent-
zündlichen Erkrankungen nutzbar machen. Durch die Entwicklung fluoreszenzmar-
15 Diffuse optische Bildgebung | 507
Fresnel-Reflexion
diffuse Reflexion
innere
Total- Streuung
reflexion
Absorption
diffuse Transmission
kollimierte Transmission
„ballistische Photonen”
Abb. 15.1: Schematische Darstellung der Effekte bei der Lichtausbreitung in einem diffus streuenden
Medium.
Tab. 15.1: Absorptions- und reduzierte Streukoeffizienten von weiblichem Brustgewebe in vitro bei
jeweils zwei verschiedenen Wellenlängen (nach [Tuchin 2007]).
⋅10–4 ⋅10–4
0 4 0 4
1 1
z/cm
z/cm
2 2
2 2
3 0 3 0
0 1 2 3 –1 0 2
x/cm x/cm
Abb. 15.2: Darstellung der Wahrscheinlichkeit, mit der ein am Detektor nachgewiesenes Photon aus
einer kontinuierlichen Lichtquelle ein bestimmtes Volumenelement der Größe 1 mm3 durchlaufen
hat (Schnitt durch die Photonen-Banane). Links: Reflexionsmessung, rechts: Transmissionsmes-
sung. In der Nähe der Lichtquelle und des Detektors (Pfeile) nähert sich die Wahrscheinlichkeit dem
Wert 1 (Werte > 4 ⋅ 10−4 sind braun dargestellt).
abgetastet wird und das Signal dadurch „verdünnt“ wird. Die Kontrastverdünnung ist
stark ausgeprägt, wenn sich die Inhomogenität tief im Gewebe befindet und vom aus-
gedehnten Bereich der Banane abgetastet wird, während sie umso weniger relevant
ist, je näher die Inhomogenität an der Oberfläche liegt.
Um aus den an der Gewebeoberfläche detektierten diffus transmittierten oder
reflektierten Photonen optische Eigenschaften (Streuung, Absorption) sowie deren
räumliche Verteilung bestimmen zu können, sind modellgestützte Datenanalysever-
fahren erforderlich. Die Lichtausbreitung in dicken Gewebeschichten lässt sich wegen
der Vielfachstreuung der Photonen an zufällig verteilten Streuern verschiedener Grö-
ße im Rahmen der Maxwell’schen Elektrodynamik praktisch nicht modellieren.
Vielmehr hat sich die Verwendung der Strahlungstransport-Gleichung [Chandra-
sekar 1950, Ishimaru 1978] als Ausgangsmodell sehr gut bewährt. Die Modellierung
510 | Dirk Grosenick, Rainer Macdonald
erfolgt entweder durch Monte-Carlo-Simulation [Jacques 1995] oder oft durch eine
isotrope Näherung der Strahlungstransport-Gleichung, die optische Diffusionsglei-
chung [Ishimaru 1989]:
1 𝜕 q (r,⃗ t)
∇ ⋅ D (r)⃗ ⋅ ∇𝛷 (r,⃗ t) − 𝜇a (r)⃗ 𝛷 (r,⃗ t) − ⋅ 𝛷 (r,⃗ t) = − 0 (15.1)
c 𝜕t c
Dabei ist 𝛷(r,⃗ t) die Photonendichte im streuenden Medium am Ort r ⃗ zur Zeit t. Der
Diffusionskoeffizient D ergibt sich aus dem reduzierten Streukoeffizienten 𝜇s und
dem Absorptionskoeffizienten 𝜇a zu D(r)⃗ = [3(𝜇s (r)⃗ + 𝜇a (r))] ⃗ −1 . Der Quellterm q0 (r,⃗ t)
beschreibt die am Ort r ⃗ zur Zeit t eingestrahlte Anzahl von Photonen pro Zeit und
Volumen, c ist die Lichtgeschwindigkeit im Medium. Für den Fall eines unendlich
ausgedehnten Streumediums mit homogenen optischen Eigenschaften und einer
deltaförmige Quellfunktion q0 (r,⃗ t) = 𝛿(r0⃗ )𝛿(t0 ) lautet die Lösung von Gl. (15.1):
Die Fouriertransformierte 𝛷(̂ r,⃗ 𝜔) der Photonendichte aus Gl. (15.2) hat die Form
einer Kugelwelle. Daher bezeichnet man die Frequenzraumlösungen der Diffusi-
onsgleichung auch als Photonendichtewellen. Analytische Lösungen der optischen
Diffusionsgleichung sind für eine Reihe von experimentellen Bedingungen und Geo-
metrien des Streumediums bekannt [Patterson 1989, Feng 1995, Gibson 2005]. Nume-
rische Lösungsverfahren finden insbesondere als Vorwärtsmodell bei der optischen
Tomographie Anwendung (s. Kap. 15.4.).
15.3 Transilluminationsbildgebung
Eine einfache Möglichkeit zur Untersuchung von Gewebeschichten stellt die Transil-
luminationsbildgebung dar. Diese Verfahren sind insbesondere für die Abbildung und
Charakterisierung von Tumoren in der weiblichen Brust entwickelt worden [Gros 1972,
Carlsen 1982]. Wie in Abb. 15.3 (a) skizziert, wird bei den modernen Weiterentwick-
lungen dieser Verfahren die zu untersuchende Brust zwischen zwei parallelen Glas-
platten positioniert und mithilfe einer Sende- und einer Empfangsfaser durchleuchtet
[Grosenick 1999].
Werden die beiden Fasern simultan rasterförmig über das Gewebe geführt, so las-
sen sich Transmissionsbilder erzeugen, in denen Tumoren als dunkle Gebiete mit er-
höhter Absorption erkennbar sind. Durch die im Tumor erhöhte Hämoglobinkonzen-
tration ist die gemessene Transmission im nahinfraroten Spektralbereich geringer als
beim umliegenden Gewebe. Da das Lichtsignal aber auch empfindlich von lokal ver-
änderten Streueigenschaften des Gewebes beeinflusst wird, wurden Verfahren entwi-
ckelt [Patterson 1989], um die Absorptions- und Streueigenschaften des Gewebes tren-
nen zu können. Ein möglicher Ansatz ist das in Abb. 15.3 (a) dargestellte zeitaufge-
löste Messverfahren [Grosenick 1999]. Hierbei werden Pikosekunden-Laserimpulse
15 Diffuse optische Bildgebung | 511
Glasplatten
Photonen-
Laufzeitverteilung
2 cm
Zeitfenster
(a) (b) (c) (d)
Abb. 15.3: Transilluminationsbildgebung der weiblichen Brust zur Tumordetektion. (a) Messprinzip
bei Verwendung von Pikosekunden-Laserimpulsen; (b) Durchleuchtungsbild einer Brust bei einer
Wellenlänge von 660 nm (relative Photonenzahlen im Zeitfenster der Photonenlaufzeitverteilungen,
vgl. Abb. (a). Der Pfeil kennzeichnet die Position eines invasiv duktalen Karzinoms mit erhöhter Ab-
sorption. (c) Fluoreszenzmessung an derselben Brust unter Verwendung des Kontrastmittels Indo-
cyaningrün – der Kontrast an der Tumorposition ist ausgelöscht; (d) Fluoreszenzbild nach Korrektur
der Gewebegrundabsorption – das Karzinom ist mit hohem Kontrast erkennbar.
in das Brustgewebe eingestrahlt und die Laufzeiten der detektierten Photonen gemes-
sen. Die Laufzeitverteilung der detektierten Photonen repräsentiert einen gegen-
über dem Laserimpuls deutlich verbreiterten transmittierten Impuls. Bei der Durch-
leuchtung von Brustgewebe liegt die Halbwertsbreite typischerweise bei einigen
Nanosekunden. Lokale Änderungen in der Gewebestreuung beeinflussen vor allem
die Vorderflanke dieses Impulses, während absorbierende Inhomogenitäten die Im-
pulsform praktisch nicht ändern. Bestimmt man für alle Rasterpositionen die relative
Photonenzahl in einem festen Zeitfenster auf der Rückflanke der Photonenlaufzeitver-
teilungen (Abb. 15.3 (a)), so erhält man ein qualitatives Bild der Gewebeabsorption.
Abb. 15.3 (b) zeigt als Beispiel ein optisches Mammogramm für eine Patien-
tin mit einem Karzinom. Eine genauere Analyse der gemessenen Laufzeitverteilun-
gen, z. B. mithilfe des Diffusionsmodells für den Photonentransport, ermöglicht die
Bestimmung der Absorptionskoeffizienten 𝜇a und der reduzierten Streukoeffizienten
𝜇s des Tumors und des gesunden Gewebes [Grosenick 2004]. Wird die Untersuchung
mit mehreren ausgewählten Wellenlängen im nahinfraroten Spektralbereich durchge-
führt, so lassen sich aus den Absorptionskoeffizienten die Konzentrationen von Oxy-
und Desoxyhämoglobin bestimmen. Bei ausreichender Empfindlichkeit kann auch
der relative Anteil von Wasser und Lipiden im Gewebe abgeleitet werden. Die Wel-
lenlängenabhängigkeit des reduzierten Streukoeffizienten ermöglicht weiterhin Aus-
sagen über die mittlere Größe der Streuzentren [Taroni 2005].
Alternativ zum zeitaufgelösten Messverfahren lassen sich die Photonenlaufzei-
ten auch mithilfe intensitätsmodulierter Laserstrahlung aus der Phasenverschiebung
512 | Dirk Grosenick, Rainer Macdonald
der modulierten Signale abschätzen [Chance 1998]. Im einfachsten Fall kommt dabei
nur eine Modulationsfrequenz aus dem Fourierspektrum der Photonenlaufzeitvertei-
lung zur Anwendung. Damit erhält man zwar nicht den vollen Informationsgehalt der
zeitaufgelösten Messungen, der experimentelle Aufwand wird jedoch wesentlich ge-
ringer. Formal stehen mit der Demodulation und der Phasenverschiebung zwei un-
abhängige Messgrößen zur Verfügung, so dass auch bei Beschränkung auf nur ei-
ne Modulationsfrequenz eine Trennung der beiden gesuchten Größen Absorption 𝜇a
und Streuung 𝜇s prinzipiell möglich ist. Besser ist jedoch der Einsatz eines breiten
Spektrums an Modulationsfrequenzen, wodurch allerdings der Aufwand wieder grö-
ßer wird.
Die Transilluminationsbildgebung lässt sich mit gewissen Modifikationen auch
für den Nachweis eines fluoreszierenden Kontrastmittels im Gewebe verwenden.
Die Anregung der Fluoreszenz erfolgt mit nahinfrarotem Laserlicht, welches spek-
tral an die Absorption des Kontrastmittels angepasst sein muss, und es werden neben
den gestreuten Laserphotonen zusätzlich Fluoreszenzphotonen detektiert und analy-
siert. Abb. 15.3 (c) und 15.3 (d) zeigen als Beispiel ein Untersuchungsergebnis aus der
optischen Mammographie [Hagen 2009]. Der Patientin wurde bei der Untersuchung
über einen Zeitraum von ca. 20 min das sehr gut verträgliche Kontrastmittel Indocya-
ningrün (ICG) intravenös verabreicht. Dieses Kontrastmittel bindet sehr schnell und
nahezu vollständig an die Plasmaproteine des Blutes. Dadurch kann es beim Zirku-
lieren durch den Körper nur aus solchen Blutgefäßen austreten, die eine pathologisch
erhöhte Permeabilität für Makromoleküle aufweisen. Dies ist in Karzinomen der Fall,
so dass sich der Farbstoff hier anreichert und für einige Zeit liegen bleibt.
Indocyaningrün (ICG): fluoreszierender Farbstoff, der in der Medizin u. a. als Indikatorsubstanz für
die photometrische Leberfunktionsdiagnose und Fluoreszenzangiographie bei Herz-, Kreislauf-,
Leber- und Augenerkrankungen eingesetzt wird.
Da das Kontrastmittel ICG mit einer Halbwertszeit von ca. 5 min über die Leber aus
dem Blut ausgewaschen und abgebaut wird, wurde die Fluoreszenzmessung erst ca.
20 min nach Ende der Infusion durchgeführt. Zu diesem Zeitpunkt befindet sich kaum
noch ICG in den Blutgefäßen, sehr wohl aber im Karzinom, so dass hier Fluoreszenz-
photonen emittiert werden. Aufgrund des erhöhten Hämoglobingehalts im Karzinom
werden diese Fluoreszenzphotonen aber auch besonders stark absorbiert. Dadurch
kommt es im Fluoreszenzbild (Abb. 15.3 (c)) an der Tumorposition zu einer Auslö-
schung des Kontrastes. Wird jedoch das Verhältnis aus der Fluoreszenz und der zuge-
hörigen Transmission auf der Anregungslaserwellenlänge dargestellt [Hagen 2009],
so erhält man ein optisches Mammogramm, das frei vom Einfluss der Gewebegrund-
absorption ist und das Karzinom mit sehr gutem Kontrast zeigt (Abb. 15.3 (d)). Mit-
hilfe solchermaßen absorptionskorrigierter Fluoreszenz-Mammogramme wurden in
einer klinischen Machbarkeitsstudie [Poellinger 2011] an 20 Patientinnen maligne ge-
15 Diffuse optische Bildgebung | 513
Sender
ps-Laserimpuls Sender
ps-Laserimpuls
Detektoren
Detektoren
Detektoren
Abb. 15.4: Messgeometrien für die diffuse optische Tomographie. Links: zirkulare Anordnung des
Senders und der Detektoren; rechts: Schichtgeometrie mit Detektoren in Transmission und Re-
flexion. Bei der Messung werden nacheinander mehrere Senderpositionen (gestrichelte Pfeile)
angesteuert. Im Medium sind die wahrscheinlichsten Trajektorien zwischen Sender und Detektor
gekennzeichnet. Die Impulse zeigen schematisch die Verbreiterung der eingestrahlten Lichtsignale
beim zeitaufgelösten Messverfahren.
gen benigne Läsionen mit einer Sensitivität von 95 % (±8 %) und einer Spezifität von
75 % (±16 %) differenziert.
len Bildgebung des Gehirns Erwachsener, dann können nur die Signale von mehr
oder weniger benachbarten Sende- und Detektorpositionen im Sinne einer diffusen
Reflexionsmessung für die Rekonstruktion herangezogen werden. An dicken Gewe-
beschichten kommt eine Kombination aus Detektoren in Transmission und Reflexion
in Betracht (Abb. 15.4, rechts). Generell können anstelle von Empfangsfasern auch
geeignete Kameras eingesetzt werden.
Für die diffuse optische Tomographie sind sowohl das zeitaufgelöste Messverfah-
ren, Messungen mit intensitätsmoduliertem Licht als auch Messungen mit kontinu-
ierlichem Licht eingesetzt worden [Gibson 2005]. Da bei der Verwendung kontinuier-
licher Laserstrahlung der Einfluss von Absorption und Streuung auf die Messsignale
ohne zusätzliche Informationen nicht getrennt werden kann, sind entsprechende Re-
konstruktionen i. a. auf die Bestimmung von Änderungen in der Gewebeabsorption
ausgerichtet.
Die Rekonstruktion der optischen Eigenschaften des Gewebes erfolgt mithilfe ei-
nes mathematischen Vorwärtsmodells, das die Berechnung der Messsignale in Ab-
hängigkeit von den optischen Eigenschaften der Volumenelemente des diffusen Me-
diums ermöglicht, und eines geeigneten Inversionsalgorithmus zur Minimierung der
Abweichungen zwischen den theoretischen und den gemessenen Signalen [Arridge
2009]. Die Vorwärtsrechnung wird häufig auf Basis der Diffusionsnäherung für den
Photonentransport, entweder in Form eines Störungsansatzes oder mithilfe von Fi-
nite-Elemente-Methoden, durchgeführt.
Bei der Untersuchung funktioneller Änderungen im Gewebe mithilfe der diffusen
optischen Tomographie lässt sich die räumliche Auflösung durch die Einbeziehung
anatomischer Informationen über das Gewebe verbessern. Diese Informationen
können beispielsweise aus einer Magnetresonanzaufnahme des Gewebes stammen.
Damit wird das Gewebe für die optische Tomographie in Segmente eingeteilt, die
jeweils gleichartige Gewebebestandteile umfassen. Bei der Analyse der optischen
Eigenschaften werden dann für diese Segmente zunächst jeweils mittlere optische
Eigenschaften rekonstruiert, bevor in einem zweiten Schritt auch Änderungen inner-
halb der Segmente zugelassen werden. Da die räumliche Auflösung bei dieser Art der
Analyse durch die Magnetresonanz-Bildgebung bestimmt wird, verbessert sich die
Genauigkeit der ermittelten optischen Parameter.
Bei Transmissionsmessungen in Schichtgeometrie kann neben den sehr rechen-
intensiven Rekonstruktionsverfahren auch die optische Tomosynthese angewandt
werden, um eine dreidimensionale Darstellung des Gewebes zu erhalten [Grose-
nick 2011]. Dabei wird ähnlich wie bei der Tomosynthese in der Röntgenbildgebung
(s. Kap. 4) ausgenutzt, dass bei einem seitlichen Versatz (Offset) zwischen Sender
und Detektor eine Läsion im Gewebe abhängig von ihrer Tiefenposition eine bestimm-
te Verschiebung im Durchleuchtungsbild zeigt (Abb. 15.5). Um eine ausgewählte
Schichtebene des Gewebes zu rekonstruieren, werden die Durchleuchtungsbilder für
die verschiedenen Detektoren unter Berücksichtigung der Form der jeweils zugehöri-
gen wahrscheinlichsten Trajektorie zwischen Sender und Empfänger gegeneinander
15 Diffuse optische Bildgebung | 515
A
0
z/cm
B –5
10 5
5 0
C y/cm –5 x/cm
0
A B C
Abb. 15.5: Links: Prinzip der optischen Tomosynthese: Objekte in unterschiedlichen Tiefen des diffu-
sen Mediums erscheinen bei Verwendung von Detektoren mit seitlichen Offsets zur Senderposition
in den Durchleuchtungsbildern unterschiedlich stark versetzt. Verschiebt man die Durchleuchtungs-
bilder (A, B, C) unter Berücksichtigung der wahrscheinlichsten Trajektorien zwischen Sender und
Detektoren gegeneinander, so überlagern sich die Beiträge aus einer bestimmten Tiefe des Me-
diums, während Beiträge aus anderen Tiefen unterdrückt werden. Rechts: 3D-Rekonstruktion des
fluoreszierenden Karzinoms aus Abb. 15.3 (d) mittels Tomosynthese unter Verwendung der Minima
aus den schichtweise überlagerten Durchleuchtungsbildern.
verschoben. Werden diese Bilder dann gemittelt, so überlagern sich die Beiträge eines
in der selektierten Tiefe befindlichen Objektes, während Objekte aus anderen Tiefen-
bereichen verschmiert werden. Der Kontrast lässt sich weiter erhöhen, wenn anstelle
der Mittelung die Verteilungen der Bildwerte für die Detektoren an den einzelnen
Pixelpositionen berücksichtigt werden und je nach Eigenschaften der Läsion z. B.
jeweils das Minimum oder ein anderer geeigneter Perzentilenwert ausgewählt wird.
Abb. 15.5 zeigt als Beispiel die dreidimensionale Rekonstruktion des in Abb. 15.3 (d)
dargestellten Karzinoms mit erhöhter Fluoreszenz. Für die Analyse wurden insgesamt
nur vier Durchleuchtungsbilder mit Detektoroffsets bis zu 2 cm verwendet.
Quellenverzeichnis
Arridge S. R.: Optical tomography in medical imaging. Inverse Problems 1999; 15, R41–93.
Arridge S. R., Schotland J. C.: Optical tomography: forward and inverse problems. Inverse Problems
2009; 25: 123010.
Carlsen E.: Transillumination light scanning. Diagn Imaging 1982; 4: 28–34.
Chance B., Cope M., Gratton E., Ramanujam N., Tromberg B.: Phase measurement of light absorption
and scattering in human tissues. Rev Sci Instr 1998; 689: 3457–3481.
Chandrasekhar S.: Radiative transfer. London: Oxford University Press, 1950.
Colak S. B., van der Mark M. B., Hooft G. W., Hoogenraad J. H., van der Linden E. S., Kuijpers F. A.:
Clinical optical tomography and NIR spectroscopy for breast cancer detection. IEEE J Quantum
Electron 1999; 5: 1143–1158.
Feng S., Zeng F. A., Chance B.: Photon migration in the presence of a single defect: a perturbation
analysis. Appl Opt 1995; 34: 3826–3837.
Fischer T., Ebert B., Voigt J., Macdonald R., Schneider U., Thomas A., Hamm B., Hermann K. G.:
Detection of rheumatoid arthritis using non-specific contrast enhanced fluorescence imaging.
Acad Radiol 2010; 17: 375–381.
516 | Dirk Grosenick, Rainer Macdonald
Franceschini M. A., Moesta K. T., Fantini S., Gaida G., Gratton E., Jess H., et al.: Frequency-domain
techniques enhance optical mammography: initial clinical results. Proc Natl Acad Sci USA 1997;
94: 6468–6473.
Gibson A. P., Hebden J. C., Arridge S. R.: Recent advances in diffuse optical imaging. Phys Med Biol
2005; 50: R1–43.
Götz L., Heywang-Köbrunner S. H., Schütz O., Siebold H.: Optical mammography on preoperative
patients (Optische Mammographie an präoperativen Patientinnen). Akt Radiol 1998; 8: 31–33.
Gros C. M., Quenneville Y., Hummel Y. J.: Diaphanologie mammaire. Radiol Electrol Med Nucl 1972;
53: 297–306.
Grosenick D., Wabnitz H., Rinneberg H., Moesta K. T., Schlag P. M.: Development of a time-domain
optical mammograph and first in vivo applications. Appl Opt 1999; 38: 2927–2943.
Grosenick D., Wabnitz H., Moesta K. T., Mucke J., Möller M., Stroszczynski C., et al.: Concentration
and oxygen saturation of haemoglobin of 50 breast tumours determined by time-domain optical
mammography. Phys Med Biol 2004; 49: 1165–1181.
Grosenick D., Hagen A., Steinkellner O., Poellinger A., Burock S., Schlag P. M., et al.: A multichannel
time-domain scanning fluorescence mammograph: performance assessment and first in vivo
results. Rev Sci Instrum 2011; 82: 024302.
Hagen A., Grosenick D., Macdonald R., Rinneberg H., Burock S., Warnick P., et al.: Late-fluorescence
mammography assesses tumor capillary permeability and differentiates malignant from benign
lesions. Opt Express 2009; 17: 17016–17033.
Ishimaru A.: Wave propagation and scattering in random media. New York: Academic Press, 1978.
Ishimaru A.: Diffusion of light in turbid media. Appl Opt 1989; 28: 2210–2215.
Jacques S. L., Wang L.: Monte Carlo modeling of light transport in tissues. In: Welch A. J., van Gemert
M. J. C. (Eds.): Optical-thermal response of laser-irradiated tissue. New York: Plenum Press,
1995: 73–100.
Jobsis F. F.: Noninvasive infrared monitoring of cerebral and myocardial sufficiency and circulatory
parameters. Science 1977; 198: 1264–1267.
Patterson M. S., Chance B., Wilson B. C.: Time resolved reflectance and transmittance for the
non-invasive measurement of tissue optical properties. Appl Opt 1989; 28: 2331–2336.
Pöllinger A., Burock S., Grosenick D., Hagen A., Diekmann L., Engelken F., et al.: Breast cancer: early-
and late-fluorescence near-infrared imaging with indocyanine green – a preliminary study.
Radiology 2011; 258: 409–416.
Scheel A. K., Krause A., Rheinbaben I. M., Metzger G., Rost H., Tresp V., Mayer P., et al.: Assessment
of proximal finger joint inflammation in patients with rheumatoid arthritis, using a novel
laser-based imaging technique. Arthritis Rheum 2002; 46: 1177–1184.
Taroni P., Danesini G., Torricelli A., Pifferi A., Spinelli L., Cubeddu R.: Clinical trial of time-resolved
scanning optical mammography at 4 wavelengths between 683 and 975 nm. J Biomed Opt
2004; 9: 464–473.
Taroni P., Torricelli A., Spinelli L., Pifferi A., Arpaia F., Danesini G., et al.: Time-resolved optical
mammography between 637 and 985 nm: clinical study on the detection and identification of
breast lesions. Phys Med Biol 2005; 50: 2469–2488.
Tuchin V.: Tissue Optics: Light scattering methods and instruments for medical diagnosis, 2nd ed.
Bellingham: SPIE Press, 2007: 158.
Villringer A., Chance B.: Non-invasive optical spectroscopy and imaging of human brain function.
Trends Neurosci 1997; 20: 435–442.
Weissleder R.: Molecular imaging: Exploring the next frontier. Radiology 1999; 212: 609–614.
15 Diffuse optische Bildgebung | 517
Weiterführende Literatur
Boas D., Brooks D. H., Miller E. L., DiMarzio C. A., Kilmer M., Gaudette R. J., Zhang Q.: Imaging the
body with diffuse optical tomography. IEEE Signal Processing Magazine 2001; 18: 57–75.
Gibson A. P., Hebden J. C., Arridge S. R.: Recent advances in diffuse optical imaging. Phys Med Biol
2005; 50: R1–43.
Jiang H.: Diffuse optical tomography: principles and applications. Boca Raton: CRC Press, 2011.
Martelli F., Zaccanti G.: Light propagation through biological tissue and other diffusive media:
theory, solutions, and software. Bellingham: SPIE Press, 2009.
Tuchin V.: Handbook of optical biomedical diagnostics. Bellingham: SPIE Press, 2002.
Wang L., Wu H.: Biomedical optics: principles and imaging. Hoboken: Wiley-Interscience, 2007.
Testfragen
1. Was versteht man unter dem gewebeoptischen Fenster?
2. Welche physikalischen Eigenschaften von Gewebe sind Parameter in der optischen Diffusions-
gleichung? Wie lassen sich diese Parameter experimentell bestimmen?
3. Wodurch unterscheiden sich der Streukoeffizient und der reduzierte Streukoeffizient?
4. Bei der Messung der Photonenlaufzeiten zwischen einer punktförmigen Photonenquelle an der
Oberseite einer 3 cm dicken Gewebeschicht und einer um 3 cm verschobenen Detektorfaser (vgl.
Abb. 15.2 links) werde ein Mittelwert von 2 ns bestimmt. Welche Weglänge haben die Photonen
im Mittel im Gewebe zurückgelegt, wenn die Lichtgeschwindigkeit im Medium mit 214 286 km/s
angenommen wird (Brechungsindex des Gewebes 1,4)?
5. Erläutern Sie das Prinzip der Tiefenauflösung bei der optischen Tomosynthese.
Thorsten M. Buzug, Cila Herman
16 Medizinische Infrarot-Bildgebung
16.1 Einleitung
Wärme ist ein Nebenprodukt des Stoffwechsels. Thermoregulation ist der Mechanis-
mus, der die Temperatur des menschlichen Körpers innerhalb der erwünschten, re-
lativ engen Grenzen hält und auf Veränderungen der Außentemperatur sowie ande-
re äußere und innere Abweichungen mit einer Kontrolle der Wärmeproduktionsraten
und des Wärmeverlustes reagiert. Interne Abweichungen der Wärmeproduktion oder
der Körpertemperatur können u. a. durch Faktoren wie Krankheit, physische Aktivi-
tät, mechanischen oder chemischen Stress verursacht werden.
Thermoregulation: Mechanismus, der die Temperatur des menschlichen Körpers innerhalb der
physiologischen Grenzen hält.
Die bemerkenswerteste Eigenschaft der IR-Bildgebung ist, dass sie eine der weni-
gen nichtinvasiven und kontaktlosen Modalitäten ist. Um Verdachtsfälle für Infektio-
nen zu detektieren, kommt die IR-Bildgebung immer häufiger bei der Abfertigung von
Fluggästen zum Einsatz. Vor einigen Jahren wurde dies z. B. für potentiell mit SARS
(Severe Acute Respiratory Syndrome) infizierte fiebernde Patienten angewendet, die
über ihr Gesichtstemperatur-Profil innerhalb einer sehr großen Anzahl von Personen
im Sicherheitsbereich eines Flughafens identifiziert werden sollten.
Seit der Erfindung von IR-Systemen wurde versucht, diese im medizinischen Be-
reich als eine funktionelle bildgebende Modalität (Infrared Functional Imaging, IRFI)
einzusetzen, um pathologisch vermehrten Stoffwechsel anhand seiner Temperatur-
signatur abzubilden. Insbesondere bei einigen Krebsarten folgt die Entdeckung von
Tumoren dem thermographischen Paradigma, dass das starke Wachstum bösartiger
Tumoren von einer Beschleunigung des Stoffwechsels begleitet wird, was zu einer auf-
fälligen Temperatursignatur führt.
In den vergangenen 20 bis 30 Jahren hat die Zahl der Patienten, bei denen Haut-
krebs diagnostiziert wurde, dramatisch zugenommen. Es gibt jedoch keinen geeig-
neten Weg, um nichtinvasiv zu entscheiden, ob ein Tumor gutartig oder bösartig ist.
Grundsätzlich wird die Diagnose mit der traditionellen ABCD-Regel von Stolz in der
einfachen Dermatoskopie gestellt. Sie basiert auf vier Hauptkriterien oder Läsions-
parametern: Asymmetrien, Grenze (border), Farbe (colour) und Durchmesser, mit ei-
nem semiquantitativen Punktesystem [Furukawa 2004, Holst und Buzug 2011]. Oft-
mals wird diese Methode durch computerisierte Scanning-Methoden verbessert, die
auf polarisierten Auflichtmikroskopen basieren [Schuster und Kolobrodov 2000]. Mit
beiden Methoden muss ein verdächtiger Fleck eine Zeitlang untersucht werden, um
ein vertrauenswürdiges Ergebnis zu erhalten, d. h., die Entwicklung des Flecks ist
wichtig. Dies verfeinert die ABCD- in die ABCDE-Methode [Holst und Buzug 2011].
ABCD-Regel: Regel die die kritischen Parameter von Hautläsionen angibt: Asymmetrie, Grenze
(border), Farbe (colour) und Durchmesser.
Bis heute ist eine invasive histologische Untersuchung der einzige Weg, um eine ein-
deutige Diagnose zu erhalten. Eine hochsensitive IR-Bildgebung könnte das unnötige
Herausschneiden von Gewebe vermeiden und maligne Melanome potentiell zu einem
frühen Zeitpunkt detektieren. Dieser Ansatz basiert auf der Tatsache, dass maligne
Melanome über einen höheren Glukoseverbrauch verfügen, der von einem höheren
Stoffwechselniveau verursacht wird. In Zusammenhang mit dem höheren Energiebe-
darf wird vermutet, dass maligne Melanome eine höhere Temperatur (2. . . 4 K) als die
sie umgebende gesunde Haut aufweisen [Buzug 2011]. Infrarot-Bildgebung besitzt ein
hohes Potential, den Beginn einer Angiogenese zu entdecken, wenn Krebszellen das
erste Mal versuchen, ihre eigene Blutzufuhr zu entwickeln. Dies ist ein notwendiger
Schritt, bevor sie schnell wachsen und metastasieren können. Andere Formen von
522 | Thorsten M. Buzug, Cila Herman
16.2 Systemdesign
Basierend auf der spektralen Durchlässigkeit unserer Atmosphäre, werden sieben
Spektralregionen eingeteilt, von denen vier mit bildgebenden Systemen im Infrarot-
Bereich in Beziehung stehen (Abb. 16.1). Der ultraviolette und der sichtbare Bereich
enden in etwa bei einer Wellenlänge von 0,7 μm (Bereiche a und b). Der nahe Infrarot-
Bereich (c: NIR) umfasst den Wellenlängenbereich von 0,7 bis 1,1 μm. Bildverstärker-
röhren und Nachtsichtbrillen arbeiten in diesem spektralen Intervall.
Der erste für die IR-Bildgebung wichtige Bereich ist der Kurzwellen-Infrarot-Band-
bereich (d: SWIR – Short Wavelength Infrared Imaging Band), der das Intervall von ca.
1,1 bis 2,5 μm abdeckt. Der zweite infrarote Bandbereich ist der Mittelwellen-Infrarot-
(e: MWIR)-Spektralbereich, der das Intervall von ca. 2,5 bis 7 μm umfasst. Der dritte
infrarote Bandbereich, der Mittelwellen-Infrarot-Spektralbereich(f: LWIR) deckt die
Spektralregion von ca. 7 bis 15 μm ab und der vierte infrarote Bandbereich ist der
Fern-Infrarot-(g: FIR)-Bereich oder der Bereich des sogenannten sehr langwelligen
1,0 a b c d e f g
0,8
Transmission
0,6
0,4
0,2
Abb. 16.1: Spektrale Durchlässigkeit der Atmosphäre und Unterteilung der spektralen Bänder (nach
[Holst und Buzug 2011]).
16 Medizinische Infrarot-Bildgebung | 523
Infrarots (VLWIR) bei einer Spektralantwort, die über 15 μm hinausgeht. Die MWIR-
und LWIR-Bandbereiche werden manchmal als erster bzw. zweiter thermisch-bildge-
bender Bandbereich bezeichnet. Die Spektralantwort eines LWIR-Systems kann sich
an irgendeinem Punkt im LWIR-Bandbereich befinden (z. B. 8. . . 14 μm, 7,5. . . 10,5 μm,
8. . . 12 μm etc.).
NIR-Spektrum: naher Infrarot-Bereich, umfasst den Wellenlängenbereich von 0,7 bis 1,1 μm.
SWIR-Spektrum: umfasst den Wellenlängenbereich von ca. 1,1 bis 2,5 μm.
16.2.1 Detektoren
Gekühlte Detektoren
LWIR-Detektoren müssen auf unter 100 K abgekühlt werden. 77 K wird als typische
Temperatur angesehen, weil sie gut mit flüssigem Stickstoff erreicht werden kann.
Viele MWIR-Detektoren funktionieren schon bei etwa 200 K. Diese Temperatur kann
524 | Thorsten M. Buzug, Cila Herman
Peltier-Element: thermoelektrischer Wandler, der bei Durchfluss von Strom eine Temperaturdif-
ferenz oder bei Temperaturdifferenz einen Stromfluss generiert. Durch Umkehr der Stromrichtung
können Peltier-Elemente sowohl kühlen als auch heizen.
InSb ist ein MWIR-Detektormaterial mit hohem Quantenwirkungsgrad, das die PtSi-
Detektoren bereits weitestgehend abgelöst hat. Darüber hinaus findet HgCdTe breite
Anwendung. Genau genommen handelt es sich dabei um die Mischung Hg1−X CdX Te.
Durch die Veränderung des Verhältnisses zwischen Cadmium und Quecksilber kann
die spektrale Antwort des Detektors auf den MWIR- oder LWIR-Bereich zugeschnit-
ten werden. Am beliebtesten ist der LWIR-Detektor mit dem Maximum der spektralen
Antwort bei 12 μm. Der QWIP-Quantendetektor (Quantum Well Infrared Photodetector,
QWIP) basiert auf ausgereifter GaAs Wachstumstechnologie [Gunapala und Bandara
1999, Holst 2008, Buzug 2011]. Die spektrale Antwort kann bei diesem Detektortyp im
Intervall von 3 bis 19 μm auf die Anforderungen zugeschnitten werden. Die Ansprech-
empfindlichkeit und das Rauschen sind temperatursensitiv, so dass QWIP-Detektoren
normalerweise auf weniger als 60 K abgekühlt werden.
Ungekühlte Detektoren
Mikrobolometer mit einer Vanadiumoxid- oder 𝛼-Si-Beschichtung arbeiten in der Re-
gel bei Zimmertemperatur und werden deshalb als ungekühlte Detektoren bezeichnet.
Obwohl ungekühlt, können diese Geräte über einen TEC-Kühler verfügen, um die De-
tektortemperatur zu stabilisieren. Ungekühlte Geräte sind in der Regel leichter und
kleiner als gekühlte Kameras. Da ihr Energieverbrauch sehr gering ist, eignen sie sich
als batteriebetriebene Handgeräte. Allerdings verfügen ungekühlte Detektoren im All-
gemeinen über eine sehr viel geringere Empfindlichkeit als gekühlte Detektoren.
16.2.2 Leistungsmessung
Der Begriff der thermischen Empfindlichkeit bezieht sich auf die kleinste erkennba-
re Temperaturdifferenz. Sie hängt von der Lichtstärke des optischen Systems, der
Detektorempfindlichkeit sowie dem Systemrauschen ab. Eine Labormessung der
thermischen Empfindlichkeit wird rauschäquivalente Differenztemperatur (Noise
Equivalent Differential Temperature, NEDT) genannt. Manchmal wird sie auch als
NETD (Noise Equivalent Temperature Difference) oder NET (Noise Equivalent Tempera-
ture) bezeichnet. Im Allgemeinen beträgt die NEDT für gekühlte Detektoren weniger
als 10 mK, für ungekühlte Sensoren kann sie aber auch bis zu 100 mK betragen.
16 Medizinische Infrarot-Bildgebung | 525
d
IFOV = DAS = (16.1)
f
wobei d die lineare Ausdehnung des Detektors und f die Brennweite des Systems ist.
Das Sichtfeld (Field-of-View, FOV) ist das IFOV multipliziert mit der Anzahl der Detek-
toren. Die kleinste auflösbare Temperatur setzt sich aus der thermischen Empfindlich-
keit und der räumlichen Auflösung zusammen [Holst und Buzug 2011].
16.3 Infrarot-Physik
Eine umfassende Behandlung der Gleichungen, die die Infrarotabstrahlung und
-messung behandeln würde, wäre aufgrund der Komplexität zu umfangreich für
dieses Kapitel. Daher sollen hier einige Vereinfachungen vorausgeschickt werden. Zu-
nächst wird angenommen, dass die Haut, von der wir die Temperatur messen wollen,
im IR-Bereich isotrop ausstrahlt und das Spektrum dem Planckschen Strahlungs-
gesetz des idealen schwarzen Körpers folgt. Weiterhin kann in der realen Situation
die Reflektion von Objekten die Zielsignatur maßgeblich beeinflussen. Hier soll aber
angenommen werden, dass die Hautreflektion im Infrarotbereich zu vernachlässigen
ist.
2𝜋hc2 1
𝜌(𝜆, T)d𝜆 = d𝜆 (16.2)
𝜆5 e 𝜆kT
hc
−1
beschreibt den Verlauf der spektralen Energiedichte 𝜌(𝜆, T) und damit den Zusam-
menhang zwischen der Temperatur T und der Wellenlänge 𝜆 der sogenannten
Schwarzkörperstrahlung (dabei ist h die Plancksche Wirkungskonstante, k die
Boltzmann-Konstante und c die Lichtgeschwindigkeit). Ein idealer Schwarzer Kör-
per ist dadurch charakterisiert, dass er alle auf ihn einfallende Strahlungsenergie
komplett absorbiert und, als Konsequenz aus dem Kirchhoffschen Gesetz, dass er
gleichzeitig seine eigene Wärmeenergie ideal abstrahlt. Kirchhoffs Gesetz besagt
kurz, dass Körper, die Strahlung gut absorbieren, gleichzeitig Strahlung auch gut
emittieren (nicht reflektieren) und umgekehrt. Dies wird durch 𝛼(T) = 𝜀(T) ausge-
drückt, dabei ist 𝛼 das Absorptionsvermögen und 𝜀 das Emissionsvermögen eines
526 | Thorsten M. Buzug, Cila Herman
beliebigen Materials bei einer Temperatur T. Für einen idealen Schwarzen Körper gilt
𝛼(T) = 𝜀(T) = 1. Natürlich sind reale Körper eher „graue“ Körper mit einem Emissions-
vermögen, das kleiner als Eins ist (0 < 𝜀(𝜆, T) < 1) und darüber hinaus typischerweise
mit der Wellenlänge variiert. Wie oben beschrieben, soll aber das Emissionsvermögen
der Haut hier als ideal angenommen werden.
Schwarzer Körper: Körper, der alle auf ihn einfallende Strahlungsenergie komplett absorbiert.
In der Abb. 16.2 (links) ist die spektrale Energiedichte 𝜌(𝜆, T) für verschiedene Tem-
peraturen dargestellt. Daraus lassen sich einige Schlüsse ziehen, die auch für die Aus-
wahl des Wellenlängenbereichs Bedeutung haben. Für jede Temperatur nimmt die da-
zugehörige Kurve der Energiedichte jeweils ein eindeutiges, ausgeprägtes Maximum
bei einer bestimmten Wellenlänge ein. Je höher die Temperatur ist, desto kürzer ist die
korrespondierende Wellenlänge 𝜆 max . Das entsprechende Wiensche Verschiebungs-
gesetz
T𝜆 max = 2.898 mm K (16.3)
0,7 δρ(λ,T )
spektrale Dichte in ρ(λ)/a. u.
0,3 0,4
100 300 K LWIR 31
280 K 0
0,2 K
0,2
0,1
0,0 10–2 –6 0,0
0 10 20 30 40 50 10 10–5 10–4 0 4 8 12 16
Wellenlänge in λ/μm Wellenlänge in λ/μm Wellenlänge in λ/μm
Abb. 16.2: Plancksches Strahlungsgesetz. Links: Die Fläche unter den jeweiligen Kurven repräsen-
tiert das Stefan–Boltzmann-Gesetz und stellt die Gesamtleistung dar. In rot ist die Kurve für 37°C
dargestellt. Mitte: Die spektrale Energiedichte ist gegen die Wellenlänge aufgetragen, so dass sich
in der doppellogarithmischen Darstellung das Wiensche Verschiebungsgesetz als Gerade durch
die Maxima der Kurvenschar ergibt. Rechts: differentielle spektrale Strahlungsdichte für 37°C (nach
[Buzug 2011]).
16.3.2 Kameraformel
Wenn man ein ideales Objekt vor sich hat, dann liefert die Kameraformel des Systems
die Ausgangsspannung
RD (𝜆) AD
VSYS = G ∫ 𝜌 (𝜆, T) d𝜆 (16.5)
4F 2
wobei G die elektronische Verstärkung des Systems, RD (𝜆) die spektrale Antwort des
Systems, AD die Detektorfläche und F die Brennweite geteilt durch den Aperturdurch-
messer ist. Die Grenzen der Integration hängen von der spektralen Empfindlichkeit
des Systems ab (z. B. MWIR oder LWIR). In praktischen Anwendungen ist der Unter-
schied zwischen dem Zielobjekt – also einer Hautveränderung – und seinem unmit-
telbaren Hintergrund entscheidend:
RD (𝜆) AD
𝛥VSYS = G ∫ [𝜌 (𝜆, TZiel ) − 𝜌 (𝜆, THintergrund )] d𝜆 (16.6)
4F 2
Mithilfe einer Reihenentwicklung kann man in einer Abschätzung zeigen, dass
Zu beachten ist, dass das menschliche Haar zwar nicht den Emissionsgrad der Haut
beeinflusst, aber als Isolator fungiert, der präzise Messungen der Hauttemperatur ver-
hindert. Die Reflexionseffekte verursachen nur einen kleinen zu vernachlässigenden
Fehler bei der Temperaturmessung. Während quantitative Bildgebung eigentlich im-
mer erwünscht ist, können qualitative Differenzen aber oftmals ausreichend sein. In
der aktiven IR-Bildgebung, die in diesem Kapitel beschrieben wird, nimmt man immer
ein Basisbild auf, auf das sich dann spätere Bilder beziehen. Im Rahmen einer Sub-
traktionsbildgebung können so auch kleine Veränderungen der Temperatur in ihrer
Dynamik sichtbar gemacht werden. Diese Art der IR-Bildgebung wird als differenti-
elle infrarote Thermographie bezeichnet (DIT).
IR-Bildgebung kann entweder passiv (statische Methode) oder aktiv (dynamisch)
durchgeführt werden. Passive (statische) IR-Bildgebung beinhaltet die Visualisie-
rung der emittierten Strahlung in der infraroten Region des elektromagnetischen
Spektrums. Aktive (dynamische) IR-Bildgebung beinhaltet auf der anderen Seite die
Anwendung einer externen Anregung wie Erwärmung oder Abkühlung, um die re-
levanten thermischen Kontraste, die auf der Oberfläche wahrgenommen werden, zu
induzieren und/oder zu verstärken [Buzug et al. 2006 a, b].
Diese Technik basiert auf folgendem Prinzip: Wenn eine Oberfläche erwärmt oder
abgekühlt wird, führen Abweichungen der thermischen Eigenschaften einer Struktur
unterhalb der Oberfläche zu identifizierbaren Temperaturkonturen auf der Oberflä-
che, die von den bei passiver IR-Bildgebung beobachteten Konturen innerhalb eines
Steady-State-Zustands abweichen. Diese Konturen sind charakteristisch für die ther-
malen Eigenschaften der Basisstruktur sowie Störungen unterhalb der Oberfläche und
können, wenn sie mit einem geeigneten thermischen Modell des Systems verbunden
werden, Informationen zur metabolischen Wärmeproduktion, zur Form, Tiefe oder
anderen Eigenschaften der Störung liefern.
Als Beispiel soll eine wichtige Applikation im Bereich der Charakterisierung
von Hautkrebs im Folgenden erläutert werden. In zahlreichen Laboratorien und
Forschungszentren weltweit werden neue Techniken zur Hautkrebs-Früherkennung
entwickelt. Nichtinvasive In-vivo-Diagnoseinstrumente sind dabei von besonderem
Interesse. Verschiedene bildgebende Techniken wurden vorgeschlagen, um die Ge-
nauigkeit bei der Differenzierung zwischen gutartigen und bösartigen melanozytären
Hautläsionen zu verbessern.
Diese beinhalten:
1. digitale Fotografie,
2. Dermatoskopie,
3. multispektrale bildgebende Systeme,
4. laserbasierte Systeme, wie konfokale Scanning-Laser-Mikroskopie (CSLM), Laser-
Doppler-Perfusions-Bildgebung und optische Kohärenztomographie (OCT),
5. Ultraschall und
6. magnetische Resonanzbildgebung (MRI).
16 Medizinische Infrarot-Bildgebung | 529
20 30
40
25
60
80 20
100
15
120
140 10
20 40 60 80 100 120
Abb. 16.3: (a) Weißlichtfoto mit charakteristischen Punkten (quadratische Schablone und Läsions-
zentrum), das auf die Infrarot-Bilder übertragen wird. Ein Landmarkendetektions-Algorithmus wird
zunächst auf das Weißlicht-Foto angewendet, um die Ecken des Markers zu lokalisieren. Über die
bekannte Kalibrierung, das FOV und die Auflösung können dieselben Punkte dann im Referenz-IR-
Bild (b) identifiziert werden. Diese Punkte werden anschließend als Landmarken in einem quadrati-
schen Bewegungsmodell zur Bewegungskorrektur der IR-Bildsequenz während der Erholungsphase
genutzt, und auf diese Weise unfreiwillige Bewegungen des Patienten kompensiert (c).
werden. Bei der Verwendung der Kühlungsmethode vergrößerte sich der Temperatur-
unterschied zwischen der Läsion und dem umgebenden gesunden Gewebe.
Der beschriebene Ansatz bietet zahlreiche Vorteile vor konkurrierenden Metho-
den, darunter sein objektiver und quantitativer Charakter bei der Beschreibung des
bösartigen Potentials von Hautläsionen mit einer einfachen quantitativen Skala, und
erfordert keinen ausgebildeten Radiologen für die Interpretation der Bilder. Die Mes-
sung ist eine relative Messung in dem Sinne, dass sie die dynamische thermische
Reaktion der Läsion des Patienten und des gesunden Gewebes desselben Patienten
anstelle der Reaktion verschiedener Individuen vergleicht. Auf diese Weise wird der
Einfluss individueller Abweichungen der Hautgewebeeigenschaften beseitigt. Weite-
re Informationen über die Methode und die im vorliegenden Abschnitt präsentierten
Ergebnissen sind in der weiterführenden Literatur zu finden [Herman und Pirtini Ce-
tingul 2011, Pirtini Cetingul und Herman 2010, 2011 a, b, Pirtini Cetingul et al. 2010].
Nicht zuletzt muss man sich immer wieder ins Gedächtnis zurückrufen, dass nur die
Temperaturverteilung auf der Hautoberfläche abgebildet werden kann, denn die IR-
Bildgebung dringt natürlich nicht in den Körper ein. Eine Diskussion der technischen
Schwierigkeiten bei der medizinischen IR-Bildgebung findet sich in [Nowakowski
2004]. Im Übrigen soll an dieser Stelle darauf hingewiesen werden, dass die Mindest-
anforderungen für radiometrisch messende Wärmebildgeräte in Deutschland durch
die Physikalisch-Technische Bundesanstalt festgelegt werden [Hutten 1992].
Quellenverzeichnis
Buzug T. M.: Infrarot-Bildgebung. In: Medizintechnik. Berlin: Springer, 2011, 403–408.
Buzug T. M., Schumann S., Pfaffmann L., Reinhold U., Ruhlmann J.: 28th IEEE EMBC., New York,
2006a, 2766–2769.
Buzug T. M., Schumann S., Pfaffmann L., Reinhold U., Ruhlmann J.: Proc. 8th IASTED Conference on
SIGNAL AND IMAGE PROCESSING (SIP 2006). Honolulu: ACTA Press, 2006b, 313–322.
Dössel O.: Bildgebende Verfahren in der Medizin. Berlin: Springer, 2000.
Furukawa T.: Biological Imaging and Sensing. Berlin: Springer, 2004.
Gunapala S. D., Bandara S. V.: Quantum Well Infrared Photodetector (QWIP) Focal Plane Array (FPA).
Semiconductors and Semimetals 1999; 62: 197.
Holst G. C., Buzug T. M.: Medical Infrared Imaging. In: Handbook of Medical Technology. Berlin:
Springer, 2011: 369–378.
Holst G. C.: Testing and Evaluating of Infrared Imaging Systems, 3rd ed. Winter Park: JCD Publishing,
2008.
Pennes H. H.: Analysis of tissue and arterial blood temperatures in the resting human forearm.
Journal of Applied Physiology 1948; 1 (2): 93.
Schuster N., Kolobrodov V. G.: Infrarotthermographie. Weinheim: Wiley-VCH, 2000.
Weiterführende Literatur
Herman C., Pirtini Cetingul M.: Quantitative visualization and detection of skin cancer using dynamic
thermal imaging. J Vis Exp 2011; 51: e2679.
Pirtini Cetingul M., Alani R. M., Herman C.: Quantitative evaluation of skin lesions using transient
thermal imaging, IHTC14-22465 Proc International Heat Transfer Conference, IHTC14, August
8–13, 2010, Washington, DC, USA.
532 | Thorsten M. Buzug, Cila Herman
Pirtini Cetingul M., Herman C.: Heat transfer model of skin tissue for the detection of lesions:
sensitivity analysis. Phys Med Biol 2010; 55: 5933–5951.
Pirtini Cetingul M., Herman C.: Quantification of the thermal signature of a melanoma lesion. Int J
Thermal Sciences 2011a; 50: 421–431.
Pirtini Cetingul M., Herman C.: The assessment of melanoma risk using the dynamic infrared
imaging technique. J Thermal Science and Engineering Applications 2011b; 3: 031006–031009.
Hutten H.: Biomedizinische Technik, Band 1. Berlin: Springer, 1992.
Nowakowski A. Z.: Limitations of active dynamic thermography in medical diagnostics. Proceedings
of the 26th Annual International Conference of the IEEE EMBS 2004; 1179.
Testfragen
1. In welchem Wellenlängenband ist die größte Empfindlichkeit für Messungen der Körperoberflä-
chentemperatur des Menschen zu erwarten?
2. Welchen Zusammenhang beschreibt das Stefan–Boltzmann-Gesetz und welchen das Wiensche
Verschiebungsgesetz? Zeichnen Sie die Kurvenschaar des Planckschen Strahlungsgesetzes
für unterschiedliche Temperaturen und erläutern Sie hieran das Stefan–Boltzmann- und das
Wiensche Verschiebungsgesetz.
3. Wie definiert die Physik einen idealen Schwarzen Körper und womit werden Unterschiede zwi-
schen einem idealen Schwarzen Körper und einem realen Körper berücksichtigt?
4. Welche Detektortypen gibt es für die Messung von IR-Strahlung?
5. Welche klinischen IR-Applikationen sind sinnvoll und welche nicht?
6. Was beschreibt die Gleichung von Pennes?
Marko Helbig
17 Mikrowellen-, Ultrabreitband- und
THz-Bildgebung
Abstract: Medical imaging using microwaves (in particular ultrawideband UWB) and
terahertz waves is becoming increasingly more importance due to their non-ionizing
radiation and the specific sensitivity to water. However, the relatively low resolution
(microwaves) and the low penetration depth (terahertz waves) complicate their usabil-
ity; thus microwave imaging is applied to investigate well penetrable tissues (breast,
bone), while terahertz imaging is focused on surfaces and contiguous tissues (skin,
excised tissue, tooth). The extent to which either method can be established in the
diagnostic practice remains to be seen.
534 | Marko Helbig
17.1 Einführung
17.1.1 Mikrowellen und Ultrabreitbandtechnik in der medizinischen Diagnostik
Mikrowellen: elektromagnetische Strahlung im Frequenzbereich zwischen 300 MHz und 300 GHz
(Dezimeterwellen bis Millimeterwellen).
Radar (dt. Funkortung und -abstandsmessung): Detektions- und Ortungsverfahren, wobei Funk-
wellen ausgesendet und reflektierte Signale empfangen und ausgewertet werden.
Ultrabreitband: Sammelbegriff von Funktechnologien, die einen sehr breiten Frequenzbereich von
mindestens 500 MHz oder mindestens 20 % der Mittenfrequenz ausnutzen.
Die für das Mikrowellen-Imaging relevante physikalische Größe ist die relative Per-
mittivität 𝜀r (𝜔). Diese Materialeigenschaft beeinflusst die Wechselwirkung elektro-
magnetischer Wellen in Medien und ist komplexwertig und frequenzabhängig:
Der Verlauf von 𝜀r (𝜔) wird durch sogenannte dielektrische Mechanismen (Polarisa-
tionseffekte) bestimmt. Für den Bereich des Mikrowellen-Imagings (0,5. . . 20 GHz) ist
die dipolare Rotationspolarisation (Orientierungspolarisation) von Bedeutung, deren
Einfluss auf den frequenzabhängigen Verlauf der Permittivität mithilfe der Debye-
Beziehung beschrieben werden kann:
𝛥𝜀r 𝜎
𝜀r (𝜔) = 𝜀r∞ + +
1 + j𝜔𝜏 j𝜔𝜀0
𝛥𝜀r 𝛥𝜀r 𝜔𝜏 𝜎
= 𝜀r∞ + −j( + ) (17.2)
1+𝜔 𝜏 2 2 1 + 𝜔2 𝜏2 𝜔𝜀0
mit 𝛥𝜀r = 𝜀r0 − 𝜀r∞ . 𝜏 ist die Relaxationszeit, 𝜀0 die elektrische Feldkonstante und 𝜀r0 ,
𝜀r∞ sind die relativen Permittivitätswerte bei sehr niedrigen bzw. sehr hohen Frequen-
zen. Außerdem umfasst diese Modellgleichung den frequenzabhängigen Einfluss frei-
er Ladungsträger in Form der elektrischen Leitfähigkeit 𝜎 auf die Permittivität.
536 | Marko Helbig
Die Ausbreitung einer ebenen elektromagnetischen Welle E(t, z) kann wie folgt
beschrieben werden:
Dabei sind 𝛼 das Dämpfungsmaß und 𝛽 das Phasenmaß, die beide durch die Per-
mittivität und deren Verlustwinkel tan 𝛿 = 𝜀r /𝜀r bestimmt sind, und c0 die Lichtge-
schwindigkeit:
𝜔 √ 𝜀r √ 𝜔 √ 𝜀r √
𝛼 (𝜔) = [ 1 + tan2 𝛿 − 1] 𝛽 (𝜔) = [ 1 + tan2 𝛿 + 1] (17.4)
c0 2 c0 2
Aus dem Dämpfungsmaß errechnet sich die wegabhängige Dämpfung AdB (𝜔, z) =
20 log10 e−𝛼z mit der Einheit dB. Sie hängt vom Verhältnis Real- zu Imaginärteil der
Permittivität ab und nimmt mit steigender Frequenz zu.
An dielektrischen Grenzflächen teilt sich die einfallende Leistung Pin (𝜔) in einen
Teil, der reflektiert wird: Prefl (𝜔) = Pin (𝜔) ⋅ |𝛤(𝜔)|2 , und einen Teil, der in das angren-
zende Medium transmittiert: Ptrans (𝜔) = Pin (𝜔) ⋅ [1 − |𝛤(𝜔)|2 ]. Quantitativ wird dieses
Phänomen durch den Reflexionsfaktor bestimmt, der sich bei senkrechtem Wellen-
einfall aus den Permittivitätswerten der angrenzenden Medien 𝜀1 (𝜔) und 𝜀2 (𝜔) ergibt:
In Abb. 17.1 sind die frequenzabhängigen Verläufe der Permittivität (Real- und Ima-
ginärteil) und der Dämpfung dreier von [Lazebnik 2007] nach ihrem Fettgewebsanteil
klassifizierter Brustgewebsgruppen (Tab. 17.1) sowie deren Reflexionsfaktor gegen-
über Tumorgewebe dargestellt. Diese Abbildung verdeutlicht eine Erkenntnis, die in
spektroskopischen Studien der letzten Jahre gewonnen wurde und euphorische Er-
wartungen älterer Publikationen relativierte. Tumorgewebe besitzt aufgrund des hö-
heren Wassergehaltes gegenüber fettreichem Gewebe (Gr. III) wie erwartet einen di-
elektrischen Kontrast, der größer als der Dichtekontrast (Mammographie) ist. Gegen-
über Drüsengewebe (Gr. I) ist er aber sehr gering. Das macht eine Brustkrebsdiagnostik
mittels UWB insbesondere bei jungen Frauen zu einer enormen Herausforderung.
17.1.3 Terahertz-Technologie
80 35
dest. Wasser
70 30 Gr. I
Gr. II
60 Gr. III
25
Tumor
50
20
40
ε''
ε'
15
30
10
20
10 5
0 0
0 2 4 6 8 10 0 2 4 6 8 10
(a) f/GHz (b) f/GHz
0 0,7
0,6
0,5
–5
A/dB⋅cmˉ¹
0,4
γ
0,3
–10
0,2
0,1
–15 0
0 2 4 6 8 10 0 2 4 6 8 10
(c) f/GHz (d) f/GHz
Abb. 17.1: (a)...(c): Permittivität (Real- und Imaginärteil) sowie die daraus resultierende Dämpfung
je cm von 3 Gruppen gesunden, nach Fettgewebsgehalt klassifizierten Brustgewebes [Lazebnik
2007] (I: 0...30 % Fettgewebe, II: 31...84 % Fettgewebe, III: 85...100 % Fettgewebe) im Vergleich
zu destilliertem Wasser und Brustkrebsgewebe. (d): Reflexionskoeffizienten (Betrag) zwischen den
drei gesunden Brustgewebsgruppen und Brustkrebsgewebe.
Tab. 17.1: Cole-Cole-Parameter der in Abb. 17.1 charakterisierten Gewebe und Wasser
träger werden durch ein angelegtes elektrisches Feld beschleunigt. Aufgrund des
resultierenden Stromimpulses wird ein THz-Impuls (elektromagnetische Welle) in
den Raum abgestrahlt. Mit aufgebrachten Silizium-Linsen wird die Divergenz dieser
Strahlung verringert. Schließlich wird mithilfe spezieller Parabolspiegel der Strahl
fokussiert auf die zu untersuchende Probe geleitet.
Die an der Probe reflektierte THz-Welle wird in analoger Weise auf einen photo-
leitenden Detektor gebracht. Werden gleichzeitig durch einen ausgekoppelten Strahl
des Femtosekundenlasers im Detektorsubstrat freie Ladungsträger zur Verfügung ge-
stellt, so werden diese durch das elektromagnetische Feld beschleunigt und es kann
ein Stromimpuls registriert werden. Eine zeitaufgelöste Analyse dieses Empfangssi-
gnals (Zeitbereichsspektroskopie) gelingt mithilfe einer einstellbaren Zeitverzögerung
des den Detektor anregenden Laserstrahls.
Durch hoch genaues Abrastern der Probe gelangt man schließlich zu einem Bild,
in welchem Parameter des reflektierten Signals abgebildet sind. Bei hinreichend dün-
nen Proben kann der Detektor ebenfalls hinter der Probe platziert werden, so dass ein
Bild auf der Basis von Transmissionsdaten entsteht.
Die wesentlichsten Unterschiede zum Mikrowellen-Imaging sind:
– Sensitivität für intra- und intermolekulare Schwingungsmoden; spezifisches THz-
Spektrum („finger print“) molekularer Substanzen,
– bessere Auflösung: ∼20 μm axial, 250 μm lateral [Pickwell 2006],
– geringere Eindringtiefe; deshalb Beschränkung auf Gewebsoberflächen (z. B.
Haut und extrahierte Gewebsproben) und nahe darunter befindliche Areale.
Signalgeneration
Allen Systemen der aktiven Mikrowellen-Bildgebung gemein ist das Prinzip, ein be-
kanntes Stimulationssignal zu erzeugen und auszusenden und die am Messobjekt re-
flektierten und/oder durch das Messobjekt transmittierten Signalanteile zu erfassen.
Aus den ermittelten Impulsantworten sind Reflexions- bzw. Transmissionsparameter
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 539
des untersuchten Objekts ableitbar. Das zu untersuchende Gewebe kann aus Sicht
der Hochfrequenztechnik daher als Zwei- bzw. Mehrtor aufgefasst werden. Zu dessen
Charakterisierung (Ermittlung der Streuparameter = Netzwerkanalyse) sind mehrere
Messprinzipien (breitbandige Signalformen) möglich, u. a.:
– Netzwerkanalysator: Die Stimulationsfrequenz wird innerhalb eines zu wählen-
den Bereiches in einstellbaren Schritten durchlaufen und die zugehörigen Emp-
fangssignale erfasst (Sinusmessverfahren, relativ lange Messzeit, hohe System-
kosten, sehr präzise).
– Impuls-Radar: Durch Aussendung eines sehr kurzen, steilflankigen und damit
breitbandigen Impulses wird der gesamte Spektralbereich gleichzeitig angeregt
(hohe Anforderung an Spannungsfestigkeit der Elektronik).
– M-Sequenz-Radar: Die Verwendung von Pseudo-Rausch-Codes (periodisch ge-
nerierte, scheinbar zufällige Signale mit steilflankigem Autokorrelationspeak) hat
gegenüber dem Impuls-Radar den Vorteil, die gesamte spektrale Energie auf ein
zeitlich ausgedehntes Signal verteilt übertragen zu können (hohe Zeitstabilität,
Korrelationsgewinn, gut integrierbare Technologie) [Sachs 2012].
Antennen
Da die Signalenergie nicht wie bei den meisten Radaranwendungen im Freiraum
übertragen wird, sondern in das Untersuchungsmedium (hier das Gewebe) eindrin-
gen muss, stellt der Messaufbau mit den verwendeten Applikatoren zur Signal-Ein-
und Auskopplung (Antennen) eine entscheidende Komponente dar. Das Design effi-
zienter Antennenstrukturen hierfür erfordert die Beachtung verschiedener Parameter
und deren Zusammenhänge, die für den jeweiligen Anwendungsfall miteinander
abgestimmt werden müssen. Um ein Bild mit ausreichendem Signal-Stör-Abstand
zu erhalten, muss das Messobjekt von möglichst vielen Positionen aus beleuchtet
werden. Dazu werden entweder Sende- und Empfangsantenne mechanisch um das
Untersuchungsobjekt bewegt (Scanner) oder es kommen viele hinreichend kleine
Antennen (Antennenarray) zum Einsatz, wobei sequentiell jeweils eine Antenne als
Sender fungiert und alle anderen die rückgestreuten Signale empfangen.
Neben der physikalischen Antennengröße und ihrer Strahlungseffizienz spielt
beim Zeitbereichs-Imaging vor allem die Impulsform (kurze Impulsdauer mit gerin-
gem Nachschwingen) und deren Stabilität in einem möglichst großen Bereich des
Antennenstrahlungswinkels eine entscheidende Rolle. Des Weiteren kann mithilfe
eines Koppelmediums zum einen die Hautreflexion verringert werden, zum anderen
können die Antennen dielektrisch skaliert werden. Beispiele entwickelter und für Mi-
540 | Marko Helbig
17.2.2 Signalverarbeitung
Mikrowellen-Tomographie
Rekonstruktionsalgorithmen aktiver Mikrowellen-Tomographie-Systeme streben eine
iterative Lösung der vorliegenden nichtlinearen inversen elektromagnetischen Streu-
probleme an. In der Regel wird darin ausgehend von einem zu definierenden Initial-
zustand (komplexe Wellenzahl) das elektrische Feld berechnet und mit dem gemes-
senen verglichen. Die erhaltene Differenz gilt es zu minimieren. Beispielsweise mit-
hilfe des Gauss-Newton-Verfahrens werden die Parameter iterativ gezielt verändert,
bis ein Abbruchkriterium erfüllt ist. Als Ergebnis dieses Minimierungsproblems liegen
anschließend topographisch verteilt Absolutwerte von Permittivität und Leitfähigkeit
vor, die aus der angepassten komplexen Wellenzahl errechenbar sind. Das zeichnet
diese Methode gegenüber den in der Regel einfacheren Methoden der UWB-Radar-
Bildgebung aus. Andererseits ist sie durch einen immens höheren Rechenaufwand
und eine geringere Auflösung gekennzeichnet.
UWB-Radar-Bildgebung
Eine Bildgebung nach dem Radar-Prinzip bildet Informationen über die Lage reflektie-
render Objekte und die Intensität der reflektierten Signale ab. Das erfordert gegenüber
der Mikrowellen-Tomographie einen geringeren Rechenaufwand und kann breitban-
dig erfolgen (UWB-Radar).
Am Beispiel des Imagings zur Erkennung von Brustkrebs werden die drei wesentli-
chen Komponenten der Signalverarbeitung erläutert.
– Oberflächenrekonstruktion: Beim kontaktlosen Scannen der Brust, d. h., wenn
der Abstand zwischen Antennen und Brust nicht reproduzierbar konstant ist, ist
eine exakte Identifizierung der Brustoberfläche notwendig. Neben Lasermessun-
gen [Williams 2011] kann dies auch mithilfe der an der Brustoberfläche reflek-
tierten UWB-Wellenfronten mit ausreichender Genauigkeit (Abweichungen im Be-
reich 1. . . 2 mm) erfolgen [Helbig 2009].
– Signalvorverarbeitung/Kalibrierung: Während Rauschen durch eine längere
Messzeit (Mittelung) reduziert wird, kann Clutter (deterministische Störungen)
nur durch Kalibrierung unterdrückt werden. Ziele hierbei sind die Entfaltung
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 541
Σ Σ
Image
Abb. 17.3). Sie bestätigen das diagnostische Potential der Methode, offenbaren aber
auch die noch zu bewältigenden Herausforderungen (homogene Signaleinkopplung
ins Gewebe, Verringerung der Messzeit, Bewegungsartefakte, hohe Heterogenität des
Brustgewebes verbunden mit geringem Kontrast zwischen Drüsen- und Tumorgewe-
be). Letzterem versucht man mit verschiedenen Kontrastmitteln (Nanopartikel, Mikro-
bläschen etc.) zu begegnen.
Neben der Erkennung von Brustkrebs erwartet man mithilfe von UWB in zahlrei-
chen weiteren Anwendungen in der medizinischen Bildgebung Fortschritte, so z. B.
als Navigatortechnik. Um die Bildqualität von Magnetresonanztomographen zu er-
höhen, die mit hoher Feldstärke (3 Tesla bis 9,4 Tesla) arbeiten, haben Wissenschaftler
der PTB Berlin und der TU Ilmenau ein Verfahren entwickelt, mittels UWB die physio-
logische Bewegung des Herzens berührungslos wiederzugeben. Damit können Zeitin-
tervalle identifiziert werden, die bestimmten Bewegungszyklen des Herzens entspre-
chen, um MRT-Aufnahmen mit dem Herzschlag zu synchronisieren und Bildartefakte
zu vermeiden [Thiel 2009].
Des Weiteren widmen sich Forschergruppen auch zunehmend der Mikrowellen-
basierten Diagnostik anderer Organe. Zum einen sind hier Bestrebungen zu nennen,
die Osteoporose-Diagnose mithilfe von Mikrowellen-Imaging zu unterstützen [Zhou
2010]. Studien belegen Änderungen der dielektrischen Eigenschaften von Knochenge-
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 543
(a) (b)
–20 20 0,7
Y in mm
0,6
–40 0
0,5
–60 –20 0,4
50 –40 0,3
0 50
Y in 0 0,2
mm –50 –50 m –60 0,1
X in m –60 –40 –20 0 20 40 60
(c) X in mm
Abb. 17.3: Exemplarisches Ergebnis einer ersten klinischen Studie von [Klemm 2010]: Tumordetekti-
on in der rechten Brust einer 83-jährigen Patientin; (a) Antennenarray bestehend aus 31 Elementen;
(b) Röntgenaufnahmen; (c) UWB-Radar-Imaging. Abbildung mit freundlicher Genehmigung von M.
Klemm, Bristol University (UK).
webe mit zunehmendem Alter, die mit den mechanischen Eigenschaften korrelieren
und somit diagnostisch relevant sind. Zum anderen rücken zerebrale Fragestellungen
(Schlaganfall, funktionelle Hirnbildgebung) in den Fokus der Untersuchungen [Seme-
nov 2009].
Anwendungen des Terahertz-Imagings konzentrieren sich auf die Erkennung von
Hautkrebs, die Untersuchung extrahierten Brustgewebes und die Zahnbildgebung
[Pickwell 2006]. Kommerzielle THz-Puls-Imaging-Systeme werden von der Fa. Tera-
View Ltd. (UK) angeboten.
544 | Marko Helbig
Quellenverzeichnis
Bond E. J., Li X., et al.: Microwave Imaging via Space-Time Beamforming for Early Detection of Breast
Cancer. IEEE Trans Antennas Propag 2003; 51: 1690–1705.
Craddock I.: Wideband Antennas for Biomedical Imaging. In: Allen B., et al. (Ed.): Ultra-Wideband
Antennas and Propagation for communications, radar and imaging. Weinheim: Wiley, 2007:
437–450.
Klemm M., Craddock I. J., et al.: Clinical Trials of a UWB Imaging Radar for Breast Cancer.
Proceedings of EuCAP 2010, 1–4.
Helbig M., Geyer C., et al.: Improved Breast Surface Identification for UWB Microwave Imaging.
IFMBE Proceedings 2009; 25 (2): 853–856.
Lazebnik M., Popovic D., et al.: A large scale study of the ultrawideband microwave dielectric
properties of normal, benign and malignant breast tissues obtained from cancer surgeries.
Phys Med Biol 2007; 52: 6093–6115.
Meaney P. M., Fanning M. W., et al.: Initial Clinical Experience with Microwave Breast Imaging in
Women with Normal Mammography. Acad Radiol 2007; 14: 207–218.
Pickwell E., Wallace V. W.: Biomedical applications of terahertz technology. J Phys D: Appl Phys
2006; 39: R301–R310.
Sachs J.: Handbook of Ultra-Wideband Short-Range Sensing: Theory, Sensors, Applications.
Wiley-VCH, Berlin, 2012.
Semenov S.: Microwave tomography: review of the progress towards clinical applications. Phil Trans
R Soc A 2009; 367: 3021–3042.
Thiel F., Hein M., et al.: Combining magnetic resonance imaging and ultrawideband radar: A new
concept for multimodal biomedical imaging. Review of Scientific Instruments 2009; 80:
0143020–1–10.
Williams T. C., Bourqui J., et al.: Laser Surface Estimation for Microwave Breast Imaging Systems.
IEEE Trans BME 2011; 58: 1193–1199.
Xie Y., Guo B., et al.: Multistatic Adaptive Microwave Imaging for Early Breast cancer Detection. IEEE
Trans BME 2006; 53: 1647–1657.
Zhou T., Meaney P. M., et al.: Microwave Tomographic Imaging for Osteoporosis Screening: a Pilot
Clinical Study. Proceedings IEEE EMBS 2010; 1218–1221.
Testfragen
1. Was versteht man unter Ultrabreitbandtechnik (UWB)?
2. Nennen Sie Anwendungsbeispiele der Mikrowellen- und der THz-Bildgebung in der medizini-
schen Diagnostik und erläutern Sie die Motivation.
3. Erläutern Sie den Begriff der Permittivität und deren Bedeutung im Rahmen der Mikrowellen-Bild-
gebung. Welchen Einfluss hat sie auf die Ausbreitung elektromagnetischer Wellen im Gewebe?
Wovon ist der Reflexionsfaktor an dielektrischen Grenzflächen abhängig?
4. Beschreiben Sie grundlegend das Funktionsprinzip eines THz-Spektroskopie-Systems.
5. Wie funktioniert eine Bildgebung nach dem Prinzip der Mikrowellen-Tomographie und wie nach
dem UWB-Radar-Prinzip? Nennen Sie Möglichkeiten der Generation breitbandiger Stimulations-
signale. Erklären Sie die Funktionsweise des Delay-and-Sum-Beamformers.
Fabian Kiessling
18 Molekulare Bildgebung
18.1 Einführung
Die Molekulare Bildgebung wurde initial von Wagenaar und Weissleder als die
In-vivo-Charakterisierung und Messung biologischer Prozesse auf molekularem und
zellulärem Niveau mit Bildgebungssystemen definiert [Wagenaar 2001]. Seitdem wur-
den weitere Definitionen vorgenommen, die leicht von dieser abweichen, jedoch im
Kern den gleichen Inhalt haben. Praktisch gesehen ist es bei der Molekularen Bild-
gebung das derzeitige Ziel, eine makroskopische Struktur (in der Regel entweder ein
gesundes oder erkranktes Organ) mittels zielgerichteter, bildgebender Sonden (siehe
Erklärungsblock) darzustellen und die Expression wichtiger Markerstrukturen (siehe
Erklärungsblock) im Gewebe zu quantifizieren. Nicht gemeint ist hierbei die Bildge-
bung von einzelnen Molekülen oder Rezeptoren, da dies bisher – und wohl auch in
näherer Zukunft – mit nichtinvasiver Bildgebung nur schwer gelingen wird. Auch die
Erfassung einzelner Zellen ist, abgesehen von Zelltracking-Ansätzen mit Eisenoxid-
Nanopartikeln, bisher nur schwer möglich, da die Sensitivität der Bildgebungsverfah-
ren hierfür noch unzureichend ist. Dennoch gewinnt die Molekulare Bildgebung der-
zeit zunehmend an Bedeutung, da die erfassten molekularen Charakteristika wertvol-
le Hinweise liefern über
– die Art der Pathologie (z. B. maligner versus benigner Tumor),
– die Aggressivität der Pathologie (z. B. stark angiogenes, infiltratives und metasta-
sierendes versus eher langsam proliferierendes, gering infiltrierendes Karzinom),
– das Therapieansprechen (besonders wichtig für „molekulare Therapeutika“, die
kostenintensiv sind und nicht bei jedem Patienten wirken),
– die optimale Dosierung eines Therapeutikums (z. B. vorherige Testung der An-
reicherung des therapeutisch zu applizierenden Antikörpers nach dessen Ra-
diomarkierung mit SPECT und nachfolgender Dosisoptimierung). Der Bedarf für
diese enge Kombination von Therapie und Diagnostik führt auch zunehmend
zu der Entwicklung von „bildgebenden Therapeutika“ und eröffnet ein neues
Forschungsgebiet, das als „Theranostics“ oder „Theragnostics“ bezeichnet
wird.
Molekulare Bildgebung: Bildgebungsverfahren, mit dessen Hilfe biologische Prozesse auf mole-
kularer und zellulärer Ebene abgebildet werden können.
Molekulare Sonde: Molekül, das in der molekularen Bildgebung eingesetzt wird, um damit Ziel-
strukturen im Gewebe darstellen zu können.
Molekularer Marker: molekulare Zielstruktur, die eine Aussage über das Gewebe/die Erkrankung
erlaubt.
Target (dt. Ziel): Zielstruktur (in der Molekularen Bildgebung z. B. Rezeptor auf der Zellmembran).
Rezeptor: in der Molekularen Bildgebung ein Molekül in oder auf der Zelle, an das ein anderes
Molekül (Ligand) binden kann. Durch die Liganden-Rezeptor-Interaktionen können Signalkaska-
den ausgelöst werden.
Transporterkanal: meist membranständiges Protein, das eine Substanz (z. B. Glukose) durch die
Zellmembran hindurch lassen kann.
Carrier-Protein (dt. Tranport-Protein): Protein, das andere Stoffe temporär bindet und transpor-
tiert (z. B. im Blut oder durch die Zellmembran hindurch).
Reportergen: künstlich in die Zelle eingebrachtes Gen, das zu ihrer Erkennung dient (z. B. durch
Kodierung für ein fluoreszentes Protein).
Barrieren: 1 2 3 4 5
Zytoplasma
Zellkern
Abb. 18.1: Schematische Darstellung biologischer Barrieren, die ein molekulares Diagnostikum
überwinden muss, um an die Zielstruktur zu binden. Nach Injektion in das Blut agiert das Diagno-
stikum zuerst mit den Endothelzellen der Gefäßwand. Um extravaskuläre Ziele zu erreichen, muss
es die Endothelzellschicht überwinden und dann evtl. gegen einen Druckgradienten und trotz Ab-
strom des Plasmas an die Zielzelle gelangen. Für ein intrazelluläres Target müsste es dann noch die
Zellmembran der Zielzelle überwinden. Mit jeder zu überwindenden Membran steigt der Komplexi-
tätsgrad und der Anspruch an das Design des molekularen Diagnostikums.
Nach intravenöser Injektion der molekularen Sonde ist das Endothel die erste Zell-
schicht, mit der die Sonde Kontakt hat. Besondere Schranken bestehen hierbei nicht,
so dass Nanopartikel (z. B. USPIO, paramagnetische oder fluoreszente Liposomen)
oder sogar Mikrobläschen (Ultraschall) als Signalmoleküle eingesetzt werden kön-
nen. Auch bietet das Endothel eine Vielzahl interessanter Markermoleküle, die bei
vaskulärer Aktivierung (Inflammation; z. B. Integrine oder ICAM und VCAM, das sind
Zelladhäsionsmoleküle, die häufig als Target für molekulare Diagnostika dienen) oder
Neubildung (z. B. VEGFR-2, das ist ein Rezeptor 2 für VEGF, ein Gefäßwachstum indu-
zierendes Protein, und damit ein wichtiger Marker der Angiogenese, oder Endoglin)
stark überexprimiert werden. Außerhalb der Endothelschicht – an die zusätzlich noch
Perizyten und glatte Muskelzellen angelagert sein können – befindet sich in der Regel
ein interstitieller Raum, der mit Bindegewebsfasern und Fibroblasten durchsetzt ist.
Kleine Moleküle verteilen sich passiv in dem interstitiellen Raum (was hauptsächlich
die Kontrastierung pathologischer Läsionen mit konventionellen Kontrastmitteln
bedingt). Nanopartikel von unter 5 nm Durchmesser zeigen jedoch bereits einen deut-
lich geringeren Gefäßaustritt und verbleiben – einmal passiv ausgetreten – lange im
Interstitium, was für eine spezifische molekulare Probe den unspezifischen Hinter-
grund unvorteilhaft erhöhen kann. Nur ein geringer Anteil solcher Partikel wird in
der Lage sein, den interstitiellen Raum zu durchqueren und dann an Zielstrukturen
550 | Fabian Kiessling
Farbstoff Indo-tri-carbocaynin
optische
Bildgebung
Cyanin-Farbstoff
Quantum-Dot
paramagnetische Substanz
MRT Magnetit
Gd-Chelate
Eisenoxid-NP
Mikrobläschen
Ultraschall
Abb. 18.2: Schematische Darstellung des Verhältnisses zwischen Ligand und Signalmolekül für
unterschiedliche Bildgebungsmodalitäten. Die benötigten Signalmoleküle nehmen an Größe von
SPECT und PET über optische Bildgebung, MRT und Ultraschall zu. Hierdurch werden auch die phar-
makologischen Eigenschaften und die Körperverteilung der molekularen Sonde zunehmend durch
das Signalmolekül bestimmt.
auf Zellmembranen nachfolgender Zellen (z. B. Tumorzellen) zu binden. Dies ist der
Grund für das Scheitern vieler nanopartikulärer molekularer Diagnostikansätze.
Die Zellmembran der hinter dem interstitiellen Raum gelegenen Zellen stellt die dritte
biologische Barriere dar, wenn interzelluläre Targets adressiert werden sollen. Je mehr
biologische Barrieren zwischen Blut und Zielstruktur liegen, desto eingeschränkter
wird man bei der Wahl des Signalmoleküls (Abb. 18.2) und der Sonde und daher
auch der Bildgebungsmodalität. Auch steigt mit jeder zu überwindenden biologischen
Barriere die unspezifische Anreicherung der molekularen Sonde und sinkt der Anteil
der molekularen Sonde, der das Target erreicht.
Eine Möglichkeit, die Verweildauer intrazellulär bindender molekularer Sonden
zu erhöhen, ist deren enzymatische Modifikation. Eine lipophile oder amphiphile
Substanz wird Zellmembranen in der Regel gut überwinden können. Wird diese intra-
zellulär, beispielweise enzymatisch, gespalten und ihr lipophiler Anteil abgetrennt,
18 Molekulare Bildgebung | 551
kann sie nicht mehr aus der Zelle herausdiffundieren und reichert sich hierdurch an
(Abb. 18.3 (a)). Ein Beispiel hierfür ist das zur Zellmarkierung häufig verwendete
111
In-Oxinat. Auch Redox-Reaktionen können ein solches Trapping von molekularen
Diagnostika verursachen. Dies wird insbesondere im Rahmen der Hypoxieerfassung
mit PET eingesetzt. Zu nennen wären in diesem Zusammenhang molekulare Sonden
wie 18 F-FMISO, 18 F-FAZA und 64 Cu-ATSM.
Hypoxie-Tracer für die PET: 18 F-FMISO, 18 F-FAZA, 64 Cu-ATSM als lipophile Substanzen gelangen
passiv in die Zelle, werden dann im Fall von Sauerstoffmangel (Hypoxie) reduziert und hierdurch
hydrophil, wodurch sie die Zelle nicht mehr verlassen können und sich im Gewebe anreichern.
(a)
Quenching
Cy5.5
Cy5.5 Cy5.5 Cy5.5
Enzym
Cy5.5
polymerer Träger
gefangenes
hydrophober Teil Signalmolekül
Signalmolekül
Enzym
Enzymligand Zellmembran
(c) NHR
Amide (H+-Interaktion pH-abhängig)
selektiver Sättigungspuls
Abb. 18.3: Schematische Darstellung der Konzepte aktivierbarer molekularer Diagnostika. Ei-
ne enzymatisch aktivierbare optische Sonde ist in (a) konzeptionell erklärt. Rechts daneben
ist das fluoreszenztomographische Bild eines subkutanen Tumors nach Injektion einer Matrix-
Metalloproteinase-(MMP-)aktivierbaren Nahinfrarotsonde (grün) dargestellt. Man sieht deutlich
die enzymatische Aktivierung des Farbstoffes im Bereich des Tumors. (b) zeigt das Prinzip für inter-
zellulär „gefangene“ Sonden und (c) das Prinzip einer pH-Wert sensitiven CEST-Sonde.
Matrix-Metalloproteinasen (MMP): Gruppe von Enzymen, die die extrazelluläre Matrix (z. B. Kolla-
gen) spalten können.
18 Molekulare Bildgebung | 553
PET/SPECT
optische Bildgebung*
US
MRT
(a) CT
sensitiv quantitativ
PET/SPECT
optische Bildgebung
US **
MRT
* OCT, RAMAN inkl.
(b) CT ** einzelne MB können erfasst werden
Abb. 18.4: Schematische Darstellung der Eignung unterschiedlicher Bildgebungsmodalitäten zur Er-
fassung von Anatomie, Physiologie, Metabolismus und von molekularen Markern (a). US eignet sich
nur für eine intravaskuläre Molekulare Bildgebung. Gewebemetabolismus ist mit US nicht erfassbar.
(b) stellt schematisch die Sensitivität der Bildgebungsmodalitäten und die Quantifizierbarkeit der
hiermit gewonnenen Daten gegenüber.
Chemical Exchange Saturation Transfer (CEST; dt. Sättigungsübertragung bei chemischem Aus-
tausch): molekulare MRT-Sättigungsbildgebung.
Bildgebungsmodalitäten für die molekulare Bildgebung: nichtinvasive Verfahren wie SPECT, PET,
MRT, US und die optische Bildgebung, die in Verbindung mit molekularen Sonden zelluläre und
molekulare Vorgänge im Körper darstellen können.
Optische Bildgebung: nichtinvasive Bildgebung mit (u. a. fluoreszentem) Licht im sichtbaren („op-
tischen“) Wellenlängenbereich. Hierunter fallen u. a. die optische Reflexionsbildgebung, die opti-
sche Tomographie und die Biolumineszenzbildgebung.
Abb. 18.5: (Gegenüberliegende Seite) (a) zeigt den prinzipiellen Aufbau molekularer US-
Kontrastmittel und das elektronenmikroskopische Bild mehrerer Polycyanoacrylat-Mikrobläschen
(MB) (Balken 1 μm). Molekulare US-Kontrastmittel bestehen aus stabilisierten Mikrobläschen, an
deren Oberfläche Bindeliganden für die Zielstruktur gekoppelt werden. Im präklinischen Einsatz
funktionalisiert man die Oberfläche der MB häufig mit Streptavidin, das eine schnelle und unkom-
plizierte Kopplung unterschiedlicher biotinylierter Liganden erlaubt. Da Streptavidin für Menschen
immunogen ist, wird für den klinischen Einsatz eine direkte Kopplung bevorzugt.
Zwei Detektionsverfahren werden vorwiegend für die Molekulare US-Bildgebung eingesetzt: Wei-
sen die Bläschen eine lange Targetverweildauer auf, können diese mittels SPAQ (Sensitive Particle
Acoustic Quantification) nachgewiesen werden (b). Hierbei wartet man nach Injektion, bis nur noch
gebundene Mikrobläschen vorliegen. Der US-Transducer wird dann mittels eines Servomotors mi-
krometerweise über das Gewebe geführt und die MB werden mit hochenergetischen akustischen
Pulsen zerstört. Da ab dem zweiten Puls nur noch MB in nicht überlappenden Bereichen zerstört
werden, ergeben sich dünne Anregungsschichten mit nur einem (oder wenigen) MB/Voxel, was eine
Quantifizierung ermöglicht. Die Unterschiede eines ohne und eines mit SPAQ aufgenommen Bildes
werden anhand einer MB-enthaltenden Rattenleber demonstriert.
Alternativ kann man zu einem Zeitpunkt, an dem ausreichend MB an die Zielrezeptoren gebunden
haben, jedoch noch freie Bläschen flottieren, einen destruktiven Puls applizieren und das Signal-
plateau vor und direkt nach dem Puls vergleichen (c). Da die Bindung der MB an die Rezeptoren
längere Zeit benötigt, entspricht die Differenz beider Plateaus dem Anteil gebundener MB. Dies wird
an dem Beispiel in (c) deutlich, bei dem einmal nicht bindende und einmal VEGFR2-bindende MB in
eine tumortragende Maus injiziert wurden. Nur im Fall der bindenden MB zeigt sich eine Differenz in
den Signalplateaus.
somit nur vaskuläre Zielstrukturen adressiert werden können. Für die Bildgebung von
Angiogenese und vaskulärer Inflammation ist die Sonographie jedoch ein optimales
Verfahren: Es wurde mehrfach gezeigt, dass selbst kleine Unterschiede in der Expres-
sion angiogener Moleküle auf den Gefäßwänden sensitiv erfasst werden. Auch können
mittels Sonographie kombinierte Studien zu funktionellen und molekularen Charak-
teristika von Gefäßen kostengünstig und effizient erfolgen (Abb. 18.5). Erste moleku-
lare Ultraschallkontrastmittel befinden sich derzeit für den Einsatz bei der Diagnostik
von soliden Tumoren in der klinischen Prüfung.
(a) molekulares MB
MB
biotinylierter
Streptavidin Ligand
SAPQ
MB bereits zerstört
(überlappend)
80 80
Signalintensität
Signalintensität
Puls
60 60
destruktiver Puls
destruktiver Puls
40 40
destruktiver
20 20
0 0
0 5 10 15 20 25 0 5 10 15 20 25
Sekunden Sekunden
Quellenverzeichnis
Aime S., Barge A., Delli Castelli D., Fedeli F., Mortillaro A., Nielsen F. U., Terreno E.: Paramagnetic
lanthanide(III) complexes as pH-sensitive chemical exchange saturation transfer (CEST)
contrast agents for MRI applications. Magn Reson Med 2002; 47: 639–648.
Cohen B., Dafni H., Meir G., Harmelin A., Neeman M.: Ferritin as an endogenous MRI reporter for
noninvasive imaging of gene expression in C6 glioma tumors. Neoplasia 2005; 7: 109–117.
Cormode D. P., Roessl E., Thran A., et al.: Atherosclerotic plaque composition: analysis with
multicolor CT and targeted gold nanoparticles. Radiology 2010; 256: 774–782.
Day R. N., Davidson M. W.: The fluorescent protein palette: tools for cellular imaging. Chem Soc Rev
2009; 38: 2887–2921.
18 Molekulare Bildgebung | 559
Hoehn M., Wiedermann D., Justicia C., Ramos-Cabrer P., Kruttwig K., Farr T., Himmelreich U.: Cell
tracking using magnetic resonance imaging. J Physiol 2007; 584: 25–30.
Hoffman R. M.: Imaging cancer dynamics in vivo at the tumor and cellular level with fluorescent
proteins. Clin Exp Metastasis 2009; 26: 345–355.
Kennedy M. D., Jallad K. N., Thompson D. H., Ben-Amotz D., Low P. S.: Optical imaging of metastatic
tumors using a folate-targeted fluorescent probe. J Biomed Opt 2003; 8: 636–641.
Kiessling F., Huppert J., Palmowski M.: Functional and molecular ultrasound imaging: concepts and
contrast agents. Curr Med Chem 2009; 16: 627–642.
Louie A. Y., Hüber M. M., Ahrens E. T., Rothbächer U., Moats R., Jacobs R. E., et al.: In vivo
visualization of gene expression using magnetic resonance imaging. Nat Biotechnol 2000; 18:
321–325.
Rowland I. J., Peterson E. T., Gordon J. W., Fain S. B.: Hyperpolarized 13carbon MR. Curr Pharm
Biotechnol 2010; 11: 709–719.
Wagenaar D. J., Weissleder R., Hengerer A.: Glossary of molecular imaging terminology. Acad Radiol
2001; 8: 409–420.
Testfragen
1. Was versteht man unter dem Begriff „Molekulare Bildgebung“ und was wird dabei abgebildet?
2. Was versteht man unter einem molekularen Marker? Was ist ein Reportergen?
3. Welche Bildgebungsmodalitäten eignen sich für die Molekulare Bildgebung? Mit welchen Maß-
nahmen können sie jeweils für die Molekulare Bildgebung eingesetzt werden? Welche Vor- und
Nachteile haben sie bezüglich der Molekularen Bildgebung?
4. Was sind USPIOs und wozu dienen sie?
5. Für welche Indikationen wird die Molekulare Bildgebung benötigt?
6. Was versteht man unter Theranostik?
Olaf Dössel, Tim C. Lüth
19 Interventionelle Bildgebung
Zusammenfassung: Bei einer „Intervention“ dringt der Arzt mit Instrumenten in den
Körper ein und charakterisiert oder verändert gezielt das Körpergewebe vor Ort. Das
gelingt oft besser und genauer, wenn die Intervention durch Bildgebung unterstützt
wird. Nach einer Darstellung der medizinischen Fragestellung bei der interventionel-
len Bildgebung werden die interventionelle Radiologie, Ultraschallbildgebung und
MRT beschrieben. Auch bei der interventionellen Endoskopie spielt die Bildgebung
eine große Rolle. Der Bildgebung bei der Strahlentherapie (MV-Imaging, Electronic
Portal Imaging) ist ein eigener Abschnitt gewidmet. Modalitätsübergreifend werden
die Themen „Lokalisieren“ und „Registrieren“ angesprochen und die Methoden der
gleichzeitigen Visualisierung von prä- und intraoperativen Bildern erläutert.
Abstract: During a medical “intervention” the surgeon inserts instruments into the pa-
tient’s body in order to characterize or modify tissue. Often a better and more precise
result is achieved if the intervention is guided by imaging. After presenting medical
challenges that require interventional imaging, this chapter describes interventional
radiology, ultrasound, and MRI. Further, image guidance is very important during in-
terventional endoscopy. A separate chapter is devoted to imaging during radiation
therapy (MV-Imaging, Electronic Portal Imaging). Across the modalities the topics “lo-
calization” and “registration” are presented, and methods of simultaneous visualiza-
tion of pre- and intraoperative images are explained.
562 | Olaf Dössel, Tim C. Lüth
Natural Orifice Transluminal Endoscopic Surgery (NOTES): chirurgischer Eingriff am Patienten, der
mittels Zugang durch natürliche Körperöffnungen erfolgt, s. Band 1, Kap. 12.
nur im Rahmen einer Biopsie eine Gewebeprobe von suspektem Gewebe entnommen
werden, um dieses Gewebe dann in einer histologischen Untersuchung sehr genau zu
charakterisieren.
Bei allen diesen interventionellen Methoden ist es sehr wichtig, dass der Arzt den
bestmöglichen Weg zu dem Zielorgan sorgfältig plant, um dabei möglichst wenig ge-
sundes Gewebe zu schädigen. Bei der Intervention muss er jederzeit genau wissen,
wo sich seine Instrumente im Körper des Patienten gerade befinden. Er möchte ger-
ne wissen, welches Gewebe auf seinem Weg gerade vor ihm liegt (z. B. ein Blutgefäß,
welches nicht verletzt werden darf) und ob das Ziel des Eingriffs erreicht wurde (z. B.
das vollständige Entfernen von Tumorgewebe).
Dazu sind präoperative Bilder unbedingt nötig. Fast immer werden vor einer Inter-
vention 3D-Datensätze mit den in diesem Buch beschriebenen Methoden (insbeson-
dere Ultraschall, CT und MRT) aufgenommen. Dazu sind aber auch oft Bilder während
des Eingriffs nötig, da sich die Situation im Körper durch den Eingriff verändert hat.
Das Gehirn verändert seine Form, sobald der Schädel geöffnet wird (brain shift). Die
Leber verändert ihre Form, wenn der Bauchraum bei einer Laparoskopie aufgeweitet
wird oder wenn bereits Teile der Leber entfernt sind.
Überlagerung von prä- und intraoperativen Bildern: Einsatz von Bildern (oft in 3D) während der
Intervention, die vorher aufgenommen und für die Befundung verwendet wurden. Die während
der Intervention aufgenommenen Bilder müssen dann ortsgenau mit den präoperativen Bildern
überlagert und geeignet visualisiert werden.
Von der geeigneten Bildaufnahme während der Intervention, der ortsrichtigen Über-
lagerung mit präoperativen Bildern und von der bestmöglichen Darstellung der Bilder
auf einem Bildschirm handelt dieses Kapitel. Mehr zum Thema „Bild- und computer-
unterstützte Interventionen“ findet der Leser in Band 8 dieser Reihe. Dort wird auch
auf die besonderen Aspekte der computer- und roboterunterstützten Interventionen
eingegangen.
In diesem Kapitel soll zusätzlich – auch wenn sie nicht offiziell zu den interven-
tionellen Methoden gehört – die Bildgebung für die Strahlentherapie kurz dargestellt
werden. Im weiteren Sinne ist auch die Strahlentherapie eine Intervention, die ganz
wesentlich durch Bilder geplant und überwacht wird.
Bogen kann sehr schnell in die richtige Position gebracht werden. Bei Operationen
werden oft mobile C-Bogen-Systeme eingesetzt (besondere Anforderungen an Sterili-
tät!). Für kleinere Interventionen gibt es spezielle Räume (z. B. das sogenannte Kathe-
terlabor), in denen ein oder mehrere ineinander verschachtelte C-Bogen Systeme an
der Decke verankert sind (Abb. 19.1).
Die Schwierigkeit beim Einsatz von Ultraschall ist, dass die Orientierung des Ultra-
schall-Messkopfes im Raum meistens nicht genau bekannt ist. Damit ist eine Über-
lagerung der Ultraschall-Bilder mit präoperativen Bilddaten zur Zeit klinisch noch
nicht möglich. Forschungsprojekte widmen sich diesem schwierigen Thema. Hierbei
566 | Olaf Dössel, Tim C. Lüth
Lange metallische Objekte wie Führungsdrähte oder Katheter dürfen nicht verwen-
det werden, da sich diese Objekte wie Antennen für die Hochfrequenz verhalten und
die Bildaufnahme massiv stören können. Hat das distale Ende der Leitung auch noch
einen elektrischen Kontakt mit dem Körper des Patienten (z. B. Katheter für die Elek-
trophysiologie des Herzens), kann es zu großen induzierten Strömen im Körper des Pa-
tienten kommen, die wiederum Arrhythmien induzieren oder das Gewebe vor der Elek-
trode sehr stark erwärmen können. Hier müssen noch viele Probleme gelöst werden.
19 Interventionelle Bildgebung | 567
Die interventionelle MRT verspricht aber auch viele Vorteile: 3D-Bilder während
des Eingriffs mit hohem Weichteilkontrast und ohne mögliche Schädigung des be-
handelnden Arztes. So kann beispielsweise Tumorgewebe mit MRT teilweise besser
erkannt werden als mit dem bloßen Auge. Der Chirurg kann sich also mit MRT-Bildern
sehr gut vergewissern, ob der Tumor vollständig entfernt wurde. Die weitgehend be-
liebige Ausrichtung der Bildebene bei der MRT erlaubt es beispielsweise, die Ebene
unmittelbar vor einer Biopsienadel abzubilden um so sicherzustellen, dass kein Blut-
gefäß getroffen wird. So gibt es heute MRT-geführte Systeme für die Biopsie der Mam-
ma oder der Prostata. Mit MRT-Systemen kann auch die Erwärmung des Gewebes bei
einer Thermotherapie quantitativ und ortsaufgelöst gemessen werden.
Ein dediziertes MRT-System für die Intervention bzw. Chirurgie wurde vor einigen
Jahren vorgestellt: Das OP-Team und der Patient befinden sich innerhalb eines sehr
großen Helmholtz-Spulenpaares zur Erzeugung des Magnetfeldes („double dough-
nut“). Das System ist möglicherweise zu kostspielig und hat sich nicht durchgesetzt.
Heute sind konventionelle MRT Systeme mit allen Zusatzeinrichtungen für die MRT-
kompatible Intervention im Einsatz. Hierbei wird auch die schon oben für interven-
tionelle CT Systeme beschriebene Version eines „zweiseitigen Zugangs“ installiert.
Schließlich sind die offenen MRT Systeme mit einem vertikalen Grundfeld und der
Möglichkeit, von allen Seiten an den Patienten zu gelangen, für die interventionelle
MRT hervorragend geeignet.
Electronic Portal Imaging Device (EPID): bildgebendes System, das während einer Strahlenthera-
pie die durch den Patienten hindurchtretende Gammastrahlung darstellt. Es dient der schnellen
Kontrolle, ob die Gammastrahlung exakt das Zielorgan trifft, und gesundes Gewebe so gut wie
möglich geschont wird.
Linear- Gamma-Quant
Beschleuniger Gamma-Quelle
Kollimator
Metall
Patient
Leuchtschirm
Leuchtstoff
Video-
Elektronen
(a) Kamera Spiegel (b)
Abb. 19.2: Electronic Portal Imaging Device, EPID, links: Systemkonzept, rechts: Fluoreszenzschirm
mit Metallfolie.
nen) ausführlich beschrieben. An dieser Stelle werden diese Systeme nur mit wenigen
Stichworten vorgestellt (Tab. 19.3).
Diese Systeme können nicht nur den Ort (x-, y-, z-Koordinaten), sondern auch
die Neigung des Gerätes (theta und phi) bzw. die Rotation des Patienten relativ zum
Gerät bestimmen. Sie alle erreichen etwas unterschiedliche Genauigkeiten und un-
terliegen verschiedenen Störeinflüssen. Optische Systeme sind sehr präzise, aber sie
versagen, wenn die Sichtlinie unterbrochen ist. Magnetische Systeme werden durch
größere metallische Objekte, in denen das magnetische Wechselfeld Wirbelströme in-
duzieren kann, gestört. Impedanzbasierte Systeme erreichen nur eine relative Mess-
genauigkeit und liefern keine absoluten Koordinaten, da die Impedanzverteilung im
Körper aller Menschen sehr verschieden ist. Röntgenbasierte Systeme führen zu einer
zusätzlichen Strahlenbelastung für Patient und Arzt. Es wurden auch ultraschallba-
sierte Systeme entwickelt, die aber wegen der großen Dispersion im Körper nicht die
gewünschte Genauigkeit erreicht haben. Auch Systeme, die mit elektromagnetischen
Wellen arbeiten (ähnlich wie GPS), konnten nicht die erforderliche Genauigkeit errei-
chen.
Optische Systeme mit Zwei Kameras betrachten das Szenario. Alle zu lokalisierenden Teile
zwei und mehr Kameras tragen Reflektoren aus drei stark reflektierenden Kugeln. Diese wer-
den in beiden Bildern gefunden und aus den Orten im Bild werden die
Koordinaten berechnet.
Magnetische Systeme Drei Spulen erzeugen Magnetfelder bei unterschiedlichen Frequen-
zen im kHz-Bereich. Am Gerät ist ein dreiachsiger Magnetfeldsensor.
Aus den sechs Messsignalen werden Ort und Richtung berechnet.
Impedanzbasierte Systeme Am Körper werden drei orthogonale Elektrodenpaare befestigt und
ein hochfrequenter Strom eingespeist. Das Objekt im Körper regis-
triert die ankommende Spannung und schätzt nach der Spannungs-
teiler-Regel den Ort des Objektes (z. B. eine Elektrodenspitze im Her-
zen).
Systeme mit Röntgenbildern Ein starker, möglichst punktförmiger Röntgenabsorber wird mit zwei
C-Bogen–Systemen aus zwei Richtungen gleichzeitig aufgenommen.
Nachdem das System zuvor kalibriert wurde, kann aus den beiden
2D-Bildern der Ort des Absorbers berechnet werden.
Ultraschallbasierte Systeme Die von einer Matrix aus Ultraschallsendern emittierten Signale wer-
den von einem Empfänger aufgenommen und nach Laufzeit und/oder
Phasenverschiebung ausgewertet.
19 Interventionelle Bildgebung | 571
Unter dem Begriff „Registrieren“ fasst man die Möglichkeiten zusammen, die Koor-
dinatensysteme von verschiedenen bildgebenden Systemen, vom Patienten auf dem
Operationstisch und seiner spezifischen Zielregion und von medizinischen Geräten
wie Biopsie-Nadeln oder Knochen-Fräsern so genau wie möglich zusammenzuführen.
Hierzu sind punktförmige, linienförmige oder flächenhafte Markierungen („Marker“)
in jeweils zwei der Koordinatensysteme nötig. Man unterscheidet hierbei künstliche
Marker und natürliche Marker. Künstliche Marker sind Objekte, die der Arzt anbringt
und die in einem Paar von jeweils zwei Koordinatensystemen gut zu lokalisieren sind.
Beispielsweise können kleine Metallkugeln im Röntgenbild und mit optischen Syste-
men lokalisiert werden. Natürliche Marker sind anatomische Strukturen, die sich ge-
nau im Raum definieren lassen und die mit zwei Systemen erkannt werden. So können
z. B. Verzweigungen von großen Blutgefäßen (Bifurkationen) in mehreren bildgeben-
den Modalitäten erkannt und lokalisiert werden.
Für eine starre Transformation („rigid registration“) genügt die Lokalisierung von
mindestens drei Markern in beiden Koordinatensystemen, um die Verschiebung und
Drehung der beiden Koordinatesysteme gegeneinander zu bestimmen. Für elastische
Transformationen sind mehr Marker notwendig. Es hängt von der erwarteten Verbie-
gung und von der angestrebten Genauigkeit ab, wie viele Marker nötig sind. Sind die
Marker nicht alle gleichzeitig von der Messtechnik erfassbar, geht die Registrierung
verloren, sobald sich das elastische Gewebe verformt.
(a) (b)
Operationssitus projiziert werden, so dass der Arzt unmittelbar erkennt, was sich un-
terhalb der Oberfläche befindet.
Quellenverzeichnis
Keller F. S.: Interventional radioloy: new paradigms for the millennium. J Vasc Interv Radiol 2000; 11
(6): 677–681.
Hansis E., Carroll J. D., Schäfer D., Dössel O., Grass M.: High-quality 3-D coronary artery imaging on
an interventional C-arm x-ray system. Medical Physics 2010; 37: 1601–1609.
Delius S., Wilhelm D., Feussner H., Sager J., Becker V., Schuster T., et al.: Natural orifice transluminal
endoscopic surgery: cardiopulmonary safety of transesophageal mediastinoscopy. Endoscopy
2010; 42 (5): 405–412. Epub 4.3.2010.
Kirby M. C., Glendinning A. G.: Developments in electronic portal imaging systems. Br J Radiol 2006;
79: S50–S65.
Kausch C., Schreiber B., Kreuder F., Schmidt R., Dössel O.: Monte Carlo simulations of the imaging
performance of metal plate/phosphor screens used in radiotherapy. Medical Physics 1999; 26:
2113–2124.
Oldhafer K. J., Stavrou G. A., Prause G., Peitgen H. O., Lueth T. C., Weber S.: How to operate a liver
tumor you cannot see. Langenbecks Arch Surg 2009; 394 (3): 489–494. Epub 12.3.2009.
Schwaiger J., Markert M., Shevchenko N., Lueth T. C.: The effects of real-time image navigation in
operative liver surgery. Intl J Comput Assist Radiol Surg 2011; 6 (6): 785–796.
Weiterführende Literatur
Schlag P. M., Eulenstein S., Lange T.: Computerassistierte Chirurgie, München: Elsevier Urban &
Fischer, 2011.
Testfragen
1. Was versteht man unter der Registrierung von zwei Bildern? Was ist eine rigide und was eine
elastische Registrierung?
2. Wofür steht die Abkürzung „PTCA“, welche Erkrankung wird damit geheilt und welche Methode
wird dabei eingesetzt?
3. Welche technischen Voraussetzungen müssen Geräte und Systeme für die interventionelle
Magnetresonanztomographie erfüllen?
4. Was versteht man unter einem EPID und wozu dient es? Skizzieren Sie ein EPID und erläutern Sie
die Funktion.
5. Welche Methoden zur 3D-Lokalisierung eines medizinischen Gerätes kennen Sie?
6. Was versteht man unter einer „Maximum Intensity Projection“?
Michael Kaschke, Michael Stefan Rill
20 Operationsmikroskopie
Abstract: During the past decades, surgical microscopes have become a valuable tool
for microsurgery. They support complex medical interventions and are important for
the visualization and treatment of extremely fine tissue structures. This chapter in-
troduces the basic design principles that are required for the definition of an optical
microscope system. In particular, this chapter focuses on variable image magnifica-
tion with zoom systems. Typical illumination concepts, stands, and current trends of
modern surgical microscopy are also discussed.
576 | Michael Kaschke, Michael Stefan Rill
20.1 Einleitung
Das menschliche Auge ist ein hochentwickeltes Sinnesorgan, das uns einen detail-
lierten, bildlichen Eindruck unserer Umgebung vermittelt. Trotz dessen erstaunlicher
Leistungsfähigkeit sind hinsichtlich Auflösung und Vergrößerungsvermögen optische
Grenzen gesetzt. Deshalb bediente man sich schon im 16. Jahrhundert einfacher Lin-
sensysteme, um winzige Objekte besser untersuchen und verstehen zu können. Viele
Wissenschaftler und Tüftler entwickelten das Mikroskop als zweistufiges Vergröße-
rungssystem weiter [Gerlach 2008]. Ende des 19. Jahrhunderts gelang es Ernst Abbe,
Carl Zeiss und Otto Schott, Mikroskope mit reproduzierbarer Abbildungsqualität
einem breiten Forscherkreis zur Verfügung zu stellen.
Es ist erstaunlich, dass die Lichtmikroskopie bereits sehr weit entwickelt war, be-
vor man sie auch standardmäßig für Operationszwecke einsetzen konnte. Tatsächlich
stehen erst seit 1953 kommerzielle Operationsmikroskope zur Verfügung [Littmann
1954, Brawanski 2001]. Das liegt im Wesentlichen daran, dass die technischen und er-
gonomischen Ansprüche an ein System sehr spezifisch sind. Einerseits wird ein hoher
Bildkontrast benötigt, um unterschiedliche Gewebearten auseinanderhalten zu kön-
nen. Andererseits muss die Mikroskop-Beleuchtung für eine ausreichende Helligkeit
und eine natürliche Farbdarstellung der untersuchten Objekte geeignet sein. Da drei-
dimensionale Objekte beobachtet werden sollen (z. B. übereinanderliegende Gewebe-
strukturen), muss das Operationsmikroskop eine stereoskopische Bildgebung ermög-
lichen. Folgende Systemeigenschaften sind daher explizit erforderlich:
– Auflösungsvermögen und Vergrößerung des Operationsmikroskops müssen
hinreichend hoch sein, um feine Gewebestrukturen deutlich erkennen zu kön-
nen.
– Die optische Abbildung darf keinen Raum für Fehlinterpretationen bieten. Opti-
sche Abbildungsfehler [Gross 2005, Kaschke 2014] wie chromatische Aberratio-
nen, Bildfeldwölbungen und Verzeichnungen müssen weitgehend korrigiert sein.
– Das Mikroskop muss in der Chirurgie für verschiedene Operationsszenarien ein-
setzbar sein. Dabei spielen vor allem die regelbare Vergrößerung (s. Kap. 20.4)
und die Größe des Beobachtungsfelds (s. Kap. 20.3) eine wichtige Rolle.
– Der Arbeitsabstand zwischen Mikroskop und Patient muss möglichst groß sein,
so dass der Chirurg während einer Operation manuelle Eingriffe ohne Störung der
Visualisierung durchführen kann. Idealerweise lässt sich der Arbeitsabstand der
Anwendung entsprechend variieren („Varioskop“).
– Um bei tiefen Objekten (z. B. lange Kanäle) die Bildschärfe nur selten nachregu-
lieren zu müssen, ist ein optisches System mit möglichst hoher Schärfentiefe er-
forderlich (s. Kap. 20.3).
– Die Beleuchtung der Objekte (s. Kap. 20.5) muss optimiert sein, um eine aus-
reichende Helligkeit bei hohem Kontrast und einen realistischen Farbeindruck zu
gewährleisten.
20 Operationsmikroskopie | 577
Stativ
Binokulartubus Videokamera
Zoom-System
Beleuchtung
und Objektiv
Abb. 20.1: Einsatz eines Stereomikroskops (Carl Zeiss OPMI Lumera® i) in der ophthalmologischen
Mikrochirurgie. Mit freundlicher Genehmigung von Carl Zeiss.
Varioskop: optisches Gerät, mit dessen Hilfe durch Variation des relativen Linsenabstandes der
Arbeitsabstand kontinuierlich verändert werden kann (das Objektiv besteht dabei aus mindestens
einer konvexen und einer konkaven Linse). Typischerweise erreicht man mit dieser Anordnung
einen Arbeitsbereich von 20 bis 50 cm.
Beobachter
Binokulartubus
Okular
fOk
fT CCD
Tubuslinse
Strahlteiler
Video/Foto
Mitbeobachter
Zoom-System
Kondensor Kollektor
Lichtquelle
Objektivlinse
fObj
Objekt
fT l
VM = ⋅𝛾⋅ d (20.1)
fOk fObj
Dabei ist ld die als angenehm empfundene deutliche Sehweite, welche bei jungen Er-
wachsenen 250 mm beträgt. Gleichung (20.1) lässt sich einfach mit dem oben ge-
nannten Fernrohrlupenprinzip verstehen. Der Faktor (ld /fObj ) gibt die Lupenvergröße-
rung des Objektivs und (fT /fOk ) die Vergrößerung des Binokulartubus an.
Der Durchmesser des Beobachtungsfeldes dB ergibt sich aus der Vergrößerung
und dem Durchmesser der Feldblende im Okular dOk zu
dOk ld
dB = (20.2)
VM fOk
dZoom
NAObj = , (20.3)
2 fObj
1,22𝜆
𝛿= (20.4)
NAObj + NAK
folgt. In Gl. (20.4) ist 𝜆 die Wellenlänge des eingestrahlten Lichts und NAK die nume-
rische Apertur des Kondensors (Feldlinse der Beleuchtung). Wird das Objektiv durch
den Kondensor vollständig ausleuchtet, ist NAK = NAObj .
Bei der Auslegung eines optischen Systems sollte die Vergrößerung des Systems
der Auflösung angepasst sein. Es macht schließlich keinen Sinn, systemseitig eine hö-
here Auflösung bereitzustellen, als das Auge verarbeiten kann (𝛿Auge ≈ 40 μm). Man
definiert aus diesem Grunde eine sogenannte „förderliche“ Vergrößerung Vf , die
580 | Michael Kaschke, Michael Stefan Rill
Beleuchtungskanäle
linker rechter
dObj Abbildungskanal Abbildungskanal dZoom
des Zoom- des Zoom-
Systems Systems
durch das System ermöglicht wird und vom menschlichen Auge gerade noch aufge-
löst werden kann:
500 NA ≤ Vf ≤ 1000 NA (20.5)
Stärkere Vergrößerungen decken keine neuen Strukturdetails auf und verdunkeln das
Bild. Geringere Vergrößerungen nutzen das optische Potential des Gerätes nicht voll
aus.
Als Schärfentiefe wird der Bereich im Bildraum eines optischen Systems bezeich-
net, in dem das Bild eines fokussierten Objektes eine akzeptable Schärfe aufweist. Zur
Berechnung der Schärfentiefe eines Mikroskops müssen Beugung, Auflösung und Ak-
kommodationsfähigkeit des Auges [Atchison 2002] berücksichtigt werden. Es ergibt
sich [Lang 1981]:
𝜆 0,34 mm l2d 1 1
D= 2
+ + 2
( − ), (20.6)
2 NA VM NA VM ln lf
wobei ln und lf die Nah- und Fernakkommodationslängen des Auges sind.
Afokales Linsensystem: Linsensystem, das weder bündelnd noch zerstreuend wirkt. Parallel ein-
fallende (kollimierte) Lichtstrahlen werden zwar innerhalb des Systems gebrochen, verlassen es
jedoch wieder in paralleler Ausrichtung.
20.5 Beleuchtung
Neben der Abbildungsoptik ist die Objektbeleuchtung ein wesentliches Element des
Operationsmikroskops. Traditionell verwendet man in der Operationsmikroskopie
die sogenannte Köhlersche Auflichtbeleuchtung [Köhler 1893, Lang 1981]. Hierbei
wird das Objekt über eine zweistufige Abbildung gleichmäßig ausgeleuchtet. Das
Bild der Leuchtfeldblende wird, wie in Abb. 20.5 gezeigt (grüne Abbildungsstrah-
len), in die Objektebene projiziert. Mithilfe eines Lichtkollektors, zweier Blenden
(Aperturblende und Leuchtfeldblende) und eines Kondensors kann die beleuchtete
Fläche unabhängig von der restlichen optischen Abbildung angepasst werden. Infol-
gedessen reduziert sich der Anteil an eingestreutem Falschlicht und der Kontrast des
Objektbilds wird erhöht.
Als Leuchtquellen verwendet man Halogenlampen, Xenonlampen oder LEDs. Das
Spektrum des abgestrahlten Lichts (Lichttemperatur) muss in der Praxis so gewählt
werden, dass das beobachtete Objekt kontrastreich und farbecht erscheint. Darüber
Objekt-
Kollektor Kondensor ebene
Licht-
quelle
...
Faser
Leuchtfeld- Apertur-
blende blende
LED
reales Bild der Leuchtfeldblende
Abb. 20.5: Prinzip der Köhlerschen Beleuchtung. Die Kollektorlinse bildet eine Lichtquelle (Halo-
genlampe, Xenonlampe, LED oder Lichtfaser) vergrößert in die Aperturblende ab, welche in der
vorderen Brennebene des Kondensors liegt. Durch diese Blende wird die Beleuchtungsstärke in
der Objektebene eingestellt. Die Leuchtfeldblende hingegen ist eine weitere Irisblende und liegt
so, dass ihr durch den Kondensor verkleinertes Bild scharf in die Objektebene abgebildet wird. Sie
bestimmt das ausgeleuchtete Objektfeld bei einer vorgegebenen Bestrahlungsstärke.
20 Operationsmikroskopie | 583
ε optische Achse
Beleuch-
tungsstrahl
hinaus muss stets beachtet werden, dass das beleuchtete Gewebe nicht geschädigt
wird [Sutter 2008, BGI5006]. Heutzutage setzt man statt frei strahlender Lichtquel-
len meist Lichtfasern ein. Letztere lassen sich angesichts der geringen Abmaße und
flexiblen Positionierung einfacher in die zunehmend kleiner werdenden Systeme in-
tegrieren.
Bei Operationsmikroskopen kann es mitunter schwierig sein, die Beleuchtung
derart zu optimieren, dass das Bild hell, kontrastreich und vollständig ausgeleuch-
tet erscheint. Besonders bei tiefen Kavitäten mit geringem Öffnungsdurchmesser ist
das effektiv genutzte Lichtsignal oft sehr schwach. In solchen Fällen muss die An-
zahl der lichtreduzierenden optischen Komponenten im System (z. B. Strahlteiler und
Aperturen) minimiert werden. Oft wird daher der kollineare Strahlengang von Abbil-
dungsoptik und Beleuchtung durch einen separaten optischen Lichtkanal erweitert
oder ersetzt. Dazu strahlt man das Licht unter einem kleinen Winkel 𝜀 zum Linsen-
system ein (Paraxialbeleuchtung), so dass möglichst wenige sichtbare Objektbereiche
abgeschattet werden (Abb. 20.6).
Andere Beleuchtungsanordnungen, z. B. die „Red Reflex“-Beleuchtung [Reimer
2005, Chang 2009], nutzen gezielt die Rückreflektion von Gewebe aus, um feinste
Strukturen in der Objektebene sichtbar zu machen.
20.6 Stative
Ein Operationsmikroskop zeichnet sich nicht ausschließlich durch eine optimierte Op-
tik aus. Auch die mechanischen Anforderungen sind sehr speziell:
– Ergonomie: Im Gegensatz zu Labormikroskopen müssen Operationsmikroskope
möglichst frei im Raum beweglich sein und dem Chirurgen während eines Ein-
griffs genügend Freiraum bieten. Zudem soll der Benutzer das System bequem im
Sitzen oder Stehen bedienen können.
584 | Michael Kaschke, Michael Stefan Rill
Contraves-
System
OPMI®
PC-Monitor
(Live-Video)
Computer
Datenleitungen
Stromversor-
gung
Stative werden auch genutzt, um Strom- und Datenleitungen sowie einen Computer
für die Ansteuerung, Datenauswertung und Bildverarbeitung zu integrieren.
Contraves-System: Stativ, das durch dynamische Gegengewichte ein montiertes System mecha-
nisch ausbalanciert. Dadurch lässt sich das angebrachte System nahezu kraftlos verschieben.
„Contraves“ bezieht sich auf den Namen einer Schweizer Firma Oerlikon Contraves, die diese
Stativvorrichtung entwickelt und patentiert hat.
Quellenverzeichnis
Atchison D. A., Smith G.: Optics of the human eye. Edinburgh: Butterworth-Heinemann, 2002.
BGI 5006. Expositionsgrenzwerte für künstliche optische Strahlung. Köln: Berufsgenossenschaft
Energie Textil Elektro Medienerzeugnisse, 2004.
Brawanski A.: Geschichte der Mikroneurochirurgie. In: Deutsche Gesellschaft für Neurochirurgie
(Hrsg.). Neurochirurgie in Deutschland: Geschichte und Gegenwart. Berlin, Wien: Blackwell,
2001.
Brenner R.: Stativanordnung und Stativ für ein medizinisch-optisches Instrument. EU Patent 201 69
21 A3, 2008.
Brunner R., Haisch M., Nägele U.: Mikroskop, insbesondere Operationsmikroskop. Deutsches Patent
– Offenlegungsschrift DE 102 03 215 A1, 2002.
Chang D. F.: Improving the red reflex and surgical outcomes with the Lumera microscope. Cataract
Refract Surg Today 2009;März: 27–30.
Gerlach D.: Geschichte der Mikroskopie: Frankfurt: Harri Deutsch, 2008.
Gross H.: Handbook of optical systems – fundamentals of technical optics (Vol. 1). Weinheim: Wiley,
2005.
Gross H., Blechinger F., Achtner B.: Handbook of optical systems – survey of optical instruments
(Vol. 4). Weinheim: Wiley, 2008.
Hecht E.: Optik. München, Wien: Oldenbourg, 1999.
Heller R.: Tragvorrichtung für ein optisches Beobachtungsgerät. EU Patent 023 79 68 A2, 1987.
Hoegele A., Hauger C., Nauli F.: Microscope System. US Patent – Patent Application Publication US
2012/0008195 A1, 2012.
Hutten H. Biomedizinische Technik – medizinische Sondergebiete (Vol. 4). Berlin, Heidelberg:
Springer/TÜV, 1991.
Kaschke M., Donnerhacke K.-H., Rill M. S.: Optical Devices in Ophthalmology and Optometry –
Technology, Design Principles and Clinical Applications. Weinheim: Wiley, 2014.
Köhler A.: Gedanken zu einem neuen Beleuchtungsverfahren für mikrophotographische Zwecke. Z
Wiss Mikrosk 1893; 10(4): 433–440.
Lang W. H., Muchel F.: Zeiss microscopes for microsurgery. Berlin, Heidelberg: Springer, 1981.
Littmann H.: Ein neues Operations-Mikroskop. Klin Monatsbl Augenheilkd Augenärztl Fortbild 1954;
124: 473–476.
Muchel F., Strähle F.: Stereomicroscope. US Patent 4,518,231, 1985.
Murty A. S., Aravinda K., Ramanaiah T. V., Petluri R. L. V., Ramana Murty V. V.: Design of a high-
resolution stereo zoom microscope. Opt Eng 1997; 36: 201–209.
Reimer P., Strähle F., Kolster D.: Beleuchtungs- und Beobachtungseinrichtung. Deutsches Patent –
Offenlegungsschrift DE 103 47 732 A1, 2005.
Sutter E.: Schutz vor optischer Strahlung – Laserstrahlung, inkohärente Strahlung,
Sonnenstrahlung, Normenreihe DIN EN 60825 (VDE 0837). Berlin: VDE-Schriftenreihe, 2008.
20 Operationsmikroskopie | 587
Testfragen
1. Was verstehen Sie grundsätzlich unter Abbildungsfehlern? Wie entstehen die folgenden Abbil-
dungsfehler?
– chromatische Aberration
– Verzeichnung
– Bildfeldwölbung
2. Welche Bildfehler sind für das Operationsmikroskop besonders kritisch und durch welche Maß-
nahmen können sie korrigiert werden?
3. In Gl. (20.1) und Gl. (20.2) wurde die sogenannte „deutliche Sehweite“ eingesetzt (ld = 250nm).
Warum finden wir sie in der Vergrößerungsformel?
4. Ist es sinnvoll, die Vergrößerung des Mikroskops durch Objektiv-Okular-Kombination beliebig
groß zu wählen?
5. Bei der Videodokumentation ist die Vergrößerung des Operationsmikroskops durch VM =
fAdapter 𝛾/fObj gegeben. Hier ist fAdapter ≈ 100 mm die Brennweite des Fotoadapters. Die beiden
HDTV-üblichen Bildauflösungen betragen 1280 px × 720 px und 1920 px × 1080 px im Vollformat.
Das Seitenverhältnis des Bildes beträgt 16 : 9. Die Größe der CCD-Sensoren wird oft in Zoll
angegeben. Gebräuchliche Größen sind 2/3 und 1/2 . Diskutieren Sie die Sinnfälligkeit der
Verwendung eines HD-Videorekorders.
6. Warum ist die stereoskopische Tiefenwahrnehmung für die Mikrochirurgie eine wichtige Grö-
ße? Denken Sie bei der Argumentation an den Durchmesser von Nervenfasern, Blutgefäßen etc.
Vergleichen Sie die stereoskopische Tiefenwahrnehmung der Augen ohne optische Hilfsmittel
mit jener des Operationsmikroskops. Typische Mikroskop-Parameter sind hierbei: 𝛼 = 48,5 μm,
b = 22 mm, fObj = 200 mm bis 400 mm, fT = 125 mm, fOk = 20 mm und 𝛾 = 0,4 bis 1.
Olaf Dössel
21 Systemtheorie abbildender Systeme
Zusammenfassung: Zwischen dem Original und dem Bild, das ein bildgebendes Ver-
fahren erzeugt, gibt es allgemeingültige mathematische Zusammenhänge. Zum bes-
seren Verständnis sind Begriffe wie z. B. lineare und verschiebungsinvariante Syste-
me, die Modulationsübertragungsfunktion (MTF) und die detektive Quantenausbeu-
te (DQE) hilfreich. Auch das Rauschen und der Kontrast in einem Bild sind wichtige
Merkmale, die mit allgemeinen mathematischen Ansätzen besser beschrieben werden
können. Schließlich kann die Erkennbarkeit von Details quantitativ mit der „Receiver
Operation Curve“ bestimmt werden.
Abstract: General mathematical correlations relate the original and the image that is
created using an imaging system. For better comprehension, terms such as linear and
space-invariant systems, the Modulation Transfer Function (MTF) and the Detective
Quantum Efficiency (DQE) are introduced. Noise and contrast of an image are further
important aspects that can be better described with mathematical methods. Finally,
perception and the ability to detect details in images can be analyzed quantitatively
using the “Receiver Operation Curve”.
590 | Olaf Dössel
21.1 Motivation
Die mathematische Beschreibung der Abbildung vom gesuchten Original f (x, y) zu ei-
nem Bild g(x, y) ist für den Anwender der bildgebenden Verfahren – den Arzt – mög-
licherweise von Interesse, für den Entwickler eines Systems der nächsten Generati-
on aber eine notwendige Voraussetzung. In diesem Buch werden, wo immer möglich,
auch die mathematischen Zusammenhänge zwischen Original und Bild dargestellt.
Dabei stellt sich heraus, dass es hierbei allgemeingültige Zusammenhänge gibt, die
für alle bildgebenden Verfahren sehr ähnlich sind. Insbesondere kann man für soge-
nannte lineare und verschiebungsinvariante bildgebende Systeme Funktionen ange-
ben, die das System weitgehend unabhängig vom gerade im Einzelfall abgebildeten
Objekt charakterisieren: die Modulationsübertragungsfunktion MTF und die detekti-
ve Quantenausbeute DQE (oft auch detektive Quanteneffizienz genannt).
Systemtheorie abbildender Systeme: mathematische Beschreibung von Original und Bild und Er-
kennen von allgemeingültigen Zusammenhängen zwischen Original und Bild.
Bevor eine Systemtheorie der bildgebenden Systeme entwickelt werden kann, müssen
einige mathematische Werkzeuge eingeführt werden. Hierzu gehört insbesondere die
Fourier-Transformation von Bildern.
21 Systemtheorie abbildender Systeme | 591
Diese Definition lässt sich unmittelbar auch auf Funktionen des Ortes x übertragen.
Es ergibt sich eine Fourier-Transformierte, die eine Funktion von Raumfrequenzen u
ist:
+∞ +∞
Ein Paar aus zwei Funktionen im Ortsbereich (f (x)) und im Bereich der Raumfrequen-
zen (F(u)) wird in diesem Kapitel wie folgt dargestellt:
Die Fourier-Transformierte besteht aus komplexen Zahlen, es gibt also immer einen
Realteil und einen Imaginärteil. Bilder der Fourier-Transformierten zeigen meistens
das Amplitudenspektrum, also den Absolutbetrag von F(u).
Ist eine Funktion im Ortsbereich sinusförmig mit einer Wellenlänge 𝜆, so hat die
Fourier-Transformierte einen Peak bei der Raumfrequenz u = 1/𝜆. Die Einheit der
Raumfrequenz u ist 1/m oder 1/mm, manchmal schreibt man auch „Linienpaare/mm“
oder „lp/mm“, um eine kleine Erinnerung an die Bedeutung der Raumfrequenz an der
Einheit anzubringen.
Die Fourier-Transformierte einer Rechteckfunktion kommt in diesem Buch im-
mer wieder vor. Sie sei daher hier explizit genannt: f (x) = A für 0 < x < x0 , f (x) = 0
sonst, dann gilt:
sin(𝜋 ⋅ u ⋅ x )
A 0
|F(u)| = ⋅ |sin(𝜋 ⋅ u ⋅ x0 )| ⋅ |exp(−j ⋅ 𝜋 ⋅ u ⋅ x0 )| = A ⋅ x0 ⋅ (21.4)
𝜋⋅u 𝜋 ⋅ u ⋅ x0
1 N−1 N−1
F(u) = ⋅ ∑ f (x) ⋅ exp(−j ⋅ 2𝜋 ⋅ ux/N) f (x) = ∑ F(u) ⋅ exp(+j ⋅ 2𝜋 ⋅ ux/N) (21.6)
N x=0 x=0
592 | Olaf Dössel
und da der Sinus und der Cosinus in 2𝜋 periodisch sind folgt, dass F(u) in N periodisch
ist:
F(u + N) = F(u) (21.9)
Dass die Fourier-Transformation zur Gruppe der linearen Abbildungen gehört, er-
kennt man, wenn man die Summengleichung (Gl. (21.6)) etwas anders schreibt:
F(0) 1 1 ⋅⋅⋅ 1 f (0)
F(1) 1 1 exp(−j ⋅ 2𝜋 ⋅ 1/N) ⋅⋅⋅ exp(−j ⋅ 2𝜋 ⋅ (N − 1)/N) f (1)
( .. )= (. .. .. .. )⋅( .. )
. N .. . . . .
F(N − 1) 1 exp(−j ⋅ 2𝜋 ⋅ (N − 1)) ⋅⋅⋅ exp(−j ⋅ 2𝜋 ⋅ (N − 1)2 /N) f (N − 1)
(21.10)
An dieser Schreibweise sieht man auch, dass F(0) der Mittelwert aller Funktionswer-
te f (x) ist.
Bilder sind nun zweidimensionale Objekte. Die Erweiterung all dieser Definitio-
nen und Erkenntnisse ins Zweidimensionale mit Funktionen f (x, y) ist naheliegend:
Für die analoge Schreibweise gilt:
+∞
G FT*
GT* F GT*
0
u
FT* G
Abb. 21.1: Symmetrien in der 2D-Fourier-Transformierten von
0 reellen Zahlen.
(a) (b)
Abb. 21.2: (a) MRT-Bild eines Kopfes und (b) die dazugehörende Fourier-Transformation (Amplitu-
denspektrum, F(0,0) in der Mitte).
594 | Olaf Dössel
Damit wird eine Funktion g(x, y) gespiegelt, dann sukzessive über die Funktion f (x, y)
geschoben, an jeder Stelle das Produkt berechnet und darüber wiederum das Integral
über den gesamten Wertebereich gebildet. Das Faltungsintegral ist für die bildgeben-
den Verfahren von großer Bedeutung: In Kap. 21.3 werden wir sehen, dass für be-
stimmte bildgebende Systeme das Bild aus dem Original durch eine Faltung mit einer
für das System charakteristischen Funktion berechnet werden kann.
Es gilt nun (ohne Beweis) das Faltungstheorem:
w₁ w₂ w₃
w₄ w₅ w₆
w₇ w₈ w₉
Abb. 21.3: 3 × 3-Maske für eine Faltung.
21 Systemtheorie abbildender Systeme | 595
Es besagt, dass wir eine Faltung auch durchführen können, indem wir die Funktio-
nen f (x, y) und g(x, y) zunächst fouriertransformieren, die Fourier-Transformierten
F(u, v) und G(u, v) miteinander multiplizieren und das Ergebnis dann wieder zurück-
transformieren. Dies ist nicht nur eine wichtige mathematische Erkenntnis – für Bilder
spätestens ab 128 × 128 Pixeln ist dies auch ein Rezept für einen schnellen Faltungs-
Algorithmus, da auch hier natürlich wieder die FFT eingesetzt werden kann.
In der digitalen Schreibweise kann man auch einen etwas anderen Zugang zum
Faltungsintegral wählen: Man lege über das Bild eine Maske mit Gewichtsfaktoren wi
(Abb. 21.3). Dann multipliziere man jeden Grauwert unter der Maske mit dem dazu
gehörenden Gewichtsfaktor und addiere alle Werte. Das ergibt den neuen Wert, den
wir in das Pixel unter dem mittleren Feld der Maske eintragen. Abb. 21.3 zeigt eine
3 × 3-Maske, ebenso sind natürlich 5 × 5- oder 7 × 7-Masken möglich.
Die Gleichungen, mit denen das Faltungsintegral digital approximiert werden
kann, lauten für diese 3 × 3-Maske:
̃ y) = w1 ⋅ g(x − 1, y + 1) + w2 ⋅ g(x, y + 1) + w3 ⋅ g(x + 1, y + 1)
g(x,
+ w4 ⋅ g(x − 1, y) + w5 ⋅ g(x, y) + w6 ⋅ g(x + 1, y)
+ w7 ⋅ g(x − 1, y − 1) + w8 ⋅ g(x, y − 1) + w9 ⋅ g(x + 1, y − 1) (21.19)
Auch dies ist offenbar ein linearer und verschiebungsinvarianter Operator.
Eine mögliche Maske, mit der Bilder nachträglich bearbeitet werden können, ist
die „Mittelwert-Maske“, bei der alle Gewichtsfaktoren gleich sind und 1/9 betragen.
Damit wird das Signal-Rausch-Verhältnis um den Faktor √9 = 3 besser. Nach dem
Faltungstheorem erhält man das gleiche Ergebnis, wenn man das Originalbild und
den Faltungsfilter fouriertransformiert, dann multipliziert und das Ergebnis zurück
transformiert. Die Fourier-Transformierte einer Rechteckfunktion ist aber, wie oben
beschrieben, eine sin(𝜋ux)/(𝜋ux)-Funktion und das bedeutet, dass hohe Raumfre-
quenzen im Bild mit einer oszillierenden Funktion bedämpft bzw. abgeschnitten
werden.
Ein besseres Ergebnis einer räumlichen Glättung eines Bildes erhält man, wenn
man mit einer Maske arbeitet, die eine Gauss-Funktion so gut wie möglich nachemp-
findet. Die Fourier-Transformierte der Gauss-Funktion ist ja wiederum eine Gauss-
Funktion, was dazu führt, dass die hohen Raumfrequenzen mit diesem Filter gleich-
mäßiger bedämpft bzw. abgeschnitten werden.
Das Korrelationsintegral misst, wie ähnlich sich zwei Bilder sind und ob wir durch
eine Verschiebung (x, y) eine größere Ähnlichkeit herbeiführen können.
Das Korrelationstheorem besagt (ohne Beweis):
Wir können also ein Korrelationsintegral auch ausrechnen, indem wir die beiden
Funktionen fouriertransformieren, dann die eine Funktion mit dem Konjugiertkom-
plexen der anderen multiplizieren und schließlich das Ergebnis zurücktransformie-
ren. Für die Autokorrelation, bei der man das Korrelationsintegral einer Funktion mit
sich selber berechnet, gilt damit:
2D-Verteilung von
DVD
Röntgenschwächungs- CT-System
Datenarchiv
koeffizienten
3D-Verteilung der
Protonendichte MRT-System Befundungsmonitor
im Körper
Lineare und verschiebungsinvariante Systeme: Ein abbildendes System ist linear, wenn aus
fi (x, y) ≫ System ≫ gi (x, y) für beliebige fi (x, y) folgt, dass
Ein abbildendes System ist verschiebungsinvariant, wenn zu jedem beliebigen Paar f (x, y) und
g(x, y) gilt:
Aus f (x, y) ≫ System ≫ g(x, y) für beliebige f (x, y) gilt, dass
Hauptsatz der Systemtheorie abbildender Systeme: Ist ein System linear und verschiebungsinva-
riant, dann gibt es eine Funktion h(x, y), so dass gilt:
+∞
g(x, y) = f (x, y) ∗ h(x, y) = ∬ f (x , y )⋅h(x − x , y − y )dx dy (21.25)
−∞
Was bedeutet dieser Satz? Wenn wir von einem abbildenden System die Funktion
h(x, y) kennen, so können wir zu jedem beliebigen Original am Eingang das Bild am
Ausgang berechnen. Wir brauchen das Original f (x, y) nur mit der Funktion h(x, y) zu
falten.
Die Funktion h(x, y) hat den Namen „Punktbildfunktion“, englisch „Point
Spread Function“, PSF. Ihre Fourier-Transformierte H(u, v) wird als „Systemübertra-
gungsfunktion“, englisch „Modulation Transfer Function“, MTF bezeichnet.
Die MTF gibt an, wie gut (mit welcher Modulationsamplitunde) eine Raumfrequenz aus dem Origi-
nal in das Bild übertragen wird.
598 | Olaf Dössel
Der Satz hat eine sehr weitreichende Bedeutung. Er besagt, dass die Kenntnis der
Punktbildfunktion PSF bzw. der Modulationsübertragungsfunktion MTF das abbil-
dende System bezüglich der abbildenden Eigenschaften vollständig charakterisiert.
Dies bedeutet auch, dass wir aus der Kenntnis der MTF wichtige Qualitätsmerkmale
eines abbildenden Systems ablesen können.
Der Hauptsatz der Systemtheorie soll nun bewiesen werden.
Sei O ein Operator, der linear und verschiebungsinvariant ist, und sei f (x, y) ein
beliebiges Original am Eingang des bildgebenden Systems. Es gilt allgemein:
+∞ +∞
Man erkennt, dass die Funktion h(x, y) eine Abkürzung für das Bild ist, welches das
bildgebende System aus einem einzigen extrem hellen Punkt erzeugt (𝛿-Funktional),
daher der Name Punktbildfunktion.
Die Fourier-Transformierte von h(x, y), also H(u, v), ist, wie Gl. (21.26) zeigt, eine
Filterfunktion, die Raumfrequenzen, die im Original F(u, v) noch vorhanden sind, be-
dämpft. Fast alle bildgebenden Systeme der Medizin haben den Charakter eines Tief-
passes, d. h., dass ab einer Grenzfrequenz die höheren Raumfrequenzen abgeschnit-
ten werden. Damit kann man an der MTF erkennen, wie scharf eine Abbildung ist,
welche Details in einem Bild noch zu erkennen sind oder welche Auflösung das
System erreicht. Um die Auflösung in mm zu erkennen, kann man beispielsweise das
Reziproke der Raumfrequenz bilden, bei der die MTF auf den Wert 50 % oder 10 % her-
abgesunken ist. Eine andere Variante ist die 3 dB Breite der Punktbildfunktion PSF.
Abb. 21.5 zeigt den typischen Verlauf der MTF von drei verschiedenen abbilden-
den Systemen und Abb. 21.6 zeigt ein CT-Bild des Kopfes aufgenommen mit unter-
schiedlichen MTFs.
Die MTF eines abbildenden Systems kann auf verschiedene Arten gemessen wer-
den. Eine nicht sehr praktikable Art, die aber am besten die Bedeutung der MTF ver-
ständlich macht, soll als Erstes am Beispiel des Projektionsröntgens beschrieben wer-
den.
Wir erzeugen uns viele Bleifolien, in die wir sinusförmige Muster eingeprägt ha-
ben, mit Raumfrequenzen von 0,5/mm, 1/mm, 2/mm bis vielleicht 5/mm. Diese Blei-
21 Systemtheorie abbildender Systeme | 599
0
0 1 2 3 4 Abb. 21.5: Typischer Verlauf der MTF von drei
u in lp/mm abbildenden Systemen.
Abb. 21.6: Schichtbild eines Kopfes, aufgenommen mit drei unterschiedlichen MTFs.
folien halten wir nacheinander in den Strahlengang eines Röntgensystems und mes-
sen im Bild die Modulationshöhe des Signals. Dann teilen wir die jeweilige Modula-
tionshöhe durch die Modulationshöhe, die wir bei einer sehr kleinen Raumfrequenz
(z. B. u = 0,5/mm) gemessen haben. Das Vorgehen folgt exakt den oben angegebenen
Gleichungen (21.26), (21.27) und (21.28). Nach diesem Gedankenexperiment hat die
MTF ihren Namen bekommen: Modulationsübertragungsfunktion. Die Methode kann
sinngemäß auf jedes andere bildgebende Verfahren übertragen werden.
Eine andere und durchaus übliche Variante, um die MTF eines Systems zu mes-
sen, geht von einem Strichraster aus, das von einem Ende zum anderen Ende des Pro-
benträgers immer feiner wird. Wieder kann man die Modulationshöhe für verschiede-
ne Raumfrequenzen (Rechteck!) messen, nennen wir sie R(u). Nun muss noch berück-
sichtigt werden, dass wir nicht mit einer Sinusfunktion gemessen haben. Wir kennen
aber die Fourier-Transformierte des Rechteckrasters und können damit „rückwärts“
die MFT aus den Modulationshöhen des Rechteckrasters bei vielen Raumfrequenzen
(u, 3u, 5u etc.) ausrechnen (ohne Beweis):
𝜋 R(3u) R(5u) R(7u)
MTF(u) = [R(u) + − + − . . .] (21.31)
4 3 5 7
Eine dritte Methode geht von einem sehr schmalen Schlitz aus, der in einen Röntgen-
strahlengang gehalten wird. Genau genommen wird hiermit die Linienbildfunktion
600 | Olaf Dössel
in einer Raumrichtung senkrecht zur Richtung des Schlitzes gemessen. Mit einem ein
wenig schräg gestellten Schlitz und einer Auswertung mehrerer Zeilen der Bildmatrix
kann man erreichen, dass man trotz des relativ groben Pixelrasters eine hohe Messauf-
lösung für die Linienbildfunktion bekommt. Der normierte Absolutbetrag der Fouri-
er-Transformierten der Linienbildfunktion ist dann die MTF.
Eine vierte Methode ist mit der dritten sehr verwandt: Statt eines Schlitzes wird
eine scharfe Kante in den Strahlengang gehalten. Da wiederum nicht genau die MTF
selbst gemessen wird, muss eine kleine Umrechung erfolgen, die in den entsprechen-
den Messvorschriften festgelegt ist.
Interessant und wichtig ist es noch, die MTF einer Abbildungskette zu betrachten.
Oft besteht ein abbildendes System aus mehreren Komponenten, die hintereinander-
geschaltet sind. So besteht ein Röntgenbildverstärker aus einem Leuchtschirm, einer
Photokathode, einer Elektronenoptik, einem Ausgangsbildschirm und einer Fernseh-
kamera. Alle Komponenten tragen irgendwie zur gesamten MTF bei. Die folgenden
Gleichungen zeigen den mathematischen Zusammenhang:
Modulationshöhe Ausgang N
MTFgesamt =
Modulationshöhe Eingang 1
Modulationshöhe Ausgang 1 Modulationshöhe Ausgang 2
= ⋅
Modulationshöhe Eingang 1 Modulationshöhe Eingang 2
Modulationshöhe Ausgang N
⋅ ... ⋅ . (21.32)
Modulationshöhe Eingang N
Hieraus folgen wichtige Hinweise für die Optimierung eines abbildenden Systems:
Diejenige Komponente, die als Erstes mit ihrer MTF gegen Null geht, bestimmt die Ei-
genschaften des Gesamtsystems. Die anderen MTFs können alle noch so gut sein, wird
bei einer Raumfrequenz das Ganze an einer Stelle mit Null multipliziert, so ist auch
die gesamte MTF Null. Das schwächste Glied in der Kette bestimmt die Gesamtqualität
und an dieser Stelle muss der Entwickler ansetzen, um das System zu verbessern.
21 Systemtheorie abbildender Systeme | 601
gewiesenen Röntgenquanten für das Rauschen im Bild entscheidend ist. Eine Verdop-
pelung der Aufnahmezeit wird automatisch das SNR um den Faktor √2 verbessern. Bei
der Magnetresonanztomographie stellt sich heraus, dass die wesentliche Rauschquel-
le der Körper des Patienten ist. Auch hier wird eine Verdoppelung der Aufnahmezeit
eine Verbesserung des SNR im Bild zur Folge haben.
Die Frage stellt sich also: Wie kann der Anwender herausbekommen, ob das bild-
gebende System des einen Herstellers bezüglich des Rauschens besser ist als das des
Konkurrenten?
Das Thema soll am Beispiel der Röntgentechnik behandelt werden, viele Aspekte
können auch auf die anderen bildgebenden Verfahren übertragen werden.
Bei einer Röntgenaufnahme landet in jedem Pixel des Bildsensors eine gewisse
Zahl von Röntgenquanten, unabhängig davon, ob es sich um ein digitales Aufnah-
mesystem oder um einen Röntgenfilm mit Verstärkerfolie etc. handelt. Wenn man die
gleiche Aufnahme unter exakt den gleichen Bedingungen immer wieder wiederholt,
wird man feststellen, dass nicht immer genau die gleiche Zahl von Röntgenquanten in
einem Pixel gezählt wird. Misst man die Häufigkeit, mit der eine Quantenzahl x gezählt
wird, so wird man – bei einer sehr großen Zahl von identischen Experimenten – eine
Häufigkeitsverteilung erhalten. Diese Häufigkeitsverteilung wird durch die sogenann-
te Poisson-Verteilung beschrieben (und nicht etwa, wie man naiv meinen könnte,
durch die etwas bekanntere Gauss-Verteilung).
Poisson-Verteilung: Die Häufigkeitsverteilung p(x) für einen Messwert x beträgt bei der Poisson-
Verteilung
𝜇x e−𝜇
p(x) = (21.35)
x!
wobei 𝜇 der Mittelwert der Verteilung ist.
Diese Verteilung wird nur durch einen Parameter vollständig beschrieben, nämlich
den Mittelwert 𝜇. Auch für diese Verteilung kann man die Standardabweichung nach
der bekannten Formel bestimmen:
1
𝜎=√ ∑ (xi − 𝜇)2 (21.36)
N −1
Es ergibt sich:
𝜎2 = 𝜇 𝜎 = √𝜇 (21.37)
d. h., die Standardabweichung ist immer gleich der Wurzel aus dem Mittelwert.
Tab. 21.1 zeigt, wie sich Mittelwert und Standardabweichung beispielsweise für
immer größer werdende Quantenzahlen in einem Pixel eines Röntgendetektors ver-
halten.
Man erkennt, dass zwar die Standardabweichung mit immer größer werdender
Quantenzahl größer wird, dass sie aber prozentual – wegen der Wurzelfunktion – im-
mer kleiner wird. Werden bei einer Röntgenaufnahme nur 10 Quanten in einem Pi-
xel gezählt, so wird diese Zahl um 31,6 % schwanken. Das Bild ist so verrauscht, dass
21 Systemtheorie abbildender Systeme | 603
Tab. 21.1: Mittlere Zahl der Röntgenquanten, absolute Standardabweichung und relative Standard-
abweichung bei der Poisson-Statistik.
nichts darauf zu erkennen ist. Belichten wir aber mit 1000 Quanten pro Pixel, so ist die
Schwankungsbreite nur noch 3,16 %, und da kann man schon etwas erkennen. Unter-
scheiden sich aber zwei Gewebearten, die der Arzt gerne trennen möchte, in der Inten-
sität nur um 3 %, so wird auch diese Aufnahme nicht ausreichen, um die gewünschte
Information zu bekommen.
Im Kapitel zur biologischen Wirkung von ionisierender Strahlung (s. Kap. 7) und
im Kapitel zum Projektionsröntgen (s. Kap. 2) wird der Zusammenhang zwischen der
Röntgendosis und der Zahl der Röntgenquanten erläutert. Ein Resultat der Überlegun-
gen ist aber schon hier klar zu erkennen: Ohne eine gewisse Dosis an ionisierender
Strahlung wird es nicht möglich sein, eine brauchbare Röntgenaufnahme zu machen.
Wiederum wird deutlich, dass das Rauschen im Bild kein Qualitätsmaß für das
bildgebende System ist. Es kann durch längere Belichtungszeit beliebig herauf- und
heruntergesetzt werden. Was charakterisiert dann aber ein gutes Röntgensystem?
Entscheidend für die Qualität eines Systems ist offenbar, wie viel Rauschen es zum
unvermeidbaren Rauschen hinzufügt. Der Gedanke führt zu folgender Definition:
Ein System, das kein Rauschen hinzufügt, hat eine DQE von 1. Je kleiner die DQE,
desto schlechter ist das System. Typisch für Röntgensysteme sind Werte zwischen 0,3
(Speicherfolien) und 0,6 bis 0,7 (Flachbilddetektoren).
Der Name „detektive Quantenausbeute“ hat seinen Ursprung in der Röntgentech-
nik. Dort schwankt die Zahl der auf den Bilddetektor auftreffenden Röntgenquanten
nach der Poisson-Statistik – man beobachtet das sogenannte Quantenrauschen.
Daraus ergibt sich zum einen für ein gleichmäßig beleuchtetes Bild ein weißes
Rauschleistungsspektrum und zum anderen eine Rauschleistungsdichte, die iden-
2
tisch ist mit 𝜎Eingang und damit mit der mittleren Quantenzahl pro Pixel am Eingang
604 | Olaf Dössel
Damit gibt in diesem Falle die DQE tatsächlich den Prozentsatz der nachgewiesenen
Quanten an, eben die Detective Quantum Efficiency. Der Name DQE wird aber auch für
andere Rauschquellen und andere Systeme verwendet.
Es ist noch interessant – ähnlich wie bei der MTF –, nach der DQE einer Abbil-
dungskette zu fragen. Ähnlich wie dort gilt auch hier:
SNR Ausgang N
DQEgesamt =
SNR Eingang 1
SNR Ausgang 1 SNR Ausgang 2 SNR Ausgang N
= ⋅ ⋅ ... ⋅ . (21.40)
SNR Eingang 1 SNR Eingang 2 SNR Eingang N
Wiederum ist das SNR am Ausgang 1 identisch mit dem SNR am Eingang 2 usw., so
dass auch hier folgt:
Die DQE einer Abbildungskette ist das Produkt der DQEs jeder einzelnen Komponente.
Ist eine der DQEs der Kette auf Werte nahe Null gesunken, so können die anderen
Komponenten noch so gut sein, das Produkt geht gegen Null.
Eine weitere interessante Frage ist, wie das Rauschleistungsspektrum (Noise
Power Spectrum, NPS) am Ausgang aussieht, wenn das Rauschleistungsspektrum
am Eingang bekannt ist.
Sei NPSEingang (u, v) das Rauschleistungsspektrum am Eingang, so erhalten wir
Kontrast: technischer Parameter in der BMT, der angibt, wie gut sich zwei Gewebearten in einem
Bild unterscheiden lassen bzw. wie gut sich ein Gewebe vom Hintergrund abhebt.
Definitionen des Kontrastes:
(Signal im Gebiet 1) − (Signal im Gebiet 2)
Kontrast1 = (21.43)
(Signal im Gebiet 1) + (Signal im Gebiet 2)
(Signal im Gebiet 1) − (Signal im Gebiet 2)
Kontrast2 = (21.44)
((Signal im Gebiet 1) + (Signal im Gebiet 2)) /2
Kontrast3 = (Signal im Gebiet 1) − (Signal im Gebiet 2) (21.45)
Damit gibt der Kontrast an, ob sich die bei der medizinischen Frage zu trennenden
Gebiete durch die bildgebende Modalität und die gewählten Aufnahmeparameter un-
terscheiden. Zeigen zwei Gebiete einen großen Signalunterschied, so ist der Kontrast
auch bei stark verrauschten Bildern gut zu erkennen. Für kleine Kontraste ist ein sehr
gutes Signal-Rausch-Verhältnis nötig. Die Modulationsübertragungsfunktion MTF be-
schreibt, wie stark die Modulationshöhe bei hohen Raumfrequenzen bedämpft wird.
Damit werden kleine Details mit kleinen Kontrasten durch eine schlechte MTF un-
sichtbar. Abb. 21.7 zeigt mit einem Testbild, dass auch die Größe einer Struktur die
Erkennbarkeit beeinflusst.
Ärzte – insbesondere Radiologen – haben in systematischen Studien herausge-
funden, mit welchen bildgebenden Systemen und bei welchen Aufnahmeparametern
der Kontrast für eine spezifische Frage optimal wird. Oft sind diese Ergebnisse in ärzt-
lichen Leitlinien festgehalten, die den Arzt oder die Ärztin dabei unterstützen, gleich
die bestmöglichen Parameter zur Klärung der diagnostischen Fragestellung zu wäh-
len.
Tab. 21.2: Wahrheitsmatrix, übertragen auf das Erkennen von Details in Bildern.
Was in einem Bild von einem geübten Arzt erkannt wird, lässt sich mithilfe statis-
tischer Methoden analysieren. Ein wichtiges Werkzeug ist dabei die sogenannte Re-
ceiver Operating Characteristic (ROC). Hierbei werden Werte aus einer „Wahrheits-
matrix“ gegeneinander aufgetragen (Tab. 21.2).
Mit diesen Definitionen ist offenbar die Summe aus TP + FP + TN + FN die Zahl der
dem Arzt zur Entscheidung vorgelegten Bilder.
Um die Möglichkeit zur Befundung mithilfe eines bildgebenden Verfahrens objek-
tiver messen und bewerten zu können, werden nun folgende Größen definiert:
Die Falsch-Positiv-Rate (False Positive Fraction, FPF) gibt den Anteil der fälschlich
als positiv klassifizierten Objekte an, die in Wirklichkeit negativ sind.
Die Falsch-Negativ-Rate (False Negative Fraction, FNF) gibt den Anteil der fälschlich
als negativ klassifizierten Objekte an, die in Wirklichkeit positiv sind.
Die Receiver Operating Characteristic (ROC) ist nun eine Darstellung, bei der bei-
spielsweise die Ergebnisse für die Sensitivität (= Richtig-Positiv-Rate, TPF) gegen
die Falsch-Positiv-Rate, FPF (= 1-Spezifität) für alle Ärzte, die an dem Test teil-
genommen haben, aufgetragen wird [Oppelt 2005] (Abb. 21.8). Offenbar ist ein
608 | Olaf Dössel
Richtig-positiv-Rate zunehmende
Qualität
Sensitivität
0
0 0,5 1 Abb. 21.8: Receiver Operating Characteristics,
Falsch-positiv-Rate ROC.
bildgebendes Verfahren besonders gut für eine medizinische Frage geeignet, wenn
die Kurve ähnlich wie die Kurve (a) im Bild verläuft. Wird ein Verlauf beobachtet, der
auf der Diagonalen liegt, so haben alle Testteilnehmer eigentlich nur geraten und das
bildgebende System hat nichts zur Entscheidung beigetragen.
räumliche
Auflösung
0,1 mm
1 mm
10 mm
1s 1%
100 ms 0,1 %
zeitliche 10 ms 0,01 %
Rauschen
Auflösung
Aufnahme-
Kontrast
zeit
Abb. 21.9: Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung bzw. Aufnahmezeit und Sig-
nal-Rausch-Verhältnis bzw. Kontrast, in blau: ein willkürliches Beispiel.
barten Bildgebieten als unterschiedlich wahrzunehmen. Oft geht man davon aus,
dass sich zwei Gebiete im Bild unterscheiden lassen, wenn der Grauwertunterschied
größer als das Dreifache der Standardabweichung beträgt.
Weiterführende Literatur
Jähne B.: Digitale Bildverarbeitung, 4., völlig neubearbeitete Auflage. Berlin: Springer-Verlag, 1997.
Lehmann T., Oberschelp W., Pelikan E., Repges R.: Bildverarbeitung für die Medizin. Berlin:
Springer-Verlag, 1997.
Oppelt A.: Imaging Systems for Medical Diagnostics. Erlangen: Publicis Corporate Publishing, 2005.
610 | Olaf Dössel
Testfragen
1. Mit welcher Gleichung berechnet man die Fourier-Transformation eines Bildes? In welchen Be-
reichen der Fourier-Transformierten findet man die Grobstruktur und in welchen die Detailstruk-
turen des Bildes?
2. Was versteht man unter einer Faltung zweier Bilder und wie kann man die Faltung zweier Bilder
vorteilhaft berechnen?
3. Was versteht man unter dem Korrelationsintegral zweier Bilder und wie kann man die Korrelation
zweier Bilder vorteilhaft berechnen?
4. Welche Voraussetzungen erfüllt ein lineares und verschiebungsinvariantes bildgebendes Sys-
tem?
5. Mithilfe welcher Funktion kann man bei einem linearen und verschiebungsinvarianten System
aus jedem beliebigen Original das Bild berechnen?
6. Wie kann man die Modulationsübertragungsfunktion MTF messen?
7. Formulieren Sie das Abtasttheorem für die Aufnahme von Bildern.
8. Was versteht man unter der detektiven Quantenausbeute DQE? Wie groß ist die DQE der ersten
Stufe eines Röntgensystems?
9. Mit welcher Häufigkeitsverteilung kann man die Zahl der Quanten in einem Pixel bei einer Rönt-
genaufnahme beschreiben? Welche Beziehung gibt es zwischen dem Mittelwert und der Stan-
dardabweichung?
10. Wie kann man die MTF einer Abbildungskette aus den MTFs der einzelnen Komponenten berech-
nen?
11. Wie kann man die DQE einer Abbildungskette aus den DQEs der einzelnen Komponenten berech-
nen?
12. Welche Definitionen für den „Kontrast“ in medizinischen Bildern kennen Sie?
13. Wie sind die Begriffe „Sensitivität“ und „Selektivität“ definiert?
14. Welche Größen werden bei einer „Receiver Operation Curve“ ROC gegeneinander aufgetragen?
Wann ist ein Bild optimal für die Befundung geeignet?
Autorenverzeichnis
Kapitel 1
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Kapitel 2
Prof. Dr.-Ing. Til Aach
Lehrstuhl für Bildverarbeitung, RWTH Aachen, Sommerfeldstraße 24, 52074 Aachen.
Kapitel 3
Prof. Dr. Thorsten M. Buzug
Institut für Medizintechnik, Universität zu Lübeck, Ratzeburger Allee 160, 23538
Lübeck, E-Mail: buzug@imt.uni-luebeck.de, www.imt.uni-luebeck.de
Kapitel 4
Dr. Thomas Mertelmeier
Siemens AG Healthcare Sector, 91050 Erlangen, E-Mail:
thomas.mertelmeier@siemens.com.
Kapitel 5
Prof. Dr. Henrik Botterweck
Labor für medizinische Bildgebung, Fachhochschule Lübeck, Mönkhofer Weg 239,
23562 Lübeck, E-Mail: botterweck@fh-luebeck.de, tandem.medisert.de/tandem.html
Kristin Kötz
Sektion Biomedizinische Bildgebung, Klinik für Diagnostische Radiologie UKSH,
Campus Kiel, Christian-Albrechts-Universität zu Kiel, Molecular Imaging North
Competence Center (MOIN CC), Am Botanischen Garten 14, 24118 Kiel, E-Mail:
kkoetz@nuc-med.uni-kiel.de.
612 | Autorenverzeichnis
Kapitel 6
Dr. Simone Beer
Forschungszentrum Jülich, Institut für Neurowissenschaften und Medizin, 52425
Jülich, E-Mail: si.beer@fz-juelich.de.
Kapitel 7
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Kapitel 8
Prof. Dr.-Ing. Helmut Ermert
Forschungsgruppe Hochfrequenztechnik, Ruhr-Universität Bochum/Geb. ID 03/343,
44780 Bochum, E-Mail: helmut.ermert@rub.de, www.hf.rub.de.
Kapitel 9
Prof. Dr. Tobias Schaeffter
King’s College London, Division of Imaging Sciences and Biomedical Engineering,
St. Thomas Hospital, 4th Floor, Lambeth Wing, SE1 7EH London, United Kingdom,
E-Mail: Tobias.Schaeffter@kcl.ac.uk.
Kapitel 10
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Kapitel 11
Prof. Dr. Thorsten M. Buzug
Institut für Medizintechnik, Universität zu Lübeck, Ratzeburger Allee 160, 23538
Lübeck, E-Mail: buzug@imt.uni-luebeck.de, www.imt.uni-luebeck.de
Autorenverzeichnis | 613
Bernhard Gleich
Philips Technologie GmbH, Innovative Technologies, Research Laboratories,
Röntgenstraße 24–26, 22335 Hamburg, E-Mail: bernhard.gleich@philips.com.
Kapitel 12
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Kapitel 13
PD Dr.-Ing. Thomas Wittenberg
Fraunhofer Institut für Integrierte Schaltungen IIS, Abteilung für Bildverarbeitung
und Medizintechnik, Am Wolfsmantel 33, 91058 Erlangen, E-Mail:
thomas.wittenberg@iis.fraunhofer.de, www.iis.fraunhofer.de/med
Kapitel 14
Dr. Julia Walther, Prof. Dr. Edmund Koch
Medizinische Fakultät Carl Gustav Carus, Klinisches Sensoring und Monitoring,
Fetscherstraße 74, 01307 Dresden, E-Mail: Edmund.Koch@TU-Dresden.de,
www.tu-dresden.de/medksm.
Kapitel 15
Dr. Dirk Grosenick, Prof. Dr. Rainer Macdonald
Physikalisch-Technische Bundesanstalt (PTB), Abbestraße 2–12, 10587 Berlin, E-Mail:
dirk.grosenick@ptb.de und Rainer.Macdonald@ptb.de,
http://www.ptb.de/cms/en/fachabteilungen/abt8/fb-83.html
Kapitel 16
Prof. Dr. Thorsten M. Buzug
Institut für Medizintechnik, Universität zu Lübeck, Ratzeburger Allee 160, 23538
Lübeck, E-Mail: buzug@imt.uni-luebeck.de, www.imt.uni-luebeck.de.
Kapitel 17
Dr.-Ing. Marko Helbig
Technische Universität Ilmenau, Institut für Biomedizinische Technik und
Informatik, Gustav-Kirchhoff-Str. 2, 98693 Ilmenau, E-Mail:
marko.helbig@tu-ilmenau.de, www.tu-ilmenau.de/bmti.
Kapitel 18
Prof. Dr. Fabian Kiessling, MD
Institut für Experimentelle Molekulare Bildgebung, Helmholtz-Institut,
RWTH-Aachen, Pauwelsstraße 20, 52074 Aachen, E-Mail: fkiessling@ukaachen.de,
http://exmi.rwth-aachen.de.
Kapitel 19
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Kapitel 20
Prof. Dr. Michael Kaschke
Carl Zeiss AG, Carl-Zeiss-Str. 22, 73447 Oberkochen, E-Mail: kaschke@zeiss.de.
Kapitel 21
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Bandspezifisches Glossar
ABCD-Regel (ABCD rule): Regel die die kritischen Parameter von Hautläsionen an-
gibt: Asymmetrie, Grenze (border), Farbe (colour) und Durchmesser. Kapitel 16
Apertur (aperture): Begriff aus der Antennentheorie, der die Geometrie (Länge oder
Fläche) eines Sende- oder Empfangssystems (einzelne Antenne, Gruppenantenne) be-
schreibt. Kapitel 8
Array (dt. Reihe, Gruppe): in der Radar- und Ultraschalltechnik eine aus einzelnen
Antennenelementen bestehende Gruppenantenne. Kapitel 8
Attributives Risiko (attributive risk): relatives Risiko minus 1. Damit ist das attributi-
ve Risiko Null, wenn durch die bewerteten Einflüsse keine zusätzlichen Erkrankungen
auftreten. Kapitel 7
Auflösung, räumlich bzw. zeitlich (resolution): Maß für die Fähigkeit eines Abbil-
dungssystems, kleine, nah beieinander liegende Objekte als separate Objekte darstel-
len zu können bzw. die kleinstmögliche Zeitdauer, die für die Bildaufnahme nötig ist.
Als Maß für die räumliche Auflösung wird häufig die Halbwertsbreite der Punktbild-
funktion verwendet. Kapitel 8 und 21
Bandspezifisches Glossar | 617
Backing (dt. Hinterfüllung): dämpfendes, an der nicht benutzten Rückseite eines pie-
zoelektrischen Schallwandlerelements angekoppeltes Material. Kapitel 8
Bandpass (band-pass): Filter, das die Übertragung von Signalen auf eine bestimmte
Bandbreite begrenzt. Kapitel 8
Body Surface Potential Mapping (BSPM; dt. Darstellung der Potentialverteilung auf
der Körperoberfläche): Messung und Kartierung der elektrophysiologisch erzeugten
Potentialverteilung auf der Körperoberfläche. Kapitel 10
Center of Rotation (COR; dt. Rotationszentrum; auch fulcrum): Punkt, in dem sich
bei der Tomosynthese alle Verbindungslinien vom punktförmig gedachten Röntgen-
fokus zum Zentrum der Bildebene schneiden. Kapitel 4
Chromophor (chromophore): Teil eines Moleküls, der für die Farbigkeit verantwort-
lich ist. Kapitel 14
Curved Array (dt. gebogene Gruppe): Array mit gekrümmter, z. B. konvexer Apertur-
geometrie. Kapitel 8
Dämpfung (attenuation): Reduktion der Amplitude bzw. der Leistung einer Welle
infolge Absorption, Reflexionen, Streuung und/oder Beugung im Übertragungs-
medium; definiert als Verhältnis zweier (elektrischer, optischer, akustischer o. a.)
Leistungs- (oder Amplituden-)werte, oder der 10fache (Leistung) bzw. 20-fache (Am-
plitude) dekadische Logarithmus dieses Verhältnisses mit der Einheit Dezibel (dB).
Kapitel 8
Dipole Fit (dt. Dipol-Anpassung): Verfahren, bei dem ein Stromdipol so lange im Kör-
per bewegt und verändert wird, bis die gewonnenen Messsignale am besten zu den
berechneten Signalen passen. Kapitel 10
Distales Ende (distal end): dem Benutzer abgewandtes Ende eines Endoskops.
Kapitel 13
Duplexer: Signalweiche zur Trennung von Sende- und Echosignal in einem Puls-
Echo-System. Kapitel 8
momentane Ort des Fokus entspricht dabei jeweils dem Entstehungsort des momen-
tan empfangenen Echos. Kapitel 8
Electronic Portal Imaging Device (EPID): bildgebendes System, das während einer
Strahlentherapie die durch den Patienten hindurchtretenden Gammastrahlung dar-
stellt. Es dient der schnellen Kontrolle, ob die Gammastrahlung exakt das Zielorgan
trifft, und gesundes Gewebe so gut wie möglich geschont wird. Kapitel 19
Energiedosis D (energy dose, absorbed dose): in einem Körper durch Strahlung de-
ponierte Energie pro Masse des Körpers, in J/kg = Gy (Gray). Kapitel 7
Energieflussdichte (energy flux density): durch eine Fläche pro Zeitintervall hin-
durchtretende Energie in Form von Strahlung, in J/m2 s = W/m2 . Kapitel 7
Fluide Medien (fluid media): Medien ohne Formelastizität (z. B. Gase, Flüssigkeiten),
in denen sich im Fall idealer Fluidität nur longitudinale akustische Wellen, nicht aber
Scherwellen ausbreiten können. Kapitel 8
Full Angle Spatial Compounding (FASC; dt. Zusammensetzung über den gesam-
ten Raumwinkelbereich): Compounding über einen Aspektwinkelbereich von 360°.
Kapitel 8
Bandspezifisches Glossar | 623
Hounsfield-Skala (Hounsfield unit scale): auf die Eigenschaften von Wasser nor-
mierte Schwächungswerte in der Computertomographie. Die CT-Zahl (angegeben in
HU – Hounsfield unit) gibt die Abweichung vom Schwächungswert des Wassers in
Promille an. Kapitel 3
Hypoxie-Tracer für die PET (hypoxia tracer): 18 F-FMISO, 18 F-FAZA, 64 Cu-ATSM als
lipophile Substanzen gelangen passiv in die Zelle, werden dann im Fall von Sauer-
stoffmangel (Hypoxie) reduziert und hierdurch hydrophil, wodurch sie die Zelle nicht
mehr verlassen können und sich im Gewebe anreichern. Kapitel 18
Inverses Problem (inverse problem): Aufgabe, aus den messbaren Signalen die zu-
grunde liegende Quelle der Signale zu bestimmen. Kapitel 10
Ionendosis (exposure dose, ion dose): Maß für die ionisierende Strahlung, in ei-
nem Messobjekt durch Strahlung gebildete Ladung (eines Vorzeichens) pro Masse des
Messobjekts (z. B. der Masse des Gases in einer Messkammer) in As/kg. Kapitel 7
Ionendosisleistung (exposure dose rate, ion dose rate): Ionendosis pro Zeitinter-
vall in A/kg. Kapitel 7
Isotop (isotope): Variante eines Nuklides, die sich von anderen Varianten mit der-
selben Kernladungszahl Z durch eine unterschiedliche Massenzahl A auszeichnet. In-
stabile Isotope (Radioisotope) gehen unter Aussendung von radioaktiver Strahlung in
einen stabilen Zustand über. Kapitel 5
Kontrast (contrast): technischer Parameter in der BMT, der angibt, wie gut sich zwei
Gewebearten in einem Bild unterscheiden lassen bzw. wie gut sich ein Gewebe vom
Hintergrund abhebt. Kapitel 21
Kontrastmittel (contrast agent): Substanz, die in den Körper des Patienten einge-
bracht wird, um den Kontrast für eine bestimmte diagnostische Fragestellung zu er-
höhen. Kapitel 2
Lead Field (dt. Ableitungsfeld): Vektorfeld, mit dessen Hilfe man das Signal in einem
Detektor (Spannung oder Magnetfeld) ausrechnen kann, indem das lead field an ei-
nem Punkt mit dem Stromdipol an diesem Punkt skalar multipliziert wird. Kapitel 10
Limited Angle Spatial Compounding (LASC; dt. Zusammensetzung über einen be-
grenzten Raumwinkelbereich): Compounding über einen begrenzten Aspektwinkelbe-
reich (< 360°). Kapitel 8
Linear Array (dt. lineare Gruppe): eindimensionale Antennengruppe, bei der die
Gruppenelemente entlang einer Linie angeordnet sind. Kapitel 8
List Mode (LM; dt. Listenmodus): Datenformat, in dem alle Ereignisse nacheinander,
ggf. zusammen mit weiteren Informationen (Zeit, Position, Energie), in Form einer Lis-
te gespeichert werden. Kapitel 6
Lock-in-Verstärker (lock-in amplifier): Messtechnik, bei der der Verstärker nur eine
Frequenz (sehr schmalbandig) verstärkt und Signale mit anderen Frequenzen effek-
tiv unterdrückt. In einer erweiterten Variante kann auch die Phasenlage des Wechsel-
signals, das verstärkt werden soll, festgelegt werden. Kapitel 12
Mechanischer Index (mechanical index): aus dem negativen Spitzendruck und der
Frequenz einer Schallwelle abgeleiteter Faktor, der in der Ultraschalldiagnostik als
Grenzwert zur Vermeidung mechanischer Schäden durch die Schallwellen benutzt
wird. Kapitel 8
Noise Equivalent Count Rate (NEC; dt. rauschäquivalente Zählrate): auf gestreute
und zufällige Koinzidenzen korrigierte Zählrate; praktisches Maß für das Signal-
Rausch-Verhältnis unter Berücksichtigung der Totzeit. Kapitel 6
Nuklid (nuclid): durch Protonen- und Neutronenanzahl spezifizierter Typ von Atom-
kernen. Kapitel 5
Phase Inversion (dt. Phasenumkehr): Konzept zur Erzeugung und Aussendung einer
Sequenz von Sendesignalen für die nichtlineare Abbildung, bei der das zweite Sen-
designal durch Phasenumkehr aus dem zuerst ausgesandten Sendesignal gewonnen
wird. Kapitel 8
Polygon-Scanner (polygon scanner): rotierendes System von Spiegeln für die Aus-
lenkung von Lichtwellen. Kapitel 14
Projektion (lat. proicere – hinauswerfen, hinwerfen; projection): in der BMT das In-
tegral der abgebildeten Gewebseigenschaften auf dem Strahlweg bei der Bildgebung,
speziell des Röntgenschwächungskoeffizienten durch den Körper des Patienten hin-
durch, entweder als einzelner Nadelstrahl oder als eine Linie aus vielen parallelen
Nadelstrahlen. Kapitel 2 und 3
Proximales Ende (proximal end): dem Benutzer zugewandtes Ende eines Endo-
skops. Kapitel 13
Pulsed Wave (PW; dt. Pulswelle): Betriebsart mit gepulsten Wellenformen. Kapitel 8
Relatives Risiko (RR, relative risk): Risiko, durch eine Strahlenexposition an Krebs
zu erkranken. Es, gibt den Faktor an, um den die Spontanrate der Tumorerkrankung
durch die Exposition erhöht wird. Kapitel 7
Relaxation (relaxation): Mechanismus in der Physik, der die Rückkehr eines ange-
regten Zustands in seinen Gleichgewichtszustand beschreibt. Unterschiedliche Ge-
webearten haben unterschiedliche Kernspin-Relaxationszeiten, woraus sich u. a. der
Bandspezifisches Glossar | 633
Reportergen (reporter gene): künstlich in die Zelle eingebrachtes Gen, das zu ihrer
Erkennung dient (z. B. durch Kodierung für ein fluoreszentes Protein). Kapitel 18
Rezeptor (receptor): in der Molekularen Bildgebung ein Molekül in oder auf der Zel-
le, an das ein anderes Molekül (Ligand) binden kann. Durch die Liganden-Rezeptor-
Interaktionen können Signalkaskaden ausgelöst werden. Kapitel 18
Röntgenenergiedosis (X-ray absorbed dose, energy dose): Maß für die mit Rönt-
genstrahlen im Körper deponierte Energie bezogen auf die Masse der bestrahlten
Körperregion (des Gewebes bzw. Organs). Kapitel 7
Schlagvolumen (stroke volume): Blutvolumen, das bei jedem Herzschlag aus dem
Herz in den Blutkreislauf gepumpt wird. Kapitel 12
Schwarzer Körper (black body): Körper, der alle auf ihn einfallende Strahlungsener-
gie komplett absorbiert. Kapitel 16
Speckle (dt. Fleck): granulare Feinstruktur von Bildern bei der Bildgebung mittels ko-
härenter Wellen infolge von Interferenzeffekten. Kapitel 8
Speicherfolie (storage phospor (imaging) plate): System zur Aufnahme von Rönt-
genbildern, bei dem zunächst die Speicherfolie belichtet und danach in einer separa-
ten Einrichtung das Bild erzeugt wird. Kapitel 2
Stent (dt. Stütze, Schiene; stent): Gefäßstütze, um ein verengtes Blutgefäß dauerhaft
wieder durchgängig zu machen. Kapitel 2
Streustrahlenraster (scattered radiation grid): System bei der Aufnahme von Rönt-
genbildern, mit dem die störende Streustrahlung im Bild unterdrückt werden kann.
Kapitel 2
Stromdipol (current dipole): kurzer Strompfad, der eine Stromquelle mit einer gleich
großen Stromsenke verbindet. Kapitel 10
Target (dt. Ziel): Zielstruktur (in der Molekularen Bildgebung z. B. Rezeptor auf der
Zellmembran). Kapitel 18
Teilchenflussdichte (particle fluence rate): Zahl der Teilchen bzw. Photonen pro
Durchtrittsfläche und Zeitintervall. Kapitel 7
Time Motion Scan (TM scan; dt. Abbildung der Bewegung im Zeitverlauf): auf dem
A-Scan basierendes Verfahren zur Beobachtung und Aufzeichnung von Bewegungs-
abläufen von Grenzschichten (z. B. Herzklappen) entlang einer Schallstrahlachse.
Kapitel 8
Time Shift (TS; dt. Zeitverschiebung): Verfahren, bei dem alternativ zu den Doppler-
Verfahren die Blutflussinformation aus dem Vergleich zeitverschobener Echosignale
gewonnen wird. Kapitel 8
Varioskop (varioscope): optisches Gerät, mit dessen Hilfe durch Variation des relati-
ven Linsenabstandes der Arbeitsabstand kontinuierlich verändert werden kann (das
Objektiv besteht dabei aus mindestens einer konvexen und einer konkaven Linse).
Typischerweise erreicht man mit dieser Anordnung einen Arbeitsbereich von 20 bis
50 cm. Kapitel 20
Videoendoskopie (video endoscopy): Methode der Endoskopie, bei der das Bild auf
einem Monitor dargestellt wird. Die dazu notwendige Kamera kann sich außerhalb
des Körpers am Ende des Endoskops oder innerhalb des Körpers an der Spitze des
Endoskops befinden. Kapitel 1 und 13
Bandspezifisches Glossar | 639
Wandfilter: Bandpass zur Unterdrückung der durch statisches Gewebe und durch
sehr langsam bewegte Objekte (z. B. Gefäßwände) erzeugten Signale. Kapitel 8
Wellenzahl k (wave number): Kenngröße, die im Sinne einer Ortsfrequenz die räum-
liche Periodizität eines Wellenfeldes beschreibt. Sie ist mit der (Zeit-)Frequenz f und
der Ausbreitungsgeschwindigkeit c (z. B. Schallgeschwindigkeit) über die Beziehung
k = 2𝜋f /c verknüpft. Kapitel 8
Wirbelstrom (eddy current): Strom, der in leitenden Medien durch ein sich zeitlich
änderndes Magnetfeld induziert wird. Sie erzeugen selber ein Magnetfeld, welches der
gewünschten Magnetfeldänderung entgegenwirkt. Wirbelströme sind eine wichtige
Ursache für Artefakte in der Magnetresonanztomographie. Kapitel 9
Dermatologie 487 E
Detektor Echo Planar Imaging, EPI 374
– Block- 186 Echo-Planar-Bildgebung, EPI 374
– PET 183 Echozeit, effektive 373
– Phoswich 186 Echtzeitfähigkeit 221
– Szintillation 183 Ectomographie 118
Detektorfächer 67 Effekt, nichtlinearer 234
Diagnostik, morphologische 224 Effekt, piezoelektrischer 236
Diagnostikum Eigenschaften, optische von Gewebe 508
– aktivierbares 551 Eindringtiefe 506
– molekulares 548 Einknopf-Steuerung 32
Dichte 226, 228 Einthoven-Ableitung 410
Dickenschwinger 240, 242 Einzeilen-Spiral-CT 82
Dickenschwingungen 240 Eisenoxidpartikel, superparamagnetische,
differentielle infrarote Thermographie, DIT 528 SPIO 400
Differenzverstärker bei Eisenoxidpartikel, superparamegnetische, SPIO
Impedanztomographie 444 347, 426
Diffusionsbewegung 372 Elastographie 303
Diffusionsbildgebung 372 Electrical Impedance Tomography, EIT 444
Diffusionsgleichung, optische 510 Electrical Properties Imaging, EPI 450
Dipole Fit 419 Electronic Portal Imaging Device, EPID 569
𝛽-Dispersion 442 Elektroenzephalogramm, EEG 408
Doppelbrechung 473, 489, 493 Elektrokardiogramm, EKG 408
Doppler-Blutflussmessung 221 Elektromyogramm, EMG 408
Doppler-Effekt 279 Elektroneneinfang 138
Doppler-Frequenz 282 Elektronenstrahl-Computertomographie 108
Doppler-OCT, DOCT 490, XXIV Element, piezoelektrisches 237
Doppler-Sonographie 219 Empfangsfokussierung, dynamische 257
Doppler-Verfahren 224, 225, 295 Empfangsspule 342
Doppler-Verschiebung 282, 286 Empfindlichkeitsklassen des
Dosimeter 211 Film-Folien-Systems 32, 35
Dosis, effektive 139, 199 Endoscopy 456
Dosisreduktion 104 Endoskop
Down-scatter 163 – Anwendungen 469
Drehanode 26 – Kapsel- 466
Drehimpulserhaltungssatz 333 – Stablinsen- 460
Drehkolben-Röhre 29 – starres 459
Dreiknopf-Steuerung 32 – Stereo- 461
Drive Field 432 – Typen 469
Druck 226 – Video- 465
Druckkonstante, piezoelektrische 238 Endoskop-Faser 462
Drug Delivery 308 Endoskopie 5, 456
Dual Source CT 106 Energieauflösung 151
Dünnfilmbeschichtungstechnik 76 Energiedosis 23, 139, 207
Duplexer 250 Energiefenster 157, 166
Durchleuchtung 37 Energiefluenz 206
Dynamikbereich 262 Energieflussdichte 205
Dynamikkennlinie 76 Energieniveauschema 14
Epilepsie 412
644 | Sachwortverzeichnis
– sekundäre 94 Schäden
– statistische 161 – deterministische 205
Rekonstruktionsalgorithmus 116, 158 – stochastische 205
Relaxation Schallfeld
– Spin-Gitter- 343 – Konturen 243
– Spin-Spin- 343 Schallgeschwindigkeit 226, 228
Relaxationsmechanismen 343 Schallimpedanz 229
Relaxationsprozess 344 Schallintensität 229
Relaxationsrate 347 Schichtanregung, selektive 351
Relaxationszeit 345 Schichtdicke 103, 260
Relaxivität 347 Schichtdickenfilter 120
Repetition Time 348, 363 Schichtprofil 354
Rephasierung der Isochromate 350 Schichttechnik 115, 130
Resolution 525 Schlaganfall-Diagnostik 451
Resonanz 337 Schleifringtechnologie 67, 83
Resonanz, kernmagnetische 329, 341
Schlüssellochchirurgie 457
Retinopathie 483
Schmalband-MPI 427
Reziprozitätstheorem 342, 418
Schnelle 226
RF-Ablation 565
Schwächung durch Absorption 164
RF-Anregung 341
Schwächungsgesetz 17
RF-Puls 337
Schwächungskoeffizient 18
Richtig-Positiv-Rate, TPF 607
Schwächungskoeffizient, linearer 177
Risiko
Schwächungskorrektur, CT-basierte 187
– attributives 209
Schwärzungskurve 34
– relatives 209
Schwenken 259
Röhrenspannung 103
Scout View 91
Röntgenbildverstärker 37
Röntgenfluoroskopie 37 Screening 6, 221
Röntgengenerator 30 Segmentierung 514
Röntgenröhre 12, 26 Sehweite, deutliche 579
Röntgen-Strahler 29, 30 Selbstabsorption 72
Röntgenstrahlung Selektionsfeld 430
– Detektion 72 Sende-Empfangsweiche 250
Röntgenverordnung, RöV 54, 213 Sendefokussierung 257
Rotationsbewegung 158 Sendespule 337
Rotationsform 158 SENSE-Technik 377
Rotationswinkel 158 Sensitivität 181
Rotationszentrum 168 Sequenz 348
Rückfaltung 361, 377, 381 Shannon-Theorem 357, 361
Rückprojektion 121, 446 Shift-and-Add-Algorithmus 118
– gefilterte 79, 116, 122 Shimming 387
– ungefilterte 118 Short Wavelength Infrared Imaging Band,
Rückprojektion, nichtlineare 123 SWIR 522
Sidelobes 271
S Sievert 139
Sättigung 381 Signalamplitude der
Scankonvertierung 263 Gradientenecho-Sequenz 368
Scanning-Laser-Ophthalmoskopie 485 Signal-Rausch-Verhältnis 45, 125, 181, 267, 390
Scanogram 91 Signal-to-Noise Ratio, SNR 390, 601
650 | Sachwortverzeichnis
W Z
Wandfilter 287 Zeeman-Effekt 332
Wärmeleitung 520 Zeitauflösung 145, 152
Wechselwirkungstiefe 179, 186 Zentrum, ektopes 413
Wehnelt-Zylinder 28 Zerfallsgesetz 138
Weichteilfenster 93 Zerstörung 366
Weißlichtinterferometrie 472 Zoom 158
Welle, homogene, ebene, monofrequente 228 Zoom-System 581
Wellenfeld 243 – Abbildung, afokale 582
Wellengleichungen 228 – Kompensator 582
Wellenlänge 229 – Variator 582
Wellenzahl 229 Zustandsgleichung 227
Wiederholzeit 348, 363 Zweikopf-Steuerung 32